Probabilités (Année spéciale) Cours S4. Version du 28 décembre 2011

Dimension: px
Commencer à balayer dès la page:

Download "Probabilités (Année spéciale) Cours S4. Version du 28 décembre 2011"

Transcription

1 Probabilités (Année spéciale) Cours S4 Version du 28 décembre 2011 Université Paul Sabatier - Toulouse 3 IUT de Toulouse 3 A Département GEA PONSAN Clement Rau clement.rau@iut-tlse3.fr

2 Table des matières 1 Définitions de base - Dénombrements Opérations ensemblistes Généralités Réunion d ensembles Intersection d ensembles Complémentaire d un ensemble Inclusion Opérations ensemblistes et Opérations logiques Ensemble fini Définitions Cardinal Cardinal d un produit cartésien Dénombrements Nombre de partie d un ensemble fini La notion de p-listes Les arrangements Les combinaisons Formule du binôme de Newton Probabilités pour un Univers Discret Ensembles, Univers, événements Probabilités d événements Équiprobabilité Probabilités Equiprobabilités Indépendance Probabilités conditionnelles Variable aléatoire discrète Variable aléatoire Définition générale Variables aléatoires discrètes Variables aléatoires continues Loi d une variable aléatoire discrète Définition

3 TABLE DES MATIÈRES Fonction de répartition Paramètres d une loi Espérance mathématique Variance Propriétés de l espérance et de la variance Couple de variables aléatoires discretes Définition Lois marginales Covariance Indépendance Lois conditionnelles Lois discrètes usuelles Loi uniforme sur {1,..., n} Loi de Bernoulli Loi binomiale B(n, p) Loi de Poisson Approximation d une loi de Poisson par une Binomiale Variables aléatoires continues, loi normale Loi d une variable aléatoire continue Définitions Problématique de la notion de loi dans le cas continu Fonction de répartition et loi à densité Lois à densité classiques Loi uniforme Lois exponentielles La loi normale Loi normale centrée réduite N (0, 1) Loi normale générale N (µ, σ 2 ) La Loi normale comme limite en loi Lois dérivées de la loi Normale Loi du Khi-deux Loi de Student Une introduction aux Théorémes limite en Probabilités Loi des grands nombres Un premier pas : Loi faible des grands nombres Loi forte des grands nombres Théorème central limite Quelques applications Marcheur dans Z Intervalle de confiance lors d élections Introduction aux tests statistiques (le test du Chi 2)

4 TABLE DES MATIÈRES 4 6 Annexe Tables Loi Normale N (0; 1) Table loi du Chi

5 Introduction Tandis que la statistique peut être assimilée à une analyse, parfois très précise, de données et est basée sur des valeurs connues, le but de la théorie des probabilités est de modéliser au mieux les issues éventuelles d expériences futures (en ne se basant en général sur les résultats d études statistiques). Contrairement à la plupart des autres branches des mathématiques, elle repose fortement sur la notion d incertitude et est ainsi consacrée à l étude de phénomènes aléatoires. Les probabilités permettent d évaluer les degrés de prévision d événements possibles mais non certains, et introduisent une notion intermédiaire entre sûr et impossible. Cette théorie ne permet pas de prédire ce qu il peut se passer sur une expérience aléatoire isolée, parcontre si l on répéte cette expérience de manière indépendante et un grand nombre de fois, la théorie permet de cerner certaines quantités. Les probabilités permettent ainsi l établissement de critères objectifs de mesure de l incertitude qui conduisent parfois à des paradoxes célèbres saluant les défaillances de notre intuition cartésienne dans ce domaine. Un autre avantage de cette théorie est qu elle offre un cadre naturel d analyse pour des systèmes trop complexes pour que l on puisse en saisir tous les éléments (grandes populations, systèmes de particules, ordinateurs, comportements collectifs, marchés boursiers etc.). Ainsi, la connaissance, même parfaite, d un échantillon de population ne peut conduire à une certitude totale, mais seulement à une incertitude qui peut être estimée et quantifiée en terme de probabilités. Ces notes de cours restant bien évidemment perfectibles, je remercie toute personne me rapportant des coquilles, erreurs ou commentaires. 5

6 Chapitre 1 Définitions de base - Dénombrements Le formalisme probabiliste, tel qu il est établi aujourd hui, décrit les issues possibles de tout phénomène, aléatoire ou non, en termes ensemblistes, dont nous rappelons brièvement ici la signification. 1.1 Opérations ensemblistes Généralités Les ensembles seront principalement notés à l aide de lettres majuscules A, B, C, D etc., tandis que les objets qui les composent, ses éléments, seront désignés par des lettres minuscules i, j, k, l, x, y etc. Pour signifier l appartenance d un élément i à un ensemble A, on dit parfois que i est dans A, on le note i A. Si au contraire un élément i n appartient pas à A, on note i / A Réunion d ensembles La réunion de deux ensembles A et B, notée A B, est l ensemble constitué des éléments de A et des éléments de B. On a toujours A = A = A. Propriété 1 (Commutativité) Propriété 2 (Associativité) A B = B A A (B C) = (A B) C := A B C Intersection d ensembles L intersection de deux ensembles A et B, notée A B, est l ensemble constitué des éléments étant à la fois dans A et dans B. On a toujours A = A =. 6

7 CHAPITRE 1. DÉFINITIONS DE BASE - DÉNOMBREMENTS 7. Lorsque A et B n ont aucun élément en commun, on dit qu ils sont disjoints et on note A B = Propriété 3 (Commutativité) A B = B A Propriété 4 (Associativité) A (B C) = (A B) C := A B C Propriété 5 (Distributivité) A (B C) = (A B) (A C) A (B C) = (A B) (A C) Complémentaire d un ensemble Soit Ω un ensemble et A une partie de Ω. Le complémentaire de A dans Ω, noté Ω \ A, ou A lorsqu il n y a pas d ambiguité sur Ω (ou encore A c ), est l ensemble constitué des éléments de Ω qui ne sont pas éléments de A. On appelle aussi parfois Ω privé de A l ensemble Ω \ A. Par ailleurs, on a toujours A A = Ω et A A =. Propriété 6 (Lois de Morgan) Inclusion A B = A B (1.1) A B = A B (1.2) Si tous les éléments d un ensemble A sont aussi éléments d un autre ensemble B, on dit que A est inclus dans B et on le note A B. On dit aussi que A est un sous-ensemble de B. On a toujours A A B; A B A; A B A B; A Opérations ensemblistes et Opérations logiques On peut dès à présent noter le lien entre ces opérations et les opérations (ou connecteurs) logiques OU, ET et NON : Un élément de A B est un élément qui appartient à A OU à B. Un élément de A B est un élément qui appartient à A ET à B. Un élément de A est un élément qui n appartient PAS à A. Attention 1 Le connecteur logique OU mentionné correspond à un ou inclusif : A B est l ensemble des éléments qui sont dans A, ou dans B mais qui peuvent être dans les 2.

8 CHAPITRE 1. DÉFINITIONS DE BASE - DÉNOMBREMENTS Ensemble fini Définitions Définition 1 On appelle ensemble fini un ensemble ayant un nombre fini d éléments distincts. Définition 2 Le nombre d éléments d un ensemble fini A est appelé cardinal de A, noté card [A]. Exemple 1 E = {a, b, c} et card [E] = Cardinal Propriété 7 Soient A et B deux ensembles finis quelconques, card [A B] = card [A] + card [B] card [A B]. Si A et B sont disjoints, c est-à-dire que A B = alors, card [A B] = card [A] + card [B]. Corollaire 1 Soit A est un sous ensemble de E. card [ Ā ] = card [E] card [A] Cardinal d un produit cartésien Définition 3 Soient E et F deux ensembles, le produit cartésien noté E F est l ensemble de tous les couples (x; y) où x est élément de E et y élément de F. Attention 2 E F est différent de F E. Théorème 1 Si E et F sont finis, on a : card [E F ] = card [E] card [F ] 1.3 Dénombrements Dans le cadre d un ensemble fini E, la problématiques consiste en : la constitution des collections d ensembles ou d applications ayant une caractéristique commune (cas favorable), comptabiliser le nombre d objets constituant cette collection. Le dénombrement ne s applique qu à des ensembles finis et fait intervenir deux critères fondamentaux pour la constitution et la distinction des objets a denombrer : la répétition et l ordre. Définition 4 (Répétition) Lors de la constitution des collections, chaque élément de E peut etre utilisé plusieurs fois. Définition 5 (Ordre) Pour distinguer deux collections, on peut tenir compte de l ordre des éléments qui les composent. Remarque 1 Si l on autorise la répétition on doit nécessairement faire intervenir l ordre.

9 CHAPITRE 1. DÉFINITIONS DE BASE - DÉNOMBREMENTS Nombre de partie d un ensemble fini Propriété 8 Soit E n un ensemble contenant n éléments. Il y a 2 n parties disctincts de E. Démonstration : Il existe diverses démonstrations de cette propriétés. On peut par exemple utiliser un arbre et faire une correspondance entre une feuille et une partie. On peut également utiliser la formule du binôme de Nenwton La notion de p-listes Définition 6 Soit E n un ensemble contenant n éléments. Une p-liste d éléments de E n, est une liste ordonnée de p éléments de E n avec répétitions possible. Propriété 9 (Expression du nombre de p-listes) Le nombre de p-liste distinctes est égal à n p. Exemple 2 Considérons l ensemble E = {1, 2, 3, A, B} correspondant aux différentes touches d un clavier de digicode dont le code est une succession de 3 caractères issus de E. Combien y-a-t-il de code différents? Ce sont les 3-listes de E il y en a 5 3 soit Les arrangements Considérons E n un ensemble fini contenant n éléments différents et p un entier naturel inférieur ou égal à n. Définition 7 Un arrangement à p éléments de E n est un échantillon ordonné sans remise de p éléments différents de E n. Propriété 10 (Expression du nombre d arrangements) Le nombre d arrangements à p éléments de E n noté A p n est égal à : A p n = n (n 1) (n 2) (n p + 1) Démonstration : Pour le premier élément, on a n choix possibles. Le premier étant fixé, pour le deuxième élément, on a (n 1) choix possibles le tirage étant sans remise. Le premier et le deuxième étant fixés pour le troisième élément, on a (n 2) choix possibles... et ainsi de suite jusqu au pième élément, pour lequel on a [n (p 1)] = n p + 1 choix possible. On a donc bien arrangements à p éléments de E n. n (n 1) (n 2) (n p + 1)

10 CHAPITRE 1. DÉFINITIONS DE BASE - DÉNOMBREMENTS 10 Définition 8 On appelle factorielle n le produit des n premiers entier : avec la convention 0! = 1. n! = n (n 1) (n 2) 1 Propriété 11 Démonstration : A p n = n! (n p)! n (n 1) (n 2) (n p + 1) = = n (n 1) (n p + 1) (n p) 1, (n p) 1 n! (n p)!. Remarque 2 n! est une touche de la plupart des calculatrices. Exemple 3 Un joueur se demande combien il peut écrire de grilles différentes de tiercé pour une course de 16 chevaux. Il y a 16 possibilités pour le premier, 15 pour le second et 14 pour le troisième. On n accepte pas les répétitions et on tient compte de l odre, il s agit d arrangements et on a donc A 3 16 = = 3360 possibilités. Définition 9 (Les permutations) Une permutation de E n est un échantillon ordonné sans remise des n éléments différents pris dans E n. C est donc le cas particulier d un arrrangement de n éléments de E n. Propriété 12 Le nombre de permutations de E n est donc égal à : P n = n! Exemple 4 Si le joueur de tiercé a précedemment choisi les 3 chevaux qu il va jouer mais ne sait pas dans quel ordre il va les placer, il a 3! choix possibles c est à dire = 6 possibilités de tiercé Les combinaisons Soit E n un ensemble fini contenant n éléments différents et p un entier naturel inférieur ou égal à n. Définition 10 Une combinaison à p éléments de E n est un échantillon non ordonné sans remise de p éléments différents de E n. C est un sous ensemble à p éléments de E n. Dans une combinaison de p éléments, les p éléments sont distincts et non ordonnés. Propriété 13 (Expression du nombre de combinaisons) Le nombre de combinaisons à p éléments de E n noté Cn p est égal à : Cn p n! = p! (n p)!

11 CHAPITRE 1. DÉFINITIONS DE BASE - DÉNOMBREMENTS 11 Démonstration : On considère les p premiers éléments de E n. Avec ces p éléments on peut former p! arrangements et ces p! arrangements donnent une seule combinaison or on peut former A p n arrangements avec les n éléments de E n. on a donc Ap n p! combinaisons différentes de E n. Remarque 3 Si p = 0 alors on a une seule combinaison à zéro élément : la partie vide. Si p = n alors on a une seule combinaison à n éléments de E n : la partie E n. Si p = 1 alors on a n combinaisons à un élément de E n, les n sous-ensembles à un élément dee n. Exemple 5 Nous avons vu ci-dessus avec l exemple du joueur de tiercé que quand on a choisi sans ordre une partie de 3 éléments parmi 16, il reste 3! = 6 manières d ordonner cette partie. Par exemple si on choisit la partie (2,7,9) on peut lui associer les 6 permutations : (2,7,9), (2,9,7), (7,2,9), (7,9,2), (9,2,7) et (9,7,2). En d autres termes il est possible de regrouper les arrangements par paquets de 6 correspondant à la même partie. Le nombre d arrangements (ordonnés) de 3 éléments parmi 16 est donc égal à 6 fois le nombre de combinaisons (non ordonnées) de 3 éléments parmi 16. On a donc une application du Principe des bergers : Propriété 14 (Formules de calcul) C 3 16 = A3 16 3!. C p n = C n p n C p n = C p 1 n 1 + Cp n 1 Démonstration : 1. Choisir les p éléments que l on veut dans un ensemble de n éléments revient exactement à choisir les n p éléments que l on ne veut pas, d où le résultat. Mathématiquement, on a : C n p n = = n! (n p)![n (n p)]!, n! p!(n p)!, = C p n. 2. Soit E une ensemble de n élément. Soit A l un de ces éléments. Pour choisir p éléments de E, je peux soit prendre A et en choisir p-1 autres parmi les n-1 restants (j ai alors C p 1 n 1 possibilités), soit laisser A et en prendre p autres parmi les n 1 restants (j ai alors C p n 1 possibilités). D où le résultat. Mathématiquement, on a C p 1 n 1 + Cp n 1 = (n 1)! (p 1)!(n p)! + (n 1)! (p)!(n p 1)!, = = p(n 1)! (n p)(n 1)! +, p!(n p)! p!(n p)! (p + n p)(n 1)!, p!(n p)! = C p n.

12 CHAPITRE 1. DÉFINITIONS DE BASE - DÉNOMBREMENTS 12 Remarque 4 Quand n > p 2 il est plus rapide de calculer Cn p n que C p n. Par exemple : C32 2 = C32, 30 C = 2 1, C = Triangle de Pascal Les formules de calcul ci-dessus nous donne une méthode de calcul des combinatoire par récurrence appelé triangle de pascal : Formule du binôme de Newton Théorème 2 Soient a et b deux réels : (a + b) n = n Cna k k b n k. k=0 Démonstration : Par récurrence sur n. Pour n = 0 la propriété est immédiate puisque 1 = 1. Supposons la propriété vraie pour n et regardons si elle est vraie pour n + 1.

13 CHAPITRE 1. DÉFINITIONS DE BASE - DÉNOMBREMENTS 13 (a + b) n+1 = (a + b) n (a + b) = a(a + b) n + b(a + b) n n n = Cna k k b n k + b Cna k k b n k = k=0 n Cna k k+1 b n k + k=0 On considère maintenant k = k + 1, on a : (a + b) n+1 = n+1 k =1 = a n+1 + = a n+1 + = a n+1 + = n+1 k=0 C k 1 n a k b n k +1 + n k =1 n k=1 k=0 n Cna k k b n k+1 k=0 n Cna k k b n k+1 k=0 C k 1 n a k b n k +1 + ( C k 1 n n Cna k k b n k+1 + b n+1 k=1 + Cn k ) a k b n k+1 + b n+1 n Cn+1a k k b n k+1 + b n+1 k=1 C k n+1a k b n k+1. La propriété est donc vraie pour n + 1. Par le principe de raisonnement par récurrence, la propriété est vraie pour tout entier n. Remarque 5 On peut également démontrer cette propriété de manière ensembliste, en developpant et en s intéressant au nombre de terme en a k b n k...

14 Chapitre 2 Probabilités pour un Univers Discret 2.1 Ensembles, Univers, événements Le formalisme probabiliste est une branche relativement nouvelle des mathématiques qui se base donc sur la théorie des ensembles. Dans cette théorie, les issues des expériences dont on veut évaluer les chances relatives sont formalisées en termes d événements dont la réalisation est l aboutissement d un ensemble de causes antérieures. Le hasard est parfois vu comme l ensemble de ces causes que l on ne peut pas maîtriser, qui sont alors dites aléatoires. Dans le cas de systèmes physiques complexes, elles sont souvent le reflet de notre ignorance. Définition 11 Les événements sont des ensembles que l on manipule à l aide d opérations ensemblistes élémentaires et qui représentent les issues possibles de l expérience aléatoire considérée. Définition 12 On parle d événement élémentaire lorsqu il s agit du résultat d une expérience aléatoire menant à une solution unique, et l ensemble des événements élémentaires forment ce que l on nomme l univers des possibles, ou tout simplement l univers noté Ω. Les événements non-élémentaires dont on peut vouloir évaluer les chances ou probabilités sont exprimés en termes d opérations ensemblistes de réunions, d intersections, ou de complémentaires. Ces opérations correspondent également aux opérations logiques OU, ET et NON. Ainsi, si l on considère deux événements (élémentaires ou non) représentés par les ensembles A et B, l événement consistant à obtenir A OU B est représenté par l ensemble A B, qui est la réunion de A et de B. De même, l événement consistant à obtenir A ET B sera représenté par l intersection A B, tandis que la négation de l événement A sera son complémentaire A c ou A. Cette négation est l événement qui consiste à ne pas obtenir A. Exemple 6 (jet d un dé à six faces) L univers est Ω = {1, 2, 3, 4, 5, 6}, avec pour événements élémentaires : obtenir un 1 noté {1}, obtenir un 2 noté {2},..., obtenir un 6 = {6}. 14

15 CHAPITRE 2. PROBABILITÉS POUR UN UNIVERS DISCRET 15 Tous les événements dont on calculera la probabilité peuvent être obtenus par manipulations ensemblistes des événements élémentaires précédents. Par exemple, l événement obtenir un résultat pair consiste à obtenir un 2, un 4 ou un 6 et sera noté au choix {2, 4, 6} = {2} {4} {6}. L écriture en termes d événements élémentaires sera primordiale pour les calculs de probabilités et permet de représenter un très grands nombre d événements. On notera par exemple obtenir un resultat 3 = {1, 2, 3} = {1} {2} {3}. De même, l événement obtenir un résultat pair, (et) inférieur ou égal à 3 sera noté {2, 4, 6} {1, 2, 3} = {2}. Le contraire d un événement A correspond à son événement complémentaire noté A c ou A. Pour l exemple précédent, ne pas obtenir un nombre pair sera noté {2, 4, 6} = {2, 4, 6} c = Ω \ {2, 4, 6} = {1, 2, 3}. Tout événement impossible est représenté par l ensemble vide et deux événements A et B sont dits incompatibles ou disjoints si A B =, tandis que l ensemble Ω lui-même est qualifié d événement certain. Lorsque cet univers est fini ou infini dénombrable, on parle de probabilités discrètes et de probabilités continues dans le cas contraire. 2.2 Probabilités d événements Équiprobabilité Probabilités Définition 13 La probabilité associée à une expérience aléatoire est une fonction qui à un événement associe un nombre réel compris entre 0 et 1, sa probabilité : P : P(Ω) [0, 1] A P[A] où P(Ω) est l ensemble de toutes les parties possibles de l univers Ω (i.e. l ensemble de tous les événements possibles de l expérience aléatoire concernée). Une probabilité est d abord construite par une évaluation des probabilités des événements élémentaires. Lorsqu il y en a un nombre fini x 1,..., x n, et donc pour un univers Ω = {x 1,..., x n } de cardinal n, on obtient à l aide des statistiques ou parfois à l aide d hypothèses réalistes, une famille de nombres (p i ) i=1..n compris entre 0 et 1 et tels que pour chaque événement élémentaire A i = obtenir i, p i = P[A i ] [0, 1]. On étend ensuite cette probabilité sur tous les événements possibles en respectant les règles intuitives élémentaires suivantes érigées en axiomes :

16 CHAPITRE 2. PROBABILITÉS POUR UN UNIVERS DISCRET 16 Définition 14 (Axiomes des probabilités) Evénement certain : P[Ω] = 1. Evénement impossible : P[ ] = 0 Additivité : Si A et B sont des événements incompatibles, i.e. A B =, P[A B] = P[A] + P[B]. La somme des probabilités des événements élémentaires doit ainsi être égale à 1 : p i = 1. Propriété 15 Pour des événements non disjoints, l additivité devient i P[A B] = P[A] + P[B] P[A B]. En revanche, on n a pas en général d expression pour la probabilité de l intersection. En particulier, on n a pas de factorisation du type P[A B] = P[A] P[B]. Lorsque cela sera le cas, on dira que les événements A et B sont indépendants Equiprobabilités Définition 15 Les événements élémentaires sont dits équiprobables, si toutes les probabilités élémentaires p i sont identiques. Cette hypothèse est en général émise à partir d études statistiques l indiquant, souvent par simple soucis de bon sens, et parfois seulement grâce au calculs des probabilités élémentaires à l aide de calculs combinatoires (dits de dénombrements ). En cas d équiprobabilité, et seulement dans ce cas, on pourra évaluer la probabilité d un événement A par P[A] = Card(A) Card(Ω) c est à dire le rapport du nombre de cas favorables sur le nombre de cas possibles. Attention 3 C est loin d être le cas en général. Exemple 7 Revenons à l exemple de l expérience du jet d un dé à six faces, les événements élémentaires sont notés A i pour i = 1,..., 6 et l hypothèse d équiprobabilité, émise lorsque le dé n est ni truqué, ni faussé, conduit aux mêmes probabilités élémentaires p i = P[A i ] = P[obtenir i] = 1 6 puisque la taille de l univers des événements élémentaires est de 6 et que chaque événement élémentaire A i est un singleton (i.e. un ensemble restreint à un élément). Définition 16 On dit qu une famille d événements (A i ) i I forme une partition de l univers lorsqu ils sont disjoints (A i A j =, i j I) et qu ils recouvrent Ω ( i I A i = Ω). Propriété 16 L ensemble des événements élémentaires forment une partition particulière de l univers Ω.

17 CHAPITRE 2. PROBABILITÉS POUR UN UNIVERS DISCRET 17 En appliquant la règle d additivité et l axiome de l événement certain, on obtient la formule suivante, valide pour toute probabilité, i.e. lorsque les axiomes des probabilités sont vérifiés (Et donc pas seulement en cas d équiprobabilité) : Théorème 3 (Formule des probabilités totales (I) ) Pour toute partition (A i ) i I, et tout événement B, on a : P[B] = P[B A i ]. (2.1) i I Démonstration : Comme i I A i = Ω, on a i I (B A i ) = B et les événements A i B et A j B sont disjoints pour j i. Par conséquent, on a : P[B] = P[ i I (B A i )], = i I P[B A i ]. Exemple 8 Dans le cas d un jet de dé, la partition élémentaire de l univers en Ω = 6 i=1{i} = {1} {2} {3} {4} {5} {6} donne par exemple p 1 + p 2 + p 3 + p 4 + p 5 + p 6 = = 1. Exemple 9 Un autre exemple de partition est donné par la paire {A, B} et les événements A = obtenir un résultat pair et B= obtenir un résultat impair. On a en effet A B = Ω et A B =, et on peut vérifier la formule des probabilités totales P[A] + P[B] = 1 puisque P[A] = p 2 + p 4 + p 6 = 3 6 = 1 2 et P[B] = p 1 + p 2 + p 3 = 3 6 = 1 2. Cette propriété est également générale et permet d obtenir que pour toute probabilité P, la probabilité du complémentaire d un événement A. Propriété 17 P[A] = 1 P[A] Démonstration : {A, A} est une partition de Ω. Exemple 10 Probabilité de tirer au moins 2 en lancant les dés. A = {X 2} = {X = 2} {X = 3} {X = 4} {X = 5} {X = 6}, Ā = {X = 1} P[A] = 1 P[A] = = 5 6

18 CHAPITRE 2. PROBABILITÉS POUR UN UNIVERS DISCRET 18 Probabilité de tirer au moins une fois pile en lancant n fois une piece. A = { 1 fois pile ou 2 fois pile ou... n fois pile }, Ā = {0 fois pile } = {n fois face} P[A] = 1 P[A] = n Avec de telles propriétés, on vérifie aisément qu une probabilité possède une propriété de monotonie par inclusion : Propriété 18 A B = P[A] P[B]. Si A est inclus dans B, on dit parfois que A implique B, et il est alors intuitif que la probabilité de A est inférieure à celle de B (B sera toujours réalisé lorsque A le sera, et sa probabilité ne pourra être que supérieure ou égale). 2.3 Indépendance Une hypothèse primordiale en théorie des probabilités est l hypothèse d indépendance. Elle est parfois réaliste ou simplificatrice selon les expériences. Définition 17 On dit que deux événements A et B sont indépendants lorsque P[A B] = P[A] P[B]. (2.2) La seule manière de prouver l indépendance est de prouver cette formule d une manière ou d une autre, le plus souvent en calculant les diverses probabilités impliquées dans (2.2). Remarque 6 Le mot indépendance utilisé doit être compris dans le sens où l obtention de l un n a aucune influence sur l obtention de l autre. On verra ceci plus clairement avec la notion de probabilités conditionnelles. Parfois, cette indépendance est une hypothèse pour simplifier les modèles ou pour suivre une intuition. Exemple 11 Considérons par exemple deux jets de dés successifs. Une hypothèse naturelle consiste à considérer ces événements comme étant indépendants de manière à pouvoir écrire que pour les événements A : obtenir un six au 1er jet et B= obtenir un six au 2e jet P[A B] = P[A] P[B] = = 1 36 de sorte que, sous l hypothèse d indépendance des deux jets, la probabilité d obtenir un double six est évaluée à , soit environ 2.78%. On peut également découvrir que deux événements issus de la même expérience aléatoire sont indépendants. Pour l expérience d un seul jet de dé, on constate pour les événements A= obtenir un jet 4 et B= obtenir un jet pair, on a P[A] = 2 3, P[B] = 1 2, P[A B] = P[{2, 4}] = 1 3

19 CHAPITRE 2. PROBABILITÉS POUR UN UNIVERS DISCRET 19 et P[A] P[B] = = 1 3. Ces événements sont donc indépendants, puisque l on constate l égalité P[A B] = P[A] P[B], reflétant ainsi l idée que savoir que l on a un résultat impair n influence pas les chances d obtenir un résultat inférieur ou égal à 4. Si par contre on considère C= obtenir un jet 3, les événements B et C ne sont pas indépendants car P[B C] = P[{2}] = 1 6 et P[B] P[C] = = 1 4. Intuitivement, cela se justifie par un lien entre C et B : il y a moins d éléments pairs (donc de B ) en dessous de 3 (donc dans C ) que dans l univers. Exemple 12 Une autre situation usuelle d application de l hypothèse d indépendance est fourni par des tirages au sort successifs avec ou sans remise. Lorsque le tirage est effectué avec remise du premier élément tiré au sort, on se retrouve dans une situation identique lors du second tirage au sort et le résultat du premier n influence en rien celui du second. On considère donc que deux tirages successifs avec remise sont indépendants. Lorsque le tirage est au contraire effectué sans remise, l élément tiré lors du premier tirage ne peut plus être tiré lors du second, diminuant par exemple les probabilités d obtenir un élément partageant avec lui certaines propriétés. Les résultats des deux tirages sont liés et on considère donc que deux tirages successifs sans remise ne sont pas indépendants. 2.4 Probabilités conditionnelles Lorsque les événements ne sont pas indépendants, la probabilité de l un n est pas la même selon que l autre est réalisé ou non. Exemple 13 On pourra prendre l exemple de la pluie et du vent. Il y a plus de chances qu il pleuve s il y a du vent plutôt qu en absence de vent. Définition 18 Si P[B] 0 alors on appelle probabilité conditionnelle de A sachant B : P[A B] = P[A B]. P[B] Attention 4 Il convient de ne pas confondre P[A B] et P[A B] P[A B] évalue les chances d obtenir A lorsque l on sait que B est réalisé tandis que P[A B] évalue les chances de voir A et B de se réaliser simultanément. Dans le 1er cas, on évalue les chances de A sur une sous population, celle pour laquelle B est réalisée, et on pondère la probabilité de l intersection en fonction de la taille de B : plus B est important, i.e. plus P[B] est grand, plus A B a des chances de se réaliser, ceci quelle que soit l importance de A. En comparant la probabilité d avoir A ET B avec celle d avoir B, on obtient un nombre P[A B] entre 0 et 1 qui évalue les

20 CHAPITRE 2. PROBABILITÉS POUR UN UNIVERS DISCRET 20 chances que A soit réalise sachant que B est réalisé. Lorsque B est fixé, cela détermine une nouvelle probabilité P B : P(Ω) [0, 1] A P B [A] := P[A B]. Il s agit d une probabilité car elle vérifie les axiomes des probabilités. Les deux notations P[A B] et P B [A] sont équivalentes et seront utilisées en fonction des circonstances. En particulier, lorsqu il s agit d utiliser les axiomes des probabilités (pour par exemple utiliser l additivité), on préfèrera la notation P B. La connaissance des probabilités conditionnelles permet d obtenir une expression pour la probabilité de l intersection : Propriété 19 Pour tous événements A et B on a : P[A B] = P[A B]P[B] = P[B A]P[A]. Exemple 14 est : En lancant un dé, la probabilité de tirer 4 sachant que l on a un nombre pair P[4 pair] = 1 3 1/6 1/2 = 2 6 Dans un jeu de 32 carte, la probabilité de tirer un roi sachant que l on a tirer un coeur est de : Exemple 15 P[roi coeur] = 1 8 1/32 8/32 = 1 8 P[4 ET pair] = P[4] = 1 6 P[4 pair] P[pair] = = 1 6 P[pair 4] P[4] = = 1 6 Propriété 20 (Formule de Bayes) Si P[A] 0, alors on a : P[B A] = P[A B]P[B]. (2.3) P[A] Exemple 16 On consière la population d un pays. Cette population est composée de 47% d hommes et de 53% de femmes. Parmi les femmes, 40% sont blondes. Parmi les hommes, 30% sont blonds. On prend une personne au hasard. Quelle est la probabilité des évenements suivants :

21 CHAPITRE 2. PROBABILITÉS POUR UN UNIVERS DISCRET Quelle est la probabilité que ce soit une femme? 2. Quelle est la probabilité que ce soit un homme? 3. Quelle est la probabilité que ce soit une femme blonde? 4. Quelle est la probabilité que ce soit un homme blond? 5. Quelle est la probabilité que ce soit une femme, sachant que cette personne est blonde? 6. Quelle est la probabilité que ce soit une blonde, sachant que cette personne est une femme? Pour résoudre ce problème, on peut utiliser un schéma ou un tableau. Commencons en utilisant un schéma, et en considérant un ensemble de personnes. Sur ces personnes, il ya femmes et hommes. Sur les hommes, 30% sont blonds, soit 1410 hommes blonds. Sur les femmes, 40% sont blondes, soit 2120 femmes blondes. On a donc le schéma suivant : On retrouve ces résultats par un tableau : homme femme blond 0, 47 0, 3 = 0, 141 0, 53 0, 4 = 0, 212 0,353 pas blond 0, 47 0, 7 = 0, 329 0, 53 0, 6 = 0, 318 0,647 On peut maintenant répondre aux questions : 1. Quelle est la probabilité que ce soit une femme? Il y a 53% de femmes, soit une probabilité de 0, Quelle est la probabilité que ce soit un homme? Il y a 47% d hommes, soit une probabilité de 0,47. 0,47 0, Quelle est la probabilité que ce soit une femme blonde? Il y a 2120 femmes blondes sur personnes, soit une probabilité de 0, Quelle est la probabilité que ce soit un homme blond? Il y a hommes blonds sur personnes, soit une probabilité de 0, Quelle est la probabilité que ce soit une femme, sachant que cette personne est blonde? Il y a femmes blondes sur personnes blondes, soit une probabilité de , 6. On pouvait aussi le calculer en utilisant la formule : P[femme/blonde] = P[femme blonde] P[blond] = 0, 212 0, 6 (2.4) 0, 3530

22 CHAPITRE 2. PROBABILITÉS POUR UN UNIVERS DISCRET Quelle est la probabilité que ce soit une blonde, sachant que cette personne est une femme? Il y a femmes blondes sur femmes, soit une probabilité de = 0, 4. On pouvait aussi le calculer en utilisant la formule : P[femme/blonde] = On retrouve bien les 40% de l énoncé. P[femme blonde] P[f emme] = 0, 212 0, 53 0, 4 (2.5) Les probabilités conditionnelles permettent également d obtenir une seconde forme de la formule des probabilités totales : Théorème 4 (Formule des probabilités totales (I) ) Pour toute partition (A i ) i I, et tout événement B, on a : P[B] = P[B A i ]. (2.6) i I Propriété 21 (Formule des probabilités totales (II)) Pour toute partition (A i ) i I, et tout événement B, on a : P[B] = P[B A i ] P[A i ]. (2.7) i I Remarque 7 En couplant la formule de Bayes et la formule des probabilités totales (II) à la partition (A, Ā), on obtient version très utile en pratique de la formule de Bayes suivante : Si P[A] 0, alors on a : P[B A] = P[A B]P[B] P[A B]P[B] + P[A B]P[B]. (2.8) La formule de Bayes est très importante et utile en probabilités car elle permet de tromper de mauvaises intuitions dues à une vision trop équiprobable du monde. Remarque 8 On peut voir qu il s agit de comprendre la formule de Bayes comme une moyenne pondérée et que nos intuitions sont souvent mises à mal lorsque l un des événement du conditionnement (B ou A) est relativement rare. Exemple 17 On estime qu une personne ayant correctement révisé ses cours pour cet examen a une probabilité de 20% d échouer à l examen. En revanche, on estime qu une personne n ayant pas révisé ses cours a une probabilité de 60% d échouer à cet examen. On sait aussi que 50% des personnes ont correctement révisé leurs cours et 50% n ont pas correctement révisé leurs cours. Une personne passe deux fois de suite cet examen et échoue par deux fois mais affirme pourtant avoir parfaitement réviser. Est-ce plausible? Appelons E l événement echouer 2 fois, A l événement la personne a révisé ses cours. La probabilité de E sachant A est P[E A] = (0, 20) 2 = 0, 04. La probabilité de E sachant Ā est P[E Ā] = (0, 60)2 = 0, 36.

23 CHAPITRE 2. PROBABILITÉS POUR UN UNIVERS DISCRET 23 A priori, on suppose que la personne qui a échoué 2 fois à l examen a correctement révisé avec une probabilité de 0,50. On a donc P(A) = P(B) = 0, 50. La formule de Bayes donne alors : P[A B] = P[B A]P[A] P[B A]P[A] + P[B Ā]P[Ā] Probabilité d avoir réviser sachant que l on a échoué 2 fois = 0,10. Probabilité de ne pas avoir réviser sachant que l on a échoué 2 fois = 0,90. Il y a donc une probabilité de 0,90 que la personne n a pas révisé. Ce qu elle dit est peu plausible!

24 Chapitre 3 Variable aléatoire discrète 3.1 Variable aléatoire Définition générale Définition 19 On appelle variable aléatoire le résultat d une épreuve aléatoire lorsque l issue de celle-ci peut être représentée par un nombre. Une variable aléatoire est généralement désignée par une lettre majuscule X, Y, etc. et peut également être définie en tant qu application depuis l univers Ω dans R X : Ω R ω X(ω) en considérant ω Ω comme une réalisation particulière de l épreuve en question. L ensemble des valeurs numériques prises par X est pour cette raison noté X(Ω), puisqu il s agit de l image de Ω par X Variables aléatoires discrètes Définition 20 On appelle variable aléatoire discrète une variable aléatoire qui ne prend que des valeurs ponctuelles ( isolées ). Exemple 18 Résultat d un jet de dé. Le résultat X est une variable aléatoire X : Ω ω X(ω) à valeur dans X(Ω) = {1, 2, 3, 4, 5, 6} Lancer de 2 pièces de monnaies identiques dont l issue est P (pour pile) et F (pour face). L univers Ω = {P P, P F, F P, F F } n est pas composé de grandeur numériques mais on peut par exemple s intéresser au nombre de fois où face (F) est apparu, définissant ainsi une variable aléatoire X : Ω {0, 1, 2} R définie par le tableau 24

25 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 25 Ω PP PF FP FF X Cette application ne prenant qu un nombre fini de valeurs, la variable aléatoire X est discrète avec X(Ω) = {0, 1, 2}. Les évènements {X = x i } (x i étant une valeur possible de X), engendrés par les différentes valeurs prises par une variable aléatoire constituent les évènements élémentaires de X. Les évènements élémentaires de l exemple précédent seront ainsi notés {X = 0} ( Aucun face n a été tiré ), {X = 1} ( Un face a été tiré ) et {X = 2} ( Deux faces ont été tirés ). On définit donc naturellement des variables aléatoires en associant un nombre à chaque évènement élémentaire. Comme on le verra, l étude systématique des variables aléatoires fournit un cadre théorique d étude des phénomènes aléatoires Variables aléatoires continues Définition 21 On appelle variable aléatoire continue une variable aléatoire dont l ensemble des valeurs est R ou une réunion d intervalles de R. Exemple 19 Durée de vie d une ampoule éléctrique : Bien que n étant pas éternelle, on considère souvent qu une ampoule éléctrique peut avoir n importe quelle durée de vie et qu elle peut tomber en panne ou ne pas tomber en panne à tout moment. Aucune durée n est exclue et la variable X qui la représente est une variable aléatoire continue dont l ensemble des valeurs est R + = [0, + [. D une manière plus réaliste, les ampoules ont une durée de vie maximale D et X est une variable aléatoire continue à valeurs dans l intervalle X(Ω) = [0, D], mais la durée maximale étant souvent inconnue, on considère généralement X(Ω) = R +. Étude de la taille dans une population donnée : Si on considère sur une population de taille N dont on note t i la taille de chaque individu i (i = 1,..., N), la variable X qui dénote la taille d un individu de la population pris au hasard, l ensemble des valeurs prises par X est l ensemble discret X(Ω) = {t 1, t 2,..., t N }. Néanmoins, la taille d un individu pouvant a priori prendre toute valeur réelle positive, on considère pour étudier des populations en général que X peut également prendre toutes les valeurs réelles et est donc une variable continue à valeurs dans R + (ou dans un sous-intervalle si on veut considérer une taille maximale). Dans la suite de ce chapitre, on ne considerera que des variables aléatoires discrètes. 3.2 Loi d une variable aléatoire discrète Définition Définition 22 La loi d une variable aléatoire discrète X est une probabilité P X définie sur ses évènements élémentaires par l application P X : X(Ω) [0, 1] x P X (x) := P[{X = x}].

26 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 26 On note invariablement P[{X = x}], P[X = x], P X (x) ou p(x) la probabilité que X prenne la valeur x. On vérifie aisément que cette application est bien une probabilité dont l univers est l ensemble X(Ω) des valeurs prises par X. Exemple 20 Si on reprend l exemple d un dé à six faces équilibrées, et que X représente le résultat d un jet, on a X(Ω) = {1, 2, 3, 4, 5, 6} et directement P X [X(Ω)] = P X [{1, 2, 3, 4, 5, 6}] = P[X {1, 2, 3, 4, 5, 6}] = 1. De même, l axiome de l évènement impossible (P X [ ] = 0) et de l additivité pour des évènements disjoints sont vérifiés. Donner la loi d une variable aléatoire revient alors à donner les probabilités des évènements élémentaires qu elle induit, et on présente souvent ces données sous forme d un tableau, en notant d une manière générale X(Ω) = (x i ) i=1,...,n = (x 1, x 2,..., x N ) pour une variable aléatoires à N valeurs possibles (qui ne sont pas forcément 1, 2,..., N), X x 1 x 2... x N P X p 1 p 2... p N où l on note respectivement p 1 = P X (1) = P[X = 1], p 2 = P X (2) = P[X = 2],..., p N = P X (N) = P[X = N]. Ce tableau peut se représenter graphiquement par un diagramme en bâtons. Exemple 21 Ω = {P P, F P, P F, F F }, X = nombre de Face x P X (x) 1/4 1/2 1/ Fonction de répartition Définition 23 Une loi de probabilité est souvent définie à partir de sa fonction de répartition F : F : R [0, 1] x F (x) = P[X x] parfois également appelée fonction cumulative car on cumule les probabilités de toutes les valeurs inférieures ou égales à x.

27 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 27 Dans le cas discret, il suffit d additionner les probabilités élémentaires : F (x i ) = P[X x i ] = P[X = x 1 ] + + P[X = x i ] = p 1 + p p i. Propriété 22 Si X est une variable aléatoire discrète de fonction de répartition F, alors on a les propriétés suivantes : F est une fonction en escalier avec lim x F (x) = 0 et lim x + F (x) = 1. F est une fonction croissante. Pour tous a, b R et a < b, F (b) F (a) = P[a < X b]. La croissance se déduit de ce dernier point puisque si a < b, F (b) F (a) = P[a < X b] [0, 1] est en particulier positif. Exemple 22 Dans l exemple du nombre de Face en 2 lancers, on obtient la courbe en escalier suivante : 3.3 Paramètres d une loi Espérance mathématique Définition 24 L espérance mathématique E[X] d une variable aléatoire X joue le rôle dévolu à la moyenne en statistiques : elle correspond à la valeur moyenne espérée par un observateur lors d une réalisation de la variable aléatoire X. Les valeurs prises par cette variable sont pondérées par les probabilités des évènements élémentaires de sorte que l on définit N N E[X] = p i x i = x i P[X = x i ] i=1 i=1 lorsque X peut prendre N valeurs différentes x 1,..., x N p i = P[X = x i ]. avec comme probabilités élémentaires

28 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 28 Exemple 23 Lors du lancer de 2 pièces, le nombre de face moyen ou espéré correspond à l espérance mathématique de la variable aléatoire X déja introduite, donnée par E[X] = = 1 Propriété 23 Si X est une variable aléatoire discrète et f une fonction à valeurs réelles définie sur X(Ω), alors Y = f(x) est aussi une variable aléatoire définie sur le même espace de probabilité Ω. Connaissant la loi de X, on peut alors déterminer la loi de Y. Exemple 24 Par exemple, si Y = X 2, on a P Y (y) = P[Y = y] = 0 pour y < 0, et pour y 0, P Y (y) = P[Y = y] = P[ X = y] = P[{X = y} {X = y}] = P[{X = y}] + P[{X = y}] = P X ( y) + P X ( y) On peut déterminer l espérance de Y à partir de sa loi, mais également directement à partir de celle de X grâce à la formule E[f(X)] = f(x)p X (x). x X(Ω) Remarque 9 L espérance E[X] n est qu un indicateur moyen et ne peut caractériser la loi une variable aléatoire à lui tout seul Variance Pour décrire plus précisément le comportement de X, sans pour autant caractériser complètement la loi de X, on peut s intéresser aux écarts de X par rapport à cette moyenne. Cependant, si on considère simplement la différence X E[X], on obtient un écart moyen E[X E[X]] = 0 (par linéarité de l espérance, voir 3.3). On pourrait considérer la valeur moyenne de X E[X] mais on préfère considérer la moyen de (X E[X]) 2, plus pertinente mathématiquement. Définition 25 La variance mesure ainsi la déviation moyenne autour de la moyenne espérée E[X], et est définie par V[X] = E [( X E[X] ) 2] N = p i (x i E[X] ) 2. Propriété 24 (formule de Koenig) Elle est toujours positive puisqu il s agit de l espérance d un carré. On a l expression suivante : V[X] = E[X 2 ] (E[X]) 2. (3.1) Définition 26 Pour mesurer la dispersion d une variable aléatoire X, on considère souvent en statistiques l écart-type, lié à la variance par : i=1 σ X = V(X). (3.2)

29 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 29 Exemple 25 Lorsque X est le nombre de face obtenu lors du lancer de 2 pièces équilibrées, la variance est V[X] = 1 4 (0 1) (1 1) (2 1)2 = 1 2. Le lien entre la variance et le dispersion moyenne autour de la moyenne peut être explicité grâce à l inégalité de Bienaymé-Tchebychev (cf (3.5)) Propriétés de l espérance et de la variance Propriété 25 (Linéarité de l espérance) Si X et Y sont deux variables aléatoires définies sur le même univers Ω et a, b deux réels, En particulier, E[aX] = ae[x]. E[aX + by ] = ae[x] + be[y ]. (3.3) Propriété 26 (Non-linéarité de la variance) Pour toute variable aléatoire X et a, b R V(aX + b) = a 2 V[X]. Propriété 27 (Inégalité de Markov) Soit X une variable aléatoire positive d espérance finie, alors pour tout a > 0 P[X a] 1 E[X]. (3.4) a Propriété 28 (Inégalité de Bienaymé-Tchebychev) Soit X une variable aléatoire réelle de variance finie, alors pour tout a > 0 P[ X E[X] a] 1 V(X). (3.5) a2 3.4 Couple de variables aléatoires discretes Définition Définition 27 Un couple aléatoire discret est un couple (X, Y ) de variables aléatoires définies sur le même univers Ω et à valeurs dans X(Ω) Y (Ω) = {(x, y) : x X(Ω), y Y (Ω)}. Par la suite, on notera {X = x, Y = y} pour désigner l évènement élémentaire {X = x} {Y = y}. Définition 28 On appelle loi de probabilité ou loi jointe de (X, Y ), l application P XY de X(Ω) Y (Ω) dans [0, 1] qui à chaque couple d évènements élémentaires (x, y) associe la probabilité P XY (x, y) = P[X = x, Y = y]. Dans la pratique, ces probabilités jointes sont données à l aide d un tableau à double entrée dont les lignes correspondent au valeurs possibles x i X(Ω) prises par X, les colonnes à celles y i Y (Ω) prises par Y, et l élèment de la ligne i et colonne j à la probabilité jointe P XY (x i, y j ) :

30 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 30 X Y y 1 y 2... y j... y N x 1 P XY (x 1, y 1 ) P XY (x 1, y 2 ) P XY (x 1, y j ) P XY (x 1, y N ) x 2 P XY (x 2, y 1 ) P XY (x 2, y 2 ) P XY (x 2, y j ) P XY (x 2, y N )... x i P XY (x i, y 1 ) P XY (x i, y j ) P XY (x i, y N )... x n P XY (x n, y 1 ) P XY (x n, y j ) P XY (x n, y N ) Exemple 26 Une urne contient 3 boules numérotées {1, 2, 3}. On tire successivement, sans remise et équiprobablement deux boules de l urne. Soit X et Y les numéros obtenus aux 1er et 2nd tirages. Les résultats du 2nd dépendent trivialement de ceux du 1er. Pour déterminer la loi du couple, on utilise les probabilités conditionnelles pour écrire P XY (x, y) = P[X = x, Y = y] = P[Y = y X = x] P[X = x]. La loi du couple est alors donnée par le tableau suivant x y /6 1/6 2 1/6 0 1/6 3 1/6 1/6 0 D une manière générale, on peut calculer l espérance d une fonction f des deux variables X et Y grâce à la loi du couple en écrivant E[f(X, Y )] = f(x, y) P XY (x, y) Lois marginales (x,y) X(Ω) Y (Ω) Il se peut que connaissant la loi du couple on ne veuille s intéresser qu à une seule de ses coordonnées : on parlera alors de loi marginale. Définition 29 Soit (X, Y ) un couple aléatoire discret. On appelle loi marginale de X l application P X de X(Ω) dans [0, 1] définie pour tout x X(Ω) par P X (x) = P[X = x] = P XY (x, y). On définit de manière analogue la loi marginale de Y. y Y (Ω) Exemple 27 Dans l exemple précédent, la loi marginale de X est ainsi obtenue en sommant les lignes du tableau de la loi jointe, et est donnée par le tableau x P X (x) 1/3 1/3 1/3 tandis que l on obtient la loi marginale de Y en sommant les colonnes : y P Y (y) 1/3 1/3 1/3

31 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE Covariance Définition 30 Soit (X, Y ) un couple aléatoire discret. On appelle covariance de (X, Y ), notée Cov(X, Y ), le nombre réel Cov(X, Y) = E[(X E(X)) (Y E(Y)]. (3.6) On peut également la calculer à l aide d une formule de type Koenig : Cov(X, Y) = E[XY] E[X] E[Y]. Elle permet de quantifier un lien entre les 2 variables marginales X et Y via le coefficient de corrélation ρ XY donné lorsque σ X et σ Y sont non nulles par : ρ XY = Cov(X, Y) σ X σ Y. (3.7) Ce coefficient de corrélation est très utile pour déterminer le lien entre deux caractères en statistiques descriptives Indépendance Les lois marginales se calculent simplement à partir de la loi du couple. Par contre, il est en général impossible de calculer la loi du couple à partir de ses lois marginales. Le cas simple de variables aléatoires réelles indépendantes permet cependant de retrouver la loi du couple mais c est loin d être le cas en général. Définition 31 Soit (X, Y ) un couple aléatoire discret. On dit que les variables aléatoires X et Y sont indépendantes lorsque tous leurs évènements élémentaires le sont deux à deux, i.e. (x, y) X(Ω) Y (Ω), P XY (x, y) = P X (x) P Y (y). Dans ce cas, les variables sont également non corrélées, c est à dire que ρ XY = Cov(X, Y ) = 0. La réciproque est fausse en général. Propriété 29 Si X et Y sont deux variables aléatoires indépendantes, alors E[XY ] = E[X] E[Y ], V[X + Y ] = V[X] + V[Y ] = V[X Y ]. La réciproque est fausse : deux variables aléatoires vérifiant une des relatione précédentes, peuvent ne pas être indépendantes. (exo : fabriquer un contre ex) Lois conditionnelles Définition 32 Soit (X, Y ) un couple aléatoire discret. On appelle loi conditionnelle de X sachant Y, l application p X Y de X(Ω) dans [0, 1] définie pour tout (x, y) X(Ω) Y (Ω) par p X Y [x y] = P[X = x Y = y] = P XY (x, y). P Y (y) On définit de manière analogue la loi conditionnelle de Y sachant X.

32 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 32 Exemple 28 Dans l exemple précédent, la loi conditionnelle de Y sachant que le chiffre 1 a été tiré au premier tirage est donnée par le tableau suivant : y P Y X [y 1] 0 1/2 1/2 On peut également calculer la loi du couple (la loi jointe) à partir des lois conditionnelles en toutes circonstances, et en particulier qu il y ait indépendance ou non, grâce au théorème suivant. Théorème 5 Soit (X, Y ) un couple aléatoire discret. La formule des probabilités composées permet d écrire P XY (x, y) = P X (x) P Y X (y x) si P X (x) 0 P XY (x, y) = P X (y) P X Y (x y) si P X (y) 0 0 sinon. En particulier, lorsque X et Y sont indépendantes, les probabilités conditionnelles se confondent avec les lois jointes : P X Y (x y) = P X (x) et P Y X (y x) = P Y (y). 3.5 Lois discrètes usuelles On considère une variable aléatoire discrète X sur un univers quelconque Ω. Lorsque X prend n valeurs, l ensemble X(Ω) des valeurs prises par X est désigné par (x i ) i=1...n, i.e. (x 1, x 2,..., x i,..., x n ),, et (x i ) i N lorsque X en prend une infinité. Le comportement aléatoire de X peut être très différent selon les phénomènes étudiés, et toute forme de loi est a priori envisageable. Cependant, certains paramètres objectifs de caractérisation (moyenne, dispersion, etc.) permettent de dégager des comportements récurrents et des familles de lois qui permettent une modélisation approchée raisonnable de la plupart des phénomènes alétoires courants. Nous décrivons ici les lois discrètes les plus importantes, à travers certains exemples de modèlisations Loi uniforme sur {1,..., n} Elle modélise des situations d équiprobabilité. Définition 33 On dit qu une variable aléatoire X suit une loi uniforme discrète lorsqu elle prend ses valeurs dans {1,..., n} avec des probabilités élémentaires identiques. Puisque la somme des ces dernières doit valoir 1, on en déduit qu elles doivent toutes être égales à un 1/n : k = 1... n, P[X = k] = 1 n. On note également ces probabilités p k, p(k) ou P X (k). Ces probabilités élémentaires sont en particulier indépendantes de la modalité k. Propriété 30 (Espérance et variance) On calcule aisément E[X] = n + 1, 2 V[X] = n

33 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 33 Démonstration : E[X] = 1. 1 n n n + + +n. 1 n, = 1 n n. k, k=1 = 1 + 1).n(n, n 2 = n n k=1 k = n(n+1) 2 est la somme des premiers termes d une suite arithmétique de raison 1 de premier terme 1. E[X 2 ] = n n n + + +n2. 1 n, = 1 n n. k 2, k=1 = 1 + 1)(2n + 1).n(n, n 6 (n + 1)(2n + 1) =. 6 n k=1 k2 = n(n+1)(2n+1) 6 est un résultat classique qui se démontre par récurrence. V[X] = E[X 2 ] (E[X]) 2, (n + 1)(2n + 1) (n + 1)2 =, 6 [ 4 2n + 1 = (n + 1) n + 1 ], 6 4 [ ] 4n + 2 3n 3 = (n + 1), 12 = (n + 1) n 1 12, = n Exemple 29 X = résultat d un jet de dé à six faces non-pipé. Les n = 6 modalités possibles, x 1 = 1, x 2 = 2, x 3 = 3, x 4 = 4, x 5 = 5, x 6 = 6, ont toutes pour probabilité élémentaire 1/6 : et on peut calculer E[X] = ; V[X] = 12. k = , P X (k) = P[X = k] = 1 6

34 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE Loi de Bernoulli Définition 34 Cette loi est celle de toute variable aléatoire X modélisant une expérience dont l issue ne possède que deux alternatives de type succès ou échec, vrai ou faux, marche ou arrêt, pile ou face, etc. Un succès est représenté par l évènement {X = 1} tandis que X = 0 correspond à un échec X(Ω) = {0; 1}. Puisque l on a P[X = 0] = 1 P[X = 1], la loi de X ne dépend que d un paramètre (la probabilité de succès) ; on parle alors de la loi de Bernoulli de paramètre p caractérisée par P[X = 1] = p, P[X = 0] = 1 p. Propriété 31 (Espérance et variance) Loi binomiale B(n, p) E[X] = p, V[X] = p(1 p). Définition 35 La loi binomiale est la loi de probabilité d une variable aléatoire représentant une série d épreuves de Bernoulli possédant les propriétés suivantes : Chaque épreuve donne lieu à deux éventualités exclusives de probabilités constantes p et q = 1 p. Les épreuves répétées sont indépendantes les unes des autres. La variable aléatoire X correspondante prend pour valeur le nombre de succès dans une suite de n épreuves. Deux paramètres, le nombre d épreuves (identiques mais indépendantes) répétées n et la probabilité p de succès dans lépreuve de Bernoulli en question caractérisent cette loi. Lors d une telle expérience, on dit que X suit une binomiale B(n, p), à valeurs dans X(Ω) = {1, 2,..., n}. Exemple 30 Le nombre X de Pile obtenus au cours de n lancers indépendants d une pièce équilibrée est une variable aléatoire discrète, à valeurs dans {0, 1} et suivant une loi binomiale B(n, p) avec p = 1 2, puisque la probabilité de succès est celle d obtenir un pile, i.e Théorème 6 On a par ailleurs X = X X k + + X n où les X k sont des variables aléatoires de Bernoulli indépendantes de paramètre p, correspondant au succès d une seule épreuve de pile ou face. Exemple 31 Le nombre de boules rouges extraites au cours de n tirages successifs avec remise (pour assurer l indépendance) d une boule dans une urne contenant des boules rouges et blanches dans des proportions p et q = 1 p est une variable aléatoire suivant une loi binomiale B(n, p).

35 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 35 Pour déterminer les probabilités des événements élémentaires d une variable aléatoire suivant une loi binomiale, il nous faut tout d abord déterminer le nombre de possibilités d obtenir k succès au cours de n épreuves. Il s agit de déterminer le nombre de combinaisons (non ordonnées) de k objets pris parmi n, avec bien sûr k n. Les combinaisons sont non ordonnées car seul importe d avoir k objets (succès pour nous) et non pas à quel(s) tirage(s) ces succès ont eu lieu. On connaît le nombre de possibilités de k succès et n échec, (C k n) il suffit de les multiplier par les probabilités de succès et d échec pour obtenir la loi binomiale. On a donc : Propriété 32 Les probabilités élémentaires d une variable aléatoire X suivant une loi binomiale B(n, p) sont données pour tout nombre de succès k = 1... n par : P[X = k] = C k n p k (1 p) n k. Remarque 10 On a bien, en utilisant la formule du binome, n P[X = k] = k=0 Propriété 33 (Espérance et variance) = 1 n Cn k p k (1 p) n k k=0 E[X] = np, V[X] = np(1 p). Démonstration : On a l écriture X = X 1 +X 2 + +X k + +X n, ou les X k sont n variables aléatoires de Bernoulli indépendantes. On a en effet par linéarité de l espérance E[X] = E[X 1 ] + E[X 2 ] + + E[X k ] + + E[X n ] = n E[X 1 ] = n p et par indépendance des variables aléatoires (X k ) k=1...n V[X] = V[X 1 ] + V[X 2 ] + + V[X k ] + + V[X n ] = n V[X 1 ] = n p (1 p) Exemple Un atelier comporte 10 machines identiques. Chaque machine a une probabilité p = 0.01 de tomber en panne à un moment dans la journée. Lorsque l on suppose que les machines tombent en panne de manière indépendantes, la variable aléatoire X désignant le nombre de machines en panne à un moment donné dans la journée suit une loi B(10, 0.01). Le nombre moyen de pannes par jour est donc E[X] = = 0.1, la variance étant V[X] = = Une machine qui a une probabilité p = 0.01 de tomber en panne dans la journée est amenée à fonctionner pendant 20 jours consécutifs. Alors, en supposant l indépendance des pannes, i.e. si l on considère qu après chaque panne la machine est restaurée à l identique, X suit une loi B(20, 0.01).

36 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE Loi de Poisson Lorsque le nombre d épreuves n devient très important, la manipulation de la loi binomiale devient elle très fastidieuse et est parfois remplacée en première approximation par son homologue asymptotique, la loi de Poisson (théorème 7). Celle-ci évalue le nombre aléatoire d évènements de même probabilité pendant une durée donnée. Elle peut modèliser par exemple le nombre d appels reçus par un standard téléphonique, le nombre de voyageurs se présentant à un guichet dans la journée, etc. Pour des raisons tues ici, elle s exprime à l aide de la fonction exponentielle et dépend d un paramètre λ > 0, qui correspond au nombre moyen d occurence du phénomène observé pendant la durée donnée. Plus formellement : Définition 36 Une variable aléatoire X suit une loi de Poisson de paramêtre λ > 0, notée P(λ) lorsque X(Ω) = N et pour tout k N Propriété 34 On admettra que : λ λk P X (k) = P[X = k] = e k! P[X = k + 1] = λ P[X = k] k + 1 Propriété 35 (Espérance et variance) E[X] = λ, V[X] = λ. Exemple 33 Si on sait qu en général un standard téléphonique reçoit 20 appels dans la journée et que l on peut modéliser le nombre aléatoire d appels par une loi de Poisson, on pourra calculer la probabilité d avoir k appels, pour tout k, à l aide des formules données par une loi de Poisson P(20). Remarque 11 Dans la pratique, des tables donnant les probabilités élémentaires pour différentes valeurs du paramètre sont disponibles et utilisées. Propriété 36 Si X 1 et X 2 sont deux variables aléatoires indépendentes suivant respectivement des lois de Poisson P(λ 1 ) et P(λ 2 ), alors X = X 1 + X 2 suit une loi de Poisson P(λ 1 + λ 2 ) Démonstration : λk1 λ1 1 P[X 1 = k 1 ] = e k 1! P[X 2 = k 2 ] = e λ2 λk2 2 k 2!

37 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 37 P[X 1 + X 2 = k] = = = k P[{X 1 = i} {X 2 = k i}] i=0 k P[{X 1 = i}] P[{X 2 = k i}] i=0 k i=0 e λ1 λi 1 = e (λ1+λ2) k λ k i 2 i! e λ2 (k i)! i=0 = e (λ1+λ2) 1 k! = e (λ1+λ2) 1 k! λ i 1 i! k i=0 k i=0 = e (λ1+λ2) (λ 1 + λ 2 ) k k! λ k i 2 (k i)! k! i!(k i)! λi 1λ k i 2 C i nλ i 1λ k i Approximation d une loi de Poisson par une Binomiale La loi de Poisson est souvent utilisée comme approximation de certaines lois binomiales pour de grands échantillons, i.e. des lois binomiales correspondant à des grands nombres n d épreuves de Bernoulli. Il y a bien sûr quelques restrictions dont nous tairons ici les justifications théoriques, et le paramètre de la loi approximante doit être choisi de sorte que l espérance soit celle de la loi binomiale approximée. Définition 37 On dit qu une suite de variables aléatoires (X n : n N) convergence en loi vers la variable aléatoire X si et seulement si on a, pour tout événement A : On notera X n L n X. P[X n A] P[X A] n Remarque 12 Si les variables (X n : n N) et X sont discrètes alors il suffit que pour tout x R, P[X n = x] P[X = x] n Théorème 7 Soient X n B(n, p), Y P(µ). Alors on a : X n L n, p 0, np=µ Y Preuve : exercice!!! (rappel lim n (1 + x n )n = e x.) Exemple 34 Conparaison des fonctions de répartitions d une loi B(100, 0.1) et de celle d une loi P(10).

38 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 38 Remarque 13 Dans la pratique, on considère que l approximation est bonne lorsque n 30, p 0.1 et n p < 15 Exemple 35 (Utilisation du théorème de convergence en loi) Considérons X B(100, 0.1) et Y P(10). Nous sommes sous les hypothèses du théorème 7 (n = , p = 0.1, n p = 10 < 15). Ce théorème nous assure que : P[X = 5] = P[Y = 5] Le premier terme de l égalité est : P[X = 5] = C = 0, 034 Le résultat a été trouvé par informatique la plupart des calculatrices étant incapable de le calculer contrairement à l autre terme : P[Y = 5] = 105 exp( 10) 5! = 0, 037 Exemple 36 Conparaison des fonctions de répartitions d une loi B(100, 0.5) et de celle d une loi P(50).

39 CHAPITRE 3. VARIABLE ALÉATOIRE DISCRÈTE 39 Remarque 14 Il existe d autres résultats de convergence en loi notamment le théorème de la limite centrale 9 page 46.

40 Chapitre 4 Variables aléatoires continues, loi normale 4.1 Loi d une variable aléatoire continue Définitions Définition 38 On appelle variable aléatoire continue une variable aléatoire dont l ensemble des valeurs est R ou une réunion d intervalles de R Problématique de la notion de loi dans le cas continu Sa loi, c est à dire la description des valeurs probables de X (avec quantification de ces probabilités) est plus brièvement qualifiée de loi continue. La description d une loi continue diffère de celles des lois discrètes puisque pour une variable aléatoire continue X, la probabilité que X prenne une valeur bien précise x P X (x) = P[X = x] est nulle. Il y a en effet une infinité de valeurs dans R ou dans un intervalle, et au regard de toutes ces valeurs précises, le poids de la valeur particulière est tellement insignifiant qu il en est nul! Il n est ainsi pas possible de définir la loi de X par la donnée des probabilités des événements élémentaires. Par contre, il est possible de déduire les probabilités que X prenne ses valeurs dans une partie de R à partir de la fonction de répartition qui vaut dans ce cas continu F (x) = P[X x] = P[X < x] Fonction de répartition et loi à densité On considère une variable aléatoire X de fonction de répartition F X Propriété 37 On a les propriétés suivantes : F est une continue, lim x F (x) = 0 et lim x + F (x) = 1, F est une fonction croissante, F (x) = P[X x]. 40

41 CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES, LOI NORMALE 41 Pour tous a, b R et a < b, F (b) F (a) = P[a < X b]. Le défaut de la fonction de répartition (que ne possède pas la notion de loi des variables aléatoires discrètes) est qu elle ne fait pas apparaître l additivité des probabilités. Fort du parallèle que l on peut faire entre probabilités et surfaces, il est très avantageux de restreindre l étude à une classe de variables aléatoires dites à densité. Définition 39 Une variable aléatoire possède une densité si F x est dérivable. La dérivée notée f X est appelée densité de probabilité de la variable aléatoire X. Propriété 38 De ce fait, P[a X b] = b a f X (t)dt, et la probabilité de trouver X dans un intervalle [a, b] donné apparaît comme l aire d une partie du graphique située entre la courbe de la densité f X et l axe des abscisses. Remarque 15 Dans les applications, il n est pas nécéssaire de calculer ces aires à l aide de calculs car des tables de lois recapitulant les valeurs principales existent. Propriété 39 La donnée d une densité f permet donc de décrire complètement notre variable aléatoire en caractérisant sa loi grâce aux propriétés suivantes : x R, f(x) 0. + f(x)dx = 1. P[a < X b] = F (b) F (a) = 4.2 Lois à densité classiques Loi uniforme b a f(x)dx. Cette loi modélise un phénomène uniforme sur un intervalle donné. Définition 40 La v.a. X suit une loi uniforme sur l intervalle borné [a; b] si elle a une densité f constante sur cet intervalle et nulle en dehors. Elle est notée U([a; b]). Sa densité est alors, { 1/(b a) si x [a; b], f(x) = 0 sinon Cette loi est l équivalent continue de la loi discréte equirépartie. Son espérance est E[X] = (b a)/2 et sa variance est V ar(x) = (b a) 2 /12. Le résultat suivant permet d éviter des calculs fastidieux pour déterminer la probabilité uniforme d un intervalle. Propriété 40 Si X est une v.a de loi uniforme sur [a; b] alors pour tout intervalle I de R : P(X I) = l([a; b] I), l([a; b]) où l(j) désigne la longueur de l intervalle J (ex : l([a ;b])=b-a).

42 CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES, LOI NORMALE Lois exponentielles Définition 41 Soit α un réel strictement positif. La v.a X suit une loi exponentielle de paramètre α, notée E(α), si elle admet pour densité : f(x) = αe αx 1 [0;+ [ (x). Son espérance est E(X) = 1/α et sa variance est var(x) = 1/α 2. Les lois exponentielles sont souvent utilisées pour modéliser des temps d attente ou des durées de vie. Par exemple, les temps d attente à partir de maintenant du prochain tremblement de terre, de la prochaine panne d un appareil, de la prochaine désintégration dans un réacteur nucléaire suivent des lois exponentielles. Le paramètre α désigne alors l inverse du temps d attente moyen. 4.3 La loi normale Loi normale centrée réduite N (0, 1) Définition La loi normale, ou loi normale centrée réduite est la loi la plus connue des probabilités, parfois sous le vocable loi de Laplace-Gauss et caractérisée par une célèbre courbe en cloche. Définition 42 La loi normale centrée réduite est une la loi continue, d une v.a. X à valeurs dans X(Ω) = R tout entier, définie à partir de la densité f(x) = 1 e x2 2 2π Il n existe par contre pas d expression simple de sa fonction de répartition autre que la formule intégrale a R, F (a) = a f(t)dt Il s agit de l aire de la surface située sous la courbe et à gauche de l axe vertical x = a (Voir la figure 4.1 page 43). Remarque 16 Dans les pratiques, les probabilités d événements de v.a. suivant une loi normales sont répertoriées dans des tables facilement manipulables. Paramètres Un calcul intégral plus élaboré donne : Propriété 41 (Espérance et variance) E[X] = 0, V[X] = 1.

43 CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES, LOI NORMALE 43 Figure 4.1 A gauche : Densité de probabilité de la loi N (0, 1), à droite sa fonction de répartition Loi normale générale N (µ, σ 2 ) Définition Définition 43 Il s agit d une modification spatiale de la Loi normale : la forme en cloche de la densité est la propriété principale de la famille des lois normales, qui peuvent éventuellement être translatée pour devenir assymétrique d espérance non nulle µ, ou dilatée ou contractée autour de la moyenne en jouant sur la variance σ 2 (Voir la figure 4.2 page 44). La densité est modifiée en f(x) = 1 σ 2π e (x µ) 2 2σ 2 L usage d un changement de variable t = (x µ) σ permet de se ramener à un calcul d intégrale à partir de la loi N (0, 1), ce qui nous permettra de consulter les tables existant pour la loi standard précédente. On a le théorème suivant : Théorème 8 Soit X une variable aléatoire de loi normale N (µ, σ 2 ) et Z la variable aléatoire définie par Z = X µ σ suit une loi normale centrée réduite N (0, 1). Paramètres Le changement de variable donne aussi : Propriété 42 (Espérance et variance) E[X] = µ, V[X] = σ 2.

44 CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES, LOI NORMALE 44 Figure 4.2 Densité de probabilité de la loi normale N (1; 0, 5). Manipulation de la loi normale Remarque 17 On notera Φ la fonction de répartition de la loi normale centrée réduite N (0, 1). On utilise les valeurs de Φ(a) tabulées et le changement de variable pour calculer les valeurs de la fonction de répartition F d une loi normale générale. Exemple 37 Considérons X une v. a. qui suit une loi N (6, 4) et Z une v.a. de loi N (0, 1), on a par exemple F X (7) = P[X 7] = P [ X ] 2 2 = P [ Z 1 ] 2 = Φ ( 1) 2 = Les valeurs ne sont tabulées que pour des valeurs de a positives, mais on s en sort à l aide de la propriété suivante de le fonction de répartition Φ de la loi normale : Propriété 43 Soit Z une v.a. de loi N (0, 1) ; on a alors et en particulier Φ(0) = 1 2. On a par ailleurs Φ( a) = 1 Φ(a) P[ Z a] = 2 Φ(a) 1

45 CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES, LOI NORMALE 45 Exemple 38 P[X > 1] = P [ X 6 > 1 6 ] 2 2 = P [ Z > 5 ] 2 = Φ ( 5) 2 = P[4 X 8] = P [ 1 Z 1 ] = P [ Z 1 ] = 2Φ(1) 1 = Remarque 18 En utilisant les techniques précédentes, on constate tout d abord que la loi normale N (m, σ 2 ) est une loi symétrique autour de l axe médian x = µ. On a ainsi 50% des individus au dessus de la moyenne et 50% en dessous. C est loin d être le cas en général bienque notre intuition nous pousse souvent à le croire, participant à une intuition probabiliste erronée. Exemple 39 Cette loi permet aussi de mieux appréhender le lien entre variance et dispersion : dans un intervalle [m σ, m + σ] de longueur 2σ et centré autour de la moyenne, on peut calculer qu il y a 68% des individus, lorsque qu une v.a. suit une loi N (m, σ 2 ) : P[m σ X m + σ] = 0.68 On établit aussi la règle des 3 σ : 95% d un échantillon représentatif d une loi normale N (m, σ 2 ) est approximativement situé entre m 2σ et m + 2σ. Plus exactement, P[m 1.96σ X m σ] = 0.95 et on a mème 99, 7% des individus entre m 3σ et m + 3σ : P[m 3σ X m + 3σ] = Autrement dit, lorsque l on a une variable aléatoire qui suit une loi normale N (m, σ 2 ), on est pratiquement sûr que la valeur se situera entre m 3σ et m + 3σ. Sommes de v.a. normales indépendentes Propriété 44 Soit X 1 et X 2 deux v.a. indépendentes de lois respectives N (µ 1, σ 2 1) et N (µ 2, σ 2 2). Alors X 1 +X 2 suit une loi normale N (µ 1 +µ 2, σ 2 1 +σ 2 2) et X 1 X 2 suit une loi N (µ 1 µ 2, σ 2 1 +σ 2 2). 4.4 La Loi normale comme limite en loi L importance de la Lois Normale est due à son apparition comme loi limite de nombreux phénomènes, à travers par exemple le célèbre Théorème de la limite centrale.

46 CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES, LOI NORMALE 46 Théorème 9 Soit X 1, X 2,... une suite de variables aléatoires définies sur le même espace de probabilité, suivant la même loi L et indépendantes. Supposons que l espérance µ et l écart-type σ de L existent et soient finis (σ 0). Considérons la somme S n = X X n. Alors l espérance de S n est nµ et son écart-type vaut nσ. Alors Z n = S n nµ σ n converge vers la loi normale centrée réduite N (0; 1) lorsque n tend vers l infini. Corollaire 2 (Théorème de laplace) C est notamment le cas pour une loi de bernoulli b(p) et dans ce cas, S n n est autre que la loi binomiale B(n; p) qui vérifie bien les hypothèses. On a : S n np npq L n U avec U N (0; 1). Dans la pratique, on considère que l approximation est bonne lorsque n 30, p 0.1 et n p > 15 Figure 4.3 Illustration du Théorème de la limite centrale. Exemple 40 (Utilisation du Théorème de la limite centrale) Considérons X B(100, 0.4) et U N (0; 1). On cherche à évaluer P[X 45].

47 CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES, LOI NORMALE 47 Pour ce faire, il suffit d écrire : X P[X 45] = P[ ] 100 0, 4 0, , 4 0, 6 X 40 = P[ 1, 02] 100 0, 4 0, 6 il est facile de voir que les deux événements sont identiques et donc que les deux probabilités sont égales. Maintenant, il suffit de dire que nous sommes sous les hypothèses du théorème 2 (n = , p = 0.4, n p = 40 > 15) et que ce dernier nous assure que : X 40 P[X 45] = P[ 1, 02] 100 0, 4 0, 6 = P[U 1, 02] Par informatique on trouve (la plupart des calculatrices étant incapable de le calculer et aucun étudiant assez courageux pour calculer les 46 termes de la somme...) : 45 P[X = 5] = C i i i i=0 = 0, 869 Une lecture dans la table nous permet d affirmer que : Ce qui est une très bonne approximation. P[U 1, 02] = 0, Lois dérivées de la loi Normale Parfois d autres lois que la loi normale sont utiles dans les approximations (cf. les calculs d intervalle de confiance, de test). Ce sont les lois de Student et du χ 2 (lire khi-deux). Ces lois dépendent d un paramètre n entier, appelé degré de liberté (d.d.l.). De même que pour la loi normale N (0; 1), on disposera de tables pour ces lois Loi du Khi-deux Définition 44 Soient X 1,..., X n des v.a indépendantes de même loi N (0; 1). Posons χ 2 = i=1...n X2 i, par définition la v.a. χ 2 suit une loi du khi-deux à n degré de liberté (abréviation d.d.l.). On note χ 2 (n) cette loi. Quelques Propriétés : - χ 2 0, cette loi n est donc pas symétrique, - χ 2 admet une densité, - E(χ 2 ) = n et var(χ 2 ) = 2n Loi de Student Définition 45 Soient X N (0; 1) et Y χ 2 (n). Posons T = Student à n degré de liberté et on la note T (n). X. Alors T suit une loi de Y/n

48 Chapitre 5 Une introduction aux Théorémes limite en Probabilités En essayant continuellement, on finit par réussir. Donc plus ça rate, plus on a de chances que ça marche. 5.1 Loi des grands nombres La loi des grands nombres est la formulation rigoureuse des faits intuitifs suivants : si on lance un grand nombre de fois une pièce en l air, il y aura en moyenne 50% de piles (et donc aussi 50% de face). Précisons cette remarque. On joue n fois au pile ou face, avec proba p de tomber sur pile. Pour 1 i n on pose X i = 1 {pile}, alors : i=1..n X i = n nb de piles. n Et il semble assez naturel que lorsque n est grand le rapport nb de piles/n tende vers la proba de tomber sur pile, c est à dire précisément p = E(X 1 ). Ainsi dans ce cas particulier, il semble que lorsque n grand, i=1..n X i E(X 1 ). n De même, si on lance un grand nombre de fois un dè à 6 faces en l air, il y aura en moyenne 1/6 ème des faces qui seront, par exemple, des 4 (si la pièce et le dè sont équilibrés). Il existe deux versions de la LGN qui correspondent à deux modes de convergence : la faible où on énonce la convergence en probabilité et la forte avec la convergence presque sûre. (cf. paragraphes suivant pour définition de ces modes de convergence) Un premier pas : Loi faible des grands nombres Théorème 10 Soit (X n ) n N une suite de v.a. réelles deux à deux indépendantes et de même loi tel que E(X1 2 ) <. Alors, ɛ > 0 lim n P( 1 n i=1..n 48 X i E(X 1 ) > ɛ ) = 0

49 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 49 Ce type de convergence s appelle la convergence en probabilité. Autrement dit, la moyenne arithmétique de X 1,..., X n converge en probabilité vers l espérance de X 1. Ce résultat peut etre facilement prouvé à l aide de l inégalité de l inégalité de Bienaymé Tchebychev (cf. feuille d exos), ce qui donne une esquisse d intuition de la véracité de ces propriétés, aux plus motivés d entre vous Loi forte des grands nombres Il existe une version de la loi des grands nombres pour la convergence presque sûre, on parle de la loi forte (car la convergence presque sûre est plus forte que celle en probabilité.) Théorème 11 Soit (X n ) n N une suite de v.a. réelles deux à deux indépendantes et de même loi tel que E( X 1 ) <. Alors, pour presque tout ω, lim n 1 n i=1..n X i = E(X 1 ). On parle de convergence presque sûre (p.s en abrégé). Cela signifie que pour presque chaque réalisation ω, la quantité moyenne arithmétique des X i converge vers E(X 1 ). Attention, la vitesse de convergence dépend du ω. On admet ce Théorème (LGN) fondamental dont les preuves sont beaucoup plus complexes que celles de sa version faible. Exemple 41 Appliquer la loi des grands nombres au jeu du pile ou face. Pour i = 1..n, posez X i = 1 {pile}. Exemple 42 Application : estimation d une proportion inconnue. On se propose d estimer le paramètre p inconnu d une loi de Bernoulli en observant un grand nombre de fois un phénoméne aléatoire de loi de Bernoulli(p), c est à dire en observant les valeurs d une suite de v.a. Xi indépendantes et de loi de Bernoulli(p). Considèrons une urne comportant des boules rouges en proportion inconnue p et des boules vertes (en proportion 1 p). D aprés la LGN, un grand nombre de tirages de boules dans l urne donnera une estimation de la proportion p en comptant (la fréquence du) nombre de boules rouges ainsi tirées. Seulement, quel est le nombre raisonnable de boules à tirer pour avoir une réponse assez précise? Pour répondre à cette question, on peut fabriquer un intervalle dans lequel on est certain que le paramètre p se trouve avec une certaine probabilité. On appelle un tel intervalle, un intervalle de confiance. L inégalité de Bienaymé Tchebychev (cf. feuille d exos) permet de donner un intervalle (exo). [ le paragraphe suivant (avec le TCL) donne également un intervalle] Exemple 43 (Sondage) : Avant le second tour d une élection, opposant les candidats D et G, un institut de sondage interroge au hasard 1000 personnes dans la rue. On note p la proportion d électeurs décidés à voter pour G dans la population totale et on suppose l échantillon de personnes intérrogées représentatif. Dans l échantillon sondé, cette proportion est égale à 0, 54. A l aide de Bienaymé Tchebychev, proposer un intervalle de confiance pour p avec un risque d erreur de 5%. Faut il augmenter la taille de l échantillon pour répondre à la question? 5.2 Théorème central limite On sait maintenant que sous certaines conditions, la moyenne arithmétique X n = i X i/n, de v.a. indépendantes ayant la meme lois converge vers l espérance. On sait donc que X n E(X 1 )

50 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 50 tend vers 0. On aimerait aller à l ordre supérieur et connaitre la vitesse de convergence vers 0. Le (TCL) Théorème central limite répond à la question : Théorème 12 Soit (X n ) n 1 une suite de v.a. réelles indépendantes et de même loi, de moyenne m et d écart type σ. Notons X n = X X n n et Z n les v.a. associées centrées réduites : n( Xn m) Z n =. σ Alors pour tout intervalle [a; b], on a : où Y suit une N (0; 1). On dit que la loi de la v.a. Z n N (0; 1). lim P(Z n [a; b]) = P(Y [a; b]) = 1 b e t2 /2 dt, n 2π = n( X n m) σ a converge en loi vers une normale centreé réduite Autrement dit les sommes renormalisées se comportent asymptotiquement comme la loi normale. De façon générale, l écart entre les moyennes arithmétiques et l espérance (écart qui tend vers 0 par la LGN) se comporte aprés normalisation comme la loi normale (ou bien encore en notant que X n m = 1 n i=1..n (X i m), la moyenne des écarts (renormalisée) tend vers une Gaussienne.) Connaissant la densité de la loi normale, on peut le lire intuitivement comme suit. Si n est assez grand alors Z n est très probablement compris entre -3 et 3 (la probabilité est ). Soit encore : avec grosse probabilité. Remarque 19 X X n n E(X 1 ) [ 3σ n ; 3σ n ], 1. Quelque soit la loi des X i (moment d ordre 1 fini), les sommes renormalisées convergent vers une meme loi limite, la loi Normale, ce qui explique le nom de cette loi et son caractère universel. 2. Le n est nécessaire! Prendre X i N (0; 1) et regarder les variances des 2 termes. 3. En pratique, lorsque l on considère un grand nombre de v.a. indépendantes et de même loi X 1,..., X n, on approxime leur somme S n ou leur moyenne X n par des variables normales suivantes : S n N ( nm; nσ 2) et Xn N ( m; σ 2 /n ), où m = E(X 1 ) et σ 2 = var(x 1 ). 4. Si l on prend X i Bernoulli(p), on retrouve qu une Binomiale approche une Normale. [On a donc deux approximations possibles pour les lois binomiales B(n; p) : celle par une loi de Poisson P(np) lorsque n est grand, p petit et np de l ordre de quelques unités et celle par N (np; np(1 p)) lorsque n est grand. Seule la pratique permet de décider laquelle des deux est la meilleure approximation. ]

51 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 51 Le TCL est fondamental en statistique pour l obtention d intervalles de confiance. Il est à l origine de beaucoup d approximation de lois et permet de se ramener à la loi normale pour laquelle on dispose de tables des valeurs. 5.3 Quelques applications Marcheur dans Z Soit un marcheur aléatoire (imaginez un bonhomme ivrogne) qui se déplace sur l axe Z en sautant aléatoirement à chaque unité de temps (à chaque seconde par exemple) sur un de ces 2 voisins (droite ou gauche). Notons X i sa position à l instant i. On suppose que le marcheur débute à l origine à t = 0, c est à dire X 0 = 0. On a les relations suivantes : pour tout i 0, X i+1 = X i + ɛ i, où les ɛ i { 1, +1} avec P(ɛ = 1) = P(ɛ = +1) = 1/2. On applique le TCL aux ɛ i (qui sont indépendants, de meme lois). On a : E(ɛ i ) = 0 et var(ɛ i ) = 1. On obtient que pour n grand, la loi de Xn n s approxime par une N (0; 1). Ainsi, connaissant la forme de la densité de la normale, on déduit qu avec grosse probabilité le marcheur se trouve dans la boule de centre 0 et de rayon n, au bout d un temps n Intervalle de confiance lors d élections Deux candidats A et B sont en course pour une éléction. Soit p la probabilité de gens votant pour A. A l issue d un sondage sur n personnes, on se propose de donner un intervalle de confiance dans lequel p doit se trouver avec un{ certain pourcentage α. 1 si la personne i vote pour A Pour 1 i n, posons X i = x = 0 sinon. Les X i sont indépendants et suivent des loi de Bernoulli de paramètre p inconnu. On a E(X 1 ) = p et V ar(x 1 ) = p(1 p). Le TCL autorise l approximation (en loi) suivante pour n grand : n p(1 p) ( i X i p) N (0; 1). n D où, pour tout ɛ > 0, on a : P( n p(1 p) ( i X i p) < ɛ) P( Y < ɛ), n

52 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 52 où Y N (0; 1). C est à dire que l on est certain avec le taux α = P( Y < ɛ) que, p [ X p(1 p) n ɛ ; n X p(1 p) n + ɛ ] n Si l on veut par exemple donner une fourchette pour p avec un taux α = 0, 95, on choisit ɛ = 1, 96 ( cf. table de la loi normale). Ainsi avec 95%, on peut affirmer que, p [ X n 1, 96 2 n ; X 1, 96 n + 2 n ] (On a utilisé le fait que pour p [0; 1], p(1 p) 1/4 ) De cette dernière expression, on remarque que si l on augmente la taille n de l échantillon, l intervalle (de confiance) se resserre, ce qui permet de lever éventuellement un indetermination dans le cas où 1/2 [ X n 1,96 2 n ; X n + 1,96 2 n ] Introduction aux tests statistiques (le test du Chi 2) Cette section ne représente qu un survol de la théorie des tests. Introduction générale L une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation d un des paramètres du phénomène. C est pas exemple le but recherché dans la construction d intervalles de confiance. Les statistiques servent aussi à prendre des décisions. Peut on considérer qu un médicament est plus efficace qu un placebo? Le nombre de consultations de Google par seconde suit il une loi de Poisson? Les gènes pilotant la couleur des yeux et ceux des cheveux sont ils sur les mêmes chromosomes? Il y a deux points communs (au moins) à toutes ces questions : leurs réponses sont des oui-non et le phénomène sousjacent est aléatoire. Les tests statistiques vont permettre d apporter une réponse à des questions manichéennes en contrôlant l aléa inhérent à la situation. En statistiques, les deux éventualités sont appelées des hypothèses et sont notées H 0 (hypothèse nulle) et H 1 (hypothèse alternative). Souvent H 1 sera le contraire de H 0. Dans tous les cas, le postulat est qu une et une seule des deux hypothèses est vraie. Un test statistique est un algorithme qui conduit à ne pas rejetter H 0 ou rejetter H 0 à partir des observations du phénomène. L idée de base des tests, est de trouver une statistique (une fonction des observations) dont on connait la loi (ou qui s approxime par une loi connue) si H 0 est vraie et qui ne se comporte pas de la même manière selon que H 0 ou H 1 est vraie. ( le qui s approxime par une loi connue dans la phrase précédente, est en général une conséquence du TCL. On devine ainsi l importance capitale de ce Théorème dans cette théorie.) Il y a deux grands types de tests : les tests paramétriques et les tests non paramétriques (exemple : test du χ 2 ). Un test non paramétrique teste une propriété (indépendance ou pas, homgénéité ou pas ). Un test paramétrique consiste à vérifier si une caractéristique d une population, que l on notera θ, satisfait une hypothèse que l on pose a priori, appelée hypothèse nulle H 0. Il s agit donc de tester un paramètre. Elle est en général de la forme H 0 : θ = θ 0 ou H 0 : θ > θ 0 ou encore H 0 : θ < θ 0. Comme pour les intervalles de confiance, on a besoin pour cela d un échantillon dont les valeurs sont celles prises par n v.a. X 1,..., X n indépendantes de même loi.

53 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 53 Un premier exemple On suppose que la taille d une population suit une loi Gaussienne N ( µ; σ 2). On connait σ 2 mais la valeur µ est inconnue. Certaines circonstances aménent à formuler la question suivante : la moyenne théorique µ est-elle égale à une certaine valeur µ 0? Pour cela, on désire faire le test suivant :H 0 : µ = µ 0 contre H 1 : µ µ 0. Soit un échantillon X 1,..., X n des tailles de n personnes de la population. H 0 implique que X i N ( µ 0 ; σ 2). Ainsi, pour n grand, le TCL donne alors que la v.a. U n := n σ ( X n µ 0 ) N (0; 1). Vu l allure de la densité de la normale centrée réduite, on définit une zone rejet R α de la forme R α =] ; t α [ ] t α ; + [ où le nombre t α est donné par la table N (0; 1) de la v.a. U avec P( U > t α ) = α Si on choisit α = 0, 05, on a t α = 1, 96 d aprés la table N (0; 1). Et si choisit α = 0, 1, on a t α = 1, 645. Il reste alors à calculer la valeur u de U à partir de l échantillon et à décider en fonction de l appartenance de u à R α ou non. Le test du χ 2 { si u R α on rejette H 0 avec un risque d erreur α % si u / R α on ne rejette pas H 0 avec un risque d erreur α % Toujours selon le meme schéma, sous une certaine hypothèse H 0, on construit une statistique (fonction des observations) qui doit tendre vers une loi connue. Dans le test du χ 2, la convergence de la statistique trouvée n est pas une conséquence immédiate du TCL mais c est dans le meme esprit que celle çi se prouve (d où la place de ce test dans cette section). Le test du khi-deux concerne uniquement les lois discrètes, mais on peut l utiliser aussi pour des échantillons continus regroupés en classes. Le modèle de base est toujours un échantillon (X 1,..., X n ) d une loi inconnue. Les classes, notées c 1,..., c k, sont une partition de l ensemble des valeurs possibles. L hypothèse à tester porte sur les probabilités des classes, pour lesquelles on se donne des valeurs théoriques P theo (c 1 )..., P theo (c k ). H 0 : i = 1,..., k, P(X i c i ) = P theo (c i ). Sous l hypothèse H 0 la distribution empirique de l échantillon sur les classes doit être proche de la distribution théorique. La distribution empirique (observée) P obs est celle des fréquences de l échantillon dans les classes : P obs (c j ) = 1 n i=1...n 1 {cj}(x i ) = Nombre de X i tombant dans la classe c j. n On mesure l adéquation de la distribution empirique à la distribution théorique par la distance du khi-deux.

54 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 54 Définition 46 On appelle distance du khi-deux de P theo par rapport à P obs, et on note D χ 2(P theo, P obs ), la quantité : D χ 2(P theo, P obs ) = (P theo (c i ) P obs (c i )) 2 P theo (c i ) i=1...k La distance du khi-deux est donc une moyenne pondérée d écarts quadratiques entre les valeurs de P theo et P obs. Ce n est pas une distance au sens usuel du terme, puisqu elle n est même pas symétrique. La loi de probabilité de D χ 2(P theo, P obs ) n a pas d expression explicite en général. On utilise le résultat suivant : Propriété 45 Sous l hypothèse H 0, la loi de la variable aléatoire nd χ 2(P theo, P obs ) converge quand n tend vers l infini, vers la loi du khi-deux de paramètre k-1. Si l hypothèse H 0 est fausse, alors la variable nd χ 2(P theo, P obs ) tend vers l infini ( appliquer k fois la loi des grands nombres, on obtient un terme linéaire en n). En pratique, la statistique du test du khi-deux se calcule sous la forme suivante : où U = nd χ 2 = i=1...k (n theo (c i ) n obs (c i )) 2, n theo (c i ) n theo (c i ) est l effectif théorique de la classe c i, à savoir le produit np theo (c i ), n obs (c i ) est l effectif observé de la classe c i. On peut distinguer trois types de test du χ 2 : 1. le test du χ 2 d adéquation à une loi de probabilité sur un ensemble fini. Est il raisonnable de penser que les résultats que j observe sont des réalisations i.i.d d une loi (p 1, p 1,..., p k ) sur un ensemble {1, 2,..., k}. Exemple, H 0 : le caractére X suit-il une loi particulière?, 2. le test χ 2 d homogénéité de plusieurs échantillons : deux médicaments ont-ils le même effet (guérison, état stationnaire...) sur la population atteinte? Exemple, H 0 : le caractére X suit-il la même loi dans deux populations données?, 3. le test du χ 2 d indépendance. H 0 : les caractéres X et Y sont-ils indépendants? Ces trois tests ont un principe commun qui est le suivant : on répartit les observations dans k classes dont les effectifs sont notés n 1,obs,..., n k,obs. L hypothèse H 0 permet de calculer les effectifs théoriques, notés n 1,theo,..., n k,theo (n i,theo represente l effectif théorique dans la classe i). On rejette H 0 si les effectifs observés sont trop différents des effectifs théoriques. Pour cela on donc utilise la statistique de test décrite précédement : U = i=1..k (n i,obs n i,theo ) 2 n i,theo. Fait 1 : Le point central est que grace à la propriété 45, on peut prouver que lorsque la taille de l échantillon augmente, la statistique U tend vers la loi d un χ 2 (k 1 m) où k est le nombre de classes et m est le nombre de paramètres estimées nécessaires au calcul des effectifs théoriques (les N i doivent être supérieur à 5).

55 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 55 Figure 5.1 Densité de la loi d un χ 2 (à plus de 3 paramètres). Il faut donc s assurer que les effectifs théoriques sont plus grands que 5 et faire des regroupements de classes si besoin est. A partir de là, on calcule la zone de rejet unilatérale R α = [t α,+ ][ au risque α en déterminant t α dans la table de la loi χ 2 (k 1 m) par P(U > t α ) = α. La règle décision est la suivante : i=1..k si u = (n i,obs n i,theo ) 2 n i,theo appartient à R α, on rejette H 0 i=1..k si u = (n i,obs n i,theo ) 2 n i,theo n appartient pas à R α, on accepte H 0 Remarque Contrairement aux autres tests, les tests du χ 2 n exigent pas de formuler l hypothèse alternative H 1, qui correspond à la négation de H Les effectifs théoriques doivent être supérieurs à 5. Si ce n est pas le cas, il faut regrouper des classes. 3. Dans la statistique U = χ 2 (k 1 m), on manipule des effectifs et non des pourcentages. Exemple A : Adéquation à une loi Exemple a Un croisement entre roses rouges et blanches a donné en seconde génération des roses rouges, roses et blanches. Sur un échantillon de taille 600, on a trouvé les résultats suivants : Couleur Effectif rouges 141 roses 315 blanches 144 Peut on affirmer que les résultats sont conformes aux lois de Mendel? Il s agit de tester H 0 : p rouges = p blanches = 0.25, p roses = 0.5 par exemple au risque α = On dresse alors le tableau suivant : couleur effectifs observés N i effectifs théoriques n i,theo rouges roses blanches Ici, on a k = 3 classes et m = 0 (aucun paramètre à estimer pour pouvoir calculer les effectifs

56 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 56 théoriques) donc k 1 m = 2. On calcule ensuite R α =]t α ; + [ ) l aide de la table du χ 2 (2) et on obtient t = 5, 991. Enfin, on calcule : u = U(ω) = ( ) ( ) ( )2 150 = 1.53 / R α. On propose le non rejet de l hypothèse : on ne peut pas dire que les observations contre- disent la loi de Mendel. Exemple b : On observe le nombre X d accidents journaliers sur une période de 50 jours dans une certaine ville. On obtient : Nombre d accidents Nombre de jours On constate que X = 0.9 et que var(x) = 0, 97. Peut on affirmer que X suit une loi de Poisson au risque α = 0.05? Soit H 0 : X suit une loi de Poisson de paramètre 0.9, on dresse donc le tableau suivant : Nombre d accidents Nombre de jours Nombre de jours théorique e 0.9 = e = au moins (1 e 0.9 ( )) = On a regroupé les 3 dernières classes pour avoir un effectif théorique supérieur à 5 dans la dernière classe. Dans cet exemple, on a k = 3 classes et m = 1 paramètre estimé (à savoir le paramètre λ = X = 0.9 de la loi de Poisson) nécessaire au calcul des effectifs théoriques. Donc k 1 m = 1 est le nombre de d.d.l de U ; On calcule alors R α = [t α ; + [ à l aide de χ 2 (1) et on obtient t α = Pour finir, on calcule u = U(ω) = ( ) ( ) Et donc on ne rejette pas H 0 au risque d erreur ( ) = / R α. Exemple B : Indépendance Soient Y et Z deux v.a. à valeur respectivement dans {1,..., r} et {1,..., s}. La loi de (Y, Z) est donnée par une matrice P = (p i,j ) 1 i r, 1 j s à coefficients positifs dont la somme vaut 1, p i,j = P(Y = i, Z = j). Notons pour 1 i r et 1 j s, p i. = P(Y = i) = p i,1 + p i, p i,s et p.j = P(Z = j) = p 1,j + p 2,j p r,j. Les v.a. Y et Z sont indépendantes si et seulement si, pour tous i et j, on a : p i,j = p i. p.j Soient un échantillon (Y 1, Z 1 ),..., (Y n, Z n ) de ces v.a, on définit alors les v.a. suivantes : N i,j = card{l [1; n]; (Y l, Z l ) = (i, j)}, N i. = N i, N i,s et N.j = N 1,j N r,j. Le fait 1 donne la propriété suivante :

57 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 57 Propriété 46 Avec les notations ci-dessus, U n = { (N i,j Ni.N.j n ) 2 χ 2 ((r 1)(s 1)) en loi si Y et Z indépendantes, N i.n.j + p.s sinon. i=1..r j=1..s n quand n tend vers l infini. Remarque 21 avec les notations du fait 1, on a içi : k = rs et m = r 1 + s 1 (puisque la donnée des r 1 premiers coefficients de la loi de Y donne le dernier et idem pour Z et que la donnée des lois marginales d une loi, détermine la loi du couple). Ainsi, k m 1 = (r 1)(s 1). Exemple c (Yeux et cheveux...) Depuis la terrasse d un café ensoleillée, un statisticien en plein travail a noté les couleurs des yeux et des cheveux de 124 passants. Cheveux Yeux blonds brun roux noir bleus gris marrons Les deux critéres sont ils indépendants au niveau 5%? Soient les 2 v.a. Y : Ω {bleu, gris, noir} et Z : Ω {blond, brun, roux, noir}. on notera i = 1 [resp. 2, 3] pour bleu [resp. gris, noir], et j = a [resp. b, c, d] pour blond [resp. brun, roux,noir]. On calcule les N i. et N.j. On a : N 1. = nombre total de personnes ayant les yeux bleus = = 44, et de même N 2. = 47, N 3. = 33 puis N.a = nombre total de personnes ayant les cheveux blonds = 45, et N.b = 39, N.c = 19, N.d = 21. Enfin, on vérifie que l effectif total n vaut bien 124 avec par exemple i N i.(= 124). On peut alors construire le tableau des effectifs théoriques N i. N.j /n. Cheveux Yeux blonds brun roux noir bleus 44 45/124 15, 97 13, 84 6, 74 7, 45 gris 17, 05 14, 78 7, 2 7, 96 marrons 11, 98 10, 38 5, 06 5, 59 Figure 5.2 Tableau des effectifs théoriques On calcule alors la statistique U n = (25 15,97)2 15,97 + (9 13,84)2 13, (8 5,59)2 5,59 (prop 46) et on trouve U n 15, 08. La table du χ 2 (6) (cf. Annexe) donne P(χ 2 (6) > 12.59) 0.05 (au risque 5%) et donc on rejette l hypothèse d indépendance de la couleur des yeux et de la couleur des cheveux.

58 CHAPITRE 5. UNE INTRODUCTION AUX THÉORÉMES LIMITE EN PROBABILITÉS 58 Exemple C : Homegénéité Les test du χ 2 permettent aussi de tester l homogénéité de plusieurs échantillons. On étudie un caractère pouvant prendre k valeurs A 1, A 2,..., A k (ou k modalités, ou à valeurs dans k classes). On dispose de l échantillons E 1, E 2,..., E l différents. Pour tout i {1,..., k}, on connaît l effectif observé O i,j de la valeur A i dans l échantillon E j. On souhaite tester : H 0 : les échantillons sont issus de la même loi contre H 1 : les échantillons n ont pas même loi. On définit, O i. = O i, O i,l et O.j = O 1,j O k,j, et n = O i,j = O i. = i=1..k j=1..l i=1..k j=1..l O.j O i. représente l effectif observé de la valeur A i parmi la réunion de tous les échantillons et O j. représente l effectif de l échantillon j. On a la propriété similaire au fait 1 : Propriété 47 Avec les notations ci-dessus, U n = { (O i,j Oi.O.j n ) 2 χ 2 ((k 1)(l 1)) en loi si H 0 vraie O i.o.j + p.s sinon i=1..k j=1..l n quand n tend vers l infini. Exemple d (Y a t il un nouvel Omo?) On cherche à invalider la reflexion suivante qui affirme que toute les lessive se valent. On utilise trois lessives appelées A, B et C. Une fois que la machine à laver a effectué son programme, on classe à la sortie du lavage les vetements en trois catégories : très sale (TS), légérement sale (LS) et propre (P). On obtient le tableau suivant : Linge Lessive TS LS P A B C Peut on dire au niveau 5% que toutes les lessives sont identiques?

59 Chapitre 6 Annexe 59

60 CHAPITRE 6. ANNEXE Tables Loi Normale N (0; 1) Figure 6.1 Table de la fonction de répartition

61 CHAPITRE 6. ANNEXE 61 Figure 6.2 Table de l inverse de la fonction de réparition. Lorsque P 0.5, il faut utiliser la colonne de gauche et la ligne supérieure. (Les fractiles sont négatifs). Lorsque P 0.5, il faut utiliser la colonne de droite et la ligne inférieure. (Les fractiles sont positifs.)

62 CHAPITRE 6. ANNEXE Table loi du Chi 2

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités Chapitre 2 Le calcul des probabilités Equiprobabilité et Distribution Uniforme Deux événements A et B sont dits équiprobables si P(A) = P(B) Si il y a équiprobabilité sur Ω, cad si tous les événements

Plus en détail

Cours de Probabilités et de Statistique

Cours de Probabilités et de Statistique Cours de Probabilités et de Statistique Licence 1ère année 2007/2008 Nicolas Prioux Université Paris-Est Cours de Proba-Stat 2 L1.2 Science-Éco Chapitre Notions de théorie des ensembles 1 1.1 Ensembles

Plus en détail

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie... 1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................

Plus en détail

Qu est-ce qu une probabilité?

Qu est-ce qu une probabilité? Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont

Plus en détail

Probabilités. C. Charignon. I Cours 3

Probabilités. C. Charignon. I Cours 3 Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2 Probabilités Table des matières I Petits rappels sur le vocabulaire des ensembles 2 I.1 s................................................... 2 I.2 Propriétés...................................................

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau GEA II Introduction aux probabilités Poly. de révision Lionel Darondeau Table des matières Énoncés 4 Corrigés 10 TD 1. Analyse combinatoire 11 TD 2. Probabilités élémentaires 16 TD 3. Probabilités conditionnelles

Plus en détail

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12 Probabilités. I - Rappel : trois exemples. Exemple 1 : Dans une classe de 25 élèves, il y a 16 filles. Tous les élèves sont blonds ou bruns. Parmi les filles, 6 sont blondes. Parmi les garçons, 3 sont

Plus en détail

Coefficients binomiaux

Coefficients binomiaux Probabilités L2 Exercices Chapitre 2 Coefficients binomiaux 1 ( ) On appelle chemin une suite de segments de longueur 1, dirigés soit vers le haut, soit vers la droite 1 Dénombrer tous les chemins allant

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

P1 : Corrigés des exercices

P1 : Corrigés des exercices P1 : Corrigés des exercices I Exercices du I I.2.a. Poker : Ω est ( l ensemble ) des parties à 5 éléments de l ensemble E des 52 cartes. Cardinal : 5 I.2.b. Bridge : Ω est ( l ensemble ) des parties à

Plus en détail

Exercices sur le chapitre «Probabilités»

Exercices sur le chapitre «Probabilités» Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Pour démarrer Exercices sur le chapitre «Probabilités» Exercice 1 (Modélisation d un dé non cubique) On considère un parallélépipède rectangle de

Plus en détail

Probabilités Loi binomiale Exercices corrigés

Probabilités Loi binomiale Exercices corrigés Probabilités Loi binomiale Exercices corrigés Sont abordés dans cette fiche : (cliquez sur l exercice pour un accès direct) Exercice 1 : épreuve de Bernoulli Exercice 2 : loi de Bernoulli de paramètre

Plus en détail

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles Chapitre 3 Événements indépendants et Probabilités conditionnelles Indépendance Indépendance Probabilité conditionnelle Definition Deux événements A et B sont dits indépendants si P(A B) = P(A).P(B) Attention

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Bureau N301 (Nautile) benjamin@leroy-beaulieu.ch

Bureau N301 (Nautile) benjamin@leroy-beaulieu.ch Pre-MBA Statistics Seances #1 à #5 : Benjamin Leroy-Beaulieu Bureau N301 (Nautile) benjamin@leroy-beaulieu.ch Mise à niveau statistique Seance #1 : 11 octobre Dénombrement et calculs de sommes 2 QUESTIONS

Plus en détail

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr

Plus en détail

Probabilités conditionnelles Loi binomiale

Probabilités conditionnelles Loi binomiale Exercices 23 juillet 2014 Probabilités conditionnelles Loi binomiale Équiprobabilité et variable aléatoire Exercice 1 Une urne contient 5 boules indiscernables, 3 rouges et 2 vertes. On tire au hasard

Plus en détail

Calculs de probabilités

Calculs de probabilités Calculs de probabilités Mathématiques Générales B Université de Genève Sylvain Sardy 13 mars 2008 1. Définitions et notations 1 L origine des probabilités est l analyse de jeux de hasard, tels que pile

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

Statistiques Descriptives à une dimension

Statistiques Descriptives à une dimension I. Introduction et Définitions 1. Introduction La statistique est une science qui a pour objectif de recueillir et de traiter les informations, souvent en très grand nombre. Elle regroupe l ensemble des

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

Exo7. Probabilité conditionnelle. Exercices : Martine Quinio

Exo7. Probabilité conditionnelle. Exercices : Martine Quinio Exercices : Martine Quinio Exo7 Probabilité conditionnelle Exercice 1 Dans la salle des profs 60% sont des femmes ; une femme sur trois porte des lunettes et un homme sur deux porte des lunettes : quelle

Plus en détail

CALCUL DES PROBABILITES

CALCUL DES PROBABILITES CALCUL DES PROBABILITES Exemple On lance une pièce de monnaie une fois. Ensemble des événements élémentaires: E = pile, face. La chance pour obtenir pile vaut 50 %, pour obtenir face vaut aussi 50 %. Les

Plus en détail

Variables Aléatoires. Chapitre 2

Variables Aléatoires. Chapitre 2 Chapitre 2 Variables Aléatoires Après avoir réalisé une expérience, on ne s intéresse bien souvent à une certaine fonction du résultat et non au résultat en lui-même. Lorsqu on regarde une portion d ADN,

Plus en détail

Calculs de probabilités conditionelles

Calculs de probabilités conditionelles Calculs de probabilités conditionelles Mathématiques Générales B Université de Genève Sylvain Sardy 20 mars 2008 1. Indépendance 1 Exemple : On lance deux pièces. Soit A l évènement la première est Pile

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre : Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant

Plus en détail

Probabilités conditionnelles Exercices corrigés

Probabilités conditionnelles Exercices corrigés Terminale S Probabilités conditionnelles Exercices corrigés Exercice : (solution Une compagnie d assurance automobile fait un bilan des frais d intervention, parmi ses dossiers d accidents de la circulation.

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7 Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Les probabilités. Guide pédagogique Le présent guide sert de complément à la série d émissions intitulée Les probabilités produite par TFO.

Les probabilités. Guide pédagogique Le présent guide sert de complément à la série d émissions intitulée Les probabilités produite par TFO. Guide pédagogique Le présent guide sert de complément à la série d émissions intitulée produite par TFO. Le guide Édition 1988 Rédacteur (version anglaise) : Ron Carr Traduction : Translatec Conseil Ltée

Plus en détail

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre

Plus en détail

Chapitre 2. Eléments pour comprendre un énoncé

Chapitre 2. Eléments pour comprendre un énoncé Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Chaînes de Markov au lycée

Chaînes de Markov au lycée Journées APMEP Metz Atelier P1-32 du dimanche 28 octobre 2012 Louis-Marie BONNEVAL Chaînes de Markov au lycée Andreï Markov (1856-1922) , série S Problème 1 Bonus et malus en assurance automobile Un contrat

Plus en détail

Université Paris 8 Introduction aux probabilités 2014 2015 Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

Université Paris 8 Introduction aux probabilités 2014 2015 Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité Université Paris 8 Introduction aux probabilités 2014 2015 Licence Informatique Exercices Ph. Guillot 1 Ensemble fondamental loi de probabilité Exercice 1. On dispose de deux boîtes. La première contient

Plus en détail

Lois de probabilité. Anita Burgun

Lois de probabilité. Anita Burgun Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage

Plus en détail

Annexe commune aux séries ES, L et S : boîtes et quantiles

Annexe commune aux séries ES, L et S : boîtes et quantiles Annexe commune aux séries ES, L et S : boîtes et quantiles Quantiles En statistique, pour toute série numérique de données à valeurs dans un intervalle I, on définit la fonction quantile Q, de [,1] dans

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Introduction au Calcul des Probabilités

Introduction au Calcul des Probabilités Université des Sciences et Technologies de Lille U.F.R. de Mathématiques Pures et Appliquées Bât. M2, F-59655 Villeneuve d Ascq Cedex Introduction au Calcul des Probabilités Probabilités à Bac+2 et plus

Plus en détail

I. Cas de l équiprobabilité

I. Cas de l équiprobabilité I. Cas de l équiprobabilité Enoncé : On lance deux dés. L un est noir et l autre est blanc. Calculer les probabilités suivantes : A «Obtenir exactement un as» «Obtenir au moins un as» C «Obtenir au plus

Plus en détail

NOTIONS DE PROBABILITÉS

NOTIONS DE PROBABILITÉS NOTIONS DE PROBABILITÉS Sommaire 1. Expérience aléatoire... 1 2. Espace échantillonnal... 2 3. Événement... 2 4. Calcul des probabilités... 3 4.1. Ensemble fondamental... 3 4.2. Calcul de la probabilité...

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Corrigé du baccalauréat S Asie 21 juin 2010

Corrigé du baccalauréat S Asie 21 juin 2010 Corrigé du baccalauréat S Asie juin 00 EXERCICE Commun à tous les candidats 4 points. Question : Le triangle GBI est : Réponse a : isocèle. Réponse b : équilatéral. Réponse c : rectangle. On a GB = + =

Plus en détail

Que faire lorsqu on considère plusieurs variables en même temps?

Que faire lorsqu on considère plusieurs variables en même temps? Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites

Plus en détail

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01

Plus en détail

Probabilités (méthodes et objectifs)

Probabilités (méthodes et objectifs) Probabilités (méthodes et objectifs) G. Petitjean Lycée de Toucy 10 juin 2007 G. Petitjean (Lycée de Toucy) Probabilités (méthodes et objectifs) 10 juin 2007 1 / 19 1 Déterminer la loi de probabilité d

Plus en détail

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement

Plus en détail

Probabilités et statistique. Benjamin JOURDAIN

Probabilités et statistique. Benjamin JOURDAIN Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Cours Fonctions de deux variables

Cours Fonctions de deux variables Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Loi binomiale Lois normales

Loi binomiale Lois normales Loi binomiale Lois normales Christophe ROSSIGNOL Année scolaire 204/205 Table des matières Rappels sur la loi binomiale 2. Loi de Bernoulli............................................ 2.2 Schéma de Bernoulli

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Triangle de Pascal dans Z/pZ avec p premier

Triangle de Pascal dans Z/pZ avec p premier Triangle de Pascal dans Z/pZ avec p premier Vincent Lefèvre (Lycée P. de Fermat, Toulouse) 1990, 1991 1 Introduction Nous allons étudier des propriétés du triangle de Pascal dans Z/pZ, p étant un nombre

Plus en détail

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free. Actuariat I ACT2121 septième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement

Plus en détail

EI - EXERCICES DE PROBABILITES CORRIGES

EI - EXERCICES DE PROBABILITES CORRIGES EI 1 EI - EXERCICES DE PROBABILITES CORRIGES Notations 1 Les coefficients du binôme sont notés ( n p 2 Un arrangement de n objets pris p à p est noté A p n 3 Si A est un ensemble fini, on notera A ou card

Plus en détail

LES GENERATEURS DE NOMBRES ALEATOIRES

LES GENERATEURS DE NOMBRES ALEATOIRES LES GENERATEURS DE NOMBRES ALEATOIRES 1 Ce travail a deux objectifs : ====================================================================== 1. Comprendre ce que font les générateurs de nombres aléatoires

Plus en détail

PROBABILITÉS CONDITIONNELLES

PROBABILITÉS CONDITIONNELLES PROBABILITÉS CONDITIONNELLES A.FORMONS DES COUPLES Pour la fête de l école, les élèves de CE 2 ont préparé une danse qui s exécute par couples : un garçon, une fille. La maîtresse doit faire des essais

Plus en détail

Logique. Plan du chapitre

Logique. Plan du chapitre Logique Ce chapitre est assez abstrait en première lecture, mais est (avec le chapitre suivant «Ensembles») probablement le plus important de l année car il est à la base de tous les raisonnements usuels

Plus en détail

Exercices de dénombrement

Exercices de dénombrement Exercices de dénombrement Exercice En turbo Pascal, un entier relatif (type integer) est codé sur 6 bits. Cela signifie que l'on réserve 6 cases mémoires contenant des "0" ou des "" pour écrire un entier.

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Peut-on imiter le hasard?

Peut-on imiter le hasard? 168 Nicole Vogel Depuis que statistiques et probabilités ont pris une large place dans les programmes de mathématiques, on nous propose souvent de petites expériences pour tester notre perception du hasard

Plus en détail

Fluctuation d une fréquence selon les échantillons - Probabilités

Fluctuation d une fréquence selon les échantillons - Probabilités Fluctuation d une fréquence selon les échantillons - Probabilités C H A P I T R E 3 JE DOIS SAVOIR Calculer une fréquence JE VAIS ÊTRE C APABLE DE Expérimenter la prise d échantillons aléatoires de taille

Plus en détail

Les indices à surplus constant

Les indices à surplus constant Les indices à surplus constant Une tentative de généralisation des indices à utilité constante On cherche ici en s inspirant des indices à utilité constante à définir un indice de prix de référence adapté

Plus en détail

FORMULAIRE DE STATISTIQUES

FORMULAIRE DE STATISTIQUES FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Représentation d une distribution

Représentation d une distribution 5 Représentation d une distribution VARIABLE DISCRÈTE : FRÉQUENCES RELATIVES DES CLASSES Si dans un graphique représentant une distribution, on place en ordonnées le rapport des effectifs n i de chaque

Plus en détail

Exemple On lance une pièce de monnaie trois fois de suite. Calculer la probabilité d obtenir exactement deux fois pile.

Exemple On lance une pièce de monnaie trois fois de suite. Calculer la probabilité d obtenir exactement deux fois pile. Probabilités Définition intuitive Exemple On lance un dé. Quelle est la probabilité d obtenir un multiple de 3? Comme il y a deux multiples de 3 parmi les six issues possibles, on a chances sur 6 d obtenir

Plus en détail

Cryptographie et fonctions à sens unique

Cryptographie et fonctions à sens unique Cryptographie et fonctions à sens unique Pierre Rouchon Centre Automatique et Systèmes Mines ParisTech pierre.rouchon@mines-paristech.fr Octobre 2012 P.Rouchon (Mines ParisTech) Cryptographie et fonctions

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Analyse Combinatoire

Analyse Combinatoire Analyse Combinatoire 1) Équipes On dispose d un groupe de cinq personnes. a) Combien d équipes de trois personnes peut-on former? b) Combien d équipes avec un chef, un sous-chef et un adjoint? c) Combien

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Estimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Estimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison Estimation: intervalle de fluctuation et de confiance Mars 2012 IREM: groupe Proba-Stat Estimation Term.1 Intervalle de fluctuation connu : probabilité p, taille de l échantillon n but : estimer une fréquence

Plus en détail

1 TD1 : rappels sur les ensembles et notion de probabilité

1 TD1 : rappels sur les ensembles et notion de probabilité 1 TD1 : rappels sur les ensembles et notion de probabilité 1.1 Ensembles et dénombrement Exercice 1 Soit Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(p(ω)) = 2 4. Soit k n (

Plus en détail

Exercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010

Exercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010 Exercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010 Exercices fortement conseillés : 6, 10 et 14 1) Un groupe d étudiants est formé de 20 étudiants de première année

Plus en détail

SOCLE COMMUN - La Compétence 3 Les principaux éléments de mathématiques et la culture scientifique et technologique

SOCLE COMMUN - La Compétence 3 Les principaux éléments de mathématiques et la culture scientifique et technologique SOCLE COMMUN - La Compétence 3 Les principaux éléments de mathématiques et la culture scientifique et technologique DOMAINE P3.C3.D1. Pratiquer une démarche scientifique et technologique, résoudre des

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

Les devoirs en Première STMG

Les devoirs en Première STMG Les devoirs en Première STMG O. Lader Table des matières Devoir sur table 1 : Proportions et inclusions....................... 2 Devoir sur table 1 : Proportions et inclusions (corrigé)..................

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

INF 162 Probabilités pour l informatique

INF 162 Probabilités pour l informatique Guy Melançon INF 162 Probabilités pour l informatique Licence Informatique 20 octobre 2010 Département informatique UFR Mathématiques Informatique Université Bordeaux I Année académique 2010-2011 Table

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Table des matières. I Mise à niveau 11. Préface

Table des matières. I Mise à niveau 11. Préface Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3

Plus en détail