1 Introduction aux Probabilités



Documents pareils
Coefficients binomiaux

Probabilités sur un univers fini

Qu est-ce qu une probabilité?

Probabilités. C. Charignon. I Cours 3

Cours de Probabilités et de Statistique

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

P1 : Corrigés des exercices

Analyse Combinatoire

Probabilités sur un univers fini

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Couples de variables aléatoires discrètes

Calculs de probabilités

Feuille d exercices 2 : Espaces probabilisés

Travaux dirigés d introduction aux Probabilités

Exemple On lance une pièce de monnaie trois fois de suite. Calculer la probabilité d obtenir exactement deux fois pile.

Exercices sur le chapitre «Probabilités»

Exercices de dénombrement

I. Cas de l équiprobabilité

Probabilités conditionnelles Loi binomiale

Arbre de probabilité(afrique) Univers - Evénement

Calculs de probabilités conditionelles

Moments des variables aléatoires réelles

Objets Combinatoires élementaires

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Introduction au Calcul des Probabilités

4 Distributions particulières de probabilités

Que faire lorsqu on considère plusieurs variables en même temps?

4. Exercices et corrigés

Les probabilités. Chapitre 18. Tester ses connaissances

PROBABILITÉS CONDITIONNELLES

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

Probabilités Loi binomiale Exercices corrigés

PROBABILITES ET STATISTIQUE I&II

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Fluctuation d une fréquence selon les échantillons - Probabilités

La classification automatique de données quantitatives

Université Paris 8 Introduction aux probabilités Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

Probabilités. Une urne contient 3 billes vertes et 5 billes rouges toutes indiscernables au toucher.

INF 162 Probabilités pour l informatique

LES GENERATEURS DE NOMBRES ALEATOIRES

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Intégration et probabilités TD1 Espaces mesurés Corrigé

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Suites numériques 4. 1 Autres recettes pour calculer les limites

Exercices supplémentaires sur l introduction générale à la notion de probabilité

Bureau N301 (Nautile)

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Statistiques Descriptives à une dimension

TSTI 2D CH X : Exemples de lois à densité 1

Simulation de variables aléatoires

Chaînes de Markov au lycée

NOTIONS DE PROBABILITÉS

3. Conditionnement P (B)

Probabilités conditionnelles Exercices corrigés

Espaces probabilisés

1 TD1 : rappels sur les ensembles et notion de probabilité

Limites finies en un point

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Problèmes de dénombrement.

Estimation et tests statistiques, TD 5. Solutions

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Programmes des classes préparatoires aux Grandes Ecoles

Lois de probabilité. Anita Burgun

1. Déterminer l ensemble U ( univers des possibles) et l ensemble E ( événement) pour les situations suivantes.

Andrey Nikolaevich Kolmogorov

Loi d une variable discrète

Développement décimal d un réel

Résolution d équations non linéaires

Pour l épreuve d algèbre, les calculatrices sont interdites.

Suites numériques 3. 1 Convergence et limite d une suite

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Image d un intervalle par une fonction continue

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Texte Agrégation limitée par diffusion interne

Les probabilités. Guide pédagogique Le présent guide sert de complément à la série d émissions intitulée Les probabilités produite par TFO.

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Cours 02 : Problème général de la programmation linéaire

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Triangle de Pascal dans Z/pZ avec p premier

Variables Aléatoires. Chapitre 2

Statistiques II. Alexandre Caboussat Classe : Mardi 11h15-13h00 Salle : C110.

Représentation d un entier en base b

Architecture des ordinateurs TD1 - Portes logiques et premiers circuits

La mesure de Lebesgue sur la droite réelle

La fonction exponentielle

Probabilités conditionnelles

CALCUL DES PROBABILITES

Programmation linéaire

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Cours d Analyse. Fonctions de plusieurs variables

Théorème du point fixe - Théorème de l inversion locale

Représentation des Nombres

IUT de Laval Année Universitaire 2008/2009. Fiche 1. - Logique -

Exo7. Probabilité conditionnelle. Exercices : Martine Quinio

Annexe commune aux séries ES, L et S : boîtes et quantiles

Théorie de la Mesure et Intégration

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Transcription:

Probabilités Mathématiques 218 1 Introduction aux Probabilités 1.1 Généralités Le hasard est le fait d évènements qu on ne peut pas prévoir et qui font partie de notre quotidien. Les exemples sont nombreux : Les jeux de hasard bien sûr, mais aussi, La durée de vie d un individu ou d une lampe; Le nombre d appels téléphoniques dans un central téléphonique; Les mouvements d une particule (mouvement brownien); L hérédité des caractères génétiques; Les phénomènes météorologiques; etc Beaucoup de phénomènes naturels sont considérés comme le fruit du hasard ( phénomènes aléatoires ), pour la simple raison qu on ne maîtrise pas tous les paramètres intervenant dans la description de ces phénomènes. La désintégration d un atome de radium, par exemple, dépend de faits que nous ne pouvons prendre en considération à l heure actuelle. On cherche à décrire un modèle mathématique qui rende compte plus ou moins fidèlement d une expérience aléatoire; c est facile pour certaines (jet d un dé), difficile ou impossible pour d autres (météo). On note Ω l ensemble de tous les résultats élémentaires possibles appelé univers. Par exemple, pour le lancer d un dé, Ω = {1,..., 6}; Pour le jeu de pile ou face avec n jets, Ω = {0, 1} n ; Pour la durée de vie, Ω = R + ou N si on compte en unités de temps; Pour le central téléphonique, Ω = N d s il y a d récepteurs; Pour le mouvement d une particule, Ω = R 3 ou Z 3 ; etc A, l algèbre des évènements; c est l ensemble de tous les évènements liés à l expérience, qui s expriment à l aide des résultats élémentaires. Par exemple, pour le lancer d un dé, A = Obtenir un nombre pair ; Pour le jeu de pile ou face avec n jets, B = Avoir 3 PILE successifs ; Pour le mouvement d une particule : la particule ne coupe pas le plan xoy ; etc 1

On peut tout naturellement définir des opérations sur les évènements, que l on traduit par des opérations logiques (union, intersection, etc) ce qui revient à identifier un évènement à une partie de Ω. Ainsi est l évènement impossible et Ω l évènement certain; l évènement contraire à A est noté A c, la conjonction des évènements A et B, A B et la disjonction des évènements A et B, A B. On les a résumées dans le tableau : A = A = Ω A jamais réalisé A toujours réalisé A c ou A réalisé quand A n est pas réalisé A B réalisation simultanée de A et B. A B réalisation de A ou B (ou non exclusif) A\B A est réalisé mais B ne l est pas A B B est réalisé dès que A l est n=1a n réalisation d un au moins des A n, n 1 n=1a n réalisation de tous les A n, n 1 Rappelons les quelques règles à connaître en théorie des ensembles. Ω c = et (A c ) c = A; (A B) c = A c B c et (A B) c = A c B c ; A (B C) = (A B) (A C) et A ( n B n ) = n (A B n ). P la probabilité définie sur (Ω, A). On essaie d estimer au mieux la probabilité que l évènement A ait lieu; pour cela on s inspire de la notion empirique de fréquence : on répète N fois une expérience (penser au lancer d un dé) et on note N A le nombre de fois où A est réalisé. Alors, la fréquence d apparition de A est f A = N A N Clairement la fréquence possède les propriétés suivantes : 0 f A 1; f Ω = 1; f A B = f A + f B si A B =. On va s inspirer de ces propriétés pour définir les axiomes d une probabilité. Retenons déjà (1) 0 P (A) 1; 2

(2) P (Ω) = 1; (3) P (A B) = P (A) + P (B) si A B =. Commençons par le cas simple où Ω est un ensemble fini. 1.2 Probabilités finies et combinatoire Lorsque Ω est un ensemble fini {ω 1,..., ω n }, on peut énumérer toutes les parties de Ω, P(Ω), qui sont elles-aussi en nombre fini. Les singletons {ω i } sont les évènements élémentaires et A = P(Ω) : tout évènement est une union finie d évènements élémentaires. La propriété (3) s écrit P (A) = P ({ω i }) i;ω i A Dans ce cas particulier une probabilité est donc entièrement définie par les probabilités des évènements élémentaires, notées p 1,..., p n ; en résumé Une probabilité sur un ensemble fini {ω 1,..., ω n } est la donnée de n nombres p 1,..., p n tels que 0 p i 1, et n 1 p i = 1 P (A) = i;ω i A p i P (A B) = P (A) + P (B) si A B =. Cas particulier important Fréquemment dans les jeux de hasard, pour des raisons de symétrie, les évènements élémentaires ont la même probabilité (équiprobables); si Ω a n points, nécessairement, pour réaliser n 1 p i = 1, on doit avoir p i = 1/n pour tout i. Ainsi P (A) = i;ω i A 1 n = A n = A Ω en notant A le nombre de points de l ensemble A (ou le cardinal de A, noté encore #A). On dit que P est la probabilité uniforme sur Ω et on l exprime par la phrase mnémotechnique Nombre de cas favorables sur nombre de cas possibles. Ceci nous amène tout naturellement au dénombrement et à la combinatoire. Exemples simples 1. On lance un dé; les faces sont équiprobables et si p i est la probabilité d amener i, p i = 1/6, i = 1, 2,..., 6. Si A est 3

l évènement on a obtenu un nombre pair et B on a obtenu un multiple de 3, P (A) = 1/2 et P (B) = 1/3 tandis que P (A B) = 1/6. 2. On lance deux dés; on choisit comme modèle, conforme à l expérience, Ω = {(i, j), 1 i, j 6} l ensemble des couples (ordonnés au sens où (x, y) (y, x) si x y), avec la probabilité uniforme. Il faut donc calculer Ω = 36; L évènement A la somme des points obtenus est 4 est la réunion des évènements élémentaires {(1, 3), (2, 2), (3, 1)} et P (A) = 3/36 = 1/12. 3. On lance n fois une pièce. Un évènement élémentaire est une suite de n pile ou face, notés P et F, et Ω, représenté par {P, F } n, a 2 n éléments. L évènement A = on a obtenu un seul pile a comme probabilité n/2 n. Rappels de combinatoire 1. Cardinal d un ensemble fini. A savoir : A B = A. B ce qu on a déjà utilisé pour calculer {0, 1} n = 2 n. Ainsi le nombre de k-uplets d éléments pris dans Ω de cardinal n est Ω k = n k. Par ailleurs A B = A + B A B d où l additivité du cardinal lorsque les ensembles sont disjoints. 2. Arrangements. On appelle arrangement de k objets (distincts) parmi n, et on note A k n, le nombre d échantillons (ordonnés) de taille k parmi n. Attention! Ne pas confondre échantillon de taille k et k-uplet Un k-échantillon est une partie ordonnée de k éléments, sans répétition; Un k-uplet est une partie ordonnée de k éléments avec répétition possible. 4

Ainsi A k n = n(n 1)...(n k + 1), k n (on a n choix pour le 1-er objet, n 1 choix pour le second, etc...) 3. Permutations. Une permutation σ de {1,..., n} est une bijection de l ensemble qui envoie le n-uplet (x 1,..., x n ) sur le n-uplet (x σ(1),..., x σ(n) ), décrit dans un ordre différent. Le nombre de permutations de n objets est le nombre d échantillons de taille n parmi n soit n!. 4. Combinaisons. On appelle combinaison de k objets parmi n, le nombre de parties à k objets pris parmi les n. Pour le calculer, on identifie les échantillons faisant intervenir les mêmes objets et qui ne diffèrent que par une permutation. On en déduit C k n = A k n/k! = n! k!(n k)! À savoir sur les coefficients binômiaux : La formule du binôme : n k=0 C k nx k y n k = (x + y) n et ses conséquences : n k=0 Cn k = 2 n, n k=0 Cn( 1) k k = 0. Le triangle de Pascal et cette identité : Cn+1 k+1 = Cn k+1 + Cn k On peut exprimer ce qui précède en termes de tirage d objets. Il y a deux types de tirage, avec ou sans remise; deux types d ensemble de k objets tirés, selon qu on tient compte ou non de l ordre. Voici un tableau récapitulatif avec remise sans remise Ordonné n k n(n 1)...(n k + 1) Non ordonné Cn+k 1 k ( ) Cn k On peut également exprimer ceci en termes de répartition de k objets dans n boîtes. Il y a deux types de placement, selon que l on met au plus un ou plusieurs objet(s) par boîte ; et deux types d objets, discernable ou non (on peut interpréter ce point de vue comme un tirage de boîte avec ou sans remise...). plusieurs objets au plus un par boîte par boîte discernables n k n(n 1)...(n k + 1) Non discernables Cn+k 1 k ( ) Cn k 5

Exercices de base 1. Quel est le nombre de tiercés possibles dans une course de 20 chevaux? 2. Quel est le nombre de mots de longueur n construits sur un alphabet de 3 lettres {a, b, c}? 3. Quel est le nombre de solutions de l équation x 1 + x 2 +... + x n = k où x i = 0 ou 1? 4. Quel est le nombre de solutions de l équation x 1 + x 2 +... + x n = k avec x i entiers 0? 5. Comment peut-on répartir p euros entre n personnes? Preuve de ( ): Choisissons le second point de vue : on dispose de n boîtes dans lesquelles on veut répartir k boules indiscernables, avec éventuellement plusieurs boules par boîte. On figure les bords des boîtes par des et les boules par des O. Une répartition possible prend la forme suivante : O OO OO cad une configuration de k boules et n + 1 barres, commençant et finissant par une barre. Or le nombre de façons de placer k boules parmi les n+k+1 2 = n+k 1 places possibles est Cn+k 1 k d où ( ). 5. Coefficient multinômial Soit n 1, n 2,..., n k k entiers 0 tels que n 1 + n 2 +... + n k = n Le nombre de façons de répartir n objets indiscernables dans k boîtes, n! avec exactement n i objets dans la i-ième boîte, vaut n 1!...n k!. Preuve : On note B 1,..., B k les k boîtes. Il y a C n 1 n façons de choisir les n 1 objets destinés à la première boîte; C n 2 n n 1 façons de choisir les n 2 objets destinés à la deuxième boîte; etc; il y a finalement C n k n (n 1 +n 2 +...+n k 1 ) = 1 façon de choisir les n k objets destinés à la dernière boîte. Le nombre cherché est donc C n 1 n C n 2 n n 1...C n k n (n 1 +n 2 +...+n k 1 ) = n! (n n 1 )! n 1!(n n 1 )! n 2!(n n 1 n 2 )!...n (n 1 + n 2 +... + n k 2 )! n k 1!(n k )! = n! n 1!...n k! 6

Exercices sur les probabilités uniformes 1. Dans une assemblée de r personnes, quelle est la probabilité que toutes aient des jours d anniversaire différents? (On choisira un modèle qui colle le mieux à la réalité, en précisant Ω et en se situant dans le tableau récapitulatif) 2. On lance n balles de couleur différente dans n boîtes; quelle est la probabilité qu elles soient toutes occupées? (On précisera le modèle choisi). 1.3 Axiomes d une probabilité On considère une expérience aléatoire modélisée par (Ω, A), où Ω est l ensemble des résultats élémentaires et A l algèbre des évènements. Lorsque Ω n est plus fini, on ne peut pas décrire toute partie de Ω, encore moins lui attribuer une probabilité; on se restreint donc à une classe d évènements qui possède les trois propriétés suivantes : 1) Elle contient et Ω. 2) Si A est dans A, l évènement contraire y est aussi. 3) Si (A n ) est une suite d évènements de A, la réunion est encore dans A. Noter que 2) et 3) entraînent que : si (A n ) est une suite d évènements de A, l intersection est encore dans A. Une probabilité P sur (Ω, A) est une application P : A [0, 1] telle que : P (Ω) = 1 P (A B) = P (A) + P (B) si A et B sont disjoints. P ( n A n ) = n=1 P (A n ) si les A n sont disjoints deux à deux. On pourrait déduire le second axiome du troisième mais il est plus simple de le dégager. On aura besoin à l occasion des propriétés suivantes qui découlent immédiatement de la définition encadrée. 1) P (A c ) = 1 P (A) 2) P ( ) = 0 3) P (A) P (B) si A B 4) P (A B) = P (A) + P (B) P (A B) Preuve : Appliquons le second axiome avec B = A c ; puisque P (A) + P (A c ) = P (A A c ) = P (Ω) = 1, on a la première propriété. Ecrit en particulier avec A = Ω, 1) donne 2). 7

Si A B, B peut s écrire comme union disjointe de A et B\A; ainsi P (B) = P (A) + P (B\A) P (A). Plus généralement, lorsqu on n a plus d inclusion de A dans B, B\A n est autre que B\(A B); A et B\A sont encore disjoints et P (A B) = P (A)+P (B\A); de même B étant l union disjointe de B\A et A B, il vient P (B\A) = P (B) P (A B) d où 4). Exercices sur les probabilités : 1) Établir une propriété analogue à 4) avec trois évènements. 2) Avec 4 évènements, en supposant que les évènements sont échangeables cad : P (A i ) = α i, P (A i A j ) = β i < j P (A i A j A k ) = γ i < j < k Système complet d évènements Un système complet d évènements est une suite d évènements deux à deux disjoints et de réunion égale à Ω. A 1, A 2,..., A n,... A tels que A j A k = si j k n A n = Ω Comme parties de Ω, ces ensembles forment une partition de Ω. 1.4 Exercices récapitulatifs 1. Trouver la valeur des sommes et des sommes [n/2] k=1 C 2k n ; n kcn; k k=1 [n/2] 1 k=0 2. Calculer le produit des C k n : n k=0 C k n. C 2k+1 n, n ( 1) k 1 kcn; k k=1 8

3. Calculer le coefficient de x k dans chaque membre de l identité : (1 + x) n (1 + x) m = (1 + x) n+m ; en déduire la valeur de 4. Etablir les identités n j=1 n (Cn) k 2 = C2n, n 0 C j nc k j m, k n + m. n k(cn) k 2 = n 0 2 Cn 2n et donner un équivalent de ces sommes quand n à l aide de la formule de Stirling (n! n n e n 2πn). 5. Calculer A 0 n + A 1 n +... + A n n. 6. Combien y a -t-il de façons d asseoir 7 personnes : a) sur un banc de 7 places? b) autour d une table ronde de 7 places également? c) autour de cette table ronde si 2 personnes particulières ne veulent pas être l une à côté de l autre? 7. Montrer qu un ensemble fini a autant de parties de cardinal pair que de parties de cardinal impair. 8. On considère n points A 1,..., A n dans le plan, 3 quelconques n étant jamais alignés. On les joint deux à deux de toutes les façons possibles. Calculer a) Le nombre N de droites ainsi obtenues; b) le nombre de points d intersection de ces droites autres que les A i, en supposant que deux droites quelconques ne sont jamais parallèles. 9. a) Etablir la formule des cardinaux pour des ensembles finis A 1,..., A n : A 1 A 2... A n = n A j 1 i,j A i A j + A i A j A k i,j,k... + ( 1) n 1 A 1 A 2... A n. b) Soit E = {1, 2,..., n} et P l ensemble des permutations de E. On pose pour chaque i, A i = {ϕ P; ϕ(i) = i}, cad les permutations de E fixant i; calculer A i, A i A j, A i A j A k... c) Déduire de a) le cardinal de D, le nombre de permutations sans point fixe. 9

10. On considère le mot ATTACHANT. a) Donner le nombre d anagrammes de ce mot. b) On tire au hasard et avec remise 4 lettres de ce mot; quelle est la probabilité de pouvoir écrire CHAT avec ces lettres? c) Même question si le tirage a lieu sans remise. 11. Un ascenseur desservant 10 étages, contient 8 personnes qui descendent de façon aléatoire. a) Quelle est la probabilité pour qu aucune ne descende au second étage? b) Quelle est la probabilité qu elles descendent toutes à un même étage? c) Quelle est la probabilité pour que 2 descendent au second étage, 1 descende au troisième étage et 5 au dernier étage? 12. Une urne contient n boules blanches et m boules rouges, n + m 2. On tire deux boules simultanément; quelle est la probabilité d obtenir deux boules de la même couleur? pour quelles valeurs de n, m cette probabilité vaut-elle 1/2? 13. Une urne contient n boules numérotées de 1 à n. On tire deux boules sans remise; quelle est la probabilité que les deux boules sortent dans l ordre de leur numéro? quelle est la probabilité pour que les numéros soient consécutifs? 14. Soit A et B deux évènements tels que P (A) = P (B) = 3/4. Que peut-on dire de P (A B) et P (A B)? 15. (Les danseurs de Chicago) a) Dans une salle de danse il y a n couples. Chaque femme choisit un cavalier au hasard. Quelle est la probabilité pour que chaque femme danse avec son époux? (cf exercice 9) b) En repartant chaque homme reprend son chapeau au vestiaire mais de façon aléatoire. Quelle est la probabilité qu aucun ne reprenne son propre chapeau? 10

2 Conditionnement, Indépendance 2.1 Probabilités conditionnelles Revenons à la notion empirique de fréquence. On s intéresse à deux évènements A, B, liés à une même expérience aléatoire. On répète N fois cette expérience et on note N B le nombre de fois où B est réalisé. Parmi ces N B réalisations, l évènement A s est lui-même réalisé N A B fois. Le quotient N A B N B représente la fréquence relative d apparition de A quand B est réalisé. Plus brièvement f A/B = N A B N B est la fréquence de A sachant que B est réalisé. On remarque que f A/B = N A B N = f A B N N B f B D où la définition de la probabilité conditionnelle : Si A et B A, on appelle probabilité de A sachant B, le nombre : P (A B) P (A/B) := si P (B) > 0. P (B) Attention! Il s agit d un choix de modèle, donnant des résultats qui ne sont pas toujours conformes à l intuition première. Exemple de base 1. Monsieur X a deux enfants; on sonne à sa porte et un garçon ouvre. Quelle est la probabilité (conditionnelle) que l autre soit une fille? Cette information il y a un garçon réduit les possibilités dans la composition de la famille et laisse penser qu il y a plus de chances que l autre soit une fille. Modélisons : on note B l évènement il y a un garçon, A, il y a une fille, et, dans le modèle classique avec Ω = {GG, GF, F G, F F } et la probabilité uniforme, B = {GG, GF, F G}, A = {F G, GF, F F } On en déduit P (B) = 3/4, P (A B) = 1/2 et la probabilité conditionnelle de A sachant B vaut P (A/B) = 2/3 2. On apprend que c est l aîné qui a ouvert la porte; quelle est la probabilité qu il y ait une fille? On note cette fois C l évènement l aîné est un garçon ; C = {GG, GF }, A C = {GF } et P (A/C) = 1/2 11

Paradoxalement, l apport d information a augmenté l incertitude! Propriétés : 1) Si B est de probabilité non nulle, on peut vérifier que P (Ω/B) = 1 P ((A C)/B) = P (A/B) + P (C/B) si A C = P (A c /B) = 1 P (A/B) P ( n A n /B) = n=1 P (A n /B) si les A n sont disjoints deux à deux. Autrement dit, l application : A A P (A/B) est encore une probabilité. 2) P (A B) = P (A/B)P (B) 3) Si A est de probabilité non nulle, on a aussi bien P (B/A) = P (A/B)P (B) P (A) Remarquons que la définition peut prendre une forme symétrique P (B/A)P (A) = P (A/B)P (B) les deux valant P (A B) donc 0 si A ou B est de probabilité nulle. Formule des Probabilités Totales On peut décomposer tout évènement A sur la partition {B, B c } et écrire : A = (A B) (A B c ) où l union est disjointe; on en déduit P (A) = P (A B) + P (A B c ) = P (A/B)P (B) + P (A/B c )P (B c ) formule qui se généralise sous la forme suivante (formule des probabilités totales) Si (B i ) est un système complet d évènements alors, pour tout A A P (A) = 1 P (A/B i )P (B i ) Preuve : Puisque Ω est l union disjointe des B i, A = A ( 1 B i ) = 1 (A B i ) où l union est disjointe. Par le troisième axiome d une probabilité, on peut écrire P (A) = P (A B i ) = P (A/B i )P (B i ). 1 12 1

Formule de Bayes La situation suivante se rencontre souvent dans la pratique : on connaît P (A/B) et P (A/B c ) (donc P (A) par ce qui précède) et on aimerait décider de la part de A dans la réalisation de B. Commençons par un exemple : Exemple : On prend 100 dés dont 25 sont pipés; pour ces derniers la probabilité d amener un 6 est 1/2. On choisit un dé au hasard, on le lance et on obtient 6! Quelle est la probabilité pour qu on ait choisi un dé pipé? Notons F l évènement le dé est pipé et A l évènement le dé donne un 6 ; on connaît bien sûr P (A/F ) et P (A/F c ) et on souhaite calculer P (F/A) car c est bien de cela qu il s agit, même si le mot conditionnelle n est pas écrit. On calcule facilement de sorte que, P (A) = P (A/F )P (F ) + P (A/F c )P (F c ) = 1 2.1 4 + 1 6.3 4 = 1 4 P (F/A) = P (A/F )P (F ) P (A) = 1/2 On a juste combiné la propriété 2) et la formule des probabilité totales. Plus généralement on a donc (formule de Bayes) Si (B i ) est un système complet d évènements alors, pour A A de probabilité non nulle, P (B i /A) = P (B i)p (A/B i ) 1 P (A/B i )P (B i ) Formule des Probabilités Composées Cette formule permet de calculer la probabilité d une intersection d évènements dépendants et sera dégagée dans le paragraphe suivant. Si (A i ) est une suite d évènements avec P ( n i=1a i ), P ( n i=1a i ) = P (A 1 )P (A 2 /A 1 )P (A 3 /A 1 A 2 )...P (A n /A 1... A n 1 ) Preuve : Il est facile de donner une preuve par récurrence de cette formule. Pour n = 2 c est une des propriétés de la probabilité conditionnelle. Supposons-la établie pour n évènements et considérons P ( n i=1a i A n+1 ); une nouvelle application de cette propriété donne alors P ( n i=1a i A n+1 ) = P (A n+1 /A 1... A n )P (A 1... A n ) = P (A 1 )P (A 2 /A 1 )...P (A n /A 1... A n 1 )P (A n+1 /A 1... A n ) 13

par l hypothèse de récurrence. Exercices de base 1. Trois groupes de TD, G 1, G 2, G 3 d effectifs 36, 24, 30 étudiants ont un taux de réussite de 1/2, 1/3, 1/4 respectivement. Un élève ayant réussi, quelle est la probabilité pour qu il provienne du groupe G 1? 2. Le quart d une population a été vaccinée contre une maladie. Au cours d une épidémie, on constate qu il y a parmi les malades, un vacciné contre quatre non-vaccinés. a) Le vaccin a-t-il eu une efficacité quelconque? b) On sait en outre qu il y a un malade sur douze parmi les vaccinés. Quelle est la probabilité de tomber malade pour une personne non vaccinée? 3. Une chaussette se trouve avec probabilité p ]0, 1[ dans une commode de sept tiroirs avec une même probabilité pour chaque tiroir. On a fouillé en vain dans les 6 premiers. Quelle est la probabilité qu elle se trouve dans le septième? (Ce n est pas p!) 2.2 Indépendance On considère une expérience aléatoire toujours modélisée par (Ω, A). L évènement A est indépendant de l évènement B si B n a aucune influence sur la réalisation de A; autrement dit la probabilité que A soit réalisé est la même, que B soit réalisé ou non. Cela s écrit P (A/B) = P (A). Mais si P (A) 0, B est à son tour indépendant de A puisque P (B/A)P (A) = P (A/B)P (B) = P (A)P (B) et P (B/A) = P (B). D où la définition, plus symétrique : Les évènements A, B A sont indépendants si P (A B) = P (A)P (B) Attention! Ne pas confondre indépendants et disjoints ; deux évènements indépendants peuvent avoir lieu simultanément, par exemple gagner au loto et avoir le pied grec! Par contre deux évènements disjoints ne sont indépendants que si l un est de probabilité nulle. La définition d indépendance est de plus en plus exigeante lorsque le nombre d évènements en jeu augmente : l indépendance d une famille de n évènements signifie l indépendance de toute sous-famille de k évènements, k n, extraite de la famille. 14

Les évènements A 1,..., A n A sont indépendants si P (A i1... A ik ) = k j=1 P (A ij ) pour tout i 1 < i 2 <... < i k, k = 1...n Attention! Ce n est pas équivalent à l indépendance deux à deux! Dans la pratique, l indépendance est souvent une donnée du problème car résultant de l observation; on utilisera alors simplement ses conséquences. En particulier les propriétés suivantes. Propriétés 1) Si A et B sont indépendants, alors les évènements A et B c, A c et B, et A c et B c le sont également. 2) Si A 1,..., A n sont indépendants, P (A ɛ 1c 1... A ɛnc n ) = n 1 P (A ɛ ic i ) pour tout choix de ɛ i = 0, 1. Preuve : Montrons à titre d exercice les propriétés 1); en s aidant de la symétrie de la définition, il suffit de vérifier que A et B c sont indépendants. Or P (A)P (B c ) = P (A)(1 P (B)) = P (A) P (A B) par indépendance de A et B. Mais P (A) = P (A B) + P (A B c ) et P (A)P (B c ) = P (A B c ). On va dégager dans la fin de ce chapitre deux situations extrêmement importantes en calcul des probabilités qui nous permettront de classer la plupart des expériences aléatoires. Un fait central en probabilités et statistiques est la répétition d expériences aléatoires identiques; soit parce que l expérience qui nous intéresse se présente ainsi : c est le cas de nombreux jeux, 421 où on lance 3 dés successivement, pile ou face où on lance une pièce jusqu à l obtention de pile etc; soit qu on répète une même expérience pour estimer de manière empirique la probabilité d un évènement : c est le cas des sondages par exemple. On va donc modéliser les répétitions d épreuves indépendantes et les répétitions d épreuves dépendantes. Successions d épreuves indépendantes Commençons par des exemples. Exemples 1. Lancer de deux dés, simultanément ou non. Les résultats des lancers sont indépendants et tout évènement lié au second lancer est indépendant de tout évènement lié au premier lancer. Si Ω 1 et Ω 2 sont les univers de chaque lancer, Ω 1 = Ω 2 = {1,..., 6} et Ω = Ω 1 Ω 2 = {(i, j), 1 i, j 6}. P ((i, j)) = 1/36 = P ({i})p ({j}) en notant de la même façon la probabilité sur Ω et sur Ω 1. 15

2. Sexe des enfants successifs dans une famille de n enfants. L univers est Ω n où Ω = {F, G} est l univers de l épreuve initiale; si ω = (ω 1,..., ω n ) Ω n, chaque ω i étant une fille ou un garçon, P ({ω}) = 1/2 n = P ({ω 1 })...P ({ω n }). 3. Une épreuve de Bernoulli est une expérience aléatoire avec deux résultats possibles échec ou succés symbolisés en général par 0, 1; si p = P (succés) et q = P (échec), p + q = 1. Si on répète n épreuves de Bernoulli indépendantes, Ω = {0, 1} n et la probabilité peut se décrire à l aide d un arbre binaire. S... p S 1 p p E... 1 p E p 1 p S... E... Un schéma de Bernoulli de taille n est la succession de n épreuves de Bernoulli indépendantes; si ω est constitué de k succés et n k échecs P ({ω}) = p k q n k où p est la probabilité de succés à chaque étape. Cadre général : On répète n fois une expérience aléatoire de façon indépendante; le modèle de cette succession d épreuves a une structure de produit. Lorsque l expérience initiale n a qu un nombre fini de résultats 16

possibles Ω, l univers devient Ω n et si ω = (ω 1,..., ω n ) Ω n, P ({ω}) = P ({ω 1 })...P ({ω n }) en notant de la même façon la probabilité sur Ω et sur Ω n. C est le cadre du tirage avec remise. Successions d épreuves dépendantes Cette fois le résultat de la k-ième épreuve dépend des précédentes. Exemples 1. Tirage sans remise Une urne contient 3 boules rouges et 3 blanches. On tire deux boules sans remise. Quelle est la probabilité d avoir une boule blanche au second tirage? La composition de l urne change à chaque étape et les tirages ne sont plus indépendants. Il faut faire intervenir les probabilités conditionnelles. Notons B i l évènement on a tiré une boule blanche au i-ième tirage. P (B 1 ) = 1/2, P (B 2 ) = P (B 2 /B 1 )P (B 1 ) + P (B 2 /B c 1)P (B c 1) = 1/2(2/5 + 3/5) = 1/2. La modélisation peut se faire à l aide d un arbre binaire d arêtes, les probabilités conditionnelles. 1/2 1/2 B 2/5 B 3/5 R B 3/5 R 2/5 R On extrait successivement trois boules. Quelle est la probabilité de tirer trois boules blanches? 17

Il s agit de calculer P (B 1 B 2 B 3 ) où les évènements sont dépendants. On déduit donc de la formule des probabilités composées : P (B 1 B 2 B 3 ) = P (B 1 )P (B 2 /B 1 )P (B 3 /B 1 B 2 ) = 1 2.2 5.1 4 = 1/20 2. Problème des menteurs : Dans une ville il n y a que des menteurs; lorsqu on donne une information à l un d entre eux, il la transmet fidèlement avec probabilité p < 1, transmet son opposée avec probabilité q = 1 p. Un premier menteur reçoit une information ( sous la forme OUI-NON), la transmet à un second, qui la transmet à un troisième etc. Le résultat transmis par le n-ième dépend de l information qu il a reçue du précédent! Quelle est la probabilité que l information transmise aprés n menteurs soit celle de départ? (On peut s aider d un graphe) 2.3 Exercices récapitulatifs 1. On lance deux fois un dé au hasard et on considère les évènements suivants : A= le premier lancer donne un nombre pair B= le second lancer donne un nombre impair C= la somme des valeurs obtenues dans ces deux lancers est impaire. Montrer que A, B, C sont deux à deux indépendants mais pas indépendants. 2. Monsieur X discute avec son chauffeur de taxi : il apprend qu il a quatre enfants et se demande a) Quelle est la probabilité qu il ait une fille? Au fil de la conversation, il entend parler de deux garçons Pierre et Paul; b) Quelle est la probabilité qu il ait aussi une fille? se demande toujours Monsieur X. Le trajet dure et il finit par comprendre que Pierre est l aîné et Paul le dernier. c) Quelle est la probabilité qu il ait une fille? Monsieur X se met à douter... 3. Des jumeaux peuvent être des vrais jumeaux, auquel cas ils sont de même sexe; ou de faux jumeaux et dans ce cas la probabilité qu ils soient de même sexe est estimée à 1/2. On note p la probabilité que des jumeaux soient de vrais jumeaux. a) Quelle est la probabilité que deux jumeaux de même sexe soient de vrais jumeaux? 18

b) Déterminer en fonction de p la probabilité que deux jumeaux soient de même sexe. 4. Problème des clefs Un gardien conserve en vrac dans sa poche les 10 clefs de son trousseau et une seule ouvre la porte de son local. Quand il est mal réveillé il remet dans la même poche les clefs essayées, sinon il les met dans l autre poche. Quelle est la probabilité que le k-ième essai soit le bon dans chacun des deux cas? 5. a) Quelle est la probabilité d amener un total de 6 en lançant deux dés? un total de 7? b) Deux joueurs A et B jouent avec deux dés l un aprés l autre et B commence. La règle est la suivante : B gagne s il amène un total de 6 avant que A n amène un total de 7. Quel est le joueur le plus favorisé? 6. Un voyageur prend le train ou l avion. Si au jour j il prend l avion, il prend systématiquement le train le lendemain; mais si au jour j il prend le train, il prend l avion le lendemain avec probabilité 1/2. On note p n la probabilité qu il prenne le train au n-ième jour. a) Montrer que p n+1 = 1 2 p n + 1. b) En déduire p n, s il a pris le train le premier jour. 7. Répondre à la question dans le problème des menteurs. 8. Loi de succession de Laplace : On considère N + 1 urnes numérotées de 0 à N, la k-ième contenant k boule rouges et N k boule blanches. On choisit une urne au hasard et on tire avec remise dans cette urne. On notera R n l évènement on a tiré une boule rouge au n-ième tirage. a) Quelle est la probabilité de tirer une boule rouge au premier tirage? (On utilisera la formule des probabilités totales avec les évènements U k : on a choisi la k-ième urne.) b) Quelle est la probabilité de tirer deux boules rouges lors des deux premiers tirages? c) Montrer que P (R 1... R n /U k ) = n i=1 P (R i /U k ) = ( k N )n. En déduire la probabilité de tirer une boule rouge au n + 1-ième tirage sachant qu on a déjà eu n boules rouges. d) Trouver la limite quand n de cette probabilité. 9. Soit A, B deux évènements indépendants de probabilité non nulle. On pose x = P (A B), y = P ((A B)\(A B)), z = P (A c B c ) 19

et on va montrer que x, y, z sont tous les trois 4/9. a) Remarquer sans calculs que x + y + z = 1. b) Si a = P (A) et b = P (B), exprimer x, y, z en fonction de a, b puis en fonction de u = ab et v = a + b. c) Montrer que max(u, v 2u, 1 + u v) 4/9 en distinguant les cas : u 1/9, 1/9 u 4/9. En déduire l affirmation. 20

3 Variables aléatoires discrètes Dans les phénomènes aléatoires décrits en début de chapitre 1, le résultat d une épreuve se traduit numériquement par un nombre entier ou réel et les évènements se décrivent souvent à l aide d une fonction réelle définie sur Ω. Par exemple, le nombre de OUI à un sondage, la somme des points amenés par deux dés, la durée de vie d un appareil, etc. Les variables aléatoires seront pour nous des objets nous permettant d exprimer plus simplement les évènements. Si l expérience est modèlisée par (Ω, A, P ), on appelle variable aléatoire (réelle) (var) sur cet espace une application X : Ω R, c est-àdire dont les valeurs dépendent des résultats de l expérience, et telle que l on puisse calculer la probabilité des évènements {ω; X(ω) = k} ou {ω; a X(ω) b}. Exemples : 1. X 1, X 2, les points amenés par chacun des deux dés, sont des variables aléatoires à valeurs dans {1,..., 6}, tandis que X, la somme des points, est à valeurs dans {1,..., 12}; on sait calculer P (X = k) pour tout k. Noter que X = X 1 + X 2. 2. Dans un sondage où N personnes sont interrogées et les réponses sont NON = 0 ou OUI = 1, le nombre de OUI n est autre que X = ξ 1 +... + ξ N où ξ i est la réponse de la i-ième personne. 3.1 Lois discrètes usuelles Une variable aléatoire : Ω R est dite discrète si elle ne prend qu un nombre fini ou dénombrable de valeurs : {x 1, x 2,..., x n } ou {x 1,..., x n,...}, (dénombrable = qu on peut énumérer). Remarquons tout de suite que les évènements (X = x i ), i 1, forment un système complet d évènements. Dans la plupart des exemples, les valeurs x i sont les entiers naturels. Ces valeurs ne suffisent pas pour travailler avec la var, il faut aussi préciser avec quelle probabilité elles sont prises. Ainsi pour parier avec un dé pipé, il est important de connaître la probabilité d apparition de chaque face. On appelle loi de la variable discrète X la donnée des nombres p i = P (X = x i ), i 1 Propriétés d une loi discrète : Les nombres p i vérifient 1) p i = P (X = x i ) 0 pour toute valeur x i prise par X; 2) i 1 p i = 1. 21

Remarquons que toute série de terme général u n positif, de somme 1, définit une loi discrète de probabilité : la variable entière X telle que P (X = n) = u n a pour loi (u n ). Par exemple, u n = 6. 1, n 1 définit une loi de π 2 n 2 probabilité sur N. On va voir que les variables aléatoires n interviennent que par leur loi qui seule importe. On peut ajouter, multiplier des variables aléatoires mais le problème sera de déterminer la loi de ces nouvelles variables. Cependant si X est une variable discrète, de loi p i = P (X = x i ), i 1, et si g est une application de R dans R, Y = g(x) prend les valeurs g(x i ) avec les mêmes probabilités p i. On connaît donc la loi de Y. Premières lois : 1) On dit que X suit la loi uniforme sur {x 1,..., x n } si X prend chacune de ces valeurs avec même probabilité, P (X = x i ) = 1 i = 1...n. Cette loi n est associée au tirage équiprobable. C est la loi du numéro de la face lors du lancer d un dé non pipé. 2) X suit la loi de Bernoulli de paramètre p si X ne prend que les valeurs 1, 0 avec probabilité p, 1 p. Cette loi est associée au lancer d une pièce éventuellement biaisée. 3) On s intéresse au nombre X de succés (PILE) lorsqu on lance n fois une pièce (schéma de Bernoulli de taille n); X prend les valeurs 0, 1,..., n; pour k n, l évènement (X = k) est l union d évènements élémentaires constitués de k PILE et n k FACE et il y a C k n telles suites puisque C k n façons de placer les k PILE parmi n. Comme les lancers sont indépendants, chaque suite a comme probabilité : p k q n k où q = 1 p, et P (X = k) = C k np k q n k, 0 k n. On dit que X suit la loi binômiale de paramètres n, p. 4) Dans un schéma de Bernoulli infini cette fois, on s intéresse à l instant X du premier succés; X prend les valeurs 1, 2,...; l évènement (X = k) signifie qu il y a eu échec lors des k 1 premiers lancers et succés au k-ième. Comme les lancers sont indépendants, P (X = k) = q k 1 p, k 1. On dit que X suit la loi géométrique de paramètre p. 5) La loi de Poisson est une loi qui ne correspond à aucune expérience aléatoire particulière, mais qui est bien adaptée aux phénomènes de croissance de population ou autres (appels téléphoniques). Elle apparaît comme limite de la loi binômiale au sens suivant : 22

P(λ) = lim n B(n, λ/n), λ > 0 Preuve : Cela signifie que la loi binômiale tend vers la loi de Poisson quand le nombre d épreuves tend vers, avec la probabilité de succés, p, tendant vers 0, de façon que np reste fixe. Pour le voir, écrivons C k np k q n k = n! k!(n k)! (λ n )k (1 λ n )n k = n(n 1)...(n k + 1) 1 k! (1 λ n )n ( λ 1 ) k n )k( 1 λ n nk λk e λ k! n = λk k k! e λ quand n ; ce qui définit le terme de la loi de Poisson P(λ). On dit que X suit la loi de Poisson de paramètre λ > 0 si X prend λ λk les valeurs 0, 1, 2,... avec probabilités P (X = k) = e k!, k 0. La loi de Poisson sert d approximation de la loi binômiale quand n est grand et p petit (n 30, p 1/10, np 15) comme on le verra en application. Voici un tableau récapitulatif des lois discrètes usuelles. Loi unifome sur {1,..., n}, P (X = i) = 1/n, 1 i n Loi de Bernoulli B(p), P (X = 1) = p, P (X = 0) = q Loi binômiale B(n, p), P (X = k) = Cnp k k q n k, 0 k n λ λk Loi de Poisson P(λ), P (X = k) = e, k 0 k! Loi géométrique G(p), P (X = k) = q k 1 p, k 1 Exercices de base. 1. On lance simultanément trois dés et on appelle X le numéro du premier lancer ayant apporté 421. Quelle est la loi de X? Il s agit d un schéma de Bernoulli de taille infini et, à chaque lancer, on appelle succés 421, échec tout autre triplet obtenu. La probabilité de succés est donc p = 6/6 3 = 1/36. La variable X suit ainsi la loi géométrique G(1/36). 2. Problème des tortues. a) A chaque ponte une tortue produit n oeufs et la probabilité pour un oeuf de donner une tortue est p = 1/10. Quelle est la probabilité d avoir finalement k tortues? On suppose (ce n est pas précisé dans l énoncé mais sous-entendu) que les 23

oeufs sont indépendants de sorte que si X est le nombre de tortues obtenues, X suit la loi B(n, 1/10). b) On suppose maintenant que le nombre d oeufs pondus par une tortue n est pas fixe mais aléatoire (ce qui est plus conforme à la réalité), et suit une loi de Poisson P(λ), λ = 100. Quelle est la probabilité d avoir finalement k tortues? Notons N le nombre d oeufs à chaque ponte. C est maintenant une variable aléatoire. En question a) on a déterminé P (X = k/n = n) = C k np k q n k pour k n. Pour décrire (X = k), on va s aider du système complet d évènements (N = n), n 0 et de la formule des probabilités totales : P (X = k) = P (X = k/n = n)p (N = n) n=0 = P (X = k/n = n)p (N = n) n=k et en remplaçant par leurs expressions, on trouve P (X = k) = = e λ p k n=k λ pk = e k! n=k Cnp k k q n k λ λn e n! n! λn qn k k!(n k)! n! λ (λp)k = e k! m=0 m+k qm λ m! m=0 (λq) m λ (λp)k = e e λq λp (λp)k = e k! k! et X suit la loi P(λp) = P(10). Loi hypergéométrique Le nombre de succés dans une suite de n tirages sans remise se calcule de façon différente puisque les tirages successifs ne sont plus indépendants. Cependant, lorsque le tirage se fait dans une population trés supérieure en m! 24

nombre au nombre de tirages (voire infinie), on peut imaginer que chaque tirage dépende assez peu des précédents. D où une loi limite pour la loi du nombre de succés. Un exemple classique de telle situation est le suivant (contrôle de qualité) : Une usine produit chaque jour N pièces dont N 1 sont défectueuses. On prélève n objets parmi les N et on souhaite évaluer le nombre X de pièces défectueuses parmi ces n. Il s agit bien d un tirage sans remise de n objets parmi N et X prend les valeurs 0, 1,..., n si n N 1. L ensemble des résultats possibles, Ω, est l ensemble des tirages sans remise de n objets parmi N, l ordre n intervenant pas, et Ω = C n N; par ailleurs la probabilité est uniforme sur Ω; on a immédiatement pour k n N 1 P (X = k) = Ck N 1 CN N n k 1 CN n On dit que X suit la loi hypergéométrique de paramètres N, N 1, n et on la note H(N, N 1, n). Supposons que la proportion de pièces défectueuses N 1 /N tende vers la valeur p ]0, 1[ lorsque N. On peut donc écrire = P (X = k) = N 1! (N N 1 )! k!(n 1 k)! (n k)!(n N 1 n + k)! n!(n n)! N! n! N 1 (N 1 1)...(N 1 k + 1) k!(n k)! N(N 1)...(N n + 1) (N N 1)...(N N 1 n + k + 1) = Cn k N 1 N 1 1 N N 1...N 1 k + 1 N N 1 N k + 1 N k...n N 1 n + k + 1 N n + 1 Cnp k k (1 p) n k ce qui illustre le fait que les tirages peuvent être considérés indépendants quand N est grand avec p = N 1 /N. On retiendra X suit la loi hypergéométrique H(N, N 1, n) si P (X = k) = Ck N 1 CN N n k 1 CN n H(N, N 1, n) B(n, p) si N et N 1 /N p 25

3.2 Indépendance de variables discrètes Soit X et Y deux variables aléatoires discrètes définies sur un même espace de probabilité (Ω, A, P ); on dit qu elles sont indépendantes (et on notera dans la suite : X Y ) si les évènements liés à X sont indépendants des évènements liés à Y. D où la définition Soit X à valeurs (x i ), Y à valeurs (y j ), deux variables discrètes; X Y si P ((X = x i ) (Y = y j )) = P (X = x i )P (Y = y j ), i, j 1 Plus généralement Soit X 1,..., X n n variables discrètes; Elles sont indépendantes si P ((X 1 = x i1 )... (X r = x ir )) = P (X 1 = x i1 )...P (X r = x ir ), 1 i 1 <... < i r n Il est naturel ici d introduire la notion de vecteur discret : (X, Y ) est un vecteur discret s il prend ses valeurs (x i, y j ) i,j 1 sur Ω avec les probabilités p i,j = P ((X = x i ) (Y = y j )) =: P (X = x i, Y = y j ), i, j 1 La famille de nombres (p i,j ) s appelle la loi du couple (X, Y ) ou la loi conjointe de X et Y. On appelle alors lois marginales les lois des composantes X et Y et elles s obtiennent ainsi : Si p i,j = P (X = x i, Y = y j ), i, j 1, alors i 1 p i := P (X = x i ) = j 1 p i,j, q j := P (Y = y j ) = i 1 p i,j Exemples : 1) Soit (X, Y ) un vecteur discret à valeurs dans N 2 de loi 1/6, 0, 1/6 (p i,j ) 1 i,j 3 = 1/6, 0, 1/6 0, 1/3, 0 où p i,j = P (X = i, Y = j). Quelles sont les lois (marginales) de X et Y? Pour 1 i 3, p i = P (X = i) = 3 j=1 p i,j, et pour 1 j 3, q j = P (Y = j) = 3 i=1 p i,j, autrement dit, pour avoir la loi de X on somme les lignes et pour avoir la loi de Y on somme les colonnes. On trouve p 1 = p 2 = p 3 = 1/3; q 1 = q 2 = q 3 = 1/3; X et Y suivent toutes les deux la loi uniforme sur {1, 2, 3}. 26

2) Soit (X, Y ) un vecteur discret à valeurs dans N 2 de loi p j,k = c 2 j 3 k, j, k 1 c étant une constante à déterminer pour que (p j,k ) soit bien une loi de probabilité. Les p j,k sont 0 si c l est et il faut ajuster c pour que j,k 1 p j,k = j,k 1 c 2 j 3 k = 1 Or 1 j,k 1 = 2 j 3 k 1 2 j 1 3 k = 1.1/2 = 1/2. On en déduit c = 2. De plus la loi de X est ( 1, j 1) et celle de Y est ( 2, k 1). 2 j 3 k Propriétés : 1) Si X et Y sont discrètes indépendantes, toute fonction de X est indépendante de toute fonction de Y. 2) Soit X et Y deux variables discrètes. Alors X Y si et seulement si la loi du couple (X, Y ) est le produit des lois marginales cad si X est de loi (p i ) et Y de loi (q j ) p i,j = p i q j, i, j En particulier on sait reconstituer la loi du couple à partir des lois marginales lorsque les variables sont indépendantes. C est le cas du second exemple mais pas du premier. Loi multinômiale On s intéresse cette fois à une succession d épreuves indépendantes mais à résultats multiples (plus seulement succés ou échec). A chaque étape, on classe les résultats en résultats de type 1, de type 2,..., de type k et on note p i la probabilité d avoir un résultat de type i, 1 i k. Le vecteur X = (X 1,..., X k ) suit la loi multinômiale de paramètres n, p 1,...,p k si avec n 1 +... + n k = n. P (X = (n 1,..., n k )) = n! n 1!...n k! pn 1 1...p n k k Voici une illustration : Un système de N particules se trouve dans l état (N 1,..., N n ), si, pour chaque k = 1,..., n, N k particules ont une énergie E k, 27

E 1,..., E n étant les valeurs possibles de l énergie d une particule. Si W i est la probabilité qu une particule ait pour énergie E i, la probabilité que le système se trouve dans l état (N 1,..., N n ) est exactement W = N! N 1!...N n! W N 1 1...Wn Nn En effet, chaque configuration a comme probabilité W N 1 1...Wn Nn et elles sont équiprobables; reste à calculer le nombre de répartitions qui est le nombre de façons de répartir N objets dans n boîtes, avec, pour chaque j, N j dans la j-ième boîte; c est le coefficient multinômial. Qu obtient-on pour n = 2? Somme de variables discrètes La loi d une somme de deux variables entières se calcule à l aide de la loi du couple (p i,j ) et devient beaucoup plus simple lorsque ces variables sont indépendantes. Supposons que X et Y soient à valeurs dans N; il en est de même de Z = X + Y et l évènement (Z = n) se décompose en n + 1 évènements disjoints de sorte que (Z = n) = (X = 0, Y = n) (X = 1, Y = n 1)... (X = n 1, Y = 1) (X = n, Y = 0) P (Z = n) = P ( n k=0(x = k, Y = n k)) n n = P (X = k, Y = n k) = p k,n k. k=0 k=0 Si les variables sont indépendantes on peut utiliser la propriété 2) Soit X Y à valeurs dans N, X de loi (p i ) et Y de loi (q j ), alors, P (X + Y = n) = n k=0 p k q n k, n 0 On retrouve ainsi l expression de la loi binômiale. En effet si X est le nombre de succés dans un schéma de Bernoulli de taille n, X peut s écrire X = X 1 +... + X n où X i vaut 1 s il y a succés au i-ème lancer, 0 sinon. Comme les lancers sont indépendants, on peut résumer ceci en X suit la loi binômiale B(n, p) X est la somme de n variables de Bernoulli B(p), indépendantes et équidistribuées. 28

L expression de la loi binômiale se vérifie immédiatement par récurrence sur n mais peut aussi s obtenir directement en écrivant, si X = X 1 +... +X n, P (X = k) = 0 si k > n et sinon, par indépendance, P (X = k) = x 1 +...+x n=k = p #1 (1 p) #0 P (X 1 = x 1 )...P (X n = x n ) x 1 +...+x n=k 1 = C k np k q n k puisque le nombre de solutions de x 1 +... + x n = k avec x i = 0 ou 1 vaut C k n. La remarque suivante nous servira dans le calcul des moments : X suit la loi hypergéométrique de paramètres N, N 1, n notée H(N, N 1, n) X est la somme de n variables de Bernoulli dépendantes et équidistribuées. L équidistribution n est pas évidente et demande une preuve (cf exercice 8). 3.3 Exercices récapitulatifs 1. On lance quatre fois une pièce de monnaie et on appelle X le nombre de FACE, Y le nombre de séries de FACE (une série étant une succession : par exemple FPFF donne X = 3, Y = 2). a) Quelle est la loi de X? b) Trouver la loi du couple (X, Y ) sous la forme d un tableau (p i,j ). c) Déterminer la loi de Y. 2. Calculer la loi de X + Y, où X et Y sont indépendantes, X suit la loi B(n, p) et Y la loi B(m, p). 3. Soit X une variable aléatoire suivant la loi de Poisson P (λ). Montrer que la probabilité que X prenne des valeurs paires est supérieure à la probabilité qu elle prenne des valeurs impaires. 4. Le nombre de véhicules circulant sur l autoroute A1 dans le sens Paris- Lille, durant un intervalle de temps donné, suit une loi P(λ); de même le nombre de véhicules circulant dans le sens Lille-Paris suit une loi P(µ); on suppose les flux indépendants. Quelle est la loi du nombre total de véhicules sur l autoroute A1 durant cet intervalle de temps? 29

5. a) Montrer que la loi géométrique est une loi sans mémoire au sens suivant : P (X > n + m/x > n) = P (X > m). b) Réciproquement, supposons que X soit une variable entière sans mémoire. En posant q n = P (X > n), montrer que q n = q n 1 ; vérifier que P (X = n) = q n 1 q n et montrer alors que X suit une loi géométrique. 6. Soit X et Y deux variables indépendantes à valeurs dans N. On pose Z = min(x, Y ). a) Montrer que P (Z n) = P (X n)p (Y n). On suppose que X suit la loi G(p) et Y la loi G(p ). b) Calculer dans ce cas P (Z n), puis P (Z = n). Quelle est la loi de Z? 7. Dans un schéma de Bernoulli infini, on s intéresse à l instant du second succés, plus généralement à l instant du r-ième succés noté X r, r 1. a) Montrer que pour k 0, P (X r = r + k) = C r 1 r+k 1 pr q k en remarquant qu il faut répartir r 1 succés dans les r + k 1 premiers lancers. (On vérifiera que c est bien une loi de probabilité) b) Montrer que X 2 = X 2 X 1 + X1 est somme de deux variables indépendantes; retrouver ainsi la loi de X 2, puis celle de X r par récurrence sur r. c) Problème des allumettes de Banach Banach, qui était un fumeur impénitent, avait toujours sur lui deux boîtes de n allumettes, une boîte par poche. Pour allumer une cigarette, il choisissait une poche au hasard. Quelle est la probabilité, que, ayant constaté qu une boîte est vide pour la première fois, il reste k allumettes dans l autre? 8. Si X suit la loi hypergéométrique H(N, N 1, n), elle peut se décomposer en X = X 1 +... + X n où X i est le résultat du i-ème tirage. Montrer que les X i suivent des lois de Bernoulli de même paramètre N 1 /N. 9. Montrer que les composantes d un vecteur de loi multinômiale suivent des lois binômiales, mais ne sont pas indépendantes. 30

4 Moments de variables discrètes 4.1 Espérance, Variance Une variable discrète est assez mal décrite par les valeurs qu elle prend (penser à une pièce biaisée) et, pour une première approximation, calculer la moyenne de ces valeurs n est pas vraiment pertinent; il faut tenir compte des probabilités de les obtenir ce qu on fait pour définir le premier moment l espérance. Ensuite, on mesurera la qualité de cette approximation, en calculant la moyenne des oscillations autour de ce nombre; ce sera l objet du second moment la variance. Espérance Pour calculer la note moyenne d un contrôle subi par N élèves, et noté de 0 à 10, on commence par calculer les nombre N i de copies ayant obtenu la note i puis on effectue m = 0 N 0 + 1 N 1 +... + 10 N 10 N = 0 f 0 + 1 f 1 +... + 10 f 10 f i étant la fréquence d apparition de i comme note dans la classe. Ceci conduit à la définition de l espérance mathématique. Remarquer qu elle ne dépend que de la loi de la variable, laquelle joue un rôle muet mais pratique. Si X prend les valeurs x 1,..., x n avec probabilité p 1,..., p n, l espérance de X, E(X) = n 1 p k x k Si X prend les valeurs x i, i 1 avec probabilité p i, i 1, l espérance de X, E(X), existe et vaut 1 p k x k si la série converge absolument. Attention! une var peut ne pas avoir d espérance : ainsi la variable X prenant les valeurs 2 k avec probabilité 2 k, k 1. On trouve parfois le terme valeur moyenne pour désigner l espérance : il faut bien comprendre que c est une moyenne pondérée par les probabilités. Enfin on parlera indifféremment de l espérance d une variable ou de l espérance d une loi.. Avant de calculer l espérance des lois usuelles, on dégage quelques propriétés qui nous aideront. À l aide d une autre expression de l espérance, on peut établir ce qui suit. 31

Propriétés 1) Si X vaut toujours 1, E(X) = 1 2) Si X et Y ont une espérance, il en est de même de cx avec c R et de X + Y ; et l on a E(cX) = ce(x), E(X + Y ) = E(X) + E(Y ) Autrement dit E est une application linéaire. 3) E(X E(X)) = 0 4) Si g : R R est telle que Y = g(x) a une espérance, alors E(g(X)) = k g(x k )p k. Espérance des lois usuelles Désormais la notation X? signifiera X suit la loi? 1. Si X B(n, p), E(X) = np. La façon la plus rapide de le voir est d utiliser la linéarité de l espérance et la décomposition de X en somme de n variables de Bernoulli de même paramètre p, X = X 1 +... + X n ; ainsi n E(X) = E(X i ) = n.e(x 1 ) = np i=1 car E(X 1 ) = 1.p + 0.q = p. On peut aussi faire un calcul direct (cf exercice 3.) (Noter que l indépendance ne sert pas ici!) 2. Si X H(N, N 1, n), E(X) = n N 1 N. La façon la plus rapide ici aussi est de décomposer de X en somme de n variables de Bernoulli de même paramètre N 1 /N, X = X 1 +... + X n, ce qui a été établi en exercice; ainsi E(X) = n.e(x 1 ) = n N 1 N On peut aussi faire un calcul direct (cf exercice 3.) 3. Si X P(λ), E(X) existe et vaut λ. λ λk Il s agit de vérifier que la série de terme général u k = kp k = ke converge (puisque à termes positifs), ce qui est clair; en écrivant u k = λe k! λ λk 1 k 1! si k 1, on déduit E(X) = 1 λ λk 1 λe k 1! = 32 0 λ λj λe j! = λ

4. Si X G(p), p > 0, E(X) existe et vaut 1/p. La série de terme général positif kpq k 1, k 1 est convergente puisque q < 1 et E(X) existe; de plus k 1 kq k 1 est la dérivée terme à terme de la série entière 0 x k (de rayon 1), évaluée au point x = q; comme 0 x k = 1, 1 x k 1 kq k 1 1 vaut et E(X) = p = 1/p. (1 q) 2 (1 q) 2 Si X et Y ont une espérance, ce n est pas forcément le cas pour la variable XY ; c est pourtant vrai lorsque X et Y sont indépendantes, car on a plus précisément Si X et Y sont des variables discrètes admettant une espérance et X Y alors E(XY ) existe et vaut E(X)E(Y ). Attention! la réciproque est fausse : vérifier l identité E(XY ) = E(X)E(Y ) ne suffit pas pour établir l indépendance. Preuve : Supposons pour simplifier que X et Y ne prennent qu un nombre fini de valeurs x 1,..., x n et y 1,..., y m. Z = XY prend les valeurs x i y j avec les probabilités P (X = x i, Y = y j ) = P (X = x i )P (Y = y j ) par indépendance et E(Z) = i n,j m x i y j P (X = x i )P (Y = y j ) = x i P (X = x i ) y j P (Y = y j ) = E(X)E(Y ). i n j m Exercices de base 1. Un tireur a une chance sur 8 de toucher sa cible; combien d essais lui faudra-t-il en moyenne pour y parvenir? Il s agit clairement d un schéma de Bernoulli, puisqu à chaque étape, le tireur remporte un succés avec probabilité p = 1/8, un échec sinon; de plus les tirs sont indépendants. Si X est le nombre de tirs nécessaire pour toucher la cible, X suit la loi G(p); le nombre moyen demandé est E(X) = 8. Combien d essais lui faudra-t-il en moyenne pour atteindre deux fois sa cible? Cette fois il faut trouver E(Y ) où Y = X + X, et X le nombre d essais aprés le premier succés. Comme X a clairement même loi que X, E(Y ) = 2E(X) = 16. (Inutile de chercher la loi de Y ) 33

2. Soit X P(1) une variable de Poisson. Montrer que Y = 1 a une X+1 espérance et la calculer. X prend les valeurs k 0 et Y = g(x) les valeurs g(k) = 1/(k + 1) avec les probabilités p k = 1 e converge et sa somme 1 k!, k 0. La série de terme général g(k)p k = 1 e = 1 e ( Variance, écart-type 0 0 1 e 1 k + 1! = 1 1 1 e j! 1 j! 1) = 1 e (e 1) = 1 1 e. 1 (k+1)! Soit X une variable discrète ayant une espérance; pour mesurer les oscillations de X autour de cette valeur moyenne, il serait naturel de calculer E( X E(X) ); pour des raisons de commodité, on lui préfère E((X E(X)) 2 ) lorsqu elle existe. Soit X une variable discrète d espérance E(X) =: m v(x) = E((X m) 2 ) est la variance de X, σ(x) = E((X m) 2 ) en est l écart-type, s ils existent. Propriétés Supposons que X admette une variance. 1) v(x) = 0 X est constante, égale à m = E(X), avec probabilité 1. 2) (Formule de Koenig) v(x) = E(X 2 ) E(X) 2. 3) σ(ax + b) = a σ(x). Preuve : 1) Si P (X = m) = 1, la variable Y = X m vaut 0 avec probabilité 1, de sorte que P (Y = y) = 0 pour tout y 0 et v(x) = E(Y 2 ) = 0 P (Y = 0) + y i 0 y 2 i p i = 0 Réciproquement si v(x) = E(Y 2 ) = 0, y 2 i p i = 0 et y i = 0 pour tout i tel que p i = P (Y = y i ) 0; ainsi P (Y 0) = 0 c est-à-dire P (Y = 0) = 1; mais Y = 0 si et seulement si X = m d où 1). 2) Il suffit de développer (X E(X)) 2 = X 2 + E(X) 2 2XE(X) et d en prendre l espérance : E([X E(X)] 2 ) = E(X 2 ) + E(X) 2 2E(X)E(X) = E(X 2 ) E(X) 2. 34

3) Remarquons que E(aX + b) = ae(x) + b de sorte que v(ax + b) = v(ax) = a 2 v(x), d où l écart-type. La proposition qui suit est très importante : 1) Si X et Y sont des variables discrètes indépendantes admettant une variance (finie), alors X + Y admet aussi une variance et v(x + Y ) = v(x) + v(y ). 2) Si X 1,..., X n sont des variables discrètes admettant une variance et indépendantes 2 à 2, alors v( n i=1 X i ) = n i=1 v(x i ). En particulier, si les variables sont indépendantes deux à deux et équidistribuées, de même variance σ 2, n σ( X i ) = σ n. i=1 Preuve : 1) Puisque v(x) = v(x E(X)), on peut supposer les variables centrées i.e. E(X) = E(Y ) = 0. Ainsi, v(x + Y ) = E([X + Y ] 2 ) = E(X 2 + Y 2 + 2XY ); or E(XY ) = E(X)E(Y ) = 0 par l hypothèse d indépendance et la réduction. On trouve ainsi v(x + Y ) = v(x) + v(y ). 2) On établit plus généralement pour S n = X 1 +... + X n, somme de variables quelconques, n v(s n ) = v(x i ) + 2 cov(x i, X j ) i=1 1 i<j n où la covariance des variables X i et X j désigne E(X i X j ) E(X i )E(X j ). Ces nombres sont nuls si les variables sont indépendantes deux à deux d où l identité dans ce cas. Variance des lois usuelles 1. Si X B(n, p), v(x) = npq. 35

Cette fois encore, utilisons la décomposition de X en somme de n variables de Bernoulli indépendantes de même paramètre p, X = X 1 +... + X n ; par la proposition, n v(x) = v(x i ) = n.v(x 1 ). i=1 Or, si Y suit une loi de Bernoulli, v(y ) = E(Y 2 ) E(Y ) 2 = E(Y ) E(Y ) 2 = p p 2 = p(1 p) = pq; on trouve ainsi v(x) = npq. Le calcul direct, possible aussi, est beaucoup plus long. 2. Si X G(p), p > 0, v(x) existe et vaut q/p 2. La série de terme général positif k 2 pq k 1, k 1 est convergente puisque q < 1 et E(X 2 ), donc v(x), existe; en écrivant k 2 = k(k + 1) k, k 1 k 2 q k 1 = k 1 k(k + 1)q k 1 k 1 kq k 1 est une somme de dérivées de séries entières. En effet, pour x < 1, k 1 kx k 1 = ( 0 x k ) (déjà utilisé) et k 1 k(k + 1)x k 1 = ( 0 x k+1 ) = 2 ; évaluées au point x = q < 1, cela donne (1 x) 3 et E(X 2 2 ) = p( (1 q) 1 3 p ) = 2 p 1 2 v(x) = 2 p 2 1 1 p 2 = q p 2. 3. Si X P(λ), v(x) existe et vaut λ. Il suffit de vérifier que la série de terme général u k = k 2 p k = k 2 λ λk e k! converge, ce qui est clair; en écrivant cette fois k 2 = k(k 1) + k, u k = e λ ( λk + λk ) si k 2, et on obtient k 2! k 1! E(X 2 ) = 1 λ λk 1 λe k 1! + 2 λ 2 λ λk 2 e k 2! ; Finalement = 0 λ λj λe j! + 0 λ 2 λ λj e j! = λ + λ2. v(x) = E(X 2 ) E(X) 2 = λ + λ 2 λ 2 = λ. 36

4.2 Exercices récapitulatifs 1. Soit X une variable aléatoire telle que P (X = 0) = P (X = 1) = P (X = 2) = 0 et P (X = n) = 1 si n 3. Vérifier qu il s agit bien d une loi de 2 n 2 probabilité et calculer l espérance de X. 2. Dans le problème des clefs (exercice 3. 2.3), on définit X le numéro de la première clef qui ouvre la porte; pouvez-vous préciser les lois obtenues et calculer le temps moyen de réussite dans chacun des deux cas? 3. Retrouver à l aide de la définition, la valeur de l espérance d une loi binômiale et d une loi hypergéométrique, cad établir les identités n kcnp k k q n k = np; k=0 n k=0 k Ck N 1 C n k N N 1 C n N = n N 1 N 4. A partir de X une variable suivant la loi binômiale, on définit Y ainsi : si X = k avec k > 0 on pose Y = k et si X = 0, Y prend une valeur quelconque dans {1,..., n}. Trouver la loi de Y et calculer son espérance. 5. Lors d une compétition sportive d un niveau trés élevé, tous les athlètes ont franchi 2 m. La compétition se poursuit ainsi : la barre est soulevée d un cm à chaque étape et chaque candidat franchit les différentes étapes jusqu à ce qu il échoue; de plus il n a droit qu à un essai par saut. Enfin il a la probabilité 1/n de réussir un saut de n cm au-dessus de 2 m. On note X le nombre de sauts effectués avant d être éliminé. Trouver la loi de X, son espérance et sa variance. 6. On dispose de n boules numérotées de 1 à n, qu on range au hasard dans n cases. On pose S i = 1 si la i-ème boule est dans la i-ème case, 0 sinon. Soit S le nombre de boules à leur place. a) Touver la loi, l espérance, la variance de S i. b) Trouver la loi, l espérance de S i S j. c) En déduire l espérance et la variance de S. 7. a) Soit X une variable aléatoire à valeurs dans {0, 1,..., n}. Montrer que E(X) = n 1 P (X k) en utilisant P (X = k) = P (X k) P (X k + 1), pour k = 0,..., n 1 b) Soit X une variable aléatoire à valeurs dans N et admettant une espérance. Montrer que E(X) = P (X k). 1 37

c) Retrouver ainsi l espérance d une loi géométrique. 8. Dans un jeu de pile ou face infini, on appelle T le temps d attente de deux PILE consécutifs; on souhaite calculer E(T ) cad le temps moyen d attente. a) On pose q n = P (T = n) pour n 2; calculer q 1 et q 2. b) On note X 1, X 2,..., X n,... la suite des résultats à chaque lancer. Montrer que (X 1 = F ), (X 1 = P, X 2 = P ), (X 1 = P, X 2 = F ) forment un système complet d évènements. c) Que vaut P (T = n + 2/(X 1 = P, X 2 = P )) pour n 0? Établir alors P (T = n + 2) = 1 2 P (T = n + 2/X 1 = F ) + 1 4 P (T = n + 2/X 1 = P, X 2 = F ), puis q n+2 = 1 2 q n+1 + 1 4 q n. d) En déduire, sans calculer (p n ), la valeur de E(T ). 9. Fonction génératrice Si X est une variable aléatoire à valeurs dans N de loi (p n ) n 0, on définit sa fonction génératrice, lorsqu elle existe, par G X (z) = E(z X ) = p n z n. 0 a) Montrer que la série entière a un rayon de convergence au moins égal à 1. Que vaut G X (1)? b) Quelle relation a-t-on entre p n et G (n) X (0)? c) Montrer que si X et Y sont des variables aléatoires à valeurs entières et indépendantes, G X+Y = G X.G Y. Trouver ainsi l expression de la fonction génératrice de X lorsque X suit la loi binômiale de paramètres n et p. d) Calculer la fonction génératrice d une variable de Poisson. Par dérivation, retrouver ses moments (espérance et variance). 10. Peut-on piper deux dés de façon que la somme des points obtenus soit équirépartie sur {2,..., 12}? Supposons qu on ait trouvé des probabilités p 1,..., p 6 et q 1,..., q 6 avec 61 p j = 6 1 q j = 1, représentant la loi des résultats de chaque dé, X, Y, telles que P (X + Y = k) = 1, k = 2,..., 12. 11 38

a) Montrer à l aide des fonctions génératrices que 1 11 (x2 +... + x 12 ) = (p 1 x +... + p 6 x 6 )(q 1 x +... + q 6 x 6 ). b) En raisonnant sur les racines des polynômes, aboutir à une contradiction. 39