CHAPITRE II NOTIONS DE PROBABILITES



Documents pareils
Probabilités sur un univers fini

PROBABILITES ET STATISTIQUE I&II

Probabilités. C. Charignon. I Cours 3

Calculs de probabilités conditionelles

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Qu est-ce qu une probabilité?

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

Calculs de probabilités

Probabilités sur un univers fini

Intégration et probabilités TD1 Espaces mesurés

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Coefficients binomiaux

NOTIONS DE PROBABILITÉS

Intégration et probabilités TD1 Espaces mesurés Corrigé

Travaux dirigés d introduction aux Probabilités

Introduction au Calcul des Probabilités

P1 : Corrigés des exercices

Couples de variables aléatoires discrètes

Espaces probabilisés

La mesure de Lebesgue sur la droite réelle

Probabilités conditionnelles

CALCUL DES PROBABILITES

Exercices de dénombrement

I. Cas de l équiprobabilité

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

TSTI 2D CH X : Exemples de lois à densité 1

Moments des variables aléatoires réelles

Université Paris 8 Introduction aux probabilités Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

Image d un intervalle par une fonction continue

3. Conditionnement P (B)

Cours de Probabilités et de Statistique

Programmes des classes préparatoires aux Grandes Ecoles

PROBABILITÉS CONDITIONNELLES

Théorie de la Mesure et Intégration

Simulation de variables aléatoires

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Texte Agrégation limitée par diffusion interne

Arbre de probabilité(afrique) Univers - Evénement

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Théorie de la Mesure et Intégration

Feuille d exercices 2 : Espaces probabilisés

Exercices sur le chapitre «Probabilités»

Suites numériques 3. 1 Convergence et limite d une suite

Problèmes de Mathématiques Filtres et ultrafiltres

Probabilités conditionnelles Exercices corrigés

Probabilités conditionnelles Loi binomiale

Analyse Combinatoire

EI - EXERCICES DE PROBABILITES CORRIGES

Théorie de la mesure. S. Nicolay

Chaînes de Markov au lycée

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Suites numériques 4. 1 Autres recettes pour calculer les limites

4 Distributions particulières de probabilités

Université Paris-Dauphine DUMI2E 1ère année, Applications

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Plan général du cours

Exo7. Probabilité conditionnelle. Exercices : Martine Quinio

Espérance conditionnelle

Probabilités et statistique. Benjamin JOURDAIN

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Objets Combinatoires élementaires

Structures algébriques

Joueur B Pierre Feuille Ciseaux Pierre (0,0) (-1,1) (1,-1) Feuille (1,-1) (0,0) (-1,1) Ciseaux (-1,1) (1,-1) (0.0)

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Statistiques II. Alexandre Caboussat Classe : Mardi 11h15-13h00 Salle : C110.

3 Approximation de solutions d équations

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Intégrale de Lebesgue

Introduction à l étude des Corps Finis

DENOMBREMENT-COMBINATOIRE-PROBABILITES GENERALES

LES GENERATEURS DE NOMBRES ALEATOIRES

POKER ET PROBABILITÉ

Mesures gaussiennes et espaces de Fock

Les probabilités. Chapitre 18. Tester ses connaissances

Probabilités Loi binomiale Exercices corrigés

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Probabilités et Statistique

Limites finies en un point

Calcul fonctionnel holomorphe dans les algèbres de Banach

Correction du baccalauréat ES/L Métropole 20 juin 2014

1. Déterminer l ensemble U ( univers des possibles) et l ensemble E ( événement) pour les situations suivantes.

Exemple On lance une pièce de monnaie trois fois de suite. Calculer la probabilité d obtenir exactement deux fois pile.

Exercices - Polynômes : corrigé. Opérations sur les polynômes

4. Martingales à temps discret

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Mesure de probabilité, indépendance.

Mesure et Intégration (Notes de cours de L3)

Introduction aux Probabilités

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Chapitre 2 Le problème de l unicité des solutions

Premiers exercices d Algèbre. Anne-Marie Simon

Intégration sur des espaces produits

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Transcription:

CHAPITRE II NOTIONS DE PROBABILITES II.1. Un exemple : le poker Distribuer une main de poker (5 cartes sur 52) revient à tirer au hasard 5 cartes parmi 52. On appelle expérience aléatoire une telle expérience dont l issue est soumise au hasard. Une main ainsi effectivement tirée au hasard est une réalisation de l expérience, appelée une épreuve ou expérience élémentaire. Pour permettre l analyse des mains distribuées on doit d abord identifier l ensemble des mains possibles. L ensemble de tous les résultats possibles d une expérience aléatoire est appelé ensemble fondamental de l expérience aléatoire ou univers des possibles, ou espace des épreuves, (anglais : sample space), dénoté par Ω ou E ou S. Pour le poker c est l ensemble de toutes les mains possibles. Il s agit bien entendu ici de l ensemble de tous les sous-ensembles à 5 éléments d un ensemble à 52 éléments. Le nombre d épreuves possibles est alors donné par le coefficient binomial C 5 52 (voir Ch. I), i.e. card E = C 5 52 = 2 598 960. Un événement aléatoire A est représenté par un sous-ensemble, également noté A, de l ensemble fondamental. Par exemple, l événement aléatoire A = «la main est un brelan» est décrit par l ensemble de toutes les mains contenant trois cartes de même hauteur et deux autres cartes de hauteurs différentes. Les opérations logiques sur les événements vont être des opérations (booléennes) sur les parties d un ensemble. Par exemple, l événement aléatoire A c = «la main n est pas un brelan» va être décrit par le complémentaire de A dans l ensemble fondamental. Ceci indique pourquoi les notions de théorie des ensembles sont importantes. Pour attribuer une probabilité à l événement A = «la main est un brelan» on fait l hypothèse que chaque main à la même probabilité! Ainsi pour chaque événement A, la probabilité de A doit être naturellement donnée par la somme de probabilités des mains qui constituent A, ce qui s écrit : Probabilité (A) = card A/card E = nombre de cas favorable/ nombre de cas possibles Il y a 54912 mains qui sont un brelan. On peut ainsi calculer la probabilité d avoir un brelan Probabilité (A = «la main est un brelan») = 54 912/2 598 960 0.0211.

Dans cette approche axiomatique on a attribué a priori une probabilité pour chaque main de poker. Dans des expériences réelles avec des cartes ou des simulations numériques on observe que la fréquence d apparition de A dans une longue série d expérience converge vers cette probabilité. Plus précisément, on répète l expérience aléatoire (indépendamment) N fois. La fréquence d apparition d un événement A est définie par : ν N (A) = nombre de fois où A est réalisé/nombre total d expériences Ici, on distribue, par exemple, 1 million de fois les cartes et on compte la fréquence des brelans. Dans la loi des grands nombres nous démontrerons que lim N ν N (A) = Probabilité (A) pour la probabilité définie ci-dessus. Ceci pourrait constituer une définition de «type fréquentiste» de la probabilité de A. II.2. La définition du modèle probabiliste II.2.a. L ensemble fondamental Dans une expérience aléatoire, on commence par recenser l ensemble de tous les résultats possibles de l expérience. Cet ensemble non vide noté E (ou quelquefois Ω ou S) est l ensemble fondamental ou l univers des possibles ; ses éléments ω sont appelés épreuves. L ensemble fondamental E peut-être fini, dénombrable ou infini non-dénombrable. Exemples : 1. On jette un dé : E = {1,2,3,4,5,6}, card E = 6. 2. On jette une pièce : E = {P, F}, card E = 2. 3. On jette 3 dés : E = {(k 1, k 2, k 3 ) : k j {1,2,3,4,5,6} pour j = 1,2,3} = {1,2,3,4,5,6} 3, card E = 6 3 = 216. 4. On jette 4 pièces : E = {P, F} 4 = 2 4 = 16. 5. On tire 5 cartes parmi 52 (Poker) : E = ensemble de toutes les parties à 5 éléments d un ensemble à 52 éléments = ensemble de toutes les mains possibles, card E = C 5 52 = 2 598 960. 6. On tire k boules (sans remise) dans une urne qui en contient n k boules numérotées 1 à n. E = ensemble de toutes les parties à k éléments d un ensemble à n éléments, card E = C k n. 7. On tire k boules (avec remise) dans une urne qui en contient n boules numérotées 1 à n. E = ensemble de toutes les tuples à k éléments d un ensemble à n éléments, card E = n k.

II.2.b. La notion d événement Un événement aléatoire A est représenté par un sous-ensemble, également noté A, de l ensemble fondamental. Un ω A est un résultat possible. Si ω est une épreuve et ω A on dit que l événement se réalise dans l épreuve ω. L ensemble vide est appelé événement impossible et l ensemble fondamental E est un événement appelé événement certain. Exemples : 1. On jette un dé. L événement «Le résultat est pair» est représenté par l ensemble A = {2,4,6} 2. Poker: L événement «La main est un full» est représenté par l ensemble A ={{c1,c2,c3,c4,c5} E dont la main {c1,c2,c3,c4,c5} est un full} On utilise parfois simultanément le langage de la théorie des ensembles et celui des probabilités. Le dictionnaire suivant donne la correspondance entre les notions fréquemment utilisées. Théorie des ensembles Probabilités A sous-ensemble A événement A = ensemble vide A événement impossible A = E ensemble fondamental E événement certain A B A entraîne B A B intersection A et B, conjonction de A et B A B réunion A ou B, au moins un de A et B A c complémentaire de A Contraire de A A \ B différence A et contraire de B A B différence symétrique Exactement un événement de A ou B A B = ensembles disjoints A et B sont des événements incompatibles (A i ) i I partition de E (A i ) i I système complet d événement Remarque (à éviter en première lecture) : Pour permettre l analyse d une expérience aléatoire on doit considérer a priori une classe A d événements. Dans les cas élémentaires comme dans l exemple du poker, cette classe A est la plupart du temps égale à l ensemble de tous les sous-ensembles de E, notée (E), i.e. tout sous-ensemble peut être considéré comme événement. En particulier, tout A à un élément, A = {ω}, est appelé événement élémentaire. Dans le cas général, cette classe A d événements doit satisfaire les propriétés suivantes: Elle contient E et elle est stable par complémentation et par réunion dénombrable. Un tel A est appelé tribu sur l ensemble fondamental E. Dans le cours présent nous ne discutons pas cette partie de la construction du modèle probabiliste.

II.2.c. La notion de probabilité Cas discret (fini ou dénombrable) Si E est fini, de cardinal N, i.e. E = {ω 1, ω 2,.., ω N }, toute probabilité sur E est déterminée par la donnée de N nombres réels p i compris entre 0 et 1 et de somme 1 : p 1 + p 2 + +p N = 1. En effet, si on pose p i = probabilité que ω i soit réalisé, il est clair que ces deux propriétés sont satisfaites et que l on peut calculer la probabilité de tout événement A par la formule très simple PA ( ) = pi i: ωi A On vérifie sur cette formule les propriétés fondamentales suivantes de P : 1. P(A) [0,1] 2. P(E) = 1 3. Si A et B sont des événements incompatibles, alors P(A B) = P(A) + P(B). Ces trois propriétés vont servir d axiomes dans le cas général où E n est pas fini. L exemple fondateur de la théorie est le cas équiprobable (pour E fini) : tous les résultats possibles (i.e. tous les ω i ) ont la même probabilité p i = 1/N = 1/card E. C est le cas d une distribution uniforme discrète. Donc dans ce cas équiprobable la probabilité d un événement A est donnée par : P(A) = card A/card E = nombre de cas favorable/ nombre de cas possible Exemple 1 : On jette un dé honnête. Donc l ensemble fondamental est E = {1,2,3,4,5,6} et P({i}) = 1/6 pour i = 1,2,3,4,5,6. L événement «Le résultat est pair», donné par A = {2,4,6}, a pour probabilité P(A) = ½. Exemple 2: (Galilée, 1564-1642) On compte la somme des valeurs de trois dés jetés simultanément. Il y a six configurations différentes qui permettent d'obtenir 9 ou 10: pour 9 : (6,2,1), (5,3,1), (5,2,2), (4,4,1), (4,3,2) et (3,3,3), pour 10 : (6,3,1), (6,2,2), (5,4,1), (5,3,2), (4,4,2) et (4,3,3). Soit S la somme obtenue, peut-on en déduire que P(S=9) = P(S=10)? On ne peut pas en déduire que P(S=9)=P(S=10) car les configurations ne sont pas équiprobables. Il faut tenir compte de l'ordre et donc des permutations possibles de chaque configuration. Ainsi (3,3,3) ne "compte qu'une fois" alors que (5,2,2) "compte triple" et (5,3,1) "compte six fois". On obtient ainsi: P(S=9) = 25 / 216 et P(S=10) = 27 / 216

Cas général L ensemble fondamental E n est plus supposé fini ou dénombrable. On ne définit pas la probabilité de chaque ω de E. On définit plutôt directement la probabilité de tous les événements. Ceci demande en général la construction d une tribu A (voir Ch. II.2.b.). Définition : Une distribution de probabilité (une loi de probabilité, une mesure de probabilité) est une application P qui associe à tout événement A un nombre P(A), appelé probabilité de A. P doit satisfaire les axiomes suivants : A1 : P(A) [0,1] A2: P(E) = 1 A3: Si (A i ) sont des événements incompatibles deux à deux, i.e. A i A j = si i j, alors P( Ai) = P( Ai) i= 1 Nous appelons espace probabilisé tout couple (E, P) ou E est un ensemble fondamental et P est une distribution de probabilité sur E. Là aussi, si on veut être plus précis, il faut ajouter la tribu A, donc un espace probabilisé est le triplet (E, A, P). Un événement de probabilité 1 est dit presque sûr (en abrégé p.s.). i= 1

II.3. Propriétés d une distribution de probabilité Dans la suite du cours nous allons adopter une approche axiomatique qui consiste à déduire des axiomes précédents les propriétés des distributions de probabilités. II.3.a. Propriétés élémentaires Donnons une liste de propriétés élémentaires d une distribution de probabilité. Théorème : Soient (E, P) un espace probabilisé et A, B, (A i ) des événements quelconques. P satisfait les propriétés suivantes : 1. 0 P(A) 1 2. P(E) = 1 3. P( ) = 0 4. Si A et B sont incompatibles, i.e. A B =, alors P(A B) = P(A) + P(B) 5. P(A c ) = 1 - P(A) 6. Si A entraîne B, i.e. A B, alors P(A) P(B) et P(B \ A) = P(B) - P(A) 7. P(A B) = P(A) + P(B) - P(A B), et par conséquent P(A B) P(A) + P(B) 8. Soit (A i ) i IN une suite d événements, alors P( Ai) P( Ai) (inégalité de Boole) i= 1 i= 1 9. Soit (A i ) i IN une suite croissante, i.e. A i A i+1, alors lim PA ( ) = P( A). i i i i= 1 10. Soit (A i ) i IN, une suite décroissante i.e. A i A i+1, alors lim PA ( ) = P( A). i i i i= 1

II.3.b. Probabilités de réunions d ensembles : Règle d inclusion-exclusion La règle d inclusion-exclusion s applique à une suite (A i ) 1 i N d événements pour lesquels on connaît a priori les probabilités des conjonctions d événements. On peut ainsi calculer la probabilité de A = A 1 A 2... A N,i.e. la probabilité que «au moins l un des A i est réalisé». Théorème (Formule d inclusion-exclusion) : Soient (E, P) un espace probabilisé et (A i ) 1 i N une suite d événements. Alors, la formule d inclusion-exclusion s écrit : 1. dans le cas de deux événements 2. dans le cas de trois événements 3. dans le cas général P(A 1 A 2 ) = P(A 1 ) + P(A 2 ) - P(A 1 A 2 ) P(A 1 A 2 A 3 ) = P(A 1 ) + P(A 2 ) + P(A 3 ) - P(A 1 A 2 ) - P(A 1 A 3 ) - P(A 2 A 3 ) + P(A 1 A 2 A 3 ) N N P Ai = P( Ai) P( Ai ) ( )... 1 Ai 2 + P Ai 1 Ai 2 Ai 3 + i= 1 i= 1 i1< i2 i1< i2< i3 + 1... +... k+ 1 ( ) P( Ai A ) 1 i A 2 ik i1< i2<... < ik N + 1 ( 1 ) P( Ai Ai... Ai ) + 1 2 n Remarque : Dans la 1 ere somme il y a N termes, dans la 2 ème il y a N (N-1)/2 = C N 2 termes. En général il y a C N k termes dans la k ème somme.

Exemples : 1. On jette 3 dés honnêtes. Quelle est la probabilité d avoir au moins un 6? La formule d inclusion-exclusion permet de répondre à cette question mais n est pas la méthode la plus rapide. Soit A 1 l événement que le premier dé est un six, A 2 l événement que le deuxième dé est un six et A 3 l événement que le troisième dé est un six. Alors A = A 1 A 2 A 3 est l événement qu au moins l un des dés est un six. Nous appliquons la formule d inclusion-exclusion. D abord on calcule les probabilités des conjonctions d événements. On trouve P(A i ) = 1 / 6 pour i = 1,2,3 P(A i A j ) = 1 / 36 = P(A i ) P(A j ) si i j P(A 1 A 2 A 3 ) = 1 / 216 = P(A 1 ) P(A 2 ) P(A 3 ). Alors P(A) = 91 / 216. En fait, la méthode la plus rapide pour répondre à la question posée est de passer au complémentaire : L événement de n avoir aucun six lorsqu on jette trois dés est donné par A c = A 1 c A 2 c A 3 c (par la formule de de Morgan) et P(A c ) = P(A 1 c ) P(A 2 c ) P(A 3 c ). Avec P(A i c ) = 5 / 6 on obtient P(A c ) = 125 / 216 donc P(A) = 91 / 216. 2. Quelle est la probabilité pour qu une main de bridge ait au moins une coupe, i.e. une couleur absente? Dans cet exemple la règle inclusion-exclusion est la bonne méthode pour répondre à la question posée. Soit A i l'événement "la couleur i est absente" où i prend des valeurs dans {,,, }. L'événement "au moins une couleur est absente" est donné par la réunion des toutes les A i. On applique le principe d'inclusion-exclusion à la réunion A de quatre événements A i. Pour chaque i il y a C 13 39 possibilités de choisir une main sans la couleur i. Quand il y a C 13 52 mains possibles la probabilité de chaque A i est P(A i ) = C 13 39/C 13 52. Pour chaque (i,j), i j il y a C 13 26 possibilités de choisir une main sans les couleurs i et j. La probabilité de chaque intersection A i A j est alors P(A i A j ) = C 13 26/C 13 52.

Pour chaque (i,j,k), i j, i k et j k, il y a C 13 13 possibilités de choisir une main sans les couleurs i, j et k (i.e il y a seulement la quatrième couleur). La probabilité de chaque intersection A i A j A k est alors P(A i A j A k ) = C 13 13/C 13 52. L'intersection de 4 événements A i a probabilité 0 (chaque main a toujours au moins une couleur). En appliquant la formule d inclusion-exclusion pour N = 4 on trouve P(A 1 A 2 A 3 A 4 ) = 4 P(A 1 ) - 6 P(A 1 A 2 ) + 4 P(A 1 A 2 A 3 ). La probabilité cherchée est donc 1 621 364 909/31 750 677 980= 0.05106552087. Finalement nous présentons deux raisonnements faux mais souvent utilisés dans ce type de problème : a. Quand on n a plus la propriété que P(A c ) = P(A 1 c ) P(A 2 c ) P(A 3 c ) P(A 4 c ), on ne peut pas passer au complémentaire comme au problème précédent (les événements A i ne sont pas indépendants, voir Ch. II.5.). On passe par le complémentaire comme suit : A c est l événement qu il y a toutes les couleurs. Donc on choisit une carte de chaque couleur, ce qui donne 13 4 choix. Il reste C 9 48 choix possibles pour les neuf cartes restantes. Alors, P(A c ) = 13 4 C 9 48 /C 13 52 = 75.43121248!!! b. On passe au calcul direct de P(A). On choisit d abord la couleur absente ( quatre choix) puis il reste C 13 39 des mains possibles. Alors, P(A) = 4 C 13 39 /C 13 52 = 17063919/333515525 = 0.05116379215. Ce résultat ne coïncide pas avec le résultat obtenu par la formule d inclusion-exclusion. Pourquoi? 3. Le problème des rencontres ou des «matchings» - nombre de dérangements N hommes sont invités à une réception. Chacun donne son chapeau au vestiaire. Les chapeaux sont mélangés et à la fin de la réception chaque invité en choisit un au hasard. Quelle est la probabilité qu aucun des hommes ne choisisse son propre chapeau? Quelle est la probabilité que k des hommes exactement sélectionnent leur propre chapeau? Du point de vue mathématique ce problème est équivalent au tirage d une permutation aléatoire σ de l ensemble {1,2,,N}. Un point fixe d une permutation σ = {σ(1),σ(2),,σ(n)}est défini par la condition σ(i) = i. Une permutation sans point fixe, i.e. σ(i) i pour tout i {1,2,,N} est appelé dérangement. Exemple : Trois permutations de {1,2,3,4,5,6} 2 4 1 6 3 5 2 3 6 1 5 4 4 2 1 3 5 6 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 un dérangement un point fixe trois points fixes

L ensemble fondamental E est l ensemble de toutes les permutations de {1,2,,N}, donc card E = N!. En faisant l hypothèse d équiprobabilité, la probabilité d un événement A est donné par P(A) = card A/card E. Pour la première partie on calcul la probabilité du complémentaire qu au moins un homme prenne son propre chapeau. Appelons A i l événement que le i-ème homme choisit son propre chapeau (i.e. σ(i) = i). Donc A 1 A 2... A N est l événement qu au moins un homme choisisse son propre chapeau. Evidemment P(A i ) = 1/N. La probabilité que deux hommes, par exemple 1 et 2, choisisse leur propre chapeau est P(A 1 A 2 ) = (N - 2)!/N! car il y a (N - 2)! permutations pour les autres (N - 2) chapeaux. En généralisant cet argument on trouve que la probabilité de l intersection de k événements, par exemple A 1 A 2... A k, est donnée par P(A 1 A 2... A k ) = (N - k)!/n! Il y a C N k termes dans la k ème somme de la formule d inclusion-exclusion correspondants aux C N k combinaisons possible de k indices. Donc P(A 1 A 2... A N ) = C N 1 P(A i ) - C N 2 P(A 1 A 2 ) + +(-1) k+1 C N k P(A 1 A 2... A k ) + + (-1) N+1 C N N P(A 1 A 2... A N ), i.e. P(A 1 A 2... A N ) = 1 1/2! + +(-1) k+1 /k! + +(-1) N+1 /N! On désigne par P N (k) la probabilité que k des hommes exactement sélectionnent leur propre chapeau. On a démontré que N j 1 PN (0) = ( 1). j! j= 0 Il y a C N k possibilités que k des hommes exactement sélectionnent leur propre chapeau. Alors pour les autres (N - k) hommes il y a (N - k)! P N-k (0) possibilités qu aucun de ces hommes ne choisisse son propre chapeau. Par conséquent P N (k) = P N-k (0)/k!, i.e. N k j 1 PN ( k) = ( 1). jk!! j= 0 Notons que P N (0) exp(-1) = e -1 lorsque N (c est la série exponentielle pour x = -1). Plus général pour chaque k fixe P N (k) exp(-1)/k! En conclusion, nous avons démontré un théorème limite (voir Ch. V) pour la distribution de matchings: La distribution donnée par les P N (k) converge vers la distribution de Poisson de paramètre 1.

Le chapitre suivant va traiter une conséquence important du modèle probabiliste pour étudier les lois des grands nombres. Il demande une bonne compréhension mathématique du modèle probabiliste. On le discute au Ch. V. seulement. II.3.c. * Suites infinies d événements et lemme de Borel-Cantelli Des suites infinies d événements jouent un rôle essentiel dans l étude des théorèmes limites comme la loi des grands nombres. Limites de suites d événements Soient (E, P) un espace probabilisé et (A i ) i IN, ou bref (A i ), une suite infinie d événements. L événement A i i est l événement «au moins un des A i est réalisé». De même, A i i est l événement «tous les A i sont réalisés». Pour une suite croissante, i.e. A i A i+1 pour tout i, la réunion A i i est appelée limite de la suite et on écrit A i = lim A i i i. De même, si la suite est décroissante, i.e. A i A i+1 pour tout i, la conjonction de tous les A i, A i i est également appelée limite de la suite et on écrit i = lim A i i. i A Limites inférieures et supérieures Pour une suite (A i ) d événements quelconques on peut toujours définir la limite inférieure et la limite supérieure. Définition : La limite inférieure de la suite (A i ), noté A * = lim inf i A i, est l ensemble de tous les éléments de E, qui appartient à tous les A i sauf à un nombre fini d entre eux. La limite supérieure de la suite (A i ), noté A * = lim sup i A i, est l ensemble de tous les éléments de E, qui appartient un nombre infini des A i. A * est donc l événement que tous les A i sauf un nombre fini d entre eux sont réalisés et A * est l événement qu une infinité des A i est réalisés. Evidemment, A * A *. Lemme de Borel-Cantelli Soit (A n ) n 1 une suite d événements et posons A * = lim sup n A n. Si n=1.. P(A n ) <, alors P(A * ) = 0. Autrement dit avec une probabilité égale à 1, au plus un nombre fini d événements A n se réalisent.

II.4. Evénements indépendants II.4.a. Indépendance de deux événements Nous allons introduire la notion d indépendance. Commençons par deux exemples où l intuition de la notion d indépendance est évidente. Exemples : 1. On jette 2 pièces honnêtes. Soient A = «la première donne pile» et B = «la seconde donne pile». A et B sont indépendants. 2. On tire 2 cartes. Soient A = «la première donne pique» et B = «la seconde donne pique». Si on tire sans remise A et B ne sont pas indépendants, si on tire avec remise A et B sont indépendants. Passons à la définition formelle. Définition : Soient (E, P) un espace probabilisé et A, B des événements. A et B sont indépendants si et seulement si : P(A B) = P(A)P(B) Il est très facile de vérifier que cette définition est compatible avec l intuition donnée dans les exemples précédents. Passons des exemples moins intuitifs. Exemple 3 : Une famille a n enfants où n 2. Nous étudions les événements A = «la famille a des enfants des deux sexes» et B = «la famille a au plus une fille». A et B sont deux événements indépendants si et seulement si n = 3! En effet, en faisant l hypothèse d équiprobabilité, on trouve P(A B) = n/2 n, P(A) = 1-2/2 n et P(B) = (n + 1)/2 n. Exemple 4 : On jette deux dés. Considérons les événements A = «la somme est 7», B = «le premier dé donne 4» et C = «la différence est paire». Ici l ensemble fondamental est bien entendu E = {(k 1, k 2 ) : k j {1,2,3,4,5,6} pour j = 1,2} = {1,2,3,4,5,6} 2. Les événements A, B et C sont les sous-ensembles de E donnés par A = {(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)}, B = {(4,6), (4,5), (4,4), (4,3), (4,2), (4,1)} et C = {(1,1), (1,3), (1,5), (2,2), (2,4), (2,6),, (6,2), (6,4), (6,6) }. Ainsi card(a) = 6, card(b) = 6 et card(c) = 18. En faisant l hypothèse d équiprobabilité, on calcule aisément P(A) = 1/6, P(B) = 1/6, P(C) = 1/2, P(A B) = 1/36, P(A C) = 0 et P(B C) = 1/12. A et B sont indépendants, A et C sont dépendants et B et C sont indépendants. On voit que la relation d indépendance n est pas transitive (A et B sont indépendants, B et C sont indépendants, mais A et C ne sont pas indépendants).

II.4.b. Indépendance de plusieurs événements On prolonge la notion d indépendance de deux événements au cas des suites d événements. Soit (A i ) 1 i N une suite d événements. Définition 1: On dit que les événements (A i ) 1 i N sont indépendants deux à deux si et seulement si, pour tout (i, j) et i j, A i et A j sont indépendants. L exemple suivant montre que cette définition est trop faible pour prolonger la notion d indépendance aux suites d événements. Exemple 1: Considérons les anniversaires des trois personnes et les événements A = «1 et 2 ont le même anniversaire», B = «1 et 3 ont le même anniversaire» et C = «2 et 3 ont le même anniversaire». Evidemment P(A) = P(B) = P(C) = 1/365 et P(A B) = P(A C) = P(B C) = 1/365 1/365. Donc A, B, et C sont indépendants deux à deux. Par contre, si deux événements sont réalisés, par exemple A et B, le troisième événement C est sûrement réalisé, car les trois personnes ont toutes le même anniversaire. Par conséquent C n est pas indépendant de la conjonction de A et B, i.e. P((A B) C) = 1 / 365 1 / 365 P(A B) P(C) = P(A) P(B) P(C) = 1 / 365 1 / 365 1 / 365. Pour prolonger notre notion d indépendance aux cas de trois événements on devra imposer une condition supplémentaire non comprise dans la définition de l indépendance deux à deux, à savoir : P(A 1 A 2 A 3 ) = P(A 1 ) P(A 2 ) P(A 3 ). Pour une suite de N événements on a la définition suivante. Définition 2 : On dit que les événements (A i ) 1 i N sont indépendants (ou mutuellement indépendants) si et seulement si pour toute sous-suite d événements distincts, on a : PA ( A... A ) = PA ( ) PA ( )... PA ( ) i1 i2 ik i1 i2 ik On a déjà vu que N (N > 2) événements peuvent être indépendants deux à deux sans être indépendants mutuellement. Si N événements sont mutuellement indépendants ils sont indépendants deux à deux. Remarque : Le nombre de conditions imposées dans la définition 2 est égal à : C N 2 + C N 3 + + C N N = 2 N C N 1 C N 0 = 2 N N 1.

Proposition : Soit (A i ) 1 i N une suite d événements mutuellement indépendants. 1. Pour chaque i, 1 i N, posons B i = A i ou B i = A i c. Alors (B i ) 1 i N est une suite d événements mutuellement indépendants. 2. Toute sous-famille de (A i ) 1 i N est constituée des événements mutuellement indépendants. II.4.c. Probabilité de réunions d événements indépendants Soit (A i ) 1 i N une suite d événements mutuellement indépendants. Il y a une formule simple pour calculer la probabilité de A 1 A 2... A N. Proposition : Soit (A i ) 1 i N une suite d événements mutuellement indépendants. Alors P(A 1 A 2... A N ) = 1 [1 - P(A 1 )] [1 - P(A 2 )] [1 - P(A N )] Preuve: On passe au complémentaire de A 1 A 2... A N et on applique la règle de de Morgan ( A i ) c = A i c. Par la proposition du Ch. II.4.b. les événements A i c sont mutuellement indépendants. Donc P(A 1 A 2... A N ) = 1 P((A 1 A 2... A N ) c ) = 1 P(A 1 c A 2 c... A N c ) = P(A 1 c ) P(A 2 c ) P(A N c ). Exemple 1: On suppose que une personne est soumise N fois à un risque p d accident où 0 < p < 1. Quelle est la probabilité d avoir au moins un accident? Pour répondre à cette question on pose A i = «la i ème expérience provoque un accident» et on suppose que les A i sont mutuellement indépendants. Avec p = P(A i ) on a P(«au moins un accident») = P(A 1 A 2... A N ) = 1 (1 p) N. Si N et p est fixe cette probabilité tend vers 1. Si N et p 0 où p est de l ordre 1/N, i.e. p = λ/n pour un λ fixe, alors P(«au moins un accident») 1 exp(-λ). Donc la probabilité qu il n arrive aucun accident est environ P(«pas d accident») exp(-λ) si N est très grand.

II.5. Probabilités conditionnelles Dans de nombreuses applications les probabilités conditionnelles ou le conditionnement constituent un outil précieux pour calculer des probabilités inconnues à partir de probabilités données. II.5.a. Définition Définition : Soient (E, P) un espace probabilisé et A, B des événements quelconques tel que P(B) > 0. On note P(A B) = P(A B) / P(B) la probabilité de A conditionnellement à B ou la probabilité de A sachant B. Les formules suivantes sont souvent très utiles pour calculer des probabilités d intersections : Cette technique est appelée conditionnement. P(A B) = P(A B) P(B) P(A B) = P(B A) P(A) La généralisation de ces formules au cas des plusieurs événements est considérée dans le Ch. II.5.b. (théorème de multiplication ou conditionnement multiple) Des probabilités conditionnelles ont des propriétés suivantes : 1. Pour tout événement B fixe tel que P(B) > 0 la fonction d ensembles A P(A B) satisfait les axiomes A1 A3, i.e. P(A B) est une distribution de probabilité sur E. 2. Si A et B sont des événements indépendants et P(B) > 0, alors P(A B) = P(A). Exemple 1: On jette deux dés. Considérons les événements A = «la somme est 5», B = «le premier dé donne 3» et C = «le premier dé donne au moins 3». Calculer P(A B) et P(A C). On a P(A) = 4/36 = 1/9, P(B) = 1/6, P(A B) = P({3,2}) = 1/36, donc P(A B) = 1/6. La probabilité conditionnelle de A sachant que B est réalisé a augmenté : P(A B) > P(A). Avec P(A) = 4/36 = 1/9, P(C) = 4/6 = 2/3, P(A C) = P({3,2},{4,1}) = 2/36 = 1/18 on trouve P(A C) = 1/12. La probabilité conditionnelle de A sachant que C est réalisé a diminué : P(A C) < P(A).

II.5.b. Conditionnement multiple Nous avons déjà vu que la probabilité de la conjonction des deux événements peut être calculée par le conditionnement sur un des événements. L itération de cette technique est appelée conditionnement multiple. Théorème (théorème ou conditionnement multiple) : Soient (E, P) un espace probabilisé et (A i ) 1 i N une suite d événements. Alors, la formule du conditionnement multiple s écrit: 1. dans le cas de deux événements 2. dans le cas de trois événements 3. dans le cas général P(A 1 A 2 ) = P(A 1 ) P(A 2 A 1 ) P(A 1 A 2 A 3 ) = P(A 1 ) P(A 2 A 1 ) P(A 3 A 1 A 2 ) P(A 1 A 2... A N ) = P(A 1 ) P(A 2 A 1 ) P(A N A 1 A 2... A N-1 ) si tous les événements A 1... A k,1 k N 1, sont de probabilité non nulle. Exemple 1: Considérons une urne contenant six boules blanches et quatre boules rouges. Quelle est la probabilité de la suite «blanc, blanc, rouge» si on tire les boules sans remise? Pour répondre à cette question nous désignons les événements B 1 = «la première boule est blanche», B 2 = «la deuxième boule est blanche» et B 3 = «la troisième boule est rouge». Alors P(B 1 B 2 B 3 ) = P(B 1 ) P(B 2 B 1 ) P(B 3 B 1 B 2 ) = 4/10 3/9 6/8 = 1/10. Remarquons qu il faut conditionner dans le bon ordre. Par exemple, la formule P(B 1 B 2 B 3 ) = P(B 3 ) P(B 2 B 3 ) P(B 1 B 2 B 3 ) est juste mais inutilisable.

II.5.c. Formule des probabilités totales Soient (E, P) un espace probabilisé et A, B des événements quelconques. Les événements B et B c forment un système complet d événements et P(A) = P(A B) + P(A B c ) Si B et B c sont de probabilité non nulle on peut utiliser des probabilités conditionnelles pour calculer les probabilités d intersections. Donc P(A) = P(A B) P(B) + P(A B c ) P(B c ). Cette formule se généralise au cas d un système complet d événement Théorème (formule des probabilités totales) : Soient (E, P) un espace probabilisé et (B i ) 1 i N un système complet d événements, tous de probabilité non nulle. Alors, pour tout événement A, on a: P(A) = P(A B 1 ) P(B 1 ) + P(A B 2 ) P(B 2 ) + + P(A B N ) P(B N ). Exemple 1: On dispose de deux pièces. L une est honnête, l autre a deux piles. On choisit une pièce au hasard et on la lance trois fois. Quelle est la probabilité d obtenir trois piles? Pour résoudre ce problème on conditionne par la pièce choisie, i.e. on applique la formule des probabilités totales pour les événements A = «on tire trois piles», B 1 = «la pièce est honnête» et B 2 = «la pièce a deux piles». On a P(A) = P(A B 1 ) P(B 1 ) + P(A B 2 ) P(B 2 ) = 1/8 1/2 + 1 1/2 = 9/16.

II.5.d. Formule de Bayes On continue la discussion de l exemple précédent. Maintenant on pose la question inverse. Exemple 1: On dispose de deux pièces. L une est honnête, l autre a deux piles. On choisit une pièce au hasard et on la lance trois fois. Quelle est la probabilité que la pièce choisie est la pièce honnête si on a tiré trois piles? Nous cherchons la probabilité P(B 1 A). En utilisant la définition des probabilités conditionnelles deux fois on obtient Donc P(B 1 A) = 1/8 1/2 : 9/16 = 1/9. P(B 1 A) = P(A B 1 ) / P(A) = P(A B 1 ) P(B 1 ) / P(A) = P(A B 1 ) P(B 1 ) / [P(A B 1 ) P(B 1 ) + P(A B 2 ) P(B 2 )]. Théorème (formule de Bayes) : Soient (E, P) un espace probabilisé et (B i ) 1 i N un système complet d événements, tous de probabilité non nulle. Alors, pour tout événement A de probabilité non nulle, on a, pour tout k, 1 k N : P(B k A) = P(A B k ) P(B k ) / [P(A B 1 ) P(B 1 ) + P(A B 2 ) P(B 2 ) + + P(A B N ) P(B N )]. II.5.e. Exemples 1. Exemple élémentaire Une famille a deux enfants. a. On sait que l aîné est un garçon. Quelle est la probabilité que le second soit un garçon? Soit A 1 l événement que l aîné est un garçon, A 2 l événement que le second est un garçon. Sous des hypothèses convenables A 1 et A 2 sont indépendants. Alors P(A 2 ) = ½. b. On sait qu un des enfants est un garçon. Quelle est la probabilité que l autre soit un garçon? On sait que A 1 A 2, i.e. A 1 ou A 2, est réalisé. On veut donc calculer la probabilité de A 1 A 2 sachant A 1 A 2. Alors P(A 1 A 2 A 1 A 2 ) = P(A 1 A 2 ) : P(A 1 A 2 ) = ¼ : ¾ = 1/3.

2. Problème de tests Pour dépister une maladie, on applique un test. Si le patient est effectivement atteint, le test donne un résultat positif dans 96% des cas. Mais il se peut aussi que le résultat du test soit positif alors que le patient est en bonne santé, et ceci se produit dans 2% des cas. Sachant qu'en moyenne 0.05% des patients sont atteints de la maladie à dépister, calculer la probabilité pour qu'un patient soit atteint sachant que son test a été positif. Soit A l'événement: "le test est positif", B l'événement: "le patient est en bonne santé" et M = B C l'événement: "le patient est atteint de la maladie". Remarquons que: et P(A M) = 0.96 P(A B) = 0.02. P(M) = 0.0005. Par la formule de Bayes P(M A) = P(A M)P(M)/ [P(A M)P(M) + P(A B)P(B)] = 0.96 0.0005/[0.96 0.0005+0.02 0.9995] = 0.023. Il est intéressant de constater que seul 2.3% des patients testés positifs sont effectivement malades. Pourtant le test semble avoir des caractéristiques techniques raisonnables. Comment comprendre un chiffre si bas? 3. Loi de succession de Laplace On dispose de N + 1 urnes numérotées de 0 à N. L urne numérotée «k» contient k boules blanches et N k boules rouges. On choisit une urne au hasard de façon équiprobable, puis on tire n boules avec remise dans cette urne. a. Quelle est la probabilité que les n boules tirées soient blanches? b. Quelle est la probabilité que le (n+1)-ième tirage donne encore une boule blanche sachant que les n premières boules tirées sont blanches? On désigne les événements B i = «l urne choisie a le numéro i» pour tout i = 0 N et A n = «les premières n boules tirées sont blanches». Evidemment (B i ) 0 i N est un système complet d événements et P(B i ) = 1 / N+1. On connaît également les probabilités conditionnelles P(A n B i ) = (i/n) n. Par la formule des probabilités totales on a P(A n ) = P(A n B 0 ) P(B 0 ) + P(A n B 1 ) P(B 1 ) + + P(A n B N ) P(B N ) = Σ i=0,...,n (i/n) n /(N+1). P(A n ) est donc une somme de Riemann. Ainsi P(A n ) converge vers l intégrale [0,1] x n dx. lorsque N, i.e. P(A n ) 1 / n+1.

Pour le deuxième problème il faut calculer les probabilités conditionnelles P(A n+1 A n ). La suite d événements (A n ) est décroissante, i.e. A n A n+1 pour tout n, alors P(A n+1 A n ) = P(A n+1 ) / P(A n ) n+1 / n+2 lorsque N. 4. Monty Hall Pendant un concours à la télévision, le présentateur cache un prix (une voiture) derrière une porte (il y a 3 portes : A, B et C). Il invite un concurrent à se présenter et à choisir l'une des trois portes, sans l'ouvrir. Il ouvre ensuite l'une des deux portes qui n'ont pas été choisies par le concurrent, en sachant que la voiture ne se trouve pas derrière ; il offre alors au concurrent la possibilité de remplacer la porte qu'il avait choisie par l'autre qui reste fermée. Quelle est le meilleur choix pour le concurrent: est-ce que la probabilité de gagner en changeant de porte est plus grande que la probabilité de gagner sans changer de porte? L'espace fondamental de cette expérience est Ω = {(X V, X C, X P )}, où X V = A,B ou C, X C = A,B ou C et X P = A,B ou C. Ici, X V représente la porte où se trouve la voiture, X C la porte choisie par le concurrent et X P la porte ouverte par le présentateur. Pour répondre à la question "est-ce que la probabilité de gagner en changeant de porte est plus grande que la probabilité de gagner sans changer de porte?" il faut calculer la probabilité pour que le concurrent ait choisi une porte ne cachant pas la voiture, conditionnellement à l'événement "la voiture ne se trouve pas dans la porte choisie par le présentateur" c'est à dire: Mais P({X V X P }) = 1, donc: P({X V X C } {X V X P }) P({X V X C } {X V X P }) = P({X V X C }) = 6 / 9 = 2 / 3. La probabilité pour que le concurrent gagne en changeant de porte vaut donc 2 / 3, tandis que sa probabilité de gagner sans changer de porte n'est que de 1 / 3. Son meilleur choix est de changer de porte!