Chapitre 14 : Variables aléatoires finies

Documents pareils
Moments des variables aléatoires réelles

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Probabilités sur un univers fini

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

I. Cas de l équiprobabilité

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Travaux dirigés d introduction aux Probabilités

Exercices sur le chapitre «Probabilités»

Probabilités. C. Charignon. I Cours 3

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Couples de variables aléatoires discrètes

Variables Aléatoires. Chapitre 2

Lois de probabilité. Anita Burgun

P1 : Corrigés des exercices

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Coefficients binomiaux

Probabilités sur un univers fini

Probabilités Loi binomiale Exercices corrigés

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Programmes des classes préparatoires aux Grandes Ecoles

Calculs de probabilités conditionelles

TSTI 2D CH X : Exemples de lois à densité 1

Probabilités conditionnelles Loi binomiale

Loi d une variable discrète

Probabilités conditionnelles Exercices corrigés

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

1 TD1 : rappels sur les ensembles et notion de probabilité

Arbre de probabilité(afrique) Univers - Evénement

Espérance conditionnelle

Estimation et tests statistiques, TD 5. Solutions

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Probabilités et statistique. Benjamin JOURDAIN

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Loi binomiale Lois normales

Introduction au Calcul des Probabilités

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

3. Caractéristiques et fonctions d une v.a.

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Université Paris 8 Introduction aux probabilités Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

PROBABILITÉS CONDITIONNELLES

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Texte Agrégation limitée par diffusion interne

Simulation de variables aléatoires

Chaînes de Markov au lycée

Intégration et probabilités TD1 Espaces mesurés Corrigé

Fluctuation d une fréquence selon les échantillons - Probabilités

Continuité en un point

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Qu est-ce qu une probabilité?

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

MA6.06 : Mesure et Probabilités

Feuille d exercices 2 : Espaces probabilisés

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

CALCUL DES PROBABILITES

Le modèle de Black et Scholes

PRIME D UNE OPTION D ACHAT OU DE VENTE

Exercices supplémentaires sur l introduction générale à la notion de probabilité

4. Exercices et corrigés

Limites finies en un point

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Calcul élémentaire des probabilités

Amphi 3: Espaces complets - Applications linéaires continues

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Résolution d équations non linéaires

4 Distributions particulières de probabilités

Les probabilités. Chapitre 18. Tester ses connaissances

DENOMBREMENT-COMBINATOIRE-PROBABILITES GENERALES

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

4. Martingales à temps discret

M2 IAD UE MODE Notes de cours (3)

LES GENERATEURS DE NOMBRES ALEATOIRES

Commun à tous les candidats

Espaces probabilisés

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

NOTIONS DE PROBABILITÉS

Correction du Baccalauréat S Amérique du Nord mai 2007

Leçon N 4 : Statistiques à deux variables

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

3. Conditionnement P (B)

Théorème du point fixe - Théorème de l inversion locale

Correction du baccalauréat ES/L Métropole 20 juin 2014

3 Approximation de solutions d équations

Chapitre 2 Le problème de l unicité des solutions

Chapitre 3 : INFERENCE

Cours 02 : Problème général de la programmation linéaire

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Théorie de la Mesure et Intégration

EI - EXERCICES DE PROBABILITES CORRIGES

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Image d un intervalle par une fonction continue

III- Raisonnement par récurrence

BACCALAURÉAT GÉNÉRAL SESSION 2012 OBLIGATOIRE MATHÉMATIQUES. Série S. Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE

Transcription:

Chapitre 14 : Variables aléatoires finies Dans tout ce chapitre, (Ω, P(Ω)) est un espace probabilisable fini. 1 Motivation Prenons un exemple : on considère l expérience aléatoire obtenue par le jet de deux dés (de couleur différente). On modélise cette expérience par Ω = [ 1; 6]] 2, A = P(Ω). Supposons que le résultat qui nous intéresse soit la somme des deux chiffres obtenus et que l on s intéresse plus particulièrement à l évènement A : «la somme obtenue est 7». On décompose en évènements élémentaires : A = {(1,6),(2,5),(3, 4),(4,3),(5, 2), (6,1)} On préfère considérer une fonctions (ici la fonction S : Ω Ê qui à ω Ω associe la somme des chiffres obtenus) et dire que l évènement A est A = [S = 7] = {ω Ω, S(ω) = 7} qui est plus facile à manipuler. Pour les sceptiques, signalons que si on refuse d utiliser les variables aléatoires, la situation devient vite intenable lorsque l expérience considérée a de nombreux résultat : l univers (même fini) peut être très gros et difficile à décrire. Pour se convaincre, on peut essayer de décrire l univers de l expérience suivante : on distribue complètement un jeu de 52 cartes à 4 joueurs (on remarquera que Card Ω = ( 52 13) = 635013559600). L utilisation de variables aléatoires permet de faire abstraction du modèle. 2 Définitions 2.1 Variable aléatoire réelle discrète Définition 2.1.1 Soit (Ω, A) est un espace probabilisable fini. On appelle variable aléatoire réelle sur (Ω, A) toute application { Ω Ê X : ω X(ω) On dit que l ensemble X(Ω) = {X(ω), ω Ω} est l univers-image de X. Définition 2.1.2 Soit X une variable aléatoire réelle sur Ω et x Ê. On note [X = x] = X 1 (x) = {ω Ω, X(ω) = x} [X x] = X 1 (],x]) = {ω Ω, X(ω) x} [X > x] = X 1 (]x,+ [) = {ω Ω, X(ω) > x} On a en particulier [X x] = [X > x] et [a X b] = X 1 ([a,b]) = [X a] [X b]. J. Gärtner. 1

Plus généralement, si I Ê on note [X I] = {ω Ω, X(ω) I}. Toutes ces parties sont des événements. Lorsqu on étudie une variable aléatoire il est bon d essayer de préciser son image X(Ω). Exemple. On joue à Pile ou Face n fois. L univers est Ω = {0,1} n où 1 symbolise le Pile et A = P(Ω). Soit X la variable aléatoire qui donne le nombre de Piles obtenus. On a X(Ω) = {0,1,2,3,...,n}. L évènement [X = 0] est {(0,...,0)}, l évenement [X = 1] = {(ε 1,...,ε n ),! i [1; n ], ε i = 1}. On a par exemple [X > n 1] = {(1,...,1)}. L évènement «obtenir plus de pile que de face» est l évènement (X > [ n ]) = (X 2 [ n 2 ] + 1). Exercice. On s intéresse à l expérience aléatoire qui consiste ne le jet de deux dés de couleur différente. Pour chaque jet, on considère la somme des deux chiffres obtenus. Donner un espace probabilisable qui modélise cette expérience. Définir une variable aléatoire réelle X qui traduit le résultat de cette expérience. Vérifier que c est bien une variable aléatoire réelle. Décrire X(Ω). Donner sous forme explicite les évènements (X = 1), (X = 4), (X 5), ( 26 69 X < 10 11 ). Exercice. On dispose d une urne contenant N boules numérotées de 1 à N. On tire sans remise successivement n boules. Décrire Ω. On note X l application qui à ω Ω associe le plus grand nombre tiré. Décrire X(Ω). Montrer que X est une variable aléatoire réelle finie. Que valent les évènements (X n 1) et (X N + 1)? Quel est le cardinal de (X? 2.2 Exemples de variables aléatoires 1. Une application constante est une variable aléatoire, on l appelle variable aléatoire certaine. 2. Une variable aléatoire X telle que Card X(Ω) = 2 est appelée variable aléatoire de Bernoulli. 3. Si on s interesse à un schéma binomial, répétition de n épreuves de Bernoulli indépendantes, la variable X i qui vaut 1 si la iieme étape est un succès et 0 sinon est une variable de Bernoulli. La variable donnant le nombre de succès au cours du schéma est une variable aléatoire, d univers image [ 0; n ], appelée variable de loi binomiale. 4. On jette simultanément deux dés équilibrés. On note X la somme des résultats obtenus. Alors X(Ω) = [ 2; 12]]. On a par exemple [X = 6] = [X > 5] [X > 6] et [X < 3,2] = [X = 2] [X = 3]. 2.3 Système complet d événements associé à une variable aléatoire Proposition 2.3.1 Soit (Ω, A) un espace probabilisable fini. Pour toute variable aléatoire réelle finie X sur (Ω, A), l ensemble {[X = x], x X(Ω)} est un système complet d évènements. On l appelle le système complet d évènements associés à X. J. Gärtner. 2

Démonstration: On sait que (X = x) A par définition d une variable aléatoire réelle. Si x y X(Ω), il est clair que (X = x) (X = y) = : les évènements (X = x) et (X = y) sont incompatibles. De plus x X(Ω) (X = x) = (X X(Ω)) = Ω. Ce qui montre le résultat attendu. Remarque. Les événements du système complet d événements associé à X sont en quelque sorte les événements les «plus petits» que l on puisse considérer à l aide de X. C est la quintessence de l information apportée par X. Tout événements que l on décrit à partir de ce système complet ne tient compte uniquement de ce que l on sait de l expérience aléatoire considérée par la connaissance de X. Exemple. On joue deux fois à Pile ou Face. On a Ω = {0,1} 2 et A = P(Ω). Soit X la variable aléatoire qui donne le nombre de Pile obtenus. On a X(Ω) = {0,1,2} et (X = 0) = {(F,F)}, (X = 1) = {(P,F),(F,P)},(X = 2) = {(P,P)} est un système complet d évènements. Exercice. Dans l expérience consistant au jet consécutif de deux dés, soit X la variable aléatoire réelle finie qui donne la somme des chiffres obtenus. Décrire le système complet d évènements associé à X. 2.4 Lois de probabilité d une variable aléatoire Soit (Ω, A,P) un espace probabilisé fini et X une variables aléatoire réelle sur (Ω, A). Vu les remarques faites sur le système complet associé à X, la définition suivante est naturelle. Définition 2.4.1 Soit (Ω, A,P) un espace probabilisé fini et X une variables aléatoire réelle sur (Ω, A). La donnée de la loi de probabilité est équivalente à la donnée de lunivers image X(Ω) et de l ensemble des probabilités {P(X = x), x X(Ω)} Remarque. Il est possible que deux variables aléatoires X et Y de même image aient même loi. On note dans ce cas X Y. Exemple. 1. Soit X : ω a une variable aléatoire certaine. Sa loi est alors {P(X = a) = 1}. 2. Soit X : Ω {0,1} une variable aléatoire de Bernoulli. Sa loi est {P(X = 1) = p, P(X = 0) = 1 p}. 3. On jette un dé équilibré, on note X le numéro obtenu. Alors X est une variable aléatoire et sa loi est donnée par X(Ω) = [1; 6 ] et k [ 1; 6 ], P(X = k) = 1 6. Proposition 2.4.1 Soit (Ω, A,P) un espace probabilisé fini et X une variable aléatoire réelle finie. alors P(X = x) = 1 x X(Ω) et si on numérote les éléments de X(Ω), c est-à-dire que l on pose X(Ω) = {x i, i [1; n ]} on a J. Gärtner. 3

n P(X = x i ) = 1 i=1 Il faut toujours vérifier ce point lorsque l on donne une loi de probabilité. Démonstration: Ceci découle du fait que {(X = x), x X(Ω)} est un système complet d évènements (on utilise les deux propriétés : d abord que Ω est l union de tous les événements du système, puis que ces événements sont deux à deux incompatibles). On a donc 1 = P(Ω) = P( x X(Ω) [X = x]) = P (X = x). x X(Ω) Exercice. On dispose d une urne contenant N boules numérotées de 1 à N. On tire sans remise successivement n boules. Préciser l espace probabilisé de travail. Soit X la variable aléatoire réelle finie égale au plus grand numéro des n boules prélevées. Que vaut X(Ω)? Donner la loi de X. En déduire que N ( k 1 ( n 1) = N. 2.5 Fonction de répartition Définition 2.5.1 k=n Soit (Ω, A,P) un espace probabilisé fini et X une variable aléatoire réelle finie. L application { Ê Ê F X : x P(X x) est appelée Fonction de répartition de X. Exemple. DESSINS : remarquer que la loi de chaque variable se lit dans les sauts de F X. 1. Variable aléatoire certaine. Si x < a F X (x) = 0 et si x a F X (x) = 1. 2. Variable aléatoire de Bernoulli. (Rappel : P(X = 0) = 1 p et P(X = 1) = p). Si x < 0 F X (x) = 0 si x [0,1[ F X (x) = 1 p et si x 1, F X (x) = 1. 3. Variables aléatoires uniformes. X(Ω) = {x 1,...,x n } avec x1 < < x n. Si x < x 1, F X (x) = 0. Si x [x i,x i+1 [ avec i [1; n 1]] F x (x) = i n et si x x n, F X (x) = 1. On remarque que la loi de X se lit dans les sauts de F X. Nous allons étudier maintenant les propriétés des fonctions de répartitions de variables aléatoires réelles finies. Nous utilisons les notions de limite et de continuité, qui seront rappelées dans un chapitre ultérieur. Attention : le point 4. du théorème ci-dessous dépend de manière cruciale de l hypothèse «X finie»! Théorème 2.5.1 La fonction de répartition F X d une variable aléatoire réelle finie X est 1. Croissante sur Ê. 2. x Ê, 0 F X (x) 1 et lim x F X(x) = 0, lim x + F X(x) = 1. 3. F X est continue à droite : x Ê, lim F X (t) = F X (x). t x t>x J. Gärtner. 4

4. F X prend un nombre fini de valeurs, elle n a qu un nombre fini de discontinuités. Elle est continue en tout point de Ê X(Ω). 5. x Ê, lim F X (t) = F X (x) P(X = x) = P(X < x) t x t<x 6. F X est continue en x si et seulement si P(X = x) = 0, i.e. x / X(Ω). 7. Si X(Ω) = {x 1,...,x n } avec x 1 < < x n, on a x Ê, F X (x) = i [[1;n]] x i x P(X = x i ) La preuve de ce théorème est intéressante pour commencer à comprendre comment manipuler les variables aléatoires. Démonstration: 1. Soient x, y Ê tels que x y. On a ], x] ], y] donc (X x) (X y) et P(X x) P(X y). C est donc que F X (x) F X (y) et F X est croissante. 2. F X (x) = P(X x) [0, 1]. Posons X(Ω) = {x 1,..., x n } avec x 1 < < x n. Calculons lim F X(x). Si x < x 1, alors (X x) =. Donc F X (x) = P(X x) = 0. x Sur ], x 1 [, F X est la fonction constante nulle, lim F X(x) = 0. x Montrons que lim F X(x) = 1. Dès que x x n on a (X x n ) (X x). Mais x + (X x n ) = n (X = x k) = (X X(Ω)) = Ω. Ainsi 1 = P(X x n ) P(X x) 1 et F X (x) = 1. F X est la fonction constante à 1 sue ]x n, + [, sa limite est 1. 3. Si t < x 1 ou t x n on a vu que F X était constante donc continue à droite. De même, si i [ 1 ; n 1 ] et t [x i, x i+1 [, F X (t) = P(X t) = P( ip(x = x k )) = i P(X = x k ) est contante. Ainsi pour tout x [x 1, x n [ il existe un unique i [ 1 ; n 1 ] tel que x [x i, x i+1 [. Alors lim F X (t) = F X (x) = F X (x i ). 4. C est une conséquence de la preuve de 3. : si i, x x i, F X est constante sur un intervalle ouvert centré en x. 5. Si x / X(Ω), on vient de voir au point 4. que F X est continue en x. Comme P(X = x) = 0 (puisque x n est pas une valeur de X!), on a bien lim F X (t) = F X (x) P(X = x). Si x est l un des x i, avec i 1, on a pour t ]x i 1, x i [, F X (t) = P(X t) = P(X < x i ). C est une fonction constante, d où le résultat sur la limite. Si x = x 1, pour tout t < x on a F X (t) = 0 = P(X < x 1 ), et le résultat suit. 6. et 7. Evident au vu des points précédents. t x t>x t x t<x Théorème 2.5.2 (La fonction de répartition caractérise la Loi) Si X et Y sont deux variables aléatoires réelles finies de même fonction de répartition, alors X et Y ont même loi de probabilité, i.e. X Y. Démonstration: En effet la loi de X est la donnée pour tout x X(Ω) de P(X = x). Soit x Ê quelconque. D après le théorème précédent, P(X = x) = F X (x) lim F X (t). Mais F X = F Y donc P(X = x) = F Y (x) lim F Y (t) = P(Y = x). Ceci montre que X(Ω) = Y (Ω) et que X et Y ont même loi. t x t<x t x t<x J. Gärtner. 5

Remarque. Les propriétés des variables aléatoires finies montrent que si X(Ω) = {x 1,... x n } avec x 1 < < x n alors on a P(X = x 1 ) = F X (x 1 ) et i [ 2; n ], P(X = x i ) = F X (x i ) F X (x i 1 ) Exemple. Soit X une variable aléatoire finie de fonction de répartition 0 si x < 0 x 1 2 3 5 4 5 9 10 si 0 x < 1 si 1 x < 2 si 2 x < 4 si 4 x < 7 1 si x 7 Alors X(Ω) = {0,1,2,4,7} et P(X = 0) = 1 2, P(X = 1) = F X(1) F X (0) = 3 5 1 2 = 1 10, P(X = 2) = F X(2) F X (1) = 1 5, P(X = 4) = F X(4) F X (2) = 1 10 et P(X = 7) = F X (7) F X (4) = 1 10. Remarque. Pour la variable aléatoire de l exemple ci-dessus, on a P(X < 0) = 0. On dit dans ce cas que X est presque-sûrement positive. Exercice. On considère k > 0 urnes contenant chacune n boules identiques numérotées de 1 à n. On extrait une boule de chaque urne, on note X i le numéro de la boule tirée dans l urne i et on pose M = sup{x 1,...,X k }. Montrer que M est une variable aléatoire. Calculer la fonction de répartition de la variable aléatoire M, en déduire sa loi. 2.6 Transfert d une variable aléatoire Définition 2.6.1 Soit X une variable aléatoire réelle finie définie sur un espace probabilisable fini (Ω, A). Soit g : X(Ω) Ê une application. Alors { Ω Ê Y : ω g(x(ω)) est une variable aléatoire finie, notée g(x), appelée transfert de X par g. Exemple. On lance deux fois de suite un dé. Cette expérience est modélisée par (Ω = [1; 6]] 2, P(Ω),P) où P est la probabilité uniforme. Soit X la variable aléatoire donnant la différence des chiffres obtenus aux deux lancers et Y = X. Alors par transfert Y est une variable aléatoire finie sur (Ω, P(Ω)). L évènement [X = 1] ne peut pas s écrire à l aide des événements de l ensemble {(Y I), I [0; 5]]}. Autrement dit, en général en effectuant un transfert on perd de l information. Exercice : Donner X(Ω) et Y (Ω). J. Gärtner. 6

Pour bien comprendre ce qu est un transfert, il faut connaître les exemples ci-dessous sur le bout des doigts : Exemple. Soit X une variable aléatoire réelle finie d image {x 1,...,x n }. Donnons la loi de Y = g(x) lors que 1. g(x) = ax + b avec a 0. Alors Y (Ω) = {ax i + b, i [1; n ]} et P(Y = y i ) = P(X = y i b ) a 2. g(x) = x 2 alors Y (Ω) = {x 2 i, i [1; n ]} et { P(X = 0) si yi = 0 P(Y = y i ) = P(X = y i ) + P(X = y i ) si y i 0 3. Si g est une bijection (par exemple donnée par g(x) = e x ), P(Y = y i ) = P(X = g 1 (y i )). 4. Si X strictement positive et g : x ln x, alors P(Y = y i ) = P(X = e y i ). Bien entendu tous ces calculs se justifient en explicitant les événements. Par exemple, si y 0 il est clair que [X 2 = y] = [X = y] [X = y] et que ces événements sont incompatibles. Le théorème suivant (à la limite du programme), permet de donner en général la loi d un transfert. Théorème 2.6.1 Si X est une variable aléatoire finie d image {x 1,...,x n } et g : X(Ω) Ê. La loi de Y = g(x) est donnée par P(Y = y) = i [[1;n]] t.q. g(x i )=y P(X = x i ) Exercice. On lance deux fois de suite un dé. Cette expérience est modélisée par (Ω = [1; 6]] 2, P(Ω),P) où P est la probabilité uniforme. Soit X la variable aléatoire donnant la différence des chiffres obtenus aux deux lancers et Y = X. Alors par transfert Y est une variable aléatoire finie sur (Ω, P(Ω)). Donner la loi de X et la loi de Y. 3 Moments d une variable aléatoire réelle finie 3.1 Espérance 3.1.1 Définition Définition 3.1.1 Soit X une variable aléatoire réelle finie sur (Ω, A,P) et telle que X(Ω) = {x 1,...,x n }. L espérance (mathématique) de X est le réel E(X) = n x i P(X = x i ) = i=1 x X(Ω) xp(x = x) J. Gärtner. 7

Proposition 3.1.1 Si Ω est un univers fini et A = P(Ω), alors E(X) = ω ΩX(ω)P(ω) Démonstration: On note X(Ω) = {x 1,...,x n }. L égalité annoncée dans la proposition provient d un réarrangement de la somme n x i P(X = x i ). i=1 Remarque. Toute variable aléatoire finie a une espérance (ce qui n est pas le cas en général). Cette espérance est une moyenne pondérée. Lorsque X est le gain possible d un jeu, E(X) représente le gain que l on peut espérer «en moyenne» lorsque l on joue plusieurs parties. Exemple. On joue 2 fois à Pile ou Face avec une pièce biaisée qui tombe sur Pile (symbolisé par 1) avec probabilité p ]0,1[. La mise est de 1 euros. Si la pièce tombe sur pile, on gagne 3 euros. Sinon la mise est perdue. L univers est Ω = {0,1} n, on prend A = P(Ω) et P la probabilité définie par indépendance des tirages (modèle étudié à la fin du chapitre 8). On note X la variable aléatoire qui donne le gain (algébrique) du joueur. X est une variable aléatoire car l algèbre choisie est l algèbre discrète. On a X(Ω) = { 2,1,4}. La loi de X est : P(X = 2) = P((0,0)) = (1 p) 2 P(X = 1) = P((0,1) (1,0)) = 2p(1 p) et P(X = 4) = P(1,1) = p 2. En moyenne le joueur gagne E(X) = 1 (1 p) 2 +1 (2p(1 p))+4 p 2. Si p = 0,1 (pièce fortement biaisée...) l espérance vaut 0,59 : en moyenne (sur un grand nombre d expériences) le joueur perd près de 60 centimes. Exemple. 1. La variable aléatoire certaine égale à a a pour espérance E(X) = a. 2. La variable aléatoire X : Ω {0,1} de loi P(X = 1) = p a pour espérance p. 3. L exemple précédent peut aussi s exprimer en fixant un événement A de Ω et en remarquant que X : Ω {0,1} définie par X(ω) = 1 si ω A et X(ω) = 0 sinon est une variable aléatoire de Bernoulli. Sa loi est donnée par P(X = 1) = P(A) (car [X = 1] = A!) et E(X) = P(A). 4. On jette un dé équilibré, on note X le numéro obtenu, on a E(X) = 6 k 1 6 = 6 7 1 2 6 = 7 2. 3.1.2 Propriétés de l espérance Proposition 3.1.2 (Positivité) Soit X une variable aléatoire finie positive (i.e. X(Ω) Ê + ). Alors E(X) 0 et si E(X) = 0, X est presque-sûrement nulle (i.e. P(X = 0) = 1). Démonstration: Par définition E(X) = n x i P(X = x i ). C est une somme de termes positifs i=1 par hypothèse. Si cette somme est nulle, pour tout i, x i P(X = x i ) = 0 puisque c est une somme de termes positifs. Si P(X = x i ) > 0, alors x i = 0 d où le résultat. J. Gärtner. 8

Proposition 3.1.3 (Linéarité de l espérance cas facile) Soient a, b Ê et X une variable aléatoire réelle finie. Alors E(aX + b) = ae(x) + b. Démonstration: Posons Y = ax + b et X(Ω) = {x 1,..., x n }. Si a = 0, Y est la variable aléatoire certaine b qui est bien d espérance b. Sinon, on a vu que Y (Ω) = {ax i + b, i [ 1 ; n ]} et que P(Y = ax i + b) = P(X = x i ). Donc E(Y ) = n (ax i + b)p(x = x i ) = ae(x) + b i=1 Remarque. C est un cas particulier du théorème de transfert que l on verra ci-dessous. Définition 3.1.2 Soit X une variable aléatoire réelle finie. Si E(X) = 0 on dit que X est centrée. Dans le cas où X n est pas d espérance nulle, on peut considérer la variable aléatoire centrée associée à X ; c est X E(X). Démonstration: En effet, E(X E(X)) = E(X) E(X) = 0 d après la proposition ci-dessus. Proposition 3.1.4 (Additivité de l espérance) Soit X, Y deux variables aléatoires réelles finies définies sur un même espace probabilisé. Alors E(X + Y ) = E(X) + E(Y ) Démonstration: La démonstration est simple lorsque A = P(Ω) car dans ce cas E(X +Y ) = (X(ω) + Y (ω))p(ω) et on utilise la linéarité de la somme. ω Ω On a donc Proposition 3.1.5 (Linéarité de l espérance) Soit X, Y deux variables aléatoires réelles finies définies sur un même espace probabilisé. Alors si a,b Ê, E(aX + by ) = ae(x) + be(y ) Démonstration: Exercice Proposition 3.1.6 (Croissance) Si X et Y sont deux variables aléatoires finies définie sur un même espace probabilisé telles que ω Ω, X(ω) Y (ω), alors E(X) E(Y ). Démonstration: On a Y X donc par positivité de l espérance E(Y X) 0 et par linéarité E(Y X) = E(Y ) E(X) donc E(Y ) E(X). 3.1.3 Théorème de transfert Le théorème de transfert permet de calculer l espérance du transfert d une variable aléatoire uniquement à l aide de la loi de cette variable. Théorème 3.1.1 (Théorème de transfert) Soit X une variable aléatoire réelle finie et X(Ω) = {x 1,...,x n }. Soit g une application J. Gärtner. 9

de X(Ω) dans Ê. Alors n E(g(X)) = g(x i )P(X = x i ) = g(x)p(x = x) i=1 x X(Ω) Démonstration: Rappelons que E(X) = ω Ω X(ω)P(ω). On a donc (en se rappelant que [X = x] = {ω Ω, X(ω) = x} et que ces ensembles constituent un système complet d événements) E(g(X)) = ω Ωg(X(ω))P(ω) = x X(Ω) ω [X=x] = x X(Ω) = x X(Ω) = x X(Ω) g(x) g(x)p( g(x(ω))p(ω) ω [X=x] ω [X=x] g(x)p(x = x) P(ω) ω) Exemple. On considère l expérience du jet successif de deux dés. X est la variable aléatoire qui donne la différence du premier et du deuxième jet, et Y = X. Nous pouvons calculer E(Y ) à l aide uniquement de la loi de X. E(Y ) = 5(P(X = 5)+P(X = 5))+4(P(X = 4)+P(X = 4))+ +P(X = 1)+P(X = 1) Il n est pas nécessaire de calculer explicitement la loi de Y. Exercice. Soit X une variable aléatoire réelle finie telle que X(Ω) = [0; n ] et k [0; n ], P(X = k) = ( n k) p k (1 p) n k. Posons Y = X(X 1). C est une variable aléatoire réelle finie. Calculer E(Y ) (on remarquera qu il n est pas nécessaire de préciser Y (Ω)). 3.2 Variance Définition 3.2.1 Soit X une variable aléatoire réelle finie. La variance de X est le nombre réel V (X) = E((X E(X)) 2 ) D après le théorème de transfert, on a, en notant µ = E(X) V (X) = x X(Ω) (x µ) 2 P(X = x) La variance mesure en quelque sorte l écart de X par rapport à son espérance E(X). En pratique on utilise rarement la définition de V (X) pour calculer la variance. On lui préfère la formule suivante, qui simplifie un peu les calculs. J. Gärtner. 10

Proposition 3.2.1 (Formule de Kœnig-Huygens) Soit X une variable aléatoire réelle finie. Alors V (X) = E(X 2 ) (E(X)) 2 Démonstration: En effet en utilisant la linéarité de l espérance V (X) = E((X E(X)) 2 ) = E(X 2 2XE(X) + (E(X) 2 )) = E(X 2 ) 2E(X)E(X) + E(X) 2 = E(X 2 ) (E(X)) 2. Exemple. On joue 2 fois à Pile ou Face avec une pièce biaisée qui tombe sur Pile (symbolisé par 1) avec probabilité p ]0,1[. La mise est de 1 euros. Si la pièce tombe sur pile, on gagne 3 euros. Sinon la mise est perdue. On a vu plus haut que l univers est Ω = {0,1} 2, on prend A = P(Ω). On note X la variable aléatoire qui donne le gain (algébrique) du joueur. X est une variable aléatoire car l algèbre choisie est l algèbre discrète. On a X(Ω) = { 2,1,4}. La loi de X est : P(X = 2) = P((0,0)) = (1 p) 2 P(X = 1) = P((0,1) (1,0)) = 2p(1 p) et P(X = 4) = P(1,1) = p 2. En moyenne le joueur gagne E(X) = 2 (1 p) 2 + 1 (2p(1 p)) + 4 p 2. Si on souhaite calculer la variance, on peut utiliser la formule de Kœnig-Huygens, pour cela on commence par calculer E(X 2 ) à l aide du théorème de transfert : E(X 2 ) = k 2 P(X = k) = 4P(X = 2)+P(X = 1)+16P(X = 4) = 4(1 p) 2 +2p(1 p)+16p 2 k X(Ω) On connaît aussi E(X) 2 = ( 2 (1 p) 2 + 1 (2p(1 p)) + 4 p 2 ) 2. On a donc tout pour calculer V (X) = E(X 2 ) E(X) 2 Ou bien on utilise la définition (et le théorème de transfert) : V (X) = E((X E(X)) 2 ) = k X(Ω) (k E(X))2 P(X = k) En général le calcul à l aide de la formule de Kœnig-Huygens est plus rapide. Exercice. Dans une urne en contenant N boules numérotées de 1 à N, on tire simultanément n boules. Soit X la variable aléatoire donnant le plus grand des numéros tirés. Calculer E(X) et V (X). Proposition 3.2.2 Soit X une variable aléatoire réelle finie et a,b Ê. Alors 1. V (X) 0. 2. V (X) = 0 X = E(X) presque sûrement, i.e. X est une variable aléatoire certaine. 3. V (ax + b) = a 2 V (X) Démonstration: 1. En effet (X E(X)) 2 0 donc E(X E(X)) 2 ) 0. 2. Si X est une v.a. certaine, alors X = E(X) presque sûrement et P(X E(X) = 0) = 1. La variable (X E(X)) 2 est nulle presque sûrement et son espérance est nulle. Réciproquement si V (X) = 0 alors la v.a. positive (X E(X)) 2 est d espérance nulle, donc nulle presque sûrement. P(X = E(X)) = 1. J. Gärtner. 11

3. On a (ax + b E(aX + b)) 2 = (ax + b ae(x) b) 2 = (ax ae(x)) 2 = a 2 (X E(X)) 2. Le résultat suit par linéarité de l espérance. Exercice. Soit X une variable aléatoire finie d image {x 1,...,x n }. Montrer que V (X) = 1 i<j n Définition 3.2.2 (x i x j ) 2 P(X = x i )P(X = x j ) = 1 2 ω,ω Ω (X(ω) X(ω )) 2 P(ω)P(ω ) Soit X une variable aléatoire réelle finie. On appelle écart-type de X le réel σ(x) = V (X) Si E(X) = 0 et σ(x) = 1 on dit que X est centrée réduite. Proposition 3.2.3 Pour toute variable aléatoire réelle finie X, la variable X = X E(X) σ(x) est centrée réduite. On l appelle variable aléatoire centrée réduite associée à X. Démonstration: On a E(X ) = 0 par linéarité et V (X ) = 1 V (X) = 1. σ(x) 2 On emploie souvent l écart type comme mesure de dispersion, c est-à-dire de la manière dont la variable aléatoire s étale autour de son espérance (ou encore, on pourrait remarquer qu une variable aléatoire dont l écart-type est petit, que la probabilité qu elle prenne des valeurs très éloignées de son espérance est très faible). Cette interprétation de l écart-type et de la variance est justifié par l inégalité de Bienaymé-Tchebychev, que l on verra à la fin de l année. 4 Lois finies classiques 4.1 Loi certaine Lorsque qu une variable aléatoire X est constante, on dit qu elle est certaine. On a X(Ω) = a et P(X = a) = 1. Dans ce cas E(X) = a et V (X) = 0. 4.2 Loi uniforme Modèle : C est la loi que l on rencontre en situation d équiprobabilité; une variable dont toutes les valeurs sont équiprobables. Par exemple : une urne contient 15 boules numérotées, on tire une boule au hasard et on note X son numéro. J. Gärtner. 12

Définition 4.2.1 Une variable aléatoire réelle X telle quex(ω) = [ 1; n ] et k [ 1; n ], P(X = k) = 1 n est une variable aléatoire qui suit une loi uniforme sur [1; n ]. On note alors X U([ 1; n ]). Exemple. On jette un dé équilibré. Soit X la variable aléatoire qui donne le résultat. X U([ 1; 6 ]). Si x < 1 alors Soit i [1; 5]]. Si i x < i + 1 alors Si 6 x alors 1 1/6 1 6 x Proposition 4.2.1 (Espérance et variance) Si X U([ 1; n ]), alors E(X) = n + 1 2 V (X) = n2 1 12 Démonstration: On a E(X) = n kp(x = k) = n k n = n + 1. 2 D après le théorème de transfert E(X 2 ) = n k 2 P(X = k) = n k 2 n (n + 1)(2n + 1) =. 6 J. Gärtner. 13

D après la formule de Kœnig-Huygens, V (X) = E(X 2 ) E(X) 2 (n + 1)(2n + 1) (n + 1)2 = 6 4 (n + 1)(4n + 2 3n 3) = 12 = n2 1 12 Remarque. La valeur de l espérance est intuitive : la loi uniforme donne le même «poids» à toutes les valeurs entre 1 et n. En moyenne, on est donc vers le milieu de l intervalle! Le cas général ci-dessous est présenté à titre d exemple de techniques classiques. Il convient de retenir la définition et les méthodes! Définition 4.2.2 (Cas général) Si a,b avec a < b, on définit la loi uniforme sur [a; b ] par X U([a; b ]) si et seulement si X(Ω) = [a; b ] et k [a; b ], P(X = k) = 1 b a + 1 Ceci correspond à une répartition équilibrée entre tous les points de [a; b ]. Proposition 4.2.2 (Lien entre les lois uniformes) Soit a,b et Y U([ 1; b a + 1]]). Posons X = Y + a 1. Alors X U([ a; b]]) Démonstration: En effet, par transfert, X est une variable aléatoire et X(Ω) = [ a ; b ]. On a de plus (toujours le théorème de transfert, cas bijectif car la fonction x x + a 1 est 1 bijective) k [[a; b ], P(X = k) = P(Y = k a + 1) = b a + 1. Proposition 4.2.3 (Espérance et variance) Si X U([ a; b ]) alors E(X) = a + b 2 et V (X) = (b a + 1)2 1 12 Démonstration: Il est important de comprendre le principe de cette preuve qui peut servir! On utilise la proposition précédente : soit Y = X a+1. Alors Y U([ 1 ; b a + 1 ]) et X = Y +a 1. On a donc E(X) = E(Y )+a 1 et V (X) = V (Y ). Comme on connaît déjà E(Y ) = b a 2 et V (Y ) = (b a + 1)2 1 12 la variance est bien V (X) = (b a + 1)2 1. 12 on a donc E(X) = b a + 2 2 + a 1 = b + a 2 et 4.3 Loi de Bernoulli Modèle : La loi de Bernoulli se rencontre lorsqu une expérience aléatoire est une épreuve de Bernoulli (une expérience qui n a que deux issues possibles : succès et échec). C est la loi de la variable aléatoire qui vaut 1 en cas de succès, et 0 en cas d échec. J. Gärtner. 14

Définition 4.3.1 Soit p ]0,1[. Si X est une variable aléatoire réelle telle quex(ω) = {0,1}, on dit que X est une variable aléatoire de Bernoulli. Son paramètre est la probabilité de succès p = P(X = 1). On note X B(1, p). Fonction de répartition Si x < 0 alors Si 0 x < 1 alors Si 1 x alors 1 1 p 1 x Proposition 4.3.1 (Espérance et variance) Si X B(1, p) alors E(X) = p V (X) = p(1 p) Démonstration: E(X) = 0(1 p) + 1 p = p. On remarque que X 2 B(1, p) donc E(X 2 ) = p et d après la formule de Kœnig-Huygens, V (X) = E(X 2 ) E(X) 2 = p p 2. 4.4 Loi binomiale ou loi des tirages avec remise Modèle : On considère une expérience qui se déroule en répétant n fois, de manière indépendante, une épreuve de Bernoulli. Le succès à une épreuve donnée ne dépend pas des autres résultats. Soit X la variable aléatoire égale au nombre de succès dans cette série de n épreuves de Bernoulli. On dit que X suit la loi binomiale. Alors on a déjà vu que X(Ω) = [0; n ] et ( ) n k [0; n ], P(X = k) = p k (1 p) n k k Définition 4.4.1 Soit n Æ, p ]0,1[. Soit X une variable aléatoire réelle telle que X(Ω) = [0; n ] et k [ 0; n ], P(X = k) = ( ) n p k (1 p) n k k J. Gärtner. 15

On dit que X sui la loi binomiale de paramètre (n,p). On note X B(n,p). Méthode : Lorsque l on rencontre une variable aléatoire X qui semble être une variable de loi binomiale, on a deux possibilités pour déterminer sa loi : Soit on utilise le modèle : on explicite le fait que X compte le nombre de succès dans une répétition indépendante d épreuves de Bernoulli. Soit on calcule explicitement la loi : on explicite X(Ω) et pour tout k [0; n ] on ( décrit [X = k] de manière suffisamment précise pour prouver que P(X = k) = n ) k p k (1 p) n k. Remarque. X est la somme de n variables aléatoires de Bernoulli : X = n X k où X k est la variable aléatoire indicatrice de l évènement «la kième épreuve est un succès». 1 Exercice. On dispose d une urne qui contient N boules dont b blanches et n noires. On pose p = b. On tire successivement avec remise n boules de l urne. On note X la variable N aléatoire qui donne le nombre de boules blanches tirées. Montrer que X B(n,p). Ceci justifie le nom de loi des tirages avec remise donné à la loi binomiale. Exercice. Soit X une variable aléatoire de loi binomiale de paramètre (n, p). Quelle est la loi de la variable Y = n X? Proposition 4.4.1 (Espérance et variance) Si X B(n, p), alors E(X) = np V (X) = np(1 p) Démonstration: On a n ( ) n E(X) = k p k (1 p) n k k k=0 n ( ) n 1 = n p k (1 p) n k k 1 n 1 ( ) k = n p k+1 (1 p) n k 1 n 1 k=0 = np(p + (1 p)) n 1 = np Pour le calcul de la variance, il faut remarquer que k 2 = k(k 1) + k. Cette astuce permet très souvent de faciliter les calculs de variance car elle permet d itérer la formule k ( ) ( n k = n n 1 ( k 1) : on utilise le fait que k(k 1) n ) ( k = n(k 1) n 1 ) ( k 1 = n(n 1) n 2 k 2). On a V (X) = E(X 2 ) E(X) 2 = E(X(X 1)) + E(X) E(X) 2 = E(X(X 1)) + np (np) 2 1. Les variables de Bernoulli sont, comme on le verra plus tard, de même paramètre p et indépendantes. J. Gärtner. 16

et à l aide du théorème de transfert n ( ) n E(X(X 1)) = k(k 1) p k (1 p) n k k k=0 n ( ) n 2 = n(n 1) p k (1 p) n k k 2 k=2 n ( ) n 2 = n(n 1)p 2 p k 2 (1 p) n k k 2 k=2 n 2 ( ) n 2 = n(n 1)p 2 p k (1 p) n 2 k k k=0 = n(n 1)p 2 (p + (1 p)) n 2 = n(n 1)p 2 D où V (X) = n(n 1)p 2 + np (np) 2 = np(1 p) Remarque. La formule donnant l espérance E(X) = np est cohérente avec l interprétation d une loi binomiale comme somme de variables de Bernoulli «indépendantes». Si X = n X k où X k B(1,p) alors E(X) = n E(X k ) = n p = np. Attention, la somme des variance n est en générale pas la variance de la somme, sauf condition d indépendance. C.f. cours de l année prochaine! 4.5 Loi hypergéométrique ou loi des tirages sans remise Cette loi n est plus au programme, mais est présentée ici à titre d exercice. C.f. TD! Modèle : On dispose d une urne contenant N boules dont b blanches et r rouges. On pose p = b la proportion de boules blanches. On tire successivement sans remise n boules N de l urne (on suppose n N). Ω est l ensemble des parties à n boules de l urne qui en contient N. On a Card Ω = ( N. Au vu des hypothèse, on peut supposer que l espace probabilisé qui convient est l espace (Ω, P(Ω),P) où P est la probabilité uniforme. On note X la variable aléatoire qui donne le nombre de boules blanches tirées. Alors 2 X(Ω) = [max(0,n r); min(n,b)]] = [ max(0,n N(1 p)); min(n,np) ] car si on tire plus de boule qu il y a de boules rouges, X(ω) n r et on peut tirer au plus la totalité des boules blanches disponibles (si on tire plus de boules qu il n y a de boules blanches). Tirer exactement k boules blanches revient à tirer k boules blanches et n k boules rouges. Ainsi ( b r ) k X(Ω), P(X = k) = k)( n k ( N = ( Np k )( N(1 p) n k X est la somme de n variables de Bernoulli : X = n X k où X k est la variable aléatoire ( N indicatrice de l évènement «le k-ième tirage est une boule blanche». 3 2. On peut considérer que X(Ω) = [[0; n]] quitte à ajouter des événements négligeables, voir impossibles! 3. Au contraire de la loi binomiale, ces variables de Bernoulli sont dépendantes : leur paramètre dépend du nombre de boules blanches déjà tirées. Ce résultat sera précisé ultérieurement. ) J. Gärtner. 17

Définition 4.5.1 Soit N Æ et p ]0,1[ tel que Np Æ. Soit X une variable aléatoire telle que X(Ω) = [max(0,n N(1 p)); min(n,np)]] et k [ max(0,n N(1 p)); min(n,np) ], P(X = k) = ( Np k )( N(1 p) n k ( N ) Alors on dit que X suit la loi hypergéométrique de paramètres (N,n,p). On note X H(N,n,p). Exemple. Un lac contient r poissons dont r 1 sont malades. On effectue un prélèvement de n poissons. Quelle est la probabilité d obtenir exactement k 1 poissons malades? Proposition 4.5.1 (Formule de Vandermonde) Soit X H(N,n,p). Alors puisque {[X = k],k [ max(0,n N(1 p)); min(n,np)]]} est un système complet d évènements, on a min(n,np) k=max(0,n N(1 p)) ( )( ) Np N(1 p) = k n k Ou encore, en utilisant la convention ( n k) = 0 si k / [0; n ] : n ( )( ) ( ) Np N(1 p) N = k n k n k=0 ( ) N n Proposition 4.5.2 (Espérance) Soit X H(N,n,p). Alors E(X) = np Démonstration: On a, à l aide de la formule de Vandermonde et en se rappelant que k ( ) ( Np k = Np Np 1 ) : E(X) = n k k=0 ( Np k )( N(1 p) n k ( N n ) ) = ( Np N n ( )( ) Np 1 N(1 p) k 1 n k = Np ( N ( ) N 1 = np n 1 k 1 Remarque. Il n est pas exigé de connaitre la variance d une loi hypergéométrique : si X H(N,n,p), alors V (X) = np(1 p) N n N 1. Démonstration: Pour calculer V (X), calculons E(X 2 ) à l aide du théorème de transfert et de la formule déjà utilisée pour la loi binomiale (k 2 = k(k 1) + k) : J. Gärtner. 18

E(X 2 ) = = = = n k=0 ( Np k 2 k )( N(1 p) n k ( N n (k(k 1) + k) k=0 Np(Np 1) ( N Np(Np 1) ( N ) ( Np k )( N(1 p) n k ( N n ( Np 2 k 2 k=2 ( ) N 2 + np n 2 ) )( N(1 p) n k Np(Np 1)(N 2)!n!(N! = N!(n 2)!(N 2 (n 2))! = n(n 1)p Np 1 N 1 + np + np ) + E(X) Donc V (X) = n(n 1)p Np 1 N 1 + np (np)2 = np(1 p) N n N 1. J. Gärtner. 19

4.6 Résumé sur les lois classiques 1. Loi certaine : X : ω a. E(X) = a et V (X) = 0. 2. Loi uniforme sur [ 1; n ] : équiprobabilité des résultats. Si X U([ 1; n ]) alors X(Ω) = k E(X) = V (X) = Loi uniforme sur [a; b]] : Y (Ω) = [a; b ] et k [a; b ], P(Y = k) = Les variables Y et X a + 1 ont On sait donc retrouver espérance et variance. 3. Loi de Bernoulli de paramètre p ]0,1[ : loi du succès dans une expérience qui n a que deux issues. Si X B(1,p) alors X(Ω) = k E(X) = V (X) = 4. Loi de binomiale de paramètre (n,p) : loi du nombre de succès dans une répétition indépendante d épreuves de Bernoulli, ou loi des tirages avec remise (n est le nombre de répétitions, p la probabilité de succès). Si X B(n,p) alors X(Ω) = k E(X) = V (X) = J. Gärtner. 20