Convergence des variables aléatoires I) L inégalité de Bienaymé Tchebychev 1.1) L inégalité de Markov dans le cas discret On considère une variable discrète non négative, d espérance strictement positive. Soit λ un réel strictement positif. Puisque est non négative, on a Ω Appelons et les sous-ensembles de Ω définis par Ω, Ω, Ω Comme, on a 0, et donc D autre part,, Soit en divisant par 0, Or 0 On en déduit l inégalité de Markov : Exemple 1 Si, on a 3. L inégalité de Markov donne par exemple : 1 60203 1 20 si dans une urne il y a trois boules, deux noires et une blanche, indiscernables au toucher, la probabilité de devoir attendre plus de 60 tirages avec remise pour obtenir pour la première fois la boule blanche est inférieure ou égale à 5%.
Ce résultat est en fait assez imprécis, car Et donc 60 2 3 1 3 0.99999 600,00001 1.2) L inégalité de Markov dans le cas continu Soit une variable de densité nulle sur, admettant une espérance strictement positive. Soit λ un nombre réel strictement positif. On peut écrire alors La fonction est positive sur. Comme 0, on a 0 Sur l intervalle,, on a et donc Les bornes étant dans le bon ordre, on a Et donc Ce qui donne en définitive : En divisant par, on obtient : Or On retrouve l inégalité de Markov : 1 1 Exemple La durée d une communication téléphonique en minutes est une variable aléatoire continue dont on supposera qu elle suit une loi exponentielle de paramètre 1.
donc 1 10101 1 10 Dans ce modèle, la probabilité qu une communication dure plus de 10 minutes est inférieure à 0,1. Ce qui revient à dire qu il y a moins de 10% des communications dont la durée dure plus de 10 minutes. Là encore le résultat est très imprécis : 10 4.54 10 Il y a donc en réalité moins de 5 chances sur 100000 qu une communication dure plus de 10 minutes (ce qui en fait montre que ce modèle n est pas très réaliste) 1.3) L inégalité de Bienaymé Tchebychev dans le cas discret On considère une variable discrète admettant une espérance mathématique et une variance non nulle. Soit un nombre réel strictement positif. Soit la variable aléatoire définie par donc 0 dans le cas discret en appliquant l inégalité de Markov en prenant : On obtient Ce qui donne Or 1.4) L inégalité de Bienaymé Tchebychev dans le cas continu On considère une variable continue admettant une espérance mathématique et une variance non nulle. Soit une densité de probabilité de. Considérons pour 0, l ensemble défini par
Ce qui revient à dire que L ensemble peut se décrire de la façon suivante : De même donc par incompatibilité évidemment 0 Comme, alors 0 Pour, on a. Ce nombre étant négatif, on a Les bornes étant dans le bon ordre, on a : De même, on a pour, 0 Et donc Les bornes étant dans le bon ordre donc
Ce qui donne enfin On en déduit l inégalité dite de Bienaymé Tchebychev : Applications : Si 20;0,2, on a 200.24 et 200,20,83,2 ura par exemple 17343 4 3 Or d après l inégalité de Bienaymé Tchebychev, on a 4 3 3.2 9 4 30,356 4 30,644 Ou encore 170,644 Deuxième exemple : Soit la variable aléatoire donnant la note en math au concours Ecricome. On sait que par construction 10 4 ura 5155105 10 5 Or 10 5 16 25 10 5 9 25
5150,36 L inégalité de Bienaymé Tchebychev n est pas très précise, elle donne un résultat «à la louche» qui donne simplement une vague idée de la situation. Par contre, elle ne demande pas de connaître la loi de probabilité de la variable. Quand on connaît cette loi, on obtient des résultats bien meilleurs. Dans le dernier exemple, si l on sait que 10,4, on pose alors 10 4 On sait que 0,1 515 5 4 5 4 21,2510,79 Bien sûr le résultat retourné par l inégalité de Bienaymé Tchebychev est correct, mais bien peu précis. II. Convergence en probabilité Loi faible des grands nombres 2.1) Convergence en probabilité Définition On considère une suite de variables aléatoires,,, discrètes ou continues, définies sur un espace probabilisé Ω,,. Soit une variable aléatoire définie sur le même espace probabilisé. On dit que converge vers en probabilité pour signifier que 0, lim 0 On note 2.2) Moyenne empirique Définition Soit une suite de variables aléatoires définies sur un même espace probabilisé Ω,,. On définit pour tout entier, la moyenne empirique d ordre comme étant la variable aléatoire définie par : 2.3) Loi faible des grands nombres 1
Théorème Soit une suite de variables aléatoires deux à deux indépendantes et de même loi, avec pour tout, Et avec 0 0,1, 1 1 1 1 Nous admettrons le résultat suivant : Si,, sont des variables deux à deux indépendantes, alors alors par indépendance 1 1 1 1 alors avec l inégalité de Bienaymé Tchebychev, Et donc Loi faible des grands nombres 1 Soit une suite de variables aléatoires deux à deux indépendantes et de même loi, avec pour tout, Alors avec 0 0, lim 0 Ce qui prouve que la variable converge en probabilité vers la variable constante. pplique le résultat démontré à la question précédente.
Or 0 lim 0 d après le théorème des gendarmes, 0, lim 0 Exemple d application On lance une pièce bien équilibrée un grand nombre de fois. Au ième lancer, on associe la variable aléatoire qui prend la valeur 0 si le lancer donne pile et 1 s il donne face. donc 1 2 donc. En prenant ura donc 1 1 2 0, lim 1 2 0 III. Convergence en loi 3.1) Convergence en loi Définition On considère une suite de variables aléatoires définies sur un même espace probabilisé Ω,,. Soit une variable aléatoire définie sur ce même espace probabilisé. Si est une variable à densité, converge en loi vers si :, lim Si les variables et la variable suivent des lois discrètes, la convergence en loi se définit de la façon suivante : On écrit Ω, lim 3.2) Convergence de la loi binomiale vers la loi de Poisson Soit une suite de variables aléatoires telles que, On suppose que lim 0
pour tout et tout, Or pour fixé, on a pour tout 1, 1!!! 1!! donc également Or Ou encore:!! ln1 ln1 0 ln1 ln1 ln1 lim ln1 Et donc par composition des limites : lim 1 lim! On reconnaît une loi de Poisson de paramètre λ. Théorème : Soit une suite de variables aléatoires telles que, On suppose que lim 0
Alors la suite converge en loi vers une variable qui suit une loi de Poisson de paramètre λ. 3.3) Convergence de la loi hypergéométrique vers la loi binomiale On considère une suite de variables telles que,, Rappelons que cela correspond à la situation standard : une urne contient boules blanches et rouges. Elle contient une proportion de boules blanches et donc 1 de boules rouges. On extrait simultanément boules de l'urne et l'on appelle la variable aléatoire correspondant au nombre de boules blanches que nous avons parmi les extraites. Pour simplifier, on considère que est un entier. 1 Ω0, Ce qui donne De même En écrivant Et donc!!!!!!!!! 1!!!!!!!!! 1!!
!! 1 lim!!! 1 1 On reconnaît une loi binomiale de paramètres et. donc le théorème suivant Théorème On considère une suite de variables telles que,, Alors Où, 3.4) Le théorème Central Limite On sait que si Soit une suite de variables mutuellement indépendantes et de même loi, admettant une espérance et une variance, on a donc Théorème (admis) 0 1 Soit une suite de variables mutuellement indépendantes et de même loi, admettant une espérance et une variance. Soit la suite des moyennes empiriques. Alors, avec 0,1 On écrit souvent Soit en posant, avec 0,1
3.5) Approximation d'une loi binomiale par une loi normale Considérons une suite de variables telles que, Pour tout, on peut écrire sous la forme d'une somme de variables de Bernoulli de paramètres, indépendantes (et donc de même loi). avec donc 1 D'après le théorème central limite appliqué aux variables, on a, avec 0,1 1 donc, avec 0,1 1 Ou encore, avec 0,1 Cette propriété permet de trouver des valeurs approchées d'une probabilité. On considère une variable 1000;0,3 On cherche 320. Cette forme est compliquée à déterminer par le calcul direct. 300 210 On dira que 320 300 20 20 210 210 210 1,380,916 On trouverait de la même façon 3190,905 3200,011 en fait 3200,0105