Chapitre 15 Variables aléatoires simultanées

Documents pareils
Programmes des classes préparatoires aux Grandes Ecoles

Moments des variables aléatoires réelles

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Espérance conditionnelle

4. Martingales à temps discret

Travaux dirigés d introduction aux Probabilités

Couples de variables aléatoires discrètes

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

MA6.06 : Mesure et Probabilités

4 Distributions particulières de probabilités

3. Conditionnement P (B)

Simulation de variables aléatoires

Que faire lorsqu on considère plusieurs variables en même temps?

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

TSTI 2D CH X : Exemples de lois à densité 1

Le modèle de Black et Scholes

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Amphi 3: Espaces complets - Applications linéaires continues

Loi d une variable discrète

Cours d Analyse. Fonctions de plusieurs variables

Commun à tous les candidats

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Variables Aléatoires. Chapitre 2

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Probabilités sur un univers fini

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Théorème du point fixe - Théorème de l inversion locale

Fonctions de plusieurs variables

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Chapitre 3. Les distributions à deux variables

1 TD1 : rappels sur les ensembles et notion de probabilité

Correction du Baccalauréat S Amérique du Nord mai 2007

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Calcul fonctionnel holomorphe dans les algèbres de Banach

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Limites finies en un point

Exercices sur le chapitre «Probabilités»

Image d un intervalle par une fonction continue

Correction de l examen de la première session

Loi binomiale Lois normales

Optimisation des fonctions de plusieurs variables

Probabilités conditionnelles Loi binomiale

Chapitre 2 Le problème de l unicité des solutions

I. Polynômes de Tchebychev

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

3 Approximation de solutions d équations

3. Caractéristiques et fonctions d une v.a.

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Continuité en un point

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Texte Agrégation limitée par diffusion interne

Intégration sur des espaces produits

Statistiques Descriptives à une dimension

Précision d un résultat et calculs d incertitudes

Probabilités III Introduction à l évaluation d options

Continuité d une fonction de plusieurs variables

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Approximations variationelles des EDP Notes du Cours de M2

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Optimisation Discrète

Processus aléatoires avec application en finance

Cours Fonctions de deux variables

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Comparaison de fonctions Développements limités. Chapitre 10

Théorie de la Mesure et Intégration

Logique. Plan du chapitre

I. Cas de l équiprobabilité

Probabilités et statistique. Benjamin JOURDAIN

M2 IAD UE MODE Notes de cours (3)

PROBABILITES ET STATISTIQUE I&II

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5

CCP PSI Mathématiques 1 : un corrigé

MÉTHODE DE MONTE CARLO.

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Continuité et dérivabilité d une fonction

Chaînes de Markov au lycée

Les devoirs en Première STMG

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Intégration et probabilités TD1 Espaces mesurés Corrigé

Probabilités et Statistique

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Produits d espaces mesurés

Calculs de probabilités conditionelles

Estimation et tests statistiques, TD 5. Solutions

Correction du baccalauréat S Liban juin 2007

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Corrigé du baccalauréat S Asie 21 juin 2010

Probabilités conditionnelles Exercices corrigés

Chapitre 2. Eléments pour comprendre un énoncé

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Transcription:

Chapitre 15 F. Delacroix, École des Mines de Douai, 21 mars 2011 Introduction Présentation et objectifs Comme en statistique descriptive, on est fréquemment amené à considérer plusieurs variables aléatoires relatives à une expérience aléatoire donnée. C est l objet de ce chapitre que de donner un aperçu des phénomènes qui apparaissent alors. On définit d abord, dans les cas discrets et continus, les notions de distribution simultanée pour deux variables aléatoires (la généralisation à n variables aléatoires étant laissée au lecteur), puis l indépendance de variables aléatoires. On considère les propriétés de la somme de plusieurs variables aléatoires indépendantes, avant de s intéresser d un peu plus près aux différentes propriétés de l espérance. La dernière section s intéresse enfin aux théorèmes limites, notamment la loi des grands nombres et le théorème de la limite centrale, théorèmes en prise directe avec l exploitation de la théorie des probabilités en statistiques. Prérequis: Chapitres 12, 13, 14, 2, 4, 7, 11 Suites: Statistique inductive (1 ère année) Optimisation Mathématiques financières et sciences «molles» Informatique et sciences de l information 1 Distributions simultanées Soient X, Y deux variables aléatoires sur un espace probabilisé (Ω, T, P ). 1.1 Fonction de répartition conjointe Définition 1 La fonction de répartition conjointe (ou : simultanée) de X et Y est la fonction F X,Y : R 2 R (x, y) P ({X x} {Y y}). Les fonctions de répartition de X et de Y (notées F X et F Y ) sont alors qualifiées de marginales. 1

Chapitre 15 MathématiquesÉcole des Mines de Douai FIAAS Proposition 1 (Relations entre répartitions conjointe et marginales) Avec les notations précédentes, on a x R, F X (x) = lim y + F X,Y (x, y) y R, F Y (y) = lim x + F X,Y (x, y) Démontrer cette proposition à l aide du théorème sur la probabilité limite d une suite monotone d évènements. Exprimer, à l aide des fonctions de répartitions conjointe et marginales, les probabilités suivantes : P ({X > x} {Y > y}), 1.2 Cas de variables discrètes P ({X > x} {Y > y}) et P ({x 1 < X x 2 } {y 1 < Y y 2 }) On suppose ici que X et Y sont des variables aléatoires discrètes. Définition 2 On appelle loi de probabilité conjointe de X et de Y la fonction p X,Y : X(Ω) Y (Ω) [0, 1] (x, y) P ({X = x} {Y = y}). A nouveau, les lois de X et de Y, notées p X et p Y, sont alors qualifiées de marginales. Proposition 2 (Relations entre lois conjointe et marginales) Avec ces notations, on a x X(Ω), p X (x) = P (X = x) = y Y (Ω) y Y (Ω), p Y (y) = P (Y = y) = x X(Ω) p X,Y (x, y) p X,Y (x, y). Lorsque X(Ω) et Y (Ω) sont finis, il est d usage de présenter ces valeurs sous forme d un tableau de contingence (cf. chap. 11). Dans ce cas, les lois marginales apparaissent comme somme des probabilités figurant dans une ligne ou colonne. Dresser le tableau de contingence d un lancer de deux dés équilibrés différenciés, les résultats des deux dés étant notés X et Y. Même question, mais cette fois les deux dés sont indifférenciés. X désigne le plus petit résultat, Y le plus grand. 1.3 Cas de variables continues 2

Définition 3 Deux variables aléatoires X et Y sont dites conjointement continues s il existe une fonction f X,Y : R 2 R + telle que pour tout borélien C de R 2 on ait P ((X, Y ) C) = C f X,Y (x, y) dx dy. Une telle fonction f X,Y est appelée densité de probabilité conjointe de X et Y (ou, plus simplement, densité conjointe de X et Y ). Proposition 3 Soit (X, Y ) un couple de variables aléatoires admettant pour densité conjointe f X,Y. (1) On a f X,Y (x, y) dx dy = 1. R 2 (2) Les variables X et Y sont continues et leurs densités de probabilités (qualifiées de marginales) f X et f Y sont données par f X (x) = + f X,Y (x, y) dy f Y (y) = + f X,Y (x, y) dx. (3) On a la relation suivante entre la fonction de répartition conjointe du couple (X, Y ) et sa densité conjointe : f X,Y (x, y) = 2 F X,Y x y (x, y) (relation qui n est valable, en toute rigueur, qu aux points où f X,Y est continue). Démontrer cette proposition : utiliser l évènement certain pour le point (1), les fonctions de répartition marginales pour le point (2), la fonction de répartition conjointe pour le point (3). On considère un couple (X, Y ) de variables aléatoires admettant pour densité conjointe la fonction 2e x 2y si x > 0 et y > 0 f : (x, y) 0 sinon. Exprimer à l aide de f puis calculer P ({X > 1} {Y < 1}), P (X < Y ), P (X < a). Calculer les densités marginales en X et Y, la fonction de répartition conjointe ainsi que les fonctions de répartitions marginales en X et en Y. 2 Variables aléatoires indépendantes 2.1 Définition 3

Chapitre 15 MathématiquesÉcole des Mines de Douai FIAAS Définition 4 Deux variables aléatoires X et Y sont dites indépendantes si pour tous boréliens A et B de R, les évènements {X A} et {Y B} sont indépendants, c est-à-dire P ({X A} {Y B}) = P (X A) P (Y B) ou encore P ((X, Y ) A B) = P (X A) P (Y B). En appliquant cette définition à des intervalles ], x] et ], y], on voit que l indépendance de X et Y entraîne que la fonction de répartition conjointe est le «produit» (attention toutefois aux variables) des fonctions de répartition marginales. La réciproque est vraie, et repose sur le fait que les intervalles de ce type engendrent la tribu borélienne de R. On obtient donc la caractérisation suivante : Proposition 4 Deux variables aléatoires X et Y sont indépendantes si et seulement si (x, y) R 2, F X,Y (x, y) = F X (x) F Y (y). Proposition 5 Soient X et Y deux variables aléatoires. (1) Si X et Y sont deux variables aléatoires discrètes, elles sont indépendantes si et seulement si (x, y) X(Ω) Y (Ω), P ({X = x} {Y = y}) = P (X = x) P (Y = y). (2) Si X et Y sont deux variables aléatoires conjointement continues, elles sont indépendantes si et seulement si (x, y) R 2, f X,Y (x, y) = f X (x) f Y (y). Démontrer le point (2) grâce à la proposition 3 et à la proposition 4. Un sens du point (1) est trivial ; démontrer l autre à l aide de la σ-additivité (3 ème axiome de Kolmogorov) en décomposant l évènement {(X, Y ) A B} en une réunion dénombrable d évènements incompatibles. 2.2 Exemples 4 On effectue n + m lancers indépendants d une pièce (la probabilité d obtenir «pile»est notée p). On note X le nombre de «pile» dans les n premiers lancers, Y le nombre de «pile» dans les m derniers. Déterminer les lois de probabilités de X et Y et démontrer que X et Y sont des variables aléatoires indépendantes. Déterminer la loi de probabilité de la variable Z = X + Y ; les variables X et Z sont-elles indépendantes?

Un homme et une femme se donnent rendez-vous entre 12h et 13h ; leurs minutes d arrivée respectives sont notées H et F. On suppose que H et F sont deux variables aléatoires indépendantes suivant toutes deux la loi uniforme U([0, 60[). Quelle est la probabilité que le premier arrivé attende plus de dix minutes? 2.3 Plusieurs variables aléatoires indépendantes Définition 5 Soient X 1,..., X n des variables aléatoires réelles. On dit que X 1,..., X n sont indépendantes (ou : mutuellement indépendantes, ou totalement indépendantes) si pour tout choix de boréliens B 1,..., B n, on a ( n ) n P {X k B k } = P (X k B k ). k=1 k=1 3 Sommes de variables aléatoires indépendantes 3.1 Convolution Soient X et Y deux variables aléatoires continues et indépendantes, de densités de probabilité respectives notées f X et f Y. Théorème 6 Sous ces hypothèses, la variable aléatoire X + Y admet pour densité de probabilité la fonction f X f Y, appelée produit de convolution de f X par f Y, définie par z R, f X f Y (z) = + f X (z y)f Y (y) dy Démontrer ce théorème en caractérisant la fonction de répartition de Z = X + Y à l aide de la définition de la densité conjointe du couple (X, Y ), en invoquant l indépendance de X et Y et en utilisant le théorème de Fubini pour évaluer l intégrale double. Invoquer alors le théorème de dérivation d une intégrale dépendant d un paramètre pour trouver la densité de probabilité de Z. Vérifier que f X f Y est bien une densité de probabilité, c est-à-dire que c est une fonction continue par morceaux positive dont l intégrale sur R converge et vaut 1. Le produit de convolution définit une nouvelle opération sur les fonctions positives dont l intégrale sur R converge. Elle possède les propriétés suivantes (liste non exhaustive). 5

Chapitre 15 MathématiquesÉcole des Mines de Douai FIAAS Proposition 7 (Propriétés du produit de convolution) associativité : (f g) h = f (g h) commutativité : f g = g f distributivité par rapport à l addition (f 1 + f 2 ) g = f 1 g + f 2 g Démontrer ces propriétés à l aide de celles des intégrales. Calculer la densité de probabilité de la somme de deux variables indépendantes suivant toutes deux la loi uniforme U([0, 1]). 3.2 Additivité des lois classiques Théorème 8 Soient X 1,..., X n des variables aléatoires indépendantes suivant respectivement les lois normales N (µ 1, σ 2 1),..., N (µ n, σ 2 n). Alors la variable somme X 1 + + X n suit la loi normale N (µ 1 + + µ n, σ 2 1 + + σ 2 n). Ce théorème peut s interpréter en considérant chaque variable X k comme une mesure physique dont la valeur «vraie» est µ k et l «incertitude moyenne» (i.e. l écart-type) est σ k. Le théorème dit alors que la somme de ces mesures X 1 + + X n se répartit normalement autour de la valeur moyenne somme µ 1 + + µ n et que les carrés des incertitudes s ajoutent. On a des résultats similaires pour des variables aléatoires discrètes de Poisson ou binômiales. Proposition 9 Soient X et Y deux variables aléatoires indépendantes. (1) Si X P(λ) et Y P(µ), alors X + Y P(λ + µ). (2) Si X B(n, p) et Y B(m, p), alors X + Y B(n + m, p). 6 Démontrer ces deux points, d abord en identifiant les différentes valeurs possibles de X + Y, puis, pour chacune d elles, les différentes façons de l obtenir (utiliser une partition de chaque évènement {X + Y = k}). On observera que cette technique est une version «discrète» du produit de convolution rencontré au théorème 6.

4 Propriétés de l espérance 4.1 Espérance d une fonction de deux variables Le théorème suivant, extrêmement utile en pratique, est une version bidimensionnelle de deux théorèmes (espérance d une fonction d une variable aléatoire) vus dans les deux chapitres précédents (dans le cadre des variables discrètes puis continues). Théorème 10 Soit g : R 2 R une fonction mesurable (ou continue par morceaux). (1) Si X et Y sont deux variables aléatoires discrètes de loi conjointe p(x, y), alors E [g(x, Y )] = (x,y) X(Ω) Y (Ω) g(x, y) p(x, y). (2) Si X et Y sont deux variables aléatoires conjointement continues de densité conjointe f X,Y, alors E [g(x, Y )] = g(x, y) f(x, y) dx dy R 2 On retrouve alors le résultat déjà exprimé dans les chapitres précédents sur l espérance d une somme comme cas particulier du théorème 10 : Corollaire 11 (Linéarité de l espérance) Etant données deux variables aléatoires X et Y admettant des espérances et deux constantes a, b réelles : E[aX + by ] = a E[X] + b E[Y ]. Si X 1,..., X n sont des variables aléatoires admettant des espérances, alors [ n ] n E X k = E[X k ]. k=1 k=1 Démontrer ce corollaire en choisissant bien la fonction g dans le théorème 10 et en utilisant une récurrence sur le nombre de variables aléatoires. Généraliser le deuxième point du corollaire 11 à une infinité dénombrable de variables aléatoires (attention aux problèmes d existence des quantités manipulées). 4.2 Covariance La définition suivante peut s interpréter comme un «dédoublement» de la définition de la variance. 7

Chapitre 15 MathématiquesÉcole des Mines de Douai FIAAS Définition 6 Soient X et Y deux variables aléatoires admettant une espérance. Alors le nombre Cov(X, Y ) = E [(X E[X])(Y E[Y ])], s il existe, s appelle la covariance de X et Y. Proposition 12 Si X et Y sont deux variables aléatoires admettant une variance, alors Cov(X, Y ) existe et vérifie Cov(X, Y ) Var(X) Var(Y ) = σ(x)σ(y ). Démontrer cette proposition dans le cas où X et Y sont toutes deux discrètes ou conjointement continues, à l aide de l inégalité de Cauchy-Schwartz sur les séries ou les intégrales. Proposition 13 (Propriétés de la covariance) On a les relations suivantes (sous réserve d existence des quantités considérées) : (1) Cov(X, Y ) = E[XY ] E[X]E[Y ], (2) Cov(X, X) = Var(X), (3) la covariance définit une forme bilinéaire symétrique positive sur l espace des variables aléatoires admettant une variance. Démontrer cette proposition, notamment à l aide du corollaire 11. En considérant des variables aléatoires constantes non nulles, démontrer que la covariance n est pas un produit scalaire. On jette un dé équilibré. On note X le résultat obtenu, et Y la variable aléatoire définie par Y = 1 si X = 6, Y = 0 sinon. Déterminer les lois de X, Y et XY. Calculer l espérance de ces variables ; en déduire la covariance de X et Y. Comparer avec le produit des écart-types de X et de Y. Corollaire 14 (Variance d une somme) Si X et Y admettent une variance, alors X + Y admet une variance, qui vaut Var(X + Y ) = Var(X) + Var(Y ) + 2 Cov(X, Y ). 8 Démontrer ce corollaire à l aide de la bilinéarité de la covariance évoquée à la proposition 13. Généraliser au cas de n variables aléatoires (en s inspirant de la formule du carré d une somme de n termes), grâce à une récurrence.

4.3 Cas de variables indépendantes Examinons ce que donnent les définitions et résultats précédents dans le cas de variables aléatoires indépendantes. Théorème 15 Si X et Y sont deux variables aléatoires indépendantes et si g et h sont deux fonctions continues par morceaux R R, alors, sous réserve d existence de ces quantités : E [g(x) h(y )] = E [g(x)] E [h(y )]. Démontrer ce théorème si X et Y sont continues. On utilisera la proposition 5 et le théorème de Fubini pour les intégrales doubles. Qu obtient-on si les fonctions g et h sont l identité? Remarques 1. La réciproque est fausse bien sûr. 2. Cette relation est fausse en général si X et Y sont dépendantes. Corollaire 16 Si X et Y sont deux variables indépendantes, leur covariance, si elle existe, est nulle : Cov(X, Y ) = 0. Démontrer ce corollaire à l aide du théorème 15 et de l expression de la covariance de la proposition 13. Les variables X et Y de l exemple suivant la proposition 13 sont-elles indépendantes? On considère une variable aléatoire équiprobable prenant les valeurs 1, 0 et 1. On définit la variable Y comme suit : Y = 0 lorsque X 0, Y = 1 si X = 0. Les variables X et Y sont-elles indépendantes? Déterminer la variable aléatoire XY. En déduire la covariance de X et Y. La réciproque du corollaire 16 est-elle vraie? Corollaire 17 (Variance d une somme de variables indépendantes) Si X 1,..., X n sont des variables aléatoires indépendantes admettant une variance, alors la somme X 1 + + X n admet une variance égale à ( n ) n Var X k = Var(X k ) k=1 k=1 9

Chapitre 15 MathématiquesÉcole des Mines de Douai FIAAS Démontrer ce corollaire à l aide du corollaire 14. 4.4 Corrélation La variance constitue un indicateur de l indépendance (ou «la tendance à l indépendance») de deux variables aléatoires. Cependant, il ne s agit pas d une indication absolue puisque les valeurs possibles pour Cov(X, Y ) vont de σ(x)σ(y ) à σ(x)σ(y ). Il est donc naturel de chercher à normaliser cet indicateur ; c est l objet de la définition suivante. Définition 7 Si X et Y sont deux variables aléatoires admettant des variances non nulles, on définit le coefficient de corrélation linéaire de X et Y par la formule suivante : ρ(x, Y ) = Cov(X, Y ) σ(x)σ(y ). Calculer le coefficient de corrélation des variables X et Y de l exemple suivant la proposition 13. Proposition 18 (Propriétés du coefficient de corrélation) Avec ces mêmes notations et hypothèses : (1) ρ(x, Y ) [ 1, 1] ; (2) si X et Y sont indépendantes, ρ(x, Y ) = 0. Vérifier cet énoncé à l aide des propriétés de la covariance. On peut bien sûr énoncer d autres propriétés du coefficient de corrélation ; celui-ci est surtout utilisé en statistiques. 5 Théorèmes limites 5.1 Inégalités de Markov et Tchebytcheff Ces inégalités fournissent un «retour d expérience» du calcul de l espérance sur la loi de la variable aléatoire sous la forme d un minorant de la fonction de répartition. L importance de ces résultats est principalement théorique, ils permettent de démontrer la convergence de certaines lois de probabilité. Théorème 19 (Inégalité de Markov) Soit X une variable aléatoire à valeurs positives admettant une espérance. Alors a > 0, P (X a) E[X] a. 10

Démontrer ce théorème en considérant la variable aléatoire Y définie par 1 si X a Y = 0 sinon. Traduire le théorème 19 sous forme d une minoration de la fonction de répartition de X. L inégalité de Tchebytcheff suivante fournit un majorant de la probabilité qu une variable X s écarte de son espérance. Corollaire 20 (Inégalité de Tchebytcheff ) Soit X une variable aléatoire admettant une espérance µ et une variance σ 2. Alors k > 0, P ( X µ k) σ2 k 2. Démontrer ce corollaire en appliquant l inégalité de Markov à la variable aléatoire Y = (X E[X]) 2 et a = k 2. Calculer ce majorant pour une variable aléatoire suivant la loi normale N (µ, σ 2 ). Comparer avec la valeur exacte, fournie par une table, de la probabilité ainsi majorée. 5.2 Loi faible des grands nombres Théorème 21 (Loi faible des grands nombres) Soit (X n ) n N une suite de variables aléatoires indépendantes suivant toutes la même loi, d espérance commune µ. La variable aléatoire Y n = X 1+ +X n converge en probabilité vers µ. Cela signifie n que ( ) X 1 + + X n ε > 0, P µ n > ε n + 0. On suppose que les X n ont une variance commune σ 2. Quelle sont alors l espérance et la variance de Y n? En appliquant l inégalité de Tchebytcheff, démontrer le théorème 21 avec cette hypothèse d existence de σ 2. 5.3 Théorème de la limite centrale Le résultat suivant est l un des théorèmes les plus importants de la théorie des probabilités ; il est d une importance théorique et pratique très élevée. 11

Chapitre 15 MathématiquesÉcole des Mines de Douai FIAAS Théorème 22 (Théorème de la limite centrale) Soit (X n ) n N une suite de variables aléatoires indépendantes, suivant toutes la même loi, d espérance et variance communes µ et σ 2 respectivement. Alors la variable aléatoire Y n = X 1+ +X n nµ σ converge en loi vers la loi standard N (0, 1). Cela signifie que la n suite (F Yn ) n N des fonctions de répartition des variables Y n converge simplement vers la fonction Φ : ( ) X1 + + X n nµ a R, P σ a n Φ(a) = 1 a e x2 2 dx. n + 2π Quelles sont l espérance et la variance de Y n? ) ( 10 Calculer une approximation de P X k > 6 lorsque X 1,..., X 10 sont des k=1 variables aléatoires suivant la loi uniforme U([0, 1]). On utilise très souvent le théorème de Moivre-Laplace, qui peut être vu comme cas particulier du théorème de la limite centrale. Corollaire 23 (Théorème de Moivre-Laplace) Soient p ]0, 1[ et (S n ) une suite de variables aléatoires telle que pour tout n N, la variable S n suit la loi binomiale B(n, p). Alors la suite de variables aléatoires (Y n ) définie par n N, Y n = S n np np(1 p) converge en loi vers la loi standard N (0, 1). Rappeler la définition de la loi B(n, p), son espérance et sa variance. En déduire la démonstration de ce corollaire. Un fermier possède un troupeau de 100 vaches et deux étables de N places. Lorsque les vaches rejoignent leurs pénates, chacune d elles choisit une étable au hasard. Quelle doit être la valeur minimale de N pour que la probabilité que chaque vache trouve une place sans que le fermier ait à intervenir soit supérieure ou égale à 0, 9? En pratique, l approximation obtenue de la loi binomiale par la loi normale donnée par le théorème de Moivre-Laplace est très bonne dès que np(1 p) > 9. 6 Exercices 12 Les exercices 1, 5 et 7 sont à préparer.

Exercice 1 Une urne contient des boules numérotées de 1 à n. On en tire deux successivement avec remise, et on note respectivement X et Y le plus grand et le plus petit des numéros tirés. 1. Déterminer la loi conjointe de X et Y. 2. Déterminer les lois marginales de X et Y. Calculer leurs espérances. 3. Calculer la covariance de X et Y. Ces variables aléatoires sont-elles indépendantes? 4. Calculer Var(X + Y ). Exercice 2 Soient X et Y deux variables aléatoires indépendantes, suivant la même loi géométrique de paramètre p. On pose U = max{x, Y } et V = min{x, Y }. 1. Déterminer la loi conjointe du couple (U, V ). En déduire les lois marginales de U et V. 2. Vérifier que U + V = X + Y. Calculer l espéance de V puis celle de U. Exercice 3 Soit n N. Au cours d un championnat sportif, une équipe donnée rencontre n adversaires. À chaque rencontre, sa probabilité de victoire est p, elle gagne alors un point ; sa probabilité de défaite est q, elle perd alors un point ; sa probabilité de faire match nul est r, elle ne gagne aucun point mais n en perd aucun. On suppose que p, q, r ]0, 1[. Quelle relation vérifient-ils? On suppose les résultats des rencontres indépendants les uns des autres. Soient A le nombre de victoires, B le nombre de défaites, C le nombre de matchs nuls et X le nombre de points de l équipe à la fin du championnat. 1. Montrer que A, B et C suivent des lois binômiales que l on précisera. 2. Vérifier que la loi conjointe du couple (A, B) est donnée par n! i, j {0,..., n}, P ({A = i} {B = j}) = i! j! (n i j)! pi q j r n i j si i + j n 0 sinon. 3. Quelle relation lie A, B et C? En déduire que Cov(A, B) = npq. 4. En utilisant l expression de X en fonction de A et B, calculer l espérance et la variance de X. 13

Chapitre 15 MathématiquesÉcole des Mines de Douai FIAAS Exercice 4 Soient X et Y deux variables aléatoires indépendantes suivant toutes les deux la loi de Bernouilli B(1, p), où p ]0, 1[. 1. Déterminer la loi conjointe du couple (S, D) où S = X + Y et D = X Y. 2. Déterminer les lois marginales de ce couple. Calculer E[S] et E[D]. 3. Les variables S et D sont-elles indépendantes? 4. Calculer Cov(S, D) puis ρ S,D. Exercice 5 Un couple de variables aléatoires (X, Y ) admet pour fonction de répartition simultanée 1 1 F : (x, y) 1 + x 1 1 + y + 1 si x 0 et y 0 1 + x + y 0 sinon. 1. Calculer la densité conjointe de X et Y, ainsi que leurs densités marginales. Ces variables sont-elles indépendantes? 2. Déterminer la loi de la variable aléatoire X + Y. Exercice 6 Soient α ] 1, 1[ et (X, Y ) un couple de variables aléatoires admettant pour densité conjointe la fonction f définie par (x, y) R 2, f(x, y) = K 2π exp [ 1. Calculer la constante K en fonction de α. x2 + 2αxy + y 2 ] 2 2. Montrer que les lois marginales de X et Y sont des lois normales dont on précisera les paramètres. 3. Calculer la covariance de X et Y et étudier leur indépendance. Exercice 7 Soit (X, Y ) un couple de variables aléatoires admettant pour densité conjointe la fonction 1 si 0 < y < x < 1 x f : (x, y) 0 sinon. 1. Vérifier que f est bien une densité de probabilité. 2. Déterminer les lois marginales de X et Y. Ces variables sont-elles indépendantes? 3. Déterminer une densité de X Y. En déduire Cov(X, Y ). 14

Exercice 8 1. On dit qu une variable aléatoire suit la loi de Laplace de paramètre λ > 0 (parfois : loi exponentielle bilatérale de paramètre λ) si elle admet pour densité la fonction f : x 1 2 λe λ x. 1.1 Vérifier qu il s agit bien d une densité de probabilité. 1.2 Déterminer la fonction de répartition d une variable Z suivant la loi de Laplace de paramètre 1. 1.3 Soient Z 1 et Z 2 deux variables aléatoires indépendantes suivant toutes les deux la loi de Laplace de paramètre 1. Déterminer une densité de V = Z 1 + Z 2. 2. Dans cette question, X et Y sont deux variables aléatoires indépendantes suivant toutes les deux la loi exponentielle de paramètre 1 ; on pose Z = X Y. 1. 2.1 Déterminer la fonction de répartition puis une densité de Y. 2.2 Déterminer une densité de Z et vérifier que Z suit la loi de Laplace de paramètre 2.3 Calculer l espérance de Z. 2.4 On pose T = Z. Déterminer la fonction de répartition de T et vérifier que T suit une loi exponentielle dont on donnera le paramètre. Exercice 9 Une entreprise compte 300 employés. Chacun d eux téléphone en moyenne 6 minutes par heure. Quel est le nombre de lignes que l entreprise doit installer pour que la probabilité que toutes les lignes soient utilisées au même instant soir au plus égale à 0, 025? On utilisera une approximation par une loi normale. Exercice 10 M. Durand effectue 2 fois par jour, 5 jours par semaine et 46 semaines par an un trajet en voiture dont la durée est une variable aléatoire réelle qui suit une loi d espérance 45min et d écart-type 10min. On suppose que les durées des trajets sont mutuellement indépendantes. En utilisant le théorème de la limite centrale, déterminer la probabilité que M. Durand passe au moins 350h dans sa voiture au cours d une année. 15