École des Mines de Nancy Année 2017-2018 Denis Villemonais, denis.villemonais@univ-lorraine.fr FICM 2A Probabilités TD 1. Espérance conditionnelle (corrigé) Dans tous les exercices, (Ω,F,P) est un espace de probabilité sur lequel sont définies les variables aléatoires considérées. Ces variables aléatoires sont donc en particulier F -mesurables. Exercice 1. Soit B F une tribu. Soient X et Z des variables aléatoires réelles telles que X et X Z sont intégrables, avec Z B-mesurable. Montrer que E(X Z ) = E(E(X B)Z ). Solution. Nous commençons par démontrer que E( X Z ) = E(E( X B) Z ) (ceci est une conséquence du cours, mais nous le redémontrons car il est important de comprendre comment cela fonctionne). En effet, nous avons E( X Z ) = E( lim n + X Z 1 Z n) = lim n + E( X Z 1 Z n) d après le théorème de convergence monotone, puisque ( X Z 1 Z n ) est une suite positive croissante. Or E( X Z 1 Z n ) = E(E( X B) Z 1 Z n ) par définition de l espérance conditionnelle et en utilisant le fait que X est intégrable et que Z 1 Z n est B-mesurable borné. Or E( X B) Z 1 Z n est positive croissante presque sûrement vers E( X B) Z, donc, d après le théorème de convergence dominée, En définitive, lim E( ) E( X B) Z 1 Z n = E(E( X B) Z ). n + E( X Z ) = E(E( X B) Z ). (1) Nous savons que cette relation est vraie si Z est bornée et nous allons donc nous ramener à cette situation en utilisant le théorème de convergence dominée. Pour tout n N, Z 1 Z n est une variable aléatoire bornée B-mesurable. Par conséquent, d après la proposition 2.9 p 34, E(X Z 1 Z n ) = E(E(X B)Z 1 Z n ). (2) 1
Or p.s. X Z 1 Z n X Z n X Z 1 Z n X Z, p.s. E(X B)Z 1 Z n E(X B)Z et n E(X B)Z 1 Z n E( X B) Z, n, p.s. car Z est bornée B-mesurable. Or X Z et E( X B) Z sont des variables aléatoires intégrables (d après l égalité (1)), donc, d après le théorème de convergence dominée, E(X Z 1 Z n ) E(X Z ) et E(E(X B)Z 1 Z n) E(E(X B)Z ). n n Par passage à la limite dans (2), on en déduit que E(X Z ) = E(E(X B)Z ). Exercice 2. Soient (X,Y ) et (X,Y ) deux couples de variables aléatoires de même loi, tels que X est intégrable. 1. Soit f une fonction mesurable telle que E(X Y ) = f (Y ). Montrer que E(X Y ) = f (Y ). En particulier, cela implique que E(X Y ) et E(X Y ) ont même loi. 2. Supposons que X est symétrique, c est-à-dire que X et X ont même loi. Déterminer E(X X ). 3. Soient X 1,..., X n des variables aléatoires réelles indépendantes et de même loi. Nous supposons que X 1 est positive presque sûrement ou intégrable. Déterminer E(X 1 X 1 + + X n ). Solution. 1. Pour toute variable aléatoire Z bornée et σ(y )-mesurable, il existe une fonction mesurable bornée h Z telle que Z = h Z (Y ). Ainsi, E(X Z ) = E(X h Z (Y )) = E(X h Z (Y )) car (X,Y ) et (X,Y ) ont même loi = E(f (Y )h Z (Y )) car f (Y ) = E(X Y ) = E(f (Y )h Z (Y )) car (X,Y ) et (X,Y ) ont même loi = E(f (Y )Z ). Ceci étant vrai pour toute variable aléatoire bornée Z B-mesurable, on déduit de la proposition 2.9 p. 34 que E(X Y ) = f (Y ). 2
2. Les variables aléatoires X et X ont même loi. Donc (X, X ) et ( X, X ) ont même loi. D après la question 1, E(X X ) = E( X X ). Or, par linéarité de l espérance conditionnelle, Par conséquent, E(X X ) + E( X X ) = E(0 X ) = 0. E(X X ) = E( X X ) = 0. 3. Les vecteurs aléatoires (X 1,(X 1,..., X n )),..., (X n,(x 1,..., X n )) ont même loi. Donc, d après la question 1., il existe une fonction mesurable f telle que E(X i X 1 + + X n ) = f (X 1 + + X n ), i {1,...,n}. Nous en déduisons que E(X 1 X 1 + + X n ) = 1 n n E(X i X 1 + + X n ) i=1 = 1 n E(X 1 +... + X n X 1 + + X n ) par linéarité. Or X 1 + + X n est σ(x 1 + + X n )-mesurable, donc E(X 1 X 1 + + X n ) = X 1 + + X n. n Exercice 3. Soit X une variable aléatoire de loi uniforme sur. Posons Y = 1 X 1/2 et Y 1 = X, Y 2 = X (1/2 X ), Y 3 = 1/X et Y 4 = 1 X 1/2. Déterminer, si elles existent, E(Y 1 Y ), E(Y 2 Y ), E(Y 3 Y ) puis E(Y 4 Y ). Solution. Y est une variable aléatoire à valeur dans l ensemble fini {0, 1}, nous allons donc chercher à appliquer la propriété 2.16 p.40. 3
1. La variable aléatoire Y 1 est bornée, donc intégrable. Par conséquent, E(Y 1 Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dénombrable, on a d après la proposition 2.16 p.40, E(Y 1 Y ) = E(Y 11 Y =0 ) P(Y = 0) 1 Y =0 + E(Y 11 Y =1 ) P(Y = 1) 1 Y =1. D une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur. De plus, d après le théorème du transport, E(Y 1 1 Y =1 ) = E(X 1 X 1/2 ) = x1 x 1/2 dλ 1 (x) = x dλ 1 (x) = 1 8. [0,1/2] De même, E(Y 1 1 Y =0 ) = E(X 1 X >1/2 ) = = x dλ 1 (x) ]1/2,1] x1 x>1/2 dλ 1 (x) = 3 8. En définitive, E(Y 1 Y ) = 1 4 1 Y =1 + 3 4 1 Y =0. 2. La variable aléatoire Y 2 est bornée, donc intégrable. Par conséquent, E(Y 2 Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dénombrable, on a d après la proposition 2.16 p.40, E(Y 2 Y ) = E(Y 21 Y =0 ) P(Y = 0) 1 Y =0 + E(Y 21 Y =1 ) P(Y = 1) 1 Y =1. D une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur. De plus, d après le théorème du transport, E(Y 2 1 Y =1 ) = E(X (1/2 X )1 X 1/2 ) = x(1/2 x)1 x 1/2 dλ 1 (x) x = 2 x2 dλ 1 (x) [0,1/2] = 1 16 1 24 = 1 48. 4
De même, E(Y 2 1 Y =0 ) = E(X (1/2 X )1 X >1/2 ) = x = 2 x2 dλ 1 (x) Finalement, ]1/2,1] = 3 16 7 24 = 5 48. E(Y 2 Y ) = 1 24 1 Y =1 5 24 1 Y =0. x(1/2 x)1 x>1/2 dλ 1 (x) 3. La variable aléatoire Y 3 est positive presque sûrement. Par conséquent, E(Y 3 Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dénombrable, on a d après la proposition 2.16 p.40, E(Y 3 Y ) = E(Y 31 Y =0 ) P(Y = 0) 1 Y =0 + E(Y 31 Y =1 ) P(Y = 1) 1 Y =1. D une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur. De plus, d après le théorème du transport, E(Y 3 1 Y =1 ) = E(1/X 1 X 1/2 ) = 1/x1 x 1/2 dλ 1 (x) = +. De même, Finalement, E(Y 3 1 Y =0 ) = E(1/X 1 X >1/2 ) = 1/x1 x>1/2 dλ 1 (x) = 1/x dλ 1 (x) = ln2. ]1/2,1] E(Y 3 Y ) = + 1 Y =1 + ln21 Y =0. 4. La variable Y 4 n est ni positive, ni intégrable E( Y 4 ) = + d après une application immédiate du théorème du transport. Par conséquent, E(Y 4 Y ) n est pas définie. 5
Exercice 4. Soient X et Y deux variables aléatoires réelles indépendantes. Notons F X +Y la fonction de répartition de la variable aléatoire réelle X + Y et F Y celle de la variable aléatoire réelle Y. 1. Montrer que pour tout t R, E(1 X +Y t X ) = F Y (t X ) presque sûrement. 2. Supposons que X est une variable de loi uniforme sur [0, 1]. Montrer que t R, F X +Y (t) = 1 0 F Y (t u)du. Solution. 1. Les variables aléatoires X et Y étant supposées indépendantes, nous allons chercher à appliquer la proposition 2.30 p.51, avec h(x, y) = 1 x+y t. Remarquons que h est bornée, donc h(x,y ) est intégrable. Nous avons donc E(1 X +Y t X ) = g (X ), avec g (x) = E(h(x,Y )) = h(x, y)dp Y (y) = 1 x+y t dp Y (y) R R = P Y (], t x]) = F Y (t x), par définition de la fonction F Y. En définitive, 2. Nous avons E(1 X +Y t X ) = F Y (t X ). F X +Y (t) = E(1 X +Y t ) = E(E(1 X +Y t X )) = E(F Y (t X )), donc, d après le théorème du transport, F X +Y (t) = F Y (t x)dλ 1 (x). Exercice 5 (DM1). Soit (X,Y, Z ) un vecteur gaussien centré de matrice de covariance 2 1 1 M = 1 2 1. 1 1 2 6
1. Déterminer E(X Y, Z ). 2. Déterminer E(X 2Y + Z ). 3. Déterminer E(X X + Y,Y Z ). Solution. 1. La matrice de covariance du vecteur gaussien (Y, Z ) est Γ (Y,Z ) = ( ) 2 1, avec (Γ 1 2 (Y,Z ) ) 1 = 1 3 ( 2 ) 1 1 2 et la matrice de covariance de X est Γ X = (2). Par conséquent, (X,Y, Z ) étant un vecteur gaussien et Γ (Y,Z ) ) étant inversible, on a d après la proposition 2.38 p.53, (( ) ( )) E(X Y, Z ) = E(X ) + (Γ X,(Y,Z ) (Γ (Y,Z ) ) 1 Y Y ) E, Z Z avec Γ X,(Y,Z ) = ( 1,1). Étant donné que le vecteur (X,Y, Z ), est centré, nous en déduisons que En définitive, nous obtenons E(X Y, Z ) = 1 ( ) ( ) 2 1 Y 3 ( 1,1). 1 2 Z E(X Y, Z ) = Y + Z. 2. Le vecteur aléatoire (U,V ) = (X,2Y + Z ) est un vecteur gaussien centré, en tant que transformation linéaire du vecteur gaussien centré (X,Y, Z ). De plus, sa matrice de covariance est donnée par Γ (U,V ) = ( ) 1 0 0 M 0 2 1 1 0 0 2 = 0 1 Nous déduisons donc de la proposition 2.37 que soit ( ) 2 1. 1 14 E(X 2Y + Z ) = E(U V ) = 1 14 V, E(X 2Y + Z ) = 2Y + Z 14. 7
3. Le vecteur aléatoire (U,V,W ) = (X, X +Y,Y Z ) est un vecteur gaussien centré, en tant que transformation linéaire du vecteur gaussien centré (X,Y, Z ). De plus, sa matrice de covariance est donnée par 1 0 0 1 1 0 2 1 2 Γ (U,V,W ) = 1 1 0 M 0 1 1 = 1 2 1. 0 1 1 0 0 1 2 1 2 Ainsi, la matrice de covariance de (V,W ) est Γ (V,W ) = ( 2 ) 1 1 2 avec (Γ (V,W ) ) 1 = 1 3 ( ) 2 1 1 2 et la matrice de covariance de U est Γ U = (2). Par conséquent, d après la proposition 2.38 p.53, (( ) ( )) E(U V,W ) = E(U ) + (Γ U,(V,W ) (Γ (V,W ) ) 1 V V ) E, W W avec Γ U,(V,W ) = (1, 2). Étant donné que le vecteur (U,V,W ) est centré, nous en déduisons que En définitive, E(U V,W ) = 1 ( )( ) 2 1 V 3 (1, 2) = W. 1 2 W E(X X + Y,Y Z ) = Y + Z Exercice 6 (DM1). Soient X L 2 (Ω,F,P) et B F une tribu sur Ω. On appelle variance conditionnellement à B la variable aléatoire Var(X B) = E ( (X E(X B)) 2 B ) 1. Supposons que E(X 2 ) = E(E(X B) 2 ). Montrer que X est B mesurable. 2. Montrer que, presque sûrement, Var(X B) = E(X 2 B) E(X B) 2. 8
3. Montrer que et en déduire que Var X = E(Var(X B)) + Var(E(X B)) Var(E(X B)) Var X. 4. Rappelons que si A F, P(A B) = E(1 A B). Montrer que pour tout ε > 0, presque sûrement P( X E(X B) ε B) Var(X B) ε 2. Solution. Remarquons dès à présent que X L 2, donc E(X B) L 2, ce qui justifie l existence des espérances dans la suite de l exercice. 1. D après le théorème de Pythagore (applicable car X L 2 ), nous avons E(X 2 ) = E(E(X B) 2 ) + E((X E(X B)) 2 ). Par conséquent, sous l hypothèse E(X 2 ) = E(E(X B) 2 ), nous obtenons E((X E(X B)) 2 ) = 0. Or la variable aléatoire (X E(X B)) 2 est positive presque sûrement, donc (X E(X B)) 2 = 0 presque sûrement. En définitive, En particulier, X est B-mesurable. X = E(X B) p.s. Remarque 1. En fait, nous pouvons en déduire que X est B-mesurable si et seulement si B est complète, au sens où elle contient tous les ensembles négligeables de F. C est une hypothèse que nous faisons donc implicitement ici. 2. Nous avons Var(X B) = E(X 2 2X E(X B) + E(X B) 2 B) = E(X 2 B) 2E(X E(X B) B) + E(E(X B) 2 B) par linéarité de l intégrale conditionnelle. De plus, les variables aléatoires E(X B) et E(X B) 2 étant B-mesurables, En définitive, Var(X B) = E(X 2 B) 2E(X B)E(X B) + E(X B) 2. Var(X B) = E(X 2 B) E(X B) 2. 9
3. Nous avons E(Var(X B)) + Var(E(X B)) = E ( E(X 2 B) E(X B) 2) + E ( E(X B) 2) E(E(X B)) 2 En définitive, = E ( E(X 2 B) ) E(E(X B)) 2 = E(X 2 ) E(X ) 2. Var(X ) = E(Var(X B)) + Var(E(X B)). La variance conditionnelle étant positive presque sûrement par définition, nous en déduisons que Var(E(X B)) Var(X ). 4. Nous avons (en utilisant notamment la croissance de l espérance conditionnelle) Soit P( X E(X B) ε B) = E ( 1 X E(X B) ε B ) X E(X B) E (1 2 X E(X B) ε ε 2 ( X E(X B) 2 ) E ε 2 B. P( X E(X B) ε B) Var(X B) ε 2. ) B 10