[L2 Stat 28/9 - Massimiliano Gubinelli, Fadoua Balabdaoui-Mohr - poly n. (r.2] appels sur les intégrales multiples Théorème. [Fubini-Tonelli, cas n2] Soit f: 2 une fonction positive, alors f(, yddy 2 ( ( f(, yd dy f(, ydy d. Où les trois termes sont ou bien fini et égau ou bien simultanément +. Si f est de signe quelconque mais intégrable au sens que f(, y ddy < + alors l égalité des trois intégrales reste vraie. 2 Eemple 2. f(, ye y I I <y<2. D un part ( f(, yddy e y I d I <y<2 dy 2 ( y e y I<y<2 I d y 2 dy ( e I<y<2 I d y 2 dy 2 dy y 2 2. D autre part f(, yddy 2 + + ( 2 e y dy d (e e 2 d 2. Vecteurs aléatoires à densité Soit (Ω, A, P un espace probabilisé. Un vecteur aléatoire X de dimension n (ou dans n est une application X: Ω n telle que tout les ensembles de la forme {X B} {ω Ω: X(ω B} pour B Borélien de n appartiennent à la tribu A. En particulier on peut calculer la probabilité P(X B de l évènement {X B} (car P(A est définie pour tout A A. La loi de X est la l application qui à tout B Borélien de n associe P(X B. On appelle fonction de répartition de X la fonction F X : n [, ] définie par F X (,, n P(X,, X n n où (X i i,,n sont les composantes de X (X,, X n (donc des v.a. réelles. La fonction de répartition caractérise la loi de X, i.e. n importe quel évènement {X B} peut être calculé à l aide de F X. Eemple 3. Soit n 2 et B [, y ] [ 2, y 2 ] alors il est facile de vérifier que P(X B P(X [, y ], Y [ 2, y 2 ]F X (y, y 2 F X (y, 2 F X (, y 2 +F X (, 2 en utilisant les propriétés élémentaires des probabilités (en particulier P(A B P(A + P(B P(A B.
Définition 4. On dit que X admet une densité f X : n + ssi pour tout Borélien B B( n (la tribu Borélienne de n on peut eprimer la probabilité de l évènement {X B} par une intégrale sur B de f X : P(X B f X (,, n d d n. B La densité, si elle eiste, est unique et caractérise la loi de X. On a que f X (,, n d d n n P(X n en particulier f X est intégrable. La fonction de répartition F X : n [, ] de X est donné par F X (t,, t n def t P(X t,, X n t n c est la probabilité de l évènement {X B} pour B ], t ] déterminer la densité en dérivant la fonction de répartition: t n fx (,, n d d n. ], t n ] n. On peut f X (t,, t n n F X (t,, t n t t n formule valable en tout point de continuité de n F X (t,, t n / t t n. L interprétation intuitive de la densité f X est la suivante: si i alors la probabilité de l évènement {X i [ i, i + i ] pouri,, n} est approchable par + P(X i [ i, i + i ] pouri,, n n n+ n fx (t,, t n dt dt n f X (,, n n. La densité est donc proportionnelle à la mesure de probabilité d un petit voisinage du point (,, n. Autrement dit, si B n (, δ n est la boule n-dimensionnelle de rayon δ centré en n et V n (δ B n (, δ le volume de B(, δ, i.e. V n (δ dt dt n B n (,δ alors si δ on a l approimation P(X B(, δ f X (V n (δ. Eemple 5. Soit Z (X, Y : Ω 2 un couple aléatoire dont la fonction de répartition est donnée par où q(sma(, min (s,. Alors F Z (, y q( q(y { f Z (, y 2 si ], [ et y ], [; y F Z(, y sinon. 2
Donc f est la densité uniforme sur le carré [, ] 2. Densités marginales Définition 6. Si Z est un vecteur aléatoire dans n admettant une densité f Z alors tout sousvecteurs Y de Z de dimension k n admettent une densité qu on obtient en intégrant f Z par rapport au composantes qui ne figurent pas dans Y. On appelle cette densité la densité marginale de Y. Eplicitement si Y (Z,, Z k alors P(Y B P((Z,, Z k B P(Z B n k f Z (z,, z n dz dz n (z,,z k B ( B f Z (z, n k, z k, z k+,, z n dz k+ dz n dz dz k donc f Y (y,, y k n k f Z(y, y k, z k+,, z n dz k+ dz n. Cas particulier (n 2. Soit Z (X, Y un vecteur aléatoire bidimensionnel de densité f Z. La densité marginale de X est f X ( f Z(, ydy et la densité marginale de Y est f Z (y f Z(, yd. Eemple 7. Considérons le couple (X, Y de densité f (X,Y (, yα e y I <<y 2 I y> Déterminer α > t.q. f (X,Y soit correctement normalisée. Déterminer les densités marginales f X et f Y. Calculer P(X >. Calculons I f (X,Y (, yddy α 2 α y e y dy α y 2 d e y dy donc α. f X ( f (X,Y (, ydy I > e y dy e I > f Y (y f (X,Y (, yd I y> e y y 2 d y e y I y> P(X > f X (d e d e 3
Densité et espérance conditionnelle Définition 8. Soit Z (X, Y un vecteur aléatoire dans m n admettant une densité f Z. Soient f X et f Y les densités marginales des vecteurs X et Y. On appelle densité conditionnelle de X sachant Y y la densité donnée par f X Y y ( f (X,Y (, y f Y (y pour tout y n t.q.f Y (y>. Cette définition est motivée par le fait que, si δ : P(X B m (, δ Y B n (y, δ P(X B m(, δ, Y B n (y, δ P(Y B n (y, δ f (X,Y (, y V m (δ f f Y (y X Y y (V m (δ f (X,Y (, yv m (δv n (δ f Y (yv n (δ donc la densité conditionnelle est proportionnelle à la probabilité conditionnelle de trouver X dans une petite boule centréeen sachant que Y est dans une petite boule centrée en y. Eemple 9. Considérons Z (X, Y de densité f Z (, y 2λ 2 e λ(+y I <<y. Quelle est la densité conditionnelle de X sachant Y y? Calculons d abord f Y (y: f Y (y 2λ 2 e λ(+y I <<y d2λe λy y I y> λe λ d2λe λy ( e λy I y> Il vient que f X Y y ( 2λ2 e λ(+y I <<y 2λe λy ( e λy I y> λe λ I <<y e λy pour tout y >. Définition. Une famille (X i i,,n de v.a. est indépendante ssi pour tout B i, i,, n, on a que les évènements {X i B i } i,,n sont indépendants, i.e.: P(X B,, X n B n P(X B P(X n B n. Dans cette définition les v.a.s X i peuvent être réelles ou bien des vecteurs aléatoires elles mêmes. Les v.a. X, Y sont indépendantes ssi F (X,Y (, y F X (F Y (y. Pour les v.a. avec densité on a la proposition suivante. Proposition. Soient X et Y 2 v.a. admettant respectivement les densités f X et f Y. Alors X et Y sont indépendantes ssi f X Y y ne dépend de y. Dans ce cas là f X Y y ( f X (. Démonstration. Si X, Y sont indépendantes alors F (X,Y (, y F X (F Y (y et donc on a que le couple admet la densité jointe f (X,Y (, y f X ( f Y (y car 2 y F (X,Y (, y 2 y F X(F Y (y f X ( f Y (y 4
et donc f X Y y ( f (X,Y (, y/f Y (y f X ( qui ne dépend pas de y. éciproquement on a f (X,Y (, y f X Y y (f Y (y et si la densité conditionnelle ne dépends pas de y f X ( f (X,Y (, ydy f X Y y ( f Y (ydy f X Y y ( et donc f (X,Y (, y f X (f Y (y qui implique l indépendance de X et Y. Proposition 2. Soient X et Y deu v.a. avec densité jointe f (X,Y (, y. Alors X et Y sont indépendantes ssi il eiste deu applications g, h telles que f (X,Y (, y g(h(y pour tout couple (, y t.q. f (X,Y (, y >. Démonstration. Si X et Y sont indépendantes alors on peut prendre g f X et h f Y. éciproquement: supposons que f (X,Y (, y g(h(y: f X ( f (X,Y (, ydy g( h(ydy, f X (d g(d h(ydy f Y (yh(y g(d et donc f (X,Y (, y f X ( f Y (y. Eemple 3. Soit (X, Y un couple de v.a. dans 2 admettant pour densité f (X,Y (, y 8 y I <<y<. X et Y ne sont pas indépendantes car la fonction I <<y< ne peut pas s écrire sous la forme d un produit. Espérance conditionnelle Si X est un vecteur aléatoire dans n admettant f X comme densité et g: n est une fonction positive alors on défini l espérance E[g(X] de la v.a. g(x par la formule E[g(X] g(f X (d n ( qui est toujours une quantité positive bien définie même si elle peut prendre la valeur +. Si g est de signe quelconque et E[ g(x ] < alors on dit que g(x est intégrable et on peut définir l espérance de g(x par la même formule (. Si g(x n est pas intégrable l intégrale dans la formule ( n est pas bien définie. Définition 4. Soit Z (X, Y un vecteur aléatoire de n m. Soit g: n m une fonction telle que g(x, Y est intégrable, c-à-d E g(x, Y < +. On appellera espérance conditionnelle de g(x, Y sachant Y et on notera E[g(X, Y Y ] la v.a. Ψ(Y où Ψ(y g(, yf X Y y (d, n y m : f Y (y>. Il est importante de remarquer que l espérance conditionnelle E[g(X,Y Y ] est une variable aléatoire. 5
Eemple 5. evenons à l eemple 9 et calculons E[X Y Y ] (il faut donc prendre g(, y y. Vérifions d abord la condition d integrabilité (qui donne sens au calcul de l espérance conditionnelle: E[ X Y ] y f (X,Y (, yddy 2λ ye λ(+y I <<y ddy 2 2λ 2 donc X Y est bien intégrable. ye λ(+y ddy 2λ 2 ( e λ d 2 < Ψ(y y f X Y y (d yi y> λe λ y I <<y λy e λy d e λy I y> e λ d et donc Ψ(y y e λy I e λy λy e λy y> λ E[XY Y ] Y e λy λy e λy e λy λ Proposition 6. Soit h une application de n m telle que g(x, Y h(y est intégrable. Alors. E[g(X, Y Y ]h(y E[g(X, Y h(y Y ] 2. E[E[g(X, Y Y ]h(y ] E[g(X, Y h(y ] Démonstration. Soit Φ(Y E[g(X, Y Y ] et Ψ(Y E[g(X, Y h(y Y ] où Φ(y g(, yf X Y y (d, n Ψ(y g(, yh(yf X Y y (d n alors Ψ(y h(yφ(y qui donne la première égalité. Pour la deuième on remarque que E[E[g(X, Y Y ]h(y ] E[Φ(Y h(y ] E[Ψ(Y ] Ψ(yf Y (ydy m g(, yh(yf X Y y (f Y (yddy n m g(, yh(yf (X,Y (, yddy n m E[g(X, Y h(y ] par la définition de la densité conditionnelle et d espérance. Cas particuliers: g(, y et h(y: E[E[X Y ]] E[X] g(, y, h(y intégrable: E[h(Y Y ] h(y. 6
appels sur la variance/covariance. La covariance Cov(X, Y du couple (X, Y de v.a. réelles est donnée par Cov(X, Y E[(X E[X](Y E[Y ]]. La variance de X est Var(X Cov(X, X E[(X E[X] 2 ]. Si Var(X alors X E[X] est une constante. La covariance est une fonction symétrique (Cov(X, Y Cov(Y, X et lineaire par rapport à chacun de ses arguments (Cov(αX + βy, Z αcov(x, Z + βcov(y, Z. Var(αX + c α 2 Var(X. On a l inégalité Cov(X, Y 2 Var(X Var(Y [preuve: considérer le discriminant du polynôme positive p(t Var(X + ty ]. Le coefficient de corrélation ρ X,Y est défini par Cov(X, Y ρ X,Y [, ] Var(X Var(Y Si ρ X,Y ± et Var(Y > alors eiste α tel que Var(X αy et donc X αy constante qui donne que Cov(X, Y Cov(αY, Y αvar(y, Var(X α 2 Var(Y et ρ X,Y sign α. Donc on voit bien que le signe de α est celui de ρ X,Y. Définition 7. On appelle variance conditionnelle de X sachant Y et on notera Var(X Y la v.a. Var(X Y E[(X E[X Y ] 2 Y ] Proposition 8. On a Var(X Y E[X 2 Y ] (E[X Y ] 2 Démonstration. Var(X Y E[X 2 2XE[X Y ] + (E[X Y ] 2 Y ] E[X 2 Y ] 2(E[X Y ] 2 +(E[X Y ] 2 E[X 2 Y ] (E[X Y ] 2 car E[X E[X Y ] Y ] E[X Y ] E[X Y ] et E[(E[X Y ] 2 Y ] (E[X Y ] 2. Proposition 9. (identité de la variance conditionnelle Soient X et Y 2 v.a. sur le même espace de probabilité et E[X 2 ] < +. Alors Var(X E[Var(X Y ] + Var[E(X Y ] Démonstration. Var(X E[X 2 ] (E[X] 2 E[E[X 2 Y ] (E(X Y 2 ] + E[(E(X Y 2 ] (E[E[X Y ]] 2 E[Var(X Y ] + Var[E(X Y ] 7