Université Pierre et Marie Curie L3 - Mathématiques Année 3-4 Probabilités - LM39 Corrigé des exercices de la feuille n o 5 Exercice Puisque X et Y sont centrés, les données de l énoncé entraînent que Var(X = 4 et que Var(Y = Il reste à déterminer Cov(X, Y Puisque les va X + Y et X 3Y sont indépendantes, leur covariance est nulle Donc = Cov(X + Y, X 3Y = Var(X 3Var(Y 5Cov(X, Y, ce qui donne Cov(X, Y = et K (X,Y = 4 Toute combinaison linéaire de X + Y et X Y est aussi une combinaison linéaire de X et Y, donc c est une gaussienne, puisque le vecteur (X, Y est gaussien On peut aussi dire que le vecteur (X +Y, X Y est gaussien puisqu il est l image par une application linéaire du vecteur gaussien (X, Y En effet ( X + Y X = X Y Y ( X = A Y Pour obtenir sa matrice de covariance, on calcule successivement et On a donc Var(X + Y = Var(X + Var(Y + Cov(X, Y = 4 + + = 7, Var(X Y = 4Var(X + Var(Y 4Cov(X, Y = 6 + 4 = 3 Cov(X + Y, X Y = Var(X Var(Y + Cov(X, Y = 8 + = 8 K (X+Y,X Y = 7 8 8 3 Remarque : On peut aussi écrire K (X+Y,X Y = A K (X,Y t A et effectuer le produit de matrices Exercice On procède comme à la question de l exercice : par exemple, le vecteur (U, V est l image par une application linéaire (de IR 3 dans IR du vecteur gaussien (X, Y, Z Puisque le vecteur (U, V est gaussien, on sait d après le cours que les va U et V sont indépendantes si et seulement si Cov(U, V =, c est-à-dire si et seulement si Var(X Var(Y + Cov(X, Z Cov(Y, Z = Exercice 3 Puisque X est centré, sa matrice de covariance est a b K =, b c et sa fonction caractéristique est ϕ(t, t = exp ( (t, t K t t = e (at +bt t +ct
D après le cours, cette loi possède une densité si et seulement si K est inversible, c est-à-dire si et seulement si ac b, et dans ce cas sa densité est f(x, x = π det K e t xk x = π ac b e (ac b (cx bx x +ax Remarque : On a ac b puisqu une matrice de covariance est toujours symétrique positive, ou bien en appliquant l inégalité de Schwarz E(X X E(X E(X Donc, s il y a une densité, on a ac b > Exercice 4 Les combinaisons linéaires des composantes du vecteur (X +Y +Z, X Y +Z + sont de la forme λ(x + Y + Z + µ(x Y + Z + = (λ + µx + (λ µy + (λ + µz + µ Puisque le vecteur (X, Y, Z est gaussien, elles sont donc de la forme N + C, où N est une var gaussienne et C une constante Or, si N est gaussienne, alors N +C est gaussienne, donc le vecteur (X +Y +Z, X Y +Z + est gaussien On a E(X +Y +Z = E(X+E(Y +E(Z = 4 et E(X Y +Z + = 4 Puisque le vecteur (X, Y, Z est gaussien et que sa matrice de covariance est diagonale, les var X, Y et Z sont indépendantes Donc Var(X + Y + Z = Var(X + 4Var(Y + Var(Z =, et Var(X Y + Z + = Var(X Y + Z = 4Var(X + Var(Y + Var(Z = Cov(X + Y + Z, X Y + Z + = Var(X Var(Y + Var(Z = Conclusion : ( X + Y + Z 4 N, X Y + Z + 4 donc On peut aussi remarquer que X + Y + Z = X Y + Z + X Y + Z X = A Y + Z X + Y + Z N A +, AI t X Y + Z + 3 A Exercice 5 On trouve det Q = 6 et donc le vecteur X admet la densité f(x, x, x 3 = Q = 3 3, 8 4 π det Q e t xq x = 8π e 6 (3x +3x +4x 3 +x x Pour toute application linéaire A : IR 3 IR 3, le vecteur Y = AX est gaussien et sa matrice de covariance est K Y = AK X t A = AQ t A D autre part, d après le cours, puisque Y est gaussien, ses composantes sont des va indépendantes si et seulement si sa matrice de covariance est diagonale
Il s agit donc de trouver une matrice A telle que AQ t A soit diagonale, c est dire de diagonaliser la matrice Q de façon que la matrice de passage soit orthogonale ( t P = P, ce qui est possible puisque les matrices symétrique sont diagonalisables en base orthonormée Calcul des valeurs propres : En développant par rapport à la dernière colonne, on trouve det(q λi = ( λ[(3 λ ] = ( λ (4 λ Les valeurs propres sont donc (valeur propre double et 4 Calcul des vecteurs propres : x x 3x y = x Q y = y x + 3y = y z z z = z x y = Une base orthonormée de ce plan est composée des vecteurs, / / Un système d équations du sous-espace propre associé à la valeur propre 4 est x + y =, z = / Un vecteur unitaire est / Il est automatiquement orthogonal aux deux précédents puisque Q est symétrique La matrice de passage / / P = / / correspond à un changement de base orthonormée et est donc orthogonale Puisque P QP = D, on peut prendre A = P = t P = / / / / 3 Puisque le vecteur X est gaussien, toutes les combinaisons linéaires de ses composantes, et en particulier X + X X 3, sont des var gaussiennes Il suffit donc de déterminer son espérance et sa variance Or E(X + X X 3 = E(X + E(X E(X 3 = puisque X est centrée et Var(X + X X 3 = Var(X + 4Var(X + Var(X 3 + 4Cov(X, X Cov(X, X 3 4Cov(X, X 3 = 3 + + 4 = 3, donc X + X X 3 N (, 3 Exercice 6 Soit f borélienne bornée, en faisant le changement de variable y = x dans l expression E(f(X = IR f(x e x / + dx, on obtient E(f(X / e y/ = f(yy dy, π π d où la densité de X : y / e y/ π I {y [,+ } La va X suit une loi Gamma de paramètres / et / La matrice du vecteur (X,, X n étant diagonale, ses coordonnées sont indépendantes, ainsi 3
que les va X,, X n On montre alors, en réitérant le calcul fait à l exercice 4, question, feuille d exercices 3, que la somme X + + X n suit une loi gamma de paramètres n/ et /, c est à dire une loi de densité y (n / e y/ n/ Γ(n/ I {y [,+ } On peut aussi utiliser les fonctions caractéristiques : la fonction caractéristique de la loi gamma de paramètres /, / est donnée par ϕ X (t = / /, / it pour tout t IR Par indépendance des va X,, X n, on a alors ϕ X + +X n (t = (ϕ X (tn = / n/ / it On reconnaît alors la fonction caractéristique de la loi gamma de paramètres n/ et / Remarque : La loi gamma de paramètres n/ et / est encore appelée loi du chi-deux à n degrés de liberté En faisant le changement de variable z = y dans l expression on obtient : + E(f( X + + X n = f( yy (n / e y/ n/ Γ(n/ dy, + E(f( X + + X n = f(zz n e z / (n / Γ(n/ dz, d où la densité de X + + X n : z n e z / (n / Γ(n/ I {z [,+ } 3 Pour les mêmes raisons qu à la question, les va X,, X n, Y sont indépendantes, ce qui entraîne l indépendance entre E(f(Y/ X + + X n = X + + X n et Y Soit f borélienne bornée, alors on a [, f(y/z e y / π z n e z / y/z = v, on obtient E(f(Y/ X + + X n = densité de Y/ X + + X Γ((n+/ n : πγ(n/(+v (n+/ I {v [,+ } (n / dy dz En posant z = u et Γ(n/ Γ((n + / f(v πγ(n/( + v dv, d où la (n+/ Exercice 7 Le vecteur Y est l image du vecteur X par la transformation linéaire de matrice A = Sa matrice de covariance est alors donnée par AI n t A = A t A On vérifie facilement que celle-ci n est pas diagonale, et donc que les coordonnées de Y ne sont pas indépendantes cos a sin a sin a Exercice 8 La matrice a pour carré sin a cos a sin a Soit A la matrice de l application linéaire A et K Q la matrice de covariance de la loi Q 4
Alors ( la matrice A doit vérifier la relation K Q = AI t n A = A t A et d après la question, on a cos a sin a A = sin a cos a 3 E(Y n = IR (y n dq(y = ((Ax n e (x +x / dx dx A (IR π = IR (x cos a + x sin a n e (x +x / dx dx π = π r n+ e r / dr (cos(θ a n dθ, π où la dernière égalité vient d un changement de variables en coordonnées polaires Posons I n = π π (cos(θ an dθ, alors pour tout k, I k+ = et I k = 4 (cos θ k dθ = k! πγ(k + / = 4 (k! π k (k! (intégrale de Wallis D autre part, r k+ e r / dr = = k k! k s k e s ds Finalement, pour tout k, on a E(Y k+ = et E(Y k = (k! k! k Exercice 9 Non car la matrice donnée n est pas définie positive, son déterminant n étant pas positif a c Exercice Soit la matrice de covariance de (G c b, G, alors on vérifie facilement que : E(e i(g +G = ( a c exp / <, c b = exp( /(c + a + b D autre part, on a E(e G E(e G = exp( /(a + b En identifiant ces deux expressions, on obtient que la covariance c entre G et G est nulle, ce qui signifie, puisque le vecteur (G, G est gaussien, que G et G sont indépendantes La réciproque est évidente a e f Notons (a la condition E(e i(g +G +G 3 = E(e ig E(e ig E(e ig 3 Soit e b g la matrice f g c de covariance de (G, G, G 3, alors, > a e f E(e i(g +G +G 3 = exp / <, e b g > f g c = exp( (a + b + c + (e + f + g/ 5
D autre part, E(e ig E(e ig E(e ig 3 = e (a+b+c/ La condition (a nécessite donc que e + f + g = cov(g, G + cov(g, G 3 + cov(g, G 3 = Soit alors X une va gaussienne, centrée, quelconque Posons G = X, G = ax et G 3 = bx où a, b IR sont à déterminer L égalité ci-dessus donne (a + b + abvar(x =, c est à dire a + b + ab = La condition (a est réalisée dans ce cas pour tous a et b tels que b = a/(a + D autre part, il est évident que G, G et G 3 ne sont pas indépendantes 3 Pour tout (a, a, a 3 IR 3, on a d une part a a e f a E(e i(a G +a G +a 3 G 3 = exp / < a, e b g a >, a 3 f g c a 3 et d autre part, E(e ia G E(e ia G E(e ia 3G 3 = e (a a+a b+a 3 c/ En identifiant ces deux expressions, on montre que ea a + fa a 3 + ga 3 a =, pour tous a, a, a 3 IR Ceci entraîne alors que nécessairement, on doit avoir e = f = g = Ainsi, (G, G, G 3 est un vecteur gaussien dont la matrice de covariance est diagonale, ses coordonnées sont donc indépendantes Exercice Comme les deux vecteurs sont centrés on a égalité des deux vecteurs lorsque les matrices de covariance sont égales ce qui se traduit par : A t A = Cov(X = V V étant une matrice de covariance, elle est définie positive Son déterminant étant strictement positif, elle est strictement définie positive Elle définie donc un produit scalaire Par le procédé d orthogonalisation de Schmidt, on trouve V = t PP, où P := Maintenant, A t A = t PP équivaut à [ t (P A] t [ t (P A] = I, c est à dire [ t (P A] est orthogonale L ensemble des matrices A cherchées est donc {A M n (IR telles que U O n (IR, A = t PU} 6