VECTEURS GAUSSIENS. Préparation à l Agrégation Bordeaux 1. Année 2012-2013. Jean-Jacques Ruch



Documents pareils
Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Moments des variables aléatoires réelles

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exercices Corrigés Premières notions sur les espaces vectoriels

Simulation de variables aléatoires

Cours d analyse numérique SMI-S4

Résolution d équations non linéaires

3. Caractéristiques et fonctions d une v.a.

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Programmes des classes préparatoires aux Grandes Ecoles

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Résolution de systèmes linéaires par des méthodes directes

I. Polynômes de Tchebychev

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

1 Complément sur la projection du nuage des individus

Espérance conditionnelle

Problème 1 : applications du plan affine

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Correction de l examen de la première session

MA6.06 : Mesure et Probabilités

Probabilités sur un univers fini

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

[ édité le 30 avril 2015 Enoncés 1

Capes Première épreuve

EXERCICE 4 (7 points ) (Commun à tous les candidats)

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

3. Conditionnement P (B)

Probabilités sur un univers fini

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Théorème du point fixe - Théorème de l inversion locale

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

Fonctions de plusieurs variables. Sébastien Tordeux

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Cours d Analyse. Fonctions de plusieurs variables

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Amphi 3: Espaces complets - Applications linéaires continues

Calcul différentiel sur R n Première partie

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Chapitre 2. Matrices

Licence de Mathématiques 3

Dérivées d ordres supérieurs. Application à l étude d extrema.

3 Approximation de solutions d équations

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Intégration et probabilités TD1 Espaces mesurés Corrigé

NOTATIONS PRÉLIMINAIRES

Calcul intégral élémentaire en plusieurs variables

Approximations variationelles des EDP Notes du Cours de M2

Le Modèle Linéaire par l exemple :

MÉTHODE DE MONTE CARLO.

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Programmation linéaire et Optimisation. Didier Smets

Travaux dirigés d introduction aux Probabilités

Analyse en Composantes Principales

La fonction exponentielle

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Variables Aléatoires. Chapitre 2

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Statistiques Descriptives à une dimension

Intégrales doubles et triples - M

Planche n o 22. Fonctions de plusieurs variables. Corrigé

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Calcul fonctionnel holomorphe dans les algèbres de Banach

Différentiabilité ; Fonctions de plusieurs variables réelles

Fonctions de plusieurs variables

DOCM Solutions officielles = n 2 10.

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Cours d Analyse 3 Fonctions de plusieurs variables

NOMBRES COMPLEXES. Exercice 1 :

Économetrie non paramétrique I. Estimation d une densité

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Chapitre VI Fonctions de plusieurs variables

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Angles orientés et fonctions circulaires ( En première S )

Théorie et codage de l information

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Quantité de mouvement et moment cinétique

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x =

Introduction à l étude des Corps Finis

Durée de L épreuve : 2 heures. Barème : Exercice n 4 : 1 ) 1 point 2 ) 2 points 3 ) 1 point

IV- Equations, inéquations dans R, Systèmes d équations

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Loi d une variable discrète

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Cours de mathématiques

= constante et cette constante est a.

Théorèmes du Point Fixe et Applications aux Equations Diérentielles

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Coefficients binomiaux

Température corporelle d un castor (une petite introduction aux séries temporelles)

Image d un intervalle par une fonction continue

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Structures algébriques

Évaluation de la régression bornée

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

AOT 13. et Application au Contrôle Géométrique

Transcription:

VECTEURS GAUSSIENS Préparation à l Agrégation Bordeaux 1 Année 2012-2013 Jean-Jacques Ruch

Table des Matières Chapitre I. Vecteurs aléatoires gaussiens 5 1. Vecteurs aléatoires 5 2. Vecteurs aléatoires gaussiens 7 3. Théorème de Cochran 10

CHAPITRE I Vecteurs aléatoires gaussiens Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées, et de ce fait jouent un rôle important en probabilités et en statistique. Ils apparaissent naturellement comme des objets limites et serviront en particulier dans le prochain chapitre : soit (Y n ) une suite de vecteurs aléatoires à valeurs dans R k, dont les composantes sont de carré intégrable, indépandants et de même loi avec E(Y 1 ) = M et de matrice de covariance Γ ; alors on a ( ) Y1 + + Y n L n M N k (0, Γ). n Soit X = X 1. X d entre X i et X j est donnée par 1. Vecteurs aléatoires R d un vecteur aléatoire tel que E(Xj 2 ) < +. Pour tout 1 i, j d, la covariance Cov(X i, X j ) = E[(X i E[X i ])(X j E[X j ])] = E[X i X j ] E[X i ]E[X j ]. Avec l hypothèse faite ci-dessus cette covariance est toujours bien définie car, par l inégalité de Cauchy- Schwarz, Cov(X i, X j ) 2 Var(X i )Var(X j ). Il est facile de voir que l on a Cov(X i, X i ) = Var(X i ). De plus, si les variables X i et X j sont indépendantes on a Cov(X i, X j ) = 0. En général, la réciproque est fausse, sauf pour des vecteurs gaussiens, comme nous le verrons plus loin. Définition 1. Soit X un vecteur (colonne) aléatoire de R d dont les composantes sont de carré intégrable. Le vecteur moyenne de X est défini par : E(X 1 ) E(X) =. E(X d ) et sa matrice de covariance par : Var(X 1 ) Cov(X 1, X 2 ) Cov(X 1, X d ) Var(X) = E[(X E[X])(X E[X]) t Cov(X 2, X 1 ) Var(X 2 ) Cov(X 2, X d ) ] =...... Cov(X d, X 1 ) Cov(X d, X 2 ) Var(X d ) On dira que X est centré si E[X] = 0. Si les composantes de X sont indépendantes la matrice de covariance de X est diagonale. Comme avant la réciproque est fausse en général sauf pour les vecteurs gaussiens. Avant d énoncer le résultat suivant rappelons quelques propriétés des matrices symétriques semi-définies positives. Une matrice symétrique réelle M est semi-définie positive si et seulement si elle vérifie l une des deux propriétés équivalentes suivantes :

6 Chapitre I. Vecteurs aléatoires gaussiens 1. Pour tout vecteur colonne V on a V t MV 0 2. Toutes les valeurs propres de M sont positives ou nulles i.e. Sp(M) [0, + [ D autre part, si M 1 et M 2 sont deux matrices symétriques semi-définies positives de même dimension, alors pour tout a 0 et b 0, am 1 +bm 2 est encore une matrice symétrique semi-définie positive. Le théorème spectral entraîne que si M est symétrique semi-définie positive, alors il existe une matrice orthogonale P et une matrice diagonale D = Diag(λ 1,..., λ d ) (positive) telle que M = P DP t. On en déduit qu il existe une matrice A (pas unique en général), telle que M = AA t ; par exemple A = P Diag( λ 1,..., λ d ). Théorème 2. La matrice de covariance est une matrice symétrique semi-définie positive. Démonstration. Par construction la matrice de covariance est symétrique. Elle s écrit comme le produit d un vecteur et de sa transposée (l espérance s applique ensuite à chaque composante et ne change donc pas la symétrie). Pour le deuxième point il suffit de remarquer que si M est la matrice de covariance du vecteur aléatoire X et si V est une vecteur constant de R d, alors V t MV = Var(v 1 X 1 + v 2 X 2 + + v d X d ) 0. Théorème 3. Si X est un vecteur (colonne) aléatoire de R p de vecteur moyenne m et de matrice de covariance Γ. Alors si A est une matrice réelle q p, le vecteur aléatoire AX de R q a pour vecteur moyenne Am et pour matrice de covariance AΓA t. Démonstration. C est une simple conséquence de la linéarité de l espérance. Pour la moyenne on a : E[AX] = AE[X] = Am et pour la matrice de covariance : E[(AX Am)(AX Am) t ] = E[A(X m)(x m) t A t ] = AE[(X m)(x m) t ]A t = AΓA t. Théorème 4. Toute matrice symétrique semi-définie positive Γ de dimension d d est la matrice de covariance d un vecteur aléatoire de R d. Démonstration. Soit A une racine carrée matricielle de Γ. On note X un vecteur aléatoire de R d dont les composantes sont indépendantes, centrées et de variance 1. L espérance de X est donc le vecteur nul, et la matrice de covariance est égale à Id d. Le vecteur aléatoire AX est alors centré de matrice de covariance AI d A t = AA t = Γ.

2. Vecteurs aléatoires gaussiens 7 Définition 5. Soit X un vecteur aléatoire de R d centré et de matrice de covariance Γ. On considère (X 1,..., X n ) un n-échantillon issu de X. La matrice de covariance empirique Γ n est définie par Γ n = 1 ( X1 X1 t + + X n X t n n) Proposition 6. La matrice de covariance empirique associée à vecteur aléatoire X de R d est une matrice symétrique semi-définie positive. C est un estimateur sans biais et fortement consistant de Γ. Démonstration. La forme de la matrice Γ n montre que c est une matrice symétrique semi-définie positive. De plus comme E(X i Xi t) = Γ on obtient que E(Γ n) = Γ. Enfin la loi forte des grands nombres entraîne que Γ n converge presque sûrement vers Γ. Définition 7. Soit X un vecteur aléatoire de R d. On définit sa fonction caractéristique Φ X : R d C par : u R d Φ X (u) = E[e iutx ] = E[e i(u1x1+ u dx d ) ] 2. Vecteurs aléatoires gaussiens Définition 8. Un vecteur aléatoire de R d est un vecteur aléatoire gaussien si et seulement si toute combinaison linéaire de ses composantes est une variable aléatoire réelle gaussienne, i.e. : a R d, a t X L N (m, σ 2 ) En particulier tout vecteur gaussien de dimension 1 est une variable aléatoire gaussienne réelle, éventuellement dégénérée. D autre part, toutes les composantes de X sont aussi des variables aléatoires gaussiennes réelles. Exemple : soit X un vecteur aléatoire de R d dont les composantes X i sont indépendantes et de loi N (m i, σi 2 ). Le vecteur X est alors un vecteur gaussien. En effet toute combinaison linéaire de ses composantes s écrit a 1 X 1 + + a d X d, dont la loi est par indépendance des variables N (a 1 m 1 + + a d m d, a 2 1σ 2 1 + + a 2 dσ 2 d). Théorème 9. Soit X un vecteur aléatoire de R d de moyenne m et de matrice de covariance Γ. Les assertions suivantes sont équivalentes : 1. Le vecteur X est un vecteur gaussien. 2. La fonction caractéristique de X est donnée par : pour tout u R d Φ X (u) = E [ exp (iu t X) ] ( = exp iu t m 1 ) 2 ut Γu 3. Le vecteur X a même loi que le vecteur m + AZ, où Z est un vecteur aléatoire de R d à composantes indépendantes et de loi N (0, 1) et A est une matrice racine carrée de Γ.

8 Chapitre I. Vecteurs aléatoires gaussiens Démonstration. La première équivalence provient de la définition d un vecteur aléatoire gaussien et de celle de la fonction caractéristique d une variable aléatoire gaussienne réelle. Pour l équivalence entre 1 et 3 cela provient simplement du théorème 3 et des propriétés des matrices symétriques semi-définies positives. La loi d un vecteur gaussien est caractérisée par son vecteur moyenne m et sa matrice de covariance Γ. Elle est appelée loi gaussienne sur R d et est notée N (m, Γ). La loi N (0, I d ) est appelée loi gaussienne standard sur R d. Un vecteur gaussien ayant cette loi est appelé vecteur aléatoire gaussien standard. Proposition 10. Toute matrice symétrique semi-définie positive Γ de dimension d d est la matrice de covariance d un vecteur aléatoire gaussien de R d. Démonstration. Soit Z le vecteur gaussien de R d dont toutes les composantes sont indépendantes et de loi N (0, 1). C est un vecteur aléatoire gaussien standard. D après le théorème 3 et le 3 du théorème 9, AZ est un vecteur gaussien de R d de loi N (0, Γ). Attention, les composantes d un vecteur gaussien sont gaussiennes mais la réciproque est fausse. En effet, soit X = (Y, εy ) un vecteur aléatoire de R 2 tel que Y et ε sont deux variables aléatoires réelles indépendantes avec Y N (0, 1) et ε suit une loi de Rademacher c est-à-dire P(ε = 1) = P(ε = 1) = 1/2. Il est facile de voir que Y et εy sont deux variables aléatoires gaussiennes, mais la combinaison linéaire Y + εy ne l est pas car P(Y + εy = 0) = P(ε = 1) = 1/2. De plus, Cov(Y, εy ) = E[Y 2 ]E[ε] = 0, mais Y et εy ne sont pas indépendantes. Le théorème suivant caractérise les lois gaussiennes de matrice de covariance inversible. Théorème 11. La loi gaussienne N (m, Γ) sur R d admet une densité de probabilité par rapport à la mesure de Lesbegue de R d si et seulement si Γ est inversible. Dans ce cas la densité de f est donnée par : pour tout x R d 1 f(x) = ( (2π)d det(γ) exp 1 ) 2 (x m)t Γ 1 (x m) Démonstration. La loi gaussienne N (m, Γ) peut être vue comme la loi du vecteur aléatoire gaussien m + AZ, où Z est un vecteur gaussien de R d dont toutes les composantes sont indépendantes et de loi N (0, 1). Par conséquent, Z a pour densité d ( 1 f Z (z) = exp 1 ) ( 1 2π 2 z2 i = exp 1 ). (2π) d 2 Z 2 i=1 Si X N (m, Γ) alors pour toute fonction continue bornée h : R d R, E[h(X)] = E[h(AZ + m)] = h(az + m)f Z (z)dz. R d La décomposition Γ = AA t entraîne que det(a) = det(γ). De plus Γ est inversible si et seulement si A l est et alors Γ 1 = (A 1 ) t A 1. D autre part, le changement de variable affine x = Az + m est un difféomorphisme de R d dans lui-même si et seulement si A est inversible. Son jacobien est alors égal à det(a 1 ). On en déduit que ( 1 E[h(X)] = h(x) exp 1 ) (2π)d det(γ) R 2 (x m)t Γ 1 (x m) dx d d où la formule annoncée pour la densité de f.

2. Vecteurs aléatoires gaussiens 9 Le théorème suivant caractérise les vecteurs gaussiens à matrice de covariance diagonale. Théorème 12. Pour tout vecteur gaussien X de R d, les trois propriétés suivantes sont équivalentes : 1. Les composantes X 1,..., X d sont mutuellement indépendantes. 2. Les composantes X 1,..., X d sont deux à deux indépendantes. 3. La matrice de covariance Γ de X est diagonale. En particulier, un vecteur gaussien est à composantes indépendantes si et seulement si pour tout i j, Cov(X i, X j ) = 0. Par exemple, un vecteur gaussien standard a toujours des composantes indépendantes et de loi N (0, 1) sur R. Démonstration. Les implications 1. 2. 3. sont évidentes. Montrons que 3. 1.. Si on a Γ = Diag(σ1, 2..., σn), 2 alors pour tout u R d ( Φ X (u) = exp iu t m 1 ) d 2 ut Γ = exp i u j m j 1 d σj 2 u 2 j 2 = d j=1 ( exp iu j m j 1 ) 2 σ2 j u 2 j = j=1 d Φ Xj (u j ) Le théorème suivant montre que, pour un vecteur gaussien, la loi conditionnelle d un bloc de composantes par rapport à un autre bloc de composantes disjoint s obtient par un calcul d algèbre matricielle. Théorème 13. Soit Z = (X, Y ) : (Ω, A, P) R d un vecteur gaussien de R d = R p R q. On peut décomposer la matrice de covariance Γ de Z en quatre blocs : ( ) ( ) Cov(X, X) Cov(X, Y ) K C Γ = = Cov(Y, X) Cov(Y, Y ) C t L Si Γ est inversible, alors K et L le sont. De plus, on a les propriétés suivantes : 1. Les vecteurs aléatoires X et Y sont des vecteurs gaussiens de R p et R q, de matrices de covariance respectives K et L. Ils sont indépendants si et seulement si C = 0. 2. Si K est inversible, alors j=1 E[Y X] = E[Y ] + C t K 1 (X E[X]). De plus, Y E[Y X] est un vecteur gaussien de R q, centré, indépendant de X, et de matrice de covariance L C t K 1 C. j=1 Démonstration. La propriété 1. s établit comme le théorème 12. Pour le deuxième point on pose On peut remarquer que ( ) X = V V = Y E[Y ] C t K 1 (X E[X]). ( ) ( E[X] + 0 1 0 C t K 1 1 ) ( ) X E[X] Y E[Y ]

10 Chapitre I. Vecteurs aléatoires gaussiens ( ) X E[X] Comme est un vecteur gaussien centré, Y E[Y ] et de matrice de covariance ( ) ( 1 0 K C C t K 1 1 C t L ( ) X est un vecteur gaussien de moyenne V ) ( ) ( ) 1 K 1 C K 0 = 0 1 0 L C t K 1 C ( ) E[X] 0 Donc V est un vecteur gaussien de R q, centré, indépendant de X, et de matrice de covariance L C t K 1 C. De plus on a E[Y X] = E[V + E[Y ] + C t K 1 (X E[X]) X] = E[V X] + E[Y ] + C t K 1 (X E[X]) = E[V ] + E[Y ] + C t K 1 (X E[X]) = E[Y ] + C t K 1 (X E[X]) 3. Théorème de Cochran C est un analogue du théorème de Pythagore pour les vecteurs gaussiens. Théorème 14. Théorème de Cochran Soit X un vecteur aléatoire de R n de loi N (m, σ 2 I n ) avec σ 2 > 0. Soit R n = E 1 E 2 E p une décomposition de R n en somme directe de p sous-espaces vectoriels orthogonaux de dimensions respectives d 1,..., d p, avec d 1 + + d p = n. Soit P k la matrice du projecteur orthogonal sur E k et Y k = P k X la projection orthogonale de X sur E k. 1. Les projections Y 1,..., Y p sont des vecteurs gaussiens indépendants et Y k N (P k m, σ 2 P k ). 2. Les variables aléatoires Y 1 P 1 m 2,..., Y p P p m 2 sont indépendantes et Y k P k m 2 /σ 2 χ 2 (d k ). Démonstration. Par translation on se ramène au cas ou m = 0. On a Y 1. Y p = P 1. P p X = AX Par conséquent la loi de Y est N (0, σ 2 AA t ). Or pour tout 1 i p, on a P i = Pi t = Pi 2. De plus, P i P j = 0 si 1 i j p car E i E j. Par conséquent, AA t = Diag(P 1,..., P p ) est diagonale par blocs. On en déduits que Y 1,..., Y p sont des vecteurs gaussiens indépendants avec Y k N (0, σ 2 P k ) pour tout 1 k p. En particulier les variables aléatoires Y 1 P 1 m 2,..., Y p P p m 2 sont indépendantes. Il reste à déterminer leur loi. Cela se fait en prenant une base orthonormée {e k,1,..., e k,dk } de chaque E k. Alors on a Y k = y k,1 e k,1 + + y k,dk e k,dk où les y k,i =< X, e k,i > sont des variables aléatoires indépendantes de loi N (0, σ 2 ). ON obtient alors le résultat. Ce théorème a de nombreuses des applications, dont en particulier le corollaire suivant. Corollaire 15. Soit (X 1,..., X n ) un échantillon de loi N (m, σ 2 ) avec σ 2. On définit : X n = 1 n X i et S n = 1 n (X i X n ) 2. n n 1 i=1 Alors, les variables aléatoires sont indépendantes de loi N (m, σ 2 /n) et χ 2 (n 1). i=1