Corrigé des exercices de la feuille n o 5. 0 = Cov(2X + Y, X 3Y ) = 2Var(X) 3Var(Y ) 5Cov(X, Y ),

Documents pareils
Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Cours d Analyse. Fonctions de plusieurs variables

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

3. Conditionnement P (B)

LE PRODUIT SCALAIRE ( En première S )

Intégrales doubles et triples - M

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Simulation de variables aléatoires

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Chapitre 2. Matrices

[ édité le 30 avril 2015 Enoncés 1

Différentiabilité ; Fonctions de plusieurs variables réelles

Calcul différentiel sur R n Première partie

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

CHAPITRE 10. Jacobien, changement de coordonnées.

Quelques contrôle de Première S

1S Modèles de rédaction Enoncés

Théorème du point fixe - Théorème de l inversion locale

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Cours de mathématiques

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

Moments des variables aléatoires réelles

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

OM 1 Outils mathématiques : fonction de plusieurs variables

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

I. Polynômes de Tchebychev

Repérage d un point - Vitesse et

Une forme générale de la conjecture abc

Fonctions de plusieurs variables

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Chapitre VI Fonctions de plusieurs variables

Cours 02 : Problème général de la programmation linéaire

Exercice 1 Trouver l équation du plan tangent pour chaque surface ci-dessous, au point (x 0,y 0,z 0 ) donné :

Géométrie dans l espace Produit scalaire et équations

3 Approximation de solutions d équations

Planche n o 22. Fonctions de plusieurs variables. Corrigé

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

1 Complément sur la projection du nuage des individus

Résolution de systèmes linéaires par des méthodes directes

Continuité en un point

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques

Correction de l examen de la première session

Cours de Mécanique du point matériel

Calcul intégral élémentaire en plusieurs variables

Optimisation des fonctions de plusieurs variables

NOMBRES COMPLEXES. Exercice 1 :

Capes Première épreuve

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Problème 1 : applications du plan affine

Dérivées d ordres supérieurs. Application à l étude d extrema.

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Les travaux doivent être remis sous forme papier.

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Fonctions de deux variables. Mai 2011

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

Limites finies en un point

Cours d Analyse 3 Fonctions de plusieurs variables

Intégration et probabilités TD1 Espaces mesurés Corrigé

Cours d analyse numérique SMI-S4

Image d un intervalle par une fonction continue

Espérance conditionnelle

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables et applications pour l ingénieur

Pour l épreuve d algèbre, les calculatrices sont interdites.

Chapitre 2 Le problème de l unicité des solutions

Représentation géométrique d un nombre complexe

Structures algébriques

Programmes des classes préparatoires aux Grandes Ecoles

Chapitre 1 Cinématique du point matériel

Continuité et dérivabilité d une fonction

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Fonctions de plusieurs variables. Sébastien Tordeux

Chafa Azzedine - Faculté de Physique U.S.T.H.B 1

Propriétés électriques de la matière

Angles orientés et fonctions circulaires ( En première S )

Probabilités sur un univers fini

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

MATHEMATIQUES APPLIQUEES Equations aux dérivées partielles Cours et exercices corrigés

MA6.06 : Mesure et Probabilités

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Calcul différentiel. Chapitre Différentiabilité

Calcul fonctionnel holomorphe dans les algèbres de Banach

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Analyse en Composantes Principales

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

CCP PSI Mathématiques 1 : un corrigé

Approximations variationelles des EDP Notes du Cours de M2

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc

Equations différentielles linéaires à coefficients constants

Exercices et corrigés Mathématique générale Version β

Exercices Corrigés Premières notions sur les espaces vectoriels

Transcription:

Université Pierre et Marie Curie L3 - Mathématiques Année 3-4 Probabilités - LM39 Corrigé des exercices de la feuille n o 5 Exercice Puisque X et Y sont centrés, les données de l énoncé entraînent que Var(X = 4 et que Var(Y = Il reste à déterminer Cov(X, Y Puisque les va X + Y et X 3Y sont indépendantes, leur covariance est nulle Donc = Cov(X + Y, X 3Y = Var(X 3Var(Y 5Cov(X, Y, ce qui donne Cov(X, Y = et K (X,Y = 4 Toute combinaison linéaire de X + Y et X Y est aussi une combinaison linéaire de X et Y, donc c est une gaussienne, puisque le vecteur (X, Y est gaussien On peut aussi dire que le vecteur (X +Y, X Y est gaussien puisqu il est l image par une application linéaire du vecteur gaussien (X, Y En effet ( X + Y X = X Y Y ( X = A Y Pour obtenir sa matrice de covariance, on calcule successivement et On a donc Var(X + Y = Var(X + Var(Y + Cov(X, Y = 4 + + = 7, Var(X Y = 4Var(X + Var(Y 4Cov(X, Y = 6 + 4 = 3 Cov(X + Y, X Y = Var(X Var(Y + Cov(X, Y = 8 + = 8 K (X+Y,X Y = 7 8 8 3 Remarque : On peut aussi écrire K (X+Y,X Y = A K (X,Y t A et effectuer le produit de matrices Exercice On procède comme à la question de l exercice : par exemple, le vecteur (U, V est l image par une application linéaire (de IR 3 dans IR du vecteur gaussien (X, Y, Z Puisque le vecteur (U, V est gaussien, on sait d après le cours que les va U et V sont indépendantes si et seulement si Cov(U, V =, c est-à-dire si et seulement si Var(X Var(Y + Cov(X, Z Cov(Y, Z = Exercice 3 Puisque X est centré, sa matrice de covariance est a b K =, b c et sa fonction caractéristique est ϕ(t, t = exp ( (t, t K t t = e (at +bt t +ct

D après le cours, cette loi possède une densité si et seulement si K est inversible, c est-à-dire si et seulement si ac b, et dans ce cas sa densité est f(x, x = π det K e t xk x = π ac b e (ac b (cx bx x +ax Remarque : On a ac b puisqu une matrice de covariance est toujours symétrique positive, ou bien en appliquant l inégalité de Schwarz E(X X E(X E(X Donc, s il y a une densité, on a ac b > Exercice 4 Les combinaisons linéaires des composantes du vecteur (X +Y +Z, X Y +Z + sont de la forme λ(x + Y + Z + µ(x Y + Z + = (λ + µx + (λ µy + (λ + µz + µ Puisque le vecteur (X, Y, Z est gaussien, elles sont donc de la forme N + C, où N est une var gaussienne et C une constante Or, si N est gaussienne, alors N +C est gaussienne, donc le vecteur (X +Y +Z, X Y +Z + est gaussien On a E(X +Y +Z = E(X+E(Y +E(Z = 4 et E(X Y +Z + = 4 Puisque le vecteur (X, Y, Z est gaussien et que sa matrice de covariance est diagonale, les var X, Y et Z sont indépendantes Donc Var(X + Y + Z = Var(X + 4Var(Y + Var(Z =, et Var(X Y + Z + = Var(X Y + Z = 4Var(X + Var(Y + Var(Z = Cov(X + Y + Z, X Y + Z + = Var(X Var(Y + Var(Z = Conclusion : ( X + Y + Z 4 N, X Y + Z + 4 donc On peut aussi remarquer que X + Y + Z = X Y + Z + X Y + Z X = A Y + Z X + Y + Z N A +, AI t X Y + Z + 3 A Exercice 5 On trouve det Q = 6 et donc le vecteur X admet la densité f(x, x, x 3 = Q = 3 3, 8 4 π det Q e t xq x = 8π e 6 (3x +3x +4x 3 +x x Pour toute application linéaire A : IR 3 IR 3, le vecteur Y = AX est gaussien et sa matrice de covariance est K Y = AK X t A = AQ t A D autre part, d après le cours, puisque Y est gaussien, ses composantes sont des va indépendantes si et seulement si sa matrice de covariance est diagonale

Il s agit donc de trouver une matrice A telle que AQ t A soit diagonale, c est dire de diagonaliser la matrice Q de façon que la matrice de passage soit orthogonale ( t P = P, ce qui est possible puisque les matrices symétrique sont diagonalisables en base orthonormée Calcul des valeurs propres : En développant par rapport à la dernière colonne, on trouve det(q λi = ( λ[(3 λ ] = ( λ (4 λ Les valeurs propres sont donc (valeur propre double et 4 Calcul des vecteurs propres : x x 3x y = x Q y = y x + 3y = y z z z = z x y = Une base orthonormée de ce plan est composée des vecteurs, / / Un système d équations du sous-espace propre associé à la valeur propre 4 est x + y =, z = / Un vecteur unitaire est / Il est automatiquement orthogonal aux deux précédents puisque Q est symétrique La matrice de passage / / P = / / correspond à un changement de base orthonormée et est donc orthogonale Puisque P QP = D, on peut prendre A = P = t P = / / / / 3 Puisque le vecteur X est gaussien, toutes les combinaisons linéaires de ses composantes, et en particulier X + X X 3, sont des var gaussiennes Il suffit donc de déterminer son espérance et sa variance Or E(X + X X 3 = E(X + E(X E(X 3 = puisque X est centrée et Var(X + X X 3 = Var(X + 4Var(X + Var(X 3 + 4Cov(X, X Cov(X, X 3 4Cov(X, X 3 = 3 + + 4 = 3, donc X + X X 3 N (, 3 Exercice 6 Soit f borélienne bornée, en faisant le changement de variable y = x dans l expression E(f(X = IR f(x e x / + dx, on obtient E(f(X / e y/ = f(yy dy, π π d où la densité de X : y / e y/ π I {y [,+ } La va X suit une loi Gamma de paramètres / et / La matrice du vecteur (X,, X n étant diagonale, ses coordonnées sont indépendantes, ainsi 3

que les va X,, X n On montre alors, en réitérant le calcul fait à l exercice 4, question, feuille d exercices 3, que la somme X + + X n suit une loi gamma de paramètres n/ et /, c est à dire une loi de densité y (n / e y/ n/ Γ(n/ I {y [,+ } On peut aussi utiliser les fonctions caractéristiques : la fonction caractéristique de la loi gamma de paramètres /, / est donnée par ϕ X (t = / /, / it pour tout t IR Par indépendance des va X,, X n, on a alors ϕ X + +X n (t = (ϕ X (tn = / n/ / it On reconnaît alors la fonction caractéristique de la loi gamma de paramètres n/ et / Remarque : La loi gamma de paramètres n/ et / est encore appelée loi du chi-deux à n degrés de liberté En faisant le changement de variable z = y dans l expression on obtient : + E(f( X + + X n = f( yy (n / e y/ n/ Γ(n/ dy, + E(f( X + + X n = f(zz n e z / (n / Γ(n/ dz, d où la densité de X + + X n : z n e z / (n / Γ(n/ I {z [,+ } 3 Pour les mêmes raisons qu à la question, les va X,, X n, Y sont indépendantes, ce qui entraîne l indépendance entre E(f(Y/ X + + X n = X + + X n et Y Soit f borélienne bornée, alors on a [, f(y/z e y / π z n e z / y/z = v, on obtient E(f(Y/ X + + X n = densité de Y/ X + + X Γ((n+/ n : πγ(n/(+v (n+/ I {v [,+ } (n / dy dz En posant z = u et Γ(n/ Γ((n + / f(v πγ(n/( + v dv, d où la (n+/ Exercice 7 Le vecteur Y est l image du vecteur X par la transformation linéaire de matrice A = Sa matrice de covariance est alors donnée par AI n t A = A t A On vérifie facilement que celle-ci n est pas diagonale, et donc que les coordonnées de Y ne sont pas indépendantes cos a sin a sin a Exercice 8 La matrice a pour carré sin a cos a sin a Soit A la matrice de l application linéaire A et K Q la matrice de covariance de la loi Q 4

Alors ( la matrice A doit vérifier la relation K Q = AI t n A = A t A et d après la question, on a cos a sin a A = sin a cos a 3 E(Y n = IR (y n dq(y = ((Ax n e (x +x / dx dx A (IR π = IR (x cos a + x sin a n e (x +x / dx dx π = π r n+ e r / dr (cos(θ a n dθ, π où la dernière égalité vient d un changement de variables en coordonnées polaires Posons I n = π π (cos(θ an dθ, alors pour tout k, I k+ = et I k = 4 (cos θ k dθ = k! πγ(k + / = 4 (k! π k (k! (intégrale de Wallis D autre part, r k+ e r / dr = = k k! k s k e s ds Finalement, pour tout k, on a E(Y k+ = et E(Y k = (k! k! k Exercice 9 Non car la matrice donnée n est pas définie positive, son déterminant n étant pas positif a c Exercice Soit la matrice de covariance de (G c b, G, alors on vérifie facilement que : E(e i(g +G = ( a c exp / <, c b = exp( /(c + a + b D autre part, on a E(e G E(e G = exp( /(a + b En identifiant ces deux expressions, on obtient que la covariance c entre G et G est nulle, ce qui signifie, puisque le vecteur (G, G est gaussien, que G et G sont indépendantes La réciproque est évidente a e f Notons (a la condition E(e i(g +G +G 3 = E(e ig E(e ig E(e ig 3 Soit e b g la matrice f g c de covariance de (G, G, G 3, alors, > a e f E(e i(g +G +G 3 = exp / <, e b g > f g c = exp( (a + b + c + (e + f + g/ 5

D autre part, E(e ig E(e ig E(e ig 3 = e (a+b+c/ La condition (a nécessite donc que e + f + g = cov(g, G + cov(g, G 3 + cov(g, G 3 = Soit alors X une va gaussienne, centrée, quelconque Posons G = X, G = ax et G 3 = bx où a, b IR sont à déterminer L égalité ci-dessus donne (a + b + abvar(x =, c est à dire a + b + ab = La condition (a est réalisée dans ce cas pour tous a et b tels que b = a/(a + D autre part, il est évident que G, G et G 3 ne sont pas indépendantes 3 Pour tout (a, a, a 3 IR 3, on a d une part a a e f a E(e i(a G +a G +a 3 G 3 = exp / < a, e b g a >, a 3 f g c a 3 et d autre part, E(e ia G E(e ia G E(e ia 3G 3 = e (a a+a b+a 3 c/ En identifiant ces deux expressions, on montre que ea a + fa a 3 + ga 3 a =, pour tous a, a, a 3 IR Ceci entraîne alors que nécessairement, on doit avoir e = f = g = Ainsi, (G, G, G 3 est un vecteur gaussien dont la matrice de covariance est diagonale, ses coordonnées sont donc indépendantes Exercice Comme les deux vecteurs sont centrés on a égalité des deux vecteurs lorsque les matrices de covariance sont égales ce qui se traduit par : A t A = Cov(X = V V étant une matrice de covariance, elle est définie positive Son déterminant étant strictement positif, elle est strictement définie positive Elle définie donc un produit scalaire Par le procédé d orthogonalisation de Schmidt, on trouve V = t PP, où P := Maintenant, A t A = t PP équivaut à [ t (P A] t [ t (P A] = I, c est à dire [ t (P A] est orthogonale L ensemble des matrices A cherchées est donc {A M n (IR telles que U O n (IR, A = t PU} 6