1 Couple de variables aléatoires discrètes

Documents pareils
Moments des variables aléatoires réelles

Couples de variables aléatoires discrètes

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Espérance conditionnelle

Simulation de variables aléatoires

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

CHAPITRE 10. Jacobien, changement de coordonnées.

Développements limités. Notion de développement limité

Intégrales doubles et triples - M

Probabilités sur un univers fini

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Théorème du point fixe - Théorème de l inversion locale

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Travaux dirigés d introduction aux Probabilités

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Que faire lorsqu on considère plusieurs variables en même temps?

Programmes des classes préparatoires aux Grandes Ecoles

Différentiabilité ; Fonctions de plusieurs variables réelles

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Loi d une variable discrète

Fonctions de plusieurs variables. Sébastien Tordeux

Construction de l'intégrale de Lebesgue

Fonctions de plusieurs variables

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

3. Conditionnement P (B)

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Intégration sur des espaces produits

Fonctions de plusieurs variables

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Cours d Analyse. Fonctions de plusieurs variables

Université Paris-Dauphine DUMI2E 1ère année, Applications

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Calcul différentiel sur R n Première partie

Commun à tous les candidats

MÉTHODE DE MONTE CARLO.

TSTI 2D CH X : Exemples de lois à densité 1

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Calcul intégral élémentaire en plusieurs variables

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

EI - EXERCICES DE PROBABILITES CORRIGES

MA6.06 : Mesure et Probabilités

Continuité et dérivabilité d une fonction

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Limites finies en un point

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Probabilités et statistique. Benjamin JOURDAIN

Intégration et probabilités TD1 Espaces mesurés Corrigé

4. Martingales à temps discret

Résolution d équations non linéaires

Probabilités. C. Charignon. I Cours 3

NOMBRES COMPLEXES. Exercice 1 :

OM 1 Outils mathématiques : fonction de plusieurs variables

Comparaison de fonctions Développements limités. Chapitre 10

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Quelques contrôle de Première S

I. Polynômes de Tchebychev

Calculs de probabilités conditionelles

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Probabilités et Statistique

Logique. Plan du chapitre

Probabilités sur un univers fini

Repérage d un point - Vitesse et

1 TD1 : rappels sur les ensembles et notion de probabilité

Chapitre VI Fonctions de plusieurs variables

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

3 Approximation de solutions d équations

Cours Fonctions de deux variables

Probabilités conditionnelles Loi binomiale

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Continuité d une fonction de plusieurs variables

Optimisation des fonctions de plusieurs variables

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Chapitre 3. Les distributions à deux variables

Continuité en un point

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Produits d espaces mesurés

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

Coefficients binomiaux

MATHEMATIQUES APPLIQUEES Equations aux dérivées partielles Cours et exercices corrigés

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Théorèmes du Point Fixe et Applications aux Equations Diérentielles

Chapitre 2. Matrices

P1 : Corrigés des exercices

Licence de Mathématiques 3

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Dérivées d ordres supérieurs. Application à l étude d extrema.

Image d un intervalle par une fonction continue

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Fonctions de deux variables. Mai 2011

Structures algébriques

Calcul Différentiel. I Fonctions différentiables 3

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Théorie de la Mesure et Intégration

Transcription:

Université de Reims Champagne Ardenne UFR Sciences Exactes et Naturelles Année universitaire 3-4 MA 84 - Master CM4 Couple de variables aléatoires, indépendance Couple de variables aléatoires discrètes. Loi conjointe Dénition Soient X et Y deux variables aléatoires discrètes avec X(Ω) {x i, i N} et Y (Ω) {y j, j N}. La loi conjointe du couple (X, Y ) est donnée par (X, Y )(Ω) X(Ω) Y (Ω) ainsi que par les probabilités pour i, j N. Remarque On a nécessairement p i,j P(X x i Y y j ) P(X x i, Y y j ) p i,j. i,j N Plus généralement, si X,, X n sont n variables aléatoires discrètes, la loi conjointe du vecteur (X,, X n ) est donnée par (X,, X n )(Ω) ainsi que par les probabilités P(X x,, X n x n ), pour tout n-uplet (x,, x n ) R n. Exemple On reprend une nouvelle fois l'exemple du dé. On note Y la variable qui vaut si le résultat est impair et si le résultat est pair et Z la variable qui vaut si le résultat est, si le résultat est et sinon. Alors P(Y Z ) P(X ) P(Y Z ) P( ) P(Y Z ) P(X 3 X 5) 3 P(Y Z ) P( ) P(Y Z ) P(X ) P(Y Z ) P(X X 4) 3 On obtient alors le tableau des p i,j P(Y i Z j).. Lois marginales Z Y 4 Dans l'exemple précédent, on remarque que si on fait la somme de la première ligne, on obtient P(Y ). De même, si on fait la somme de la seconde colonne, on obtient P(Z ). Connaître la loi d'un couple permet de connaître la loi de chacune des variables du couple (on verra que la réciproque est fausse). Dénition On appelle première loi marginale (resp : deuxième loi marginale) la loi de la première composante X (resp : deuxième composante Y ). On les obtient de la façon suivante : Donc, i, j N, p i P(X x i ) j N P(X x i, Y y j ) j N p i,j, q j P(Y y j ) i N P(X x i, Y y j ) i N p i,j. Donc, si on connait la loi du couple, on connait les lois marginales. Il sut de faire les sommes sur les lignes et les colonnes, ce qui donne la proposition :

Proposition 3 On peut retrouver les lois marginales d'un couple par les formules suivantes : p i i N p i,j j N q j i N p i,j j N Par contre, la réciproque est en général fausse. En eet, si on regarde l'exemple ci-dessus, il n'y a pas de lien entre p i,j et (p i,q j )..3 Indépendance de variables aléatoires discrètes Dénition 4 Deux variables aléatoires discrètes X et Y sont dites indépendantes si pour tout x X(Ω) et y Y (Ω), les événements {X x} et {Y y} sont indépendants, i.e. On le notera X Y. P(X x, Y y) P(X x) P(Y y). Corollaire 5 Soit X et Y deux variables aléatoires indépendantes. Si A est une partie de X(Ω) et B une partie de Y (Ω) alors les événements {X A} et {Y B} sont indépendants. Proposition Soient X et Y des variables aléatoires discrètes indépendantes. La loi conjointe du couple (X, Y ) est complètement déterminée par les lois marginales de X et de Y ATTENTION, encore une fois si les variables aléatoires X et Y ne sont pas indépendantes, il n'y pas de lien a priori entre loi conjointe de (X, Y ) et lois marginales. La notion d'indépendance se généralise au cas de n variables discrètes : X,, X n sont mutuellement ou n à n indépendantes si, pour tout choix de x X (Ω),, x n X n (Ω), on a P(X x,, X n x n ) P(X x ) P(X n x n ). Notons que l'indépendance n à n implique l'indépendance à, mais la réciproque est fausse..4 Espérance, matrice de covariance Dans un souci de clarté, tous les résultats de ce paragraphe et du suivant sont énoncés pour les couples de variables aléatoires discrètes, et ils s'étendent sans peine aux vecteurs aléatoires discrets. Dénition 7. L'espérance du couple (X, Y ) est dénie si X et Y sont intégrable et on a alors E(X, Y ) (E(X), E(Y )).. Si X et Y sont deux variables aléatoires discrètes de carré intégrable, la covariance de X et de Y, ou covariance du couple (X, Y ), est donnée par cov(x, Y ) E(XY ) E(X)E(Y ) E[(X E(X))(Y E(Y ))]. On dit que les variables X et Y sont non corrélées si leur covariance est nulle. 3. Si X et Y sont deux variables aléatoires de carré intégrable, la matrice de covariance du couple (X, Y ) est la matrice ( ) Var(X) cov(x, Y ) C. cov(x, Y ) Var(Y ) Plus généralement, la matrice de covariance d'un vecteur (X,, X n ), dont chacune des composantes est de carré intégrable, est une matrice n n dont les termes diagonaux sont les variances des X i et dont le terme (i, j) est la covariance cov(x i, X j ) pour tout i j. Proposition 8 Soient X, X, X, Y, Y et Y des variables aléatoires discrètes de carré intégrables, a, b, c et d des réels. Alors on a les propriétés suivantes :. cov(x, Y ) cov(y, X).. cov(ax + bx, Y ) a cov(x, Y ) + b cov(x, Y ). 3. cov(x, cy + dy ) c cov(x, Y ) + d cov(x, Y ).

4. cov(ax + bx, cy + dy ) ac cov(x, Y ) + ad cov(x, Y ) + bc cov(x, Y ) + bd cov(x, Y ). 5. cov(ax + b, cy + d) ac cov(x, Y ). Proposition 9. Une matrice de covariance C est toujours une matrice symétrique et positive (i.e., pour tout v R n, < v, Cv > ).. Si X et Y sont deux variables aléatoires indépendantes et intégrables, on a et donc cov(x, Y ). E(XY ) E(X)E(Y ) ATTENTION, la réciproque de ce résultat est fausse en général. 3. Si X et Y sont deux variables aléatoires indépendantes et f et g deux fonctions telles que les variables aléatoires f(x) et g(y ) sont intégrables, on a La réciproque de ce résultat est fausse. E(f(X)g(Y )) E(f(X))E(g(Y )). 4. Si les variables aléatoires X,, X n sont indépendantes et de carré intégrable, alors la matrice de covariance de (X,, X n ) est diagonale. La réciproque de ce résultat est fausse. Théorème Soient X et Y deux variables aléatoires discrètes de carré intégrable. Alors : De plus, si X et Y sont indépendantes, alors : V (X + Y ) V (X) + V (Y ) + cov(x, Y ). V (X + Y ) V (X) + V (Y ). Preuve. La seconde égalité est une conséquence de la première et de l'ndépendance des variables. Il sut donc de montrer la première égalité. V (X + Y ) E((X + Y ) ) (E(X + Y )) E(X + XY + Y ) (E(X) + E(Y )) E(X ) + E(XY ) + E(Y ) (E(X)) E(X) E(Y ) (E(Y )) V (X) + V (Y ) + (E(XY ) E(X) E(Y )) V (X) + V (Y ) + cov(x, Y ). Pour deux variables aléatoires de carré intégrable, il est possible d'obtenir une majoration de cov(x, Y ) à partir des variances de X et Y : Proposition (Inégalité de Cauchy Schwarz) Soient X et Y deux variables aléatoires de carré intégrable. On a E(XY ) E( XY ) E(X )E(Y ), cov(x, Y ) Var(X)Var(Y ). En particulier à partir de l'inégalité de Cauchy Schwarz et en prenant Y, on obtient E( X ) E(X ). On retrouve ainsi que si X est de carré intégrable, elle est également intégrable, ce qu'on avait montré au chapitre précédent. Preuve. Le deuxième point s'obtient en appliquant le premier à X E(X) et Y E(Y ). 3

.5 Retour sur la loi binomiale On considère une urne contenant a boules marquées A et b boules marquées B. On eectue n tirages avec remise, et on note X j la variable qui vaut si on tire une boule A au j eme tirage et sinon. Rappelons que X j suit une loi de Bernouilli de paramètre p a a+b. Comme chaque tirage est indépendant des autres (puisqu'on remet la boule tirée), on peut considérer que les variables X j sont indépendantes. Posons X X j. j La variable aléatoire X correspond donc au nombre de boules A tirées avec remises lors de ces n tirages. On a vu qu'une telle variable suit la loi binomiale de paramètres n et p. Ainsi on a la Proposition Soit X une variable aléatoire suivant une loi binomiale de paramètres n et p. Alors X peut être vu comme la somme de variables de Bernouilli indépendantes de paramètre p, i.e. X où les X j sont n variables aléatoires indépendantes suivant une même loi de Bernouilli de paramètre p. Il existe une propriété de stabilité pour la loi binomiale, qui découle directement du résultat précédent. j Proposition 3 Soient X et Y deux variables aléatoires suivant respectivement une loi binomiale b(n, p) et b(m, p) (les deux variables ont le même paramètre p). Si X et Y sont indépendantes, alors X + Y suit une loi binomiale b(n + m, p). Preuve. On peut voir X comme la somme de n variables (X i ) i n de même loi de Bernouilli de paramètre p, indépendantes. De même, on peut voir Y comme la somme de m variables (X i ) n+ i n+m de même loi de Bernouilli de paramètre p, indépendantes. Comme X et Y sont indépendantes, les (X i ) i n+m sont indépendantes, et toutes de même loi de Bernouilli de paramètre p. De plus, X + Y X j n+m par dénition, X + Y suit une loi binomiale de paramètre n + m et p.. Somme de deux variables aléatoires de loi de Poisson et indépendantes La loi de Poisson pouvant être considérée comme la limite d'une loi binomiale, il parait raisonnable de penser qu'elle possède, comme la loi binomiale, une propriété de stabilité. C'est eectivement le cas : Proposition 4 Soient X et Y deux variables aléatoires suivant les lois de Poisson respectives P(a) et P(b). Alors, si X et Y sont indépendantes, X + Y suit une loi de Poisson P(a + b), c'est-à-dire : i X i, X Y X + Y P(a + b). Preuve. Puisque X et Y sont à valeurs dans N, leur somme X + Y l'est aussi. Soit n N. P(X + Y n) P ( n (X k Y n k) ) k P(X k Y n k) k P(X k) P(Y n k) k k a ak e e (a+b) n! e (a+b) b n k k! e b (n k)! k n! k!(n k)! ak b n k par incompatibilité car X Y Cn k a k b n k n! k (a + b)n e (a+b) (formule du binôme) n! 4

On a donc bien X + Y P(a + b). Couple de variables aléatoires réelles Dans toute cette section, X et Y seront des variables aléatoires réelles de densité respective f X et f Y, et de fonction de répartition respective F X et F Y.. Densité et fonction de répartition Comme on l'a fait pour une v.a.r., on peut dénir la densité et la fonction de répartition d'un couple de v.a.r. Il sut de passer de la dimension à la dimension, c'est-à-dire de R à R. Dénition 5 Soit f une fonction dénie sur R, à valeurs réelles. On dit que f est une densité de probabilité sur R si :. f est continue par morceaux sur R.. f sur R. 3. f(x, y) dxdy. R Dénition Soit f une densité sur R. On dira que le couple de v.a.r. (X, Y ) a pour densité f si, pour tout couple de réels (x, y), on a : P(X x, Y y) x y y x f(u, v) dv dv f(u, v) du dv. De manière générale, quel que soit le domaine B R (B B(R)), P((X, Y ) B) f(u, v) dudv. Faisons un exemple. Considérons la densité du couple (X, Y ) suivante : { 4uv si (u, v) C f(u, v) sinon. où C est le domaine de R correspondant au carré unité, C {(u, v) R : < u < et < v < }. On veut calculer P((X, Y ) B) où B est le triangle suivant : B 5

La seule partie qu'il est nécessaire d'étudier est celle où la densité est non nulle, c'est-à-dire l'intersection de B et de C ; il faut alors paramétrer B C : P((X, Y ) B) f(u, v) dudv f(u, v) dudv + f(u, v) dudv B C / B B C B C dudv + 4uv dudv + B C [ vu ] v dv / [ ] / v 8v3 3 + v4 4. v( v) dv / v 4uv du dv Ici, on a choisi d'intégrer d'abord par rapport à u, puis par rapport à v. On peut évidemment le faire dans l'autre sens, en obtenant le même résultat (heureusement!) : P((X, Y ) B) B C 4uv dudv [ uv ] ( u)/ du ( u)/ u( u) 4uv dv du [ u du 4 u3 3 + u4 4 ] 4. Dénition 7 On appelle fonction de répartition du couple (X, Y ) de densité f l'application dénie sur R par : F (x, y) P(X x, Y y) x y f(u, v) dv du (x, y) R. On a alors les propriétés usuelles de la fonction de répartition, adaptées à R : Proposition 8 La fonction de répartition F d'un couple de variables aléatoires réelles (X, Y ) vérie les propriétés suivantes :. F (x, y) [, ] pour tout (x, y) R.. F est croissante en x et croissante en y. 3. F (x, y) si x ou si y. 4. F (x, y) si x et si y. 5. F est continue sur R.. Pour tous réels a < b et c < d, on a :. Lois marginales P(a < X b, c < Y d) (F (b, d) F (b, c)) (F (a, d) F (a, c)). Proposition 9 Soit (X, Y ) un couple de v.a.r. de fonction de répartition F. Soit F X et F Y les fonctions de répartition respectives de X et de Y. Alors : F X (x) F Y (y) lim F (x, y) x R, y lim F (x, y) y R. x Grâce à cette propriété, on peut obtenir les lois de X et de Y. Il sut de dériver les fonctions de répartition de X et de Y ainsi obtenues. Ce qui nous donne la proposition suivante : Proposition Soit (X, Y ) un couple de v.a.r. de densité f. Alors X et Y ont les densités suivantes : f X (x) f(x, y) dy x R, f Y (y) Les lois de X et Y ainsi obtenues sont appelées lois marginales. f(x, y) dx y R.

On dénit, comme pour les couples discrets l'espérance d'un couple de variables aléatoires intégrables comme étant le couple des espérances. On a de plus la Dénition Théorème de transfert Soit (X, Y ) un couple de v.a.r. de densité f et ϕ une fonction de R à valeurs réelles, alors : E(ϕ(X, Y )) ϕ(u, v) f(u, v) dudv R quand elle existe. On a également la dénition de matrice de covariance d'un couple (X, Y ) : si les variables aléatoires sont de carré intégrable, le terme (, ) (et (, )) de cette matrice est où par dénition cov(x, Y ) E((X E(X))(Y E(Y ))) E(XY ) E(X)E(Y ), E(XY ) xyf(x, y)dxdy. R La matrice de covariance est comme dans le cas discret une matrice symétrique et positive (au sens des formes bilinéaires). Ces dénitions s'étendent naturellement au cas des vecteurs aléatoires à densité, en remplaçant les intégrales doubles par des intégrales multiples..3 Indépendance Dénition Les variables aléatoires réelles X et Y sont indépendantes (noté X Y ) si, pour tout x et y réels, P(X x, Y y) P(X x) P(Y y), ce qu'on peut encore écrire F (x, y) F X (x) F Y (y). Plus généralement, n variables aléatoires X,, X n sont mutuellement indépendantes si, pour tout x,, x n réels, P(X x,, X n x n ) P(X x ) P(X n x n ). Proposition 3 Soit (X, Y ) un couple de v.a.r. de densité f et de fonction de répartition F. Les trois propositions suivantes sont équivalentes :. X Y.. F (x, y) F X (x)f Y (y) pour tout (x, y) R. 3. f(x, y) f X (x)f Y (y) pour tout (x, y) R. Preuve. La première équivalence ( ) est évidente d'après ce qui est dit avant la proposition. C'est la dénition de l'indépendance écrite avec des fonctions de répartition. Reste à montrer l'équivalence avec le deuxième point ( 3). Soit (x, y) R, F (x, y) F X (x) F Y (y) x y x y f(u, v) dv du f(u, v) dv du x x y f X (u) du y f Y (v) dv f X (u) f Y (v) dv du f(u, v) f X (u)f Y (v) (u, v) R. Cette caractérisation va nous permettre de montrer une autre propriété de l'espérance, que nous n'avions pas pu montrer dans le chapitre précédent. Proposition 4 Soit X et Y deux v.a.r. admettant chacune une espérance. Alors, si X et Y sont indépendantes, E(XY ) E(X) E(Y ). 7

Preuve. Grâce au théorème de transfert, on sait que, si elle existe, E(XY ) uv f(u, v) dudv. Si X Y, on a vu que f(u, v) f X (u)f Y (v) pour tout couple (u, v) de réels, donc : uv f(u, v) dudv E(X) E(Y ) uv f X (u) f Y (v) du dv u f X (u) du v f Y (v) dv Proposition 5 Si X et Y sont deux v.a.r. indépendantes et si ϕ et ψ sont deux fonctions réelles, alors ϕ(x) et ψ(y ) sont également indépendantes. Preuve. Notons G la fonction de répartition du couple ( ϕ(x), ψ(y ) ) et g sa densité. Alors, pour tout (x, y) R, on a : G(x, y) P(ϕ(X) x, ψ(y ) y) P ( X ϕ (], x]), Y ψ (], y]) ) P ( X ϕ (], x])) P(Y ψ (], y]) ) car X Y P(ϕ(X) x) P(ψ(Y ) y) F ϕ(x) (x) F ψ(y ) (y). Donc d'après la proposition 5.3., ϕ(x) ψ(y )..4 Loi de ψ(x, Y ) Soit X et Y deux variables aléatoires réelles. On cherche une technique pour calculer la densité de la variable aléatoire X + Y, ou XY ou encore X/Y, par exemple. C'est-à-dire, de manière générale, de Ψ(X, Y ) où Ψ est à valeurs réelles. Théorème Soit A et B deux ouverts de R et ϕ un C -diéomorphisme de A sur B, c'est-à-dire une application bijective de A dans B telle que ϕ et sa réciproque ϕ soient continument diérentiables. Alors, si la densité f d'un couple de v.a.r. (X, Y ) est nulle presque partout sur R \A, le vecteur (U, V ) ϕ(x, Y ) admet la densité de probabilité g f ϕ ϕ B, qu'on peut écrire ainsi : { f(ϕ g(u, v) (u, v)) ϕ (u, v) si (u, v) B si (u, v) / B On rappelle que ϕ est le jacobien de ϕ, c'est-à-dire le déterminant de la matrice jacobienne. Si ϕ (u, v) ( α(u, v), β(u, v) ), alors : ϕ (u, v) det α α (u, v) u β β (u, v) u (u, v) v (u, v) v Preuve. Puisque ϕ est une bijection de A sur B, il n'est intéressant de regarder que les valeurs de f sur B (presque partout ailleurs, ce sera forcément nul). Soit D un domaine de B. Alors :. P((U, V ) D) P(ϕ(X, Y ) D) P((X, Y ) ϕ (D)) f(x, y) dxdy. ϕ (D) 8

On va procéder au changement de variable (x, y) ϕ (u, v) (ce qu'on peut faire car ϕ est un diéomorphisme de A sur B). On a alors : P((U, V ) D) f(ϕ (u, v)) ϕ (u, v) dudv. D Puisque la fonction de répartition est une caractérisation de la loi, la fonction intégrée est la densité de (U, V ) sur B. En pratique, il s'agira de refaire le raisonnement de la démonstration précédente dans chaque cas de gure (inutile d'apprendre cette formule compliquée par coeur...). Exemple Supposons que X et Y suivent la même loi normale N (, ) et que X et Y soient indépendantes. Alors, si on note f la densité de (X, Y ), pour tout (x, y) R, f(x, y) f X (x)f Y (y) π e (x +y )/. Cherchons la densité g du couple (R, Θ) obtenu par le passage en coordonnées polaires ϕ sur R ; ϕ est un diéomorphisme de A sur B où A est R privé de la demi-droite {y, x } et B R + ], π[. Pour tout (r, θ) B, ϕ (r, θ) (x, y) (r cos θ, r sin θ). Calculons le jacobien de ϕ ; pour tout (r, θ) B, ( ) ϕ cos θ r sin θ (r, θ) det r cos θ + r sin θ r. sinθ r cos θ Donc, d'après le théorème précédent, pour tout (r, θ) B, et, pour tout (r, θ) / B, g(r, θ). On peut en déduire les lois marginales : f Θ (θ) f R (r) g(r, θ) ϕ (r, θ) f(ϕ (r, θ)) r f(r cos θ, r sin θ) r π e (r cos θ+r sin θ)/ r π e r /. g(r, θ) dθ g(r, θ) dr r π e r π r π e r / dθ r e r / si r > dθ si r / dr [ ] π e r / π dr sinon. si < θ < π Remarque Si (r, θ) R + ], π[, alors on a : g(r, θ) f R (r) f Θ (θ). Sinon, soit f R (r), soit f Θ (θ) et donc : f R (r) f Θ (θ) g(r, θ). Donc, pour tout (r, θ) R, on a bien : g(r, θ) f R (r) f Θ (θ). On en conclue que R et Θ sont indépendantes. 9

Proposition 7 Soit X et Y deux v.a.r. et f la densité du couple (X, Y ). Alors X + Y a pour densité la fonction suivante : f X+Y (u) f(u v, v) dv f(v, u v) dv u R. Preuve. Soit ϕ la fonction dénie sur R par : C'est un C -diéomorphisme de R sur R et : ϕ(x, y) (x + y, y) (u, v) (x, y) R. ϕ (u, v) (u v, v) (x, y) (u, v) R. On pose (U, V ) ϕ(x, Y ) (X + Y, Y ). On cherche la densité de U X + Y, et pour cela il faut d'abord déterminer la densité du couple (U, V ). Notons g cette densité. D'après le théorème, pour tout (u, v) R, g(u, v) ϕ (u, v) f(ϕ (u, v)). On peut calculer facilement le jacobien de ϕ : pour tout (u, v) R, ( ) ϕ (u, v) det. Donc pour tout (u, v) R, g(u, v) f(u v, v) f(u v, v). Il ne reste plus qu'à déterminer la loi marginale de U X + Y. Soit u R, f U (u) f X+Y (u) g(u, v) dv f(u v, v) dv. Pour obtenir l'autre formule, il sut de procéder au changement de variable v u w, dv dw : f X+Y (u) f(u u + w, u w) dw Corollaire 8 Si X et Y sont indépendantes, alors : f(w, u w) dw. f X+Y (u) f X (u v) f Y (v) dv f Y (u v) f X (v) dv On dit dans ce cas que f X+Y est le produit de convolution de f X et de f Y. Comme application de ce résultat, on a la Proposition 9 Si X N (m, ) et Y N (m, ), et si X Y, alors : X + Y N (m + m, + ).

Preuve. On peut utiliser le corollaire ci-dessus, puisque X et Y sont indépendantes. Soit u R, f X+Y (u) f X (u v) f Y (v) dv π e (u v m ) e (v m ) dv. Nous allons maintenant faire le changement de variable ane : w + v m + (u m ) + c'est-à-dire : v + w + m + (u m ) + et dv + On obtient alors : dw. f X+Y (u) π + π + e (u m m ) ( w + ) e (u m m ) ( + ) dw e w / dw. π L'intégrale restante est l'intégrale sur R de la densité de la loi normale N (, ), donc elle vaut et : f X+Y (u) π + e (u m m ) ( + ). On reconnait la densité de la loi normale de paramètres m + m et +, et donc on a bien : X + Y N (m + m, + ).