Rappels sur les intégrales multiples

Documents pareils
Espérance conditionnelle

Moments des variables aléatoires réelles

3. Conditionnement P (B)

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Loi d une variable discrète

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Cours d Analyse. Fonctions de plusieurs variables

MÉTHODE DE MONTE CARLO.

Probabilités et statistique. Benjamin JOURDAIN

Programmes des classes préparatoires aux Grandes Ecoles

1 TD1 : rappels sur les ensembles et notion de probabilité

Intégration sur des espaces produits

Travaux dirigés d introduction aux Probabilités

Université Paris-Dauphine DUMI2E 1ère année, Applications

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Fonctions de plusieurs variables. Sébastien Tordeux

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Simulation de variables aléatoires

Commun à tous les candidats

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Chapitre 2. Eléments pour comprendre un énoncé

Calcul fonctionnel holomorphe dans les algèbres de Banach

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

4. Martingales à temps discret

MATHEMATIQUES APPLIQUEES Equations aux dérivées partielles Cours et exercices corrigés

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

3 Approximation de solutions d équations

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Intégration et probabilités TD1 Espaces mesurés Corrigé

Modélisation et simulation

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Probabilités avancées. Florin Avram

Chapitre 3. Les distributions à deux variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Couples de variables aléatoires discrètes

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Résolution d équations non linéaires

Fonctions de plusieurs variables

Intégration et probabilités TD1 Espaces mesurés

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Probabilités. C. Charignon. I Cours 3

Amphi 3: Espaces complets - Applications linéaires continues

Introduction à l étude des Corps Finis

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

P1 : Corrigés des exercices

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Limites finies en un point

Image d un intervalle par une fonction continue

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Que faire lorsqu on considère plusieurs variables en même temps?

Continuité et dérivabilité d une fonction

MA6.06 : Mesure et Probabilités

TSTI 2D CH X : Exemples de lois à densité 1

EI - EXERCICES DE PROBABILITES CORRIGES

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

PROBABILITES ET STATISTIQUE I&II

Théorème du point fixe - Théorème de l inversion locale

Correction du Baccalauréat S Amérique du Nord mai 2007

Variables Aléatoires. Chapitre 2

Probabilités sur un univers fini

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Théorie de la Mesure et Intégration

Une introduction aux codes correcteurs quantiques

Texte Agrégation limitée par diffusion interne

4 Distributions particulières de probabilités

3. Caractéristiques et fonctions d une v.a.

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Fonctions de plusieurs variables

Cours d Analyse 3 Fonctions de plusieurs variables

Température corporelle d un castor (une petite introduction aux séries temporelles)

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Examen d informatique première session 2004

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

OM 1 Outils mathématiques : fonction de plusieurs variables

Fonctions de plusieurs variables et changements de variables

Optimisation Discrète

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Problème 1 : applications du plan affine

Processus aléatoires avec application en finance


Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

1 Définition de la non stationnarité

Les devoirs en Première STMG

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Exercices sur le chapitre «Probabilités»

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Méthode de Monte Carlo pour le calcul d'options

Transcription:

[L2 Stat 28/9 - Massimiliano Gubinelli, Fadoua Balabdaoui-Mohr - poly n. (r.2] appels sur les intégrales multiples Théorème. [Fubini-Tonelli, cas n2] Soit f: 2 une fonction positive, alors f(, yddy 2 ( ( f(, yd dy f(, ydy d. Où les trois termes sont ou bien fini et égau ou bien simultanément +. Si f est de signe quelconque mais intégrable au sens que f(, y ddy < + alors l égalité des trois intégrales reste vraie. 2 Eemple 2. f(, ye y I I <y<2. D un part ( f(, yddy e y I d I <y<2 dy 2 ( y e y I<y<2 I d y 2 dy ( e I<y<2 I d y 2 dy 2 dy y 2 2. D autre part f(, yddy 2 + + ( 2 e y dy d (e e 2 d 2. Vecteurs aléatoires à densité Soit (Ω, A, P un espace probabilisé. Un vecteur aléatoire X de dimension n (ou dans n est une application X: Ω n telle que tout les ensembles de la forme {X B} {ω Ω: X(ω B} pour B Borélien de n appartiennent à la tribu A. En particulier on peut calculer la probabilité P(X B de l évènement {X B} (car P(A est définie pour tout A A. La loi de X est la l application qui à tout B Borélien de n associe P(X B. On appelle fonction de répartition de X la fonction F X : n [, ] définie par F X (,, n P(X,, X n n où (X i i,,n sont les composantes de X (X,, X n (donc des v.a. réelles. La fonction de répartition caractérise la loi de X, i.e. n importe quel évènement {X B} peut être calculé à l aide de F X. Eemple 3. Soit n 2 et B [, y ] [ 2, y 2 ] alors il est facile de vérifier que P(X B P(X [, y ], Y [ 2, y 2 ]F X (y, y 2 F X (y, 2 F X (, y 2 +F X (, 2 en utilisant les propriétés élémentaires des probabilités (en particulier P(A B P(A + P(B P(A B.

Définition 4. On dit que X admet une densité f X : n + ssi pour tout Borélien B B( n (la tribu Borélienne de n on peut eprimer la probabilité de l évènement {X B} par une intégrale sur B de f X : P(X B f X (,, n d d n. B La densité, si elle eiste, est unique et caractérise la loi de X. On a que f X (,, n d d n n P(X n en particulier f X est intégrable. La fonction de répartition F X : n [, ] de X est donné par F X (t,, t n def t P(X t,, X n t n c est la probabilité de l évènement {X B} pour B ], t ] déterminer la densité en dérivant la fonction de répartition: t n fx (,, n d d n. ], t n ] n. On peut f X (t,, t n n F X (t,, t n t t n formule valable en tout point de continuité de n F X (t,, t n / t t n. L interprétation intuitive de la densité f X est la suivante: si i alors la probabilité de l évènement {X i [ i, i + i ] pouri,, n} est approchable par + P(X i [ i, i + i ] pouri,, n n n+ n fx (t,, t n dt dt n f X (,, n n. La densité est donc proportionnelle à la mesure de probabilité d un petit voisinage du point (,, n. Autrement dit, si B n (, δ n est la boule n-dimensionnelle de rayon δ centré en n et V n (δ B n (, δ le volume de B(, δ, i.e. V n (δ dt dt n B n (,δ alors si δ on a l approimation P(X B(, δ f X (V n (δ. Eemple 5. Soit Z (X, Y : Ω 2 un couple aléatoire dont la fonction de répartition est donnée par où q(sma(, min (s,. Alors F Z (, y q( q(y { f Z (, y 2 si ], [ et y ], [; y F Z(, y sinon. 2

Donc f est la densité uniforme sur le carré [, ] 2. Densités marginales Définition 6. Si Z est un vecteur aléatoire dans n admettant une densité f Z alors tout sousvecteurs Y de Z de dimension k n admettent une densité qu on obtient en intégrant f Z par rapport au composantes qui ne figurent pas dans Y. On appelle cette densité la densité marginale de Y. Eplicitement si Y (Z,, Z k alors P(Y B P((Z,, Z k B P(Z B n k f Z (z,, z n dz dz n (z,,z k B ( B f Z (z, n k, z k, z k+,, z n dz k+ dz n dz dz k donc f Y (y,, y k n k f Z(y, y k, z k+,, z n dz k+ dz n. Cas particulier (n 2. Soit Z (X, Y un vecteur aléatoire bidimensionnel de densité f Z. La densité marginale de X est f X ( f Z(, ydy et la densité marginale de Y est f Z (y f Z(, yd. Eemple 7. Considérons le couple (X, Y de densité f (X,Y (, yα e y I <<y 2 I y> Déterminer α > t.q. f (X,Y soit correctement normalisée. Déterminer les densités marginales f X et f Y. Calculer P(X >. Calculons I f (X,Y (, yddy α 2 α y e y dy α y 2 d e y dy donc α. f X ( f (X,Y (, ydy I > e y dy e I > f Y (y f (X,Y (, yd I y> e y y 2 d y e y I y> P(X > f X (d e d e 3

Densité et espérance conditionnelle Définition 8. Soit Z (X, Y un vecteur aléatoire dans m n admettant une densité f Z. Soient f X et f Y les densités marginales des vecteurs X et Y. On appelle densité conditionnelle de X sachant Y y la densité donnée par f X Y y ( f (X,Y (, y f Y (y pour tout y n t.q.f Y (y>. Cette définition est motivée par le fait que, si δ : P(X B m (, δ Y B n (y, δ P(X B m(, δ, Y B n (y, δ P(Y B n (y, δ f (X,Y (, y V m (δ f f Y (y X Y y (V m (δ f (X,Y (, yv m (δv n (δ f Y (yv n (δ donc la densité conditionnelle est proportionnelle à la probabilité conditionnelle de trouver X dans une petite boule centréeen sachant que Y est dans une petite boule centrée en y. Eemple 9. Considérons Z (X, Y de densité f Z (, y 2λ 2 e λ(+y I <<y. Quelle est la densité conditionnelle de X sachant Y y? Calculons d abord f Y (y: f Y (y 2λ 2 e λ(+y I <<y d2λe λy y I y> λe λ d2λe λy ( e λy I y> Il vient que f X Y y ( 2λ2 e λ(+y I <<y 2λe λy ( e λy I y> λe λ I <<y e λy pour tout y >. Définition. Une famille (X i i,,n de v.a. est indépendante ssi pour tout B i, i,, n, on a que les évènements {X i B i } i,,n sont indépendants, i.e.: P(X B,, X n B n P(X B P(X n B n. Dans cette définition les v.a.s X i peuvent être réelles ou bien des vecteurs aléatoires elles mêmes. Les v.a. X, Y sont indépendantes ssi F (X,Y (, y F X (F Y (y. Pour les v.a. avec densité on a la proposition suivante. Proposition. Soient X et Y 2 v.a. admettant respectivement les densités f X et f Y. Alors X et Y sont indépendantes ssi f X Y y ne dépend de y. Dans ce cas là f X Y y ( f X (. Démonstration. Si X, Y sont indépendantes alors F (X,Y (, y F X (F Y (y et donc on a que le couple admet la densité jointe f (X,Y (, y f X ( f Y (y car 2 y F (X,Y (, y 2 y F X(F Y (y f X ( f Y (y 4

et donc f X Y y ( f (X,Y (, y/f Y (y f X ( qui ne dépend pas de y. éciproquement on a f (X,Y (, y f X Y y (f Y (y et si la densité conditionnelle ne dépends pas de y f X ( f (X,Y (, ydy f X Y y ( f Y (ydy f X Y y ( et donc f (X,Y (, y f X (f Y (y qui implique l indépendance de X et Y. Proposition 2. Soient X et Y deu v.a. avec densité jointe f (X,Y (, y. Alors X et Y sont indépendantes ssi il eiste deu applications g, h telles que f (X,Y (, y g(h(y pour tout couple (, y t.q. f (X,Y (, y >. Démonstration. Si X et Y sont indépendantes alors on peut prendre g f X et h f Y. éciproquement: supposons que f (X,Y (, y g(h(y: f X ( f (X,Y (, ydy g( h(ydy, f X (d g(d h(ydy f Y (yh(y g(d et donc f (X,Y (, y f X ( f Y (y. Eemple 3. Soit (X, Y un couple de v.a. dans 2 admettant pour densité f (X,Y (, y 8 y I <<y<. X et Y ne sont pas indépendantes car la fonction I <<y< ne peut pas s écrire sous la forme d un produit. Espérance conditionnelle Si X est un vecteur aléatoire dans n admettant f X comme densité et g: n est une fonction positive alors on défini l espérance E[g(X] de la v.a. g(x par la formule E[g(X] g(f X (d n ( qui est toujours une quantité positive bien définie même si elle peut prendre la valeur +. Si g est de signe quelconque et E[ g(x ] < alors on dit que g(x est intégrable et on peut définir l espérance de g(x par la même formule (. Si g(x n est pas intégrable l intégrale dans la formule ( n est pas bien définie. Définition 4. Soit Z (X, Y un vecteur aléatoire de n m. Soit g: n m une fonction telle que g(x, Y est intégrable, c-à-d E g(x, Y < +. On appellera espérance conditionnelle de g(x, Y sachant Y et on notera E[g(X, Y Y ] la v.a. Ψ(Y où Ψ(y g(, yf X Y y (d, n y m : f Y (y>. Il est importante de remarquer que l espérance conditionnelle E[g(X,Y Y ] est une variable aléatoire. 5

Eemple 5. evenons à l eemple 9 et calculons E[X Y Y ] (il faut donc prendre g(, y y. Vérifions d abord la condition d integrabilité (qui donne sens au calcul de l espérance conditionnelle: E[ X Y ] y f (X,Y (, yddy 2λ ye λ(+y I <<y ddy 2 2λ 2 donc X Y est bien intégrable. ye λ(+y ddy 2λ 2 ( e λ d 2 < Ψ(y y f X Y y (d yi y> λe λ y I <<y λy e λy d e λy I y> e λ d et donc Ψ(y y e λy I e λy λy e λy y> λ E[XY Y ] Y e λy λy e λy e λy λ Proposition 6. Soit h une application de n m telle que g(x, Y h(y est intégrable. Alors. E[g(X, Y Y ]h(y E[g(X, Y h(y Y ] 2. E[E[g(X, Y Y ]h(y ] E[g(X, Y h(y ] Démonstration. Soit Φ(Y E[g(X, Y Y ] et Ψ(Y E[g(X, Y h(y Y ] où Φ(y g(, yf X Y y (d, n Ψ(y g(, yh(yf X Y y (d n alors Ψ(y h(yφ(y qui donne la première égalité. Pour la deuième on remarque que E[E[g(X, Y Y ]h(y ] E[Φ(Y h(y ] E[Ψ(Y ] Ψ(yf Y (ydy m g(, yh(yf X Y y (f Y (yddy n m g(, yh(yf (X,Y (, yddy n m E[g(X, Y h(y ] par la définition de la densité conditionnelle et d espérance. Cas particuliers: g(, y et h(y: E[E[X Y ]] E[X] g(, y, h(y intégrable: E[h(Y Y ] h(y. 6

appels sur la variance/covariance. La covariance Cov(X, Y du couple (X, Y de v.a. réelles est donnée par Cov(X, Y E[(X E[X](Y E[Y ]]. La variance de X est Var(X Cov(X, X E[(X E[X] 2 ]. Si Var(X alors X E[X] est une constante. La covariance est une fonction symétrique (Cov(X, Y Cov(Y, X et lineaire par rapport à chacun de ses arguments (Cov(αX + βy, Z αcov(x, Z + βcov(y, Z. Var(αX + c α 2 Var(X. On a l inégalité Cov(X, Y 2 Var(X Var(Y [preuve: considérer le discriminant du polynôme positive p(t Var(X + ty ]. Le coefficient de corrélation ρ X,Y est défini par Cov(X, Y ρ X,Y [, ] Var(X Var(Y Si ρ X,Y ± et Var(Y > alors eiste α tel que Var(X αy et donc X αy constante qui donne que Cov(X, Y Cov(αY, Y αvar(y, Var(X α 2 Var(Y et ρ X,Y sign α. Donc on voit bien que le signe de α est celui de ρ X,Y. Définition 7. On appelle variance conditionnelle de X sachant Y et on notera Var(X Y la v.a. Var(X Y E[(X E[X Y ] 2 Y ] Proposition 8. On a Var(X Y E[X 2 Y ] (E[X Y ] 2 Démonstration. Var(X Y E[X 2 2XE[X Y ] + (E[X Y ] 2 Y ] E[X 2 Y ] 2(E[X Y ] 2 +(E[X Y ] 2 E[X 2 Y ] (E[X Y ] 2 car E[X E[X Y ] Y ] E[X Y ] E[X Y ] et E[(E[X Y ] 2 Y ] (E[X Y ] 2. Proposition 9. (identité de la variance conditionnelle Soient X et Y 2 v.a. sur le même espace de probabilité et E[X 2 ] < +. Alors Var(X E[Var(X Y ] + Var[E(X Y ] Démonstration. Var(X E[X 2 ] (E[X] 2 E[E[X 2 Y ] (E(X Y 2 ] + E[(E(X Y 2 ] (E[E[X Y ]] 2 E[Var(X Y ] + Var[E(X Y ] 7