FICM 2A Probabilités. TD 1. Espérance conditionnelle (corrigé)

Documents pareils
3. Conditionnement P (B)

Espérance conditionnelle

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Simulation de variables aléatoires

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Moments des variables aléatoires réelles

CHAPITRE 10. Jacobien, changement de coordonnées.

Loi d une variable discrète

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Programmes des classes préparatoires aux Grandes Ecoles

O, i, ) ln x. (ln x)2

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

4. Martingales à temps discret

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Calcul fonctionnel holomorphe dans les algèbres de Banach

Chapitre 2 Le problème de l unicité des solutions

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Intégration et probabilités ENS Paris, TD (20)13 Lois des grands nombres, théorème central limite. Corrigé :

MA6.06 : Mesure et Probabilités

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Intégration et probabilités TD1 Espaces mesurés Corrigé

Probabilités III Introduction à l évaluation d options

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Chapitre 7 : Intégration sur un intervalle quelconque

Produits d espaces mesurés

3 Approximation de solutions d équations

1.1 Codage de source et test d hypothèse

Continuité en un point

MÉTHODE DE MONTE CARLO.

Travaux dirigés d introduction aux Probabilités

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Limites finies en un point

CCP PSI Mathématiques 1 : un corrigé

Quantification Scalaire et Prédictive

Comparaison de fonctions Développements limités. Chapitre 10

Intégration sur des espaces produits

Fonctions de plusieurs variables

PRECISION - REJET DE PERTURBATIONS T.D. G.E.I.I.

Correction du Baccalauréat S Amérique du Nord mai 2007

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Intégration et probabilités TD1 Espaces mesurés

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

TSTI 2D CH X : Exemples de lois à densité 1

Cours de méthodes de scoring

Calcul différentiel. Chapitre Différentiabilité

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Exercice 1 Trouver l équation du plan tangent pour chaque surface ci-dessous, au point (x 0,y 0,z 0 ) donné :

Relation d ordre. Manipulation des relations d ordre. Lycée Pierre de Fermat 2012/2013 Feuille d exercices

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

3. Caractéristiques et fonctions d une v.a.

Calcul Différentiel. I Fonctions différentiables 3

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Sur certaines séries entières particulières

Probabilités avancées. Florin Avram

6 Equations du première ordre

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Chapitre 3. Les distributions à deux variables

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Résolution d équations non linéaires

Chapitre 2. Matrices

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Leçon 01 Exercices d'entraînement

Chapitre VI Fonctions de plusieurs variables

Modèles et Méthodes de Réservation

Image d un intervalle par une fonction continue

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Calcul intégral élémentaire en plusieurs variables

108y= 1 où x et y sont des entiers

Amphi 3: Espaces complets - Applications linéaires continues

Correction du baccalauréat S Liban juin 2007

Continuité d une fonction de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Calcul Stochastique pour la finance. Romuald ELIE

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Simulation : application au système bonus-malus en responsabilité civile automobile

Théorème du point fixe - Théorème de l inversion locale

Construction de l'intégrale de Lebesgue

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Fonctions de plusieurs variables et applications pour l ingénieur

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

NOTATIONS PRÉLIMINAIRES

Mesures gaussiennes et espaces de Fock

Capes Première épreuve

Problème 1 : applications du plan affine

Cours Fonctions de deux variables

C algèbre d un certain groupe de Lie nilpotent.

Transcription:

École des Mines de Nancy Année 2017-2018 Denis Villemonais, denis.villemonais@univ-lorraine.fr FICM 2A Probabilités TD 1. Espérance conditionnelle (corrigé) Dans tous les exercices, (Ω,F,P) est un espace de probabilité sur lequel sont définies les variables aléatoires considérées. Ces variables aléatoires sont donc en particulier F -mesurables. Exercice 1. Soit B F une tribu. Soient X et Z des variables aléatoires réelles telles que X et X Z sont intégrables, avec Z B-mesurable. Montrer que E(X Z ) = E(E(X B)Z ). Solution. Nous commençons par démontrer que E( X Z ) = E(E( X B) Z ) (ceci est une conséquence du cours, mais nous le redémontrons car il est important de comprendre comment cela fonctionne). En effet, nous avons E( X Z ) = E( lim n + X Z 1 Z n) = lim n + E( X Z 1 Z n) d après le théorème de convergence monotone, puisque ( X Z 1 Z n ) est une suite positive croissante. Or E( X Z 1 Z n ) = E(E( X B) Z 1 Z n ) par définition de l espérance conditionnelle et en utilisant le fait que X est intégrable et que Z 1 Z n est B-mesurable borné. Or E( X B) Z 1 Z n est positive croissante presque sûrement vers E( X B) Z, donc, d après le théorème de convergence dominée, En définitive, lim E( ) E( X B) Z 1 Z n = E(E( X B) Z ). n + E( X Z ) = E(E( X B) Z ). (1) Nous savons que cette relation est vraie si Z est bornée et nous allons donc nous ramener à cette situation en utilisant le théorème de convergence dominée. Pour tout n N, Z 1 Z n est une variable aléatoire bornée B-mesurable. Par conséquent, d après la proposition 2.9 p 34, E(X Z 1 Z n ) = E(E(X B)Z 1 Z n ). (2) 1

Or p.s. X Z 1 Z n X Z n X Z 1 Z n X Z, p.s. E(X B)Z 1 Z n E(X B)Z et n E(X B)Z 1 Z n E( X B) Z, n, p.s. car Z est bornée B-mesurable. Or X Z et E( X B) Z sont des variables aléatoires intégrables (d après l égalité (1)), donc, d après le théorème de convergence dominée, E(X Z 1 Z n ) E(X Z ) et E(E(X B)Z 1 Z n) E(E(X B)Z ). n n Par passage à la limite dans (2), on en déduit que E(X Z ) = E(E(X B)Z ). Exercice 2. Soient (X,Y ) et (X,Y ) deux couples de variables aléatoires de même loi, tels que X est intégrable. 1. Soit f une fonction mesurable telle que E(X Y ) = f (Y ). Montrer que E(X Y ) = f (Y ). En particulier, cela implique que E(X Y ) et E(X Y ) ont même loi. 2. Supposons que X est symétrique, c est-à-dire que X et X ont même loi. Déterminer E(X X ). 3. Soient X 1,..., X n des variables aléatoires réelles indépendantes et de même loi. Nous supposons que X 1 est positive presque sûrement ou intégrable. Déterminer E(X 1 X 1 + + X n ). Solution. 1. Pour toute variable aléatoire Z bornée et σ(y )-mesurable, il existe une fonction mesurable bornée h Z telle que Z = h Z (Y ). Ainsi, E(X Z ) = E(X h Z (Y )) = E(X h Z (Y )) car (X,Y ) et (X,Y ) ont même loi = E(f (Y )h Z (Y )) car f (Y ) = E(X Y ) = E(f (Y )h Z (Y )) car (X,Y ) et (X,Y ) ont même loi = E(f (Y )Z ). Ceci étant vrai pour toute variable aléatoire bornée Z B-mesurable, on déduit de la proposition 2.9 p. 34 que E(X Y ) = f (Y ). 2

2. Les variables aléatoires X et X ont même loi. Donc (X, X ) et ( X, X ) ont même loi. D après la question 1, E(X X ) = E( X X ). Or, par linéarité de l espérance conditionnelle, Par conséquent, E(X X ) + E( X X ) = E(0 X ) = 0. E(X X ) = E( X X ) = 0. 3. Les vecteurs aléatoires (X 1,(X 1,..., X n )),..., (X n,(x 1,..., X n )) ont même loi. Donc, d après la question 1., il existe une fonction mesurable f telle que E(X i X 1 + + X n ) = f (X 1 + + X n ), i {1,...,n}. Nous en déduisons que E(X 1 X 1 + + X n ) = 1 n n E(X i X 1 + + X n ) i=1 = 1 n E(X 1 +... + X n X 1 + + X n ) par linéarité. Or X 1 + + X n est σ(x 1 + + X n )-mesurable, donc E(X 1 X 1 + + X n ) = X 1 + + X n. n Exercice 3. Soit X une variable aléatoire de loi uniforme sur. Posons Y = 1 X 1/2 et Y 1 = X, Y 2 = X (1/2 X ), Y 3 = 1/X et Y 4 = 1 X 1/2. Déterminer, si elles existent, E(Y 1 Y ), E(Y 2 Y ), E(Y 3 Y ) puis E(Y 4 Y ). Solution. Y est une variable aléatoire à valeur dans l ensemble fini {0, 1}, nous allons donc chercher à appliquer la propriété 2.16 p.40. 3

1. La variable aléatoire Y 1 est bornée, donc intégrable. Par conséquent, E(Y 1 Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dénombrable, on a d après la proposition 2.16 p.40, E(Y 1 Y ) = E(Y 11 Y =0 ) P(Y = 0) 1 Y =0 + E(Y 11 Y =1 ) P(Y = 1) 1 Y =1. D une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur. De plus, d après le théorème du transport, E(Y 1 1 Y =1 ) = E(X 1 X 1/2 ) = x1 x 1/2 dλ 1 (x) = x dλ 1 (x) = 1 8. [0,1/2] De même, E(Y 1 1 Y =0 ) = E(X 1 X >1/2 ) = = x dλ 1 (x) ]1/2,1] x1 x>1/2 dλ 1 (x) = 3 8. En définitive, E(Y 1 Y ) = 1 4 1 Y =1 + 3 4 1 Y =0. 2. La variable aléatoire Y 2 est bornée, donc intégrable. Par conséquent, E(Y 2 Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dénombrable, on a d après la proposition 2.16 p.40, E(Y 2 Y ) = E(Y 21 Y =0 ) P(Y = 0) 1 Y =0 + E(Y 21 Y =1 ) P(Y = 1) 1 Y =1. D une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur. De plus, d après le théorème du transport, E(Y 2 1 Y =1 ) = E(X (1/2 X )1 X 1/2 ) = x(1/2 x)1 x 1/2 dλ 1 (x) x = 2 x2 dλ 1 (x) [0,1/2] = 1 16 1 24 = 1 48. 4

De même, E(Y 2 1 Y =0 ) = E(X (1/2 X )1 X >1/2 ) = x = 2 x2 dλ 1 (x) Finalement, ]1/2,1] = 3 16 7 24 = 5 48. E(Y 2 Y ) = 1 24 1 Y =1 5 24 1 Y =0. x(1/2 x)1 x>1/2 dλ 1 (x) 3. La variable aléatoire Y 3 est positive presque sûrement. Par conséquent, E(Y 3 Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dénombrable, on a d après la proposition 2.16 p.40, E(Y 3 Y ) = E(Y 31 Y =0 ) P(Y = 0) 1 Y =0 + E(Y 31 Y =1 ) P(Y = 1) 1 Y =1. D une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur. De plus, d après le théorème du transport, E(Y 3 1 Y =1 ) = E(1/X 1 X 1/2 ) = 1/x1 x 1/2 dλ 1 (x) = +. De même, Finalement, E(Y 3 1 Y =0 ) = E(1/X 1 X >1/2 ) = 1/x1 x>1/2 dλ 1 (x) = 1/x dλ 1 (x) = ln2. ]1/2,1] E(Y 3 Y ) = + 1 Y =1 + ln21 Y =0. 4. La variable Y 4 n est ni positive, ni intégrable E( Y 4 ) = + d après une application immédiate du théorème du transport. Par conséquent, E(Y 4 Y ) n est pas définie. 5

Exercice 4. Soient X et Y deux variables aléatoires réelles indépendantes. Notons F X +Y la fonction de répartition de la variable aléatoire réelle X + Y et F Y celle de la variable aléatoire réelle Y. 1. Montrer que pour tout t R, E(1 X +Y t X ) = F Y (t X ) presque sûrement. 2. Supposons que X est une variable de loi uniforme sur [0, 1]. Montrer que t R, F X +Y (t) = 1 0 F Y (t u)du. Solution. 1. Les variables aléatoires X et Y étant supposées indépendantes, nous allons chercher à appliquer la proposition 2.30 p.51, avec h(x, y) = 1 x+y t. Remarquons que h est bornée, donc h(x,y ) est intégrable. Nous avons donc E(1 X +Y t X ) = g (X ), avec g (x) = E(h(x,Y )) = h(x, y)dp Y (y) = 1 x+y t dp Y (y) R R = P Y (], t x]) = F Y (t x), par définition de la fonction F Y. En définitive, 2. Nous avons E(1 X +Y t X ) = F Y (t X ). F X +Y (t) = E(1 X +Y t ) = E(E(1 X +Y t X )) = E(F Y (t X )), donc, d après le théorème du transport, F X +Y (t) = F Y (t x)dλ 1 (x). Exercice 5 (DM1). Soit (X,Y, Z ) un vecteur gaussien centré de matrice de covariance 2 1 1 M = 1 2 1. 1 1 2 6

1. Déterminer E(X Y, Z ). 2. Déterminer E(X 2Y + Z ). 3. Déterminer E(X X + Y,Y Z ). Solution. 1. La matrice de covariance du vecteur gaussien (Y, Z ) est Γ (Y,Z ) = ( ) 2 1, avec (Γ 1 2 (Y,Z ) ) 1 = 1 3 ( 2 ) 1 1 2 et la matrice de covariance de X est Γ X = (2). Par conséquent, (X,Y, Z ) étant un vecteur gaussien et Γ (Y,Z ) ) étant inversible, on a d après la proposition 2.38 p.53, (( ) ( )) E(X Y, Z ) = E(X ) + (Γ X,(Y,Z ) (Γ (Y,Z ) ) 1 Y Y ) E, Z Z avec Γ X,(Y,Z ) = ( 1,1). Étant donné que le vecteur (X,Y, Z ), est centré, nous en déduisons que En définitive, nous obtenons E(X Y, Z ) = 1 ( ) ( ) 2 1 Y 3 ( 1,1). 1 2 Z E(X Y, Z ) = Y + Z. 2. Le vecteur aléatoire (U,V ) = (X,2Y + Z ) est un vecteur gaussien centré, en tant que transformation linéaire du vecteur gaussien centré (X,Y, Z ). De plus, sa matrice de covariance est donnée par Γ (U,V ) = ( ) 1 0 0 M 0 2 1 1 0 0 2 = 0 1 Nous déduisons donc de la proposition 2.37 que soit ( ) 2 1. 1 14 E(X 2Y + Z ) = E(U V ) = 1 14 V, E(X 2Y + Z ) = 2Y + Z 14. 7

3. Le vecteur aléatoire (U,V,W ) = (X, X +Y,Y Z ) est un vecteur gaussien centré, en tant que transformation linéaire du vecteur gaussien centré (X,Y, Z ). De plus, sa matrice de covariance est donnée par 1 0 0 1 1 0 2 1 2 Γ (U,V,W ) = 1 1 0 M 0 1 1 = 1 2 1. 0 1 1 0 0 1 2 1 2 Ainsi, la matrice de covariance de (V,W ) est Γ (V,W ) = ( 2 ) 1 1 2 avec (Γ (V,W ) ) 1 = 1 3 ( ) 2 1 1 2 et la matrice de covariance de U est Γ U = (2). Par conséquent, d après la proposition 2.38 p.53, (( ) ( )) E(U V,W ) = E(U ) + (Γ U,(V,W ) (Γ (V,W ) ) 1 V V ) E, W W avec Γ U,(V,W ) = (1, 2). Étant donné que le vecteur (U,V,W ) est centré, nous en déduisons que En définitive, E(U V,W ) = 1 ( )( ) 2 1 V 3 (1, 2) = W. 1 2 W E(X X + Y,Y Z ) = Y + Z Exercice 6 (DM1). Soient X L 2 (Ω,F,P) et B F une tribu sur Ω. On appelle variance conditionnellement à B la variable aléatoire Var(X B) = E ( (X E(X B)) 2 B ) 1. Supposons que E(X 2 ) = E(E(X B) 2 ). Montrer que X est B mesurable. 2. Montrer que, presque sûrement, Var(X B) = E(X 2 B) E(X B) 2. 8

3. Montrer que et en déduire que Var X = E(Var(X B)) + Var(E(X B)) Var(E(X B)) Var X. 4. Rappelons que si A F, P(A B) = E(1 A B). Montrer que pour tout ε > 0, presque sûrement P( X E(X B) ε B) Var(X B) ε 2. Solution. Remarquons dès à présent que X L 2, donc E(X B) L 2, ce qui justifie l existence des espérances dans la suite de l exercice. 1. D après le théorème de Pythagore (applicable car X L 2 ), nous avons E(X 2 ) = E(E(X B) 2 ) + E((X E(X B)) 2 ). Par conséquent, sous l hypothèse E(X 2 ) = E(E(X B) 2 ), nous obtenons E((X E(X B)) 2 ) = 0. Or la variable aléatoire (X E(X B)) 2 est positive presque sûrement, donc (X E(X B)) 2 = 0 presque sûrement. En définitive, En particulier, X est B-mesurable. X = E(X B) p.s. Remarque 1. En fait, nous pouvons en déduire que X est B-mesurable si et seulement si B est complète, au sens où elle contient tous les ensembles négligeables de F. C est une hypothèse que nous faisons donc implicitement ici. 2. Nous avons Var(X B) = E(X 2 2X E(X B) + E(X B) 2 B) = E(X 2 B) 2E(X E(X B) B) + E(E(X B) 2 B) par linéarité de l intégrale conditionnelle. De plus, les variables aléatoires E(X B) et E(X B) 2 étant B-mesurables, En définitive, Var(X B) = E(X 2 B) 2E(X B)E(X B) + E(X B) 2. Var(X B) = E(X 2 B) E(X B) 2. 9

3. Nous avons E(Var(X B)) + Var(E(X B)) = E ( E(X 2 B) E(X B) 2) + E ( E(X B) 2) E(E(X B)) 2 En définitive, = E ( E(X 2 B) ) E(E(X B)) 2 = E(X 2 ) E(X ) 2. Var(X ) = E(Var(X B)) + Var(E(X B)). La variance conditionnelle étant positive presque sûrement par définition, nous en déduisons que Var(E(X B)) Var(X ). 4. Nous avons (en utilisant notamment la croissance de l espérance conditionnelle) Soit P( X E(X B) ε B) = E ( 1 X E(X B) ε B ) X E(X B) E (1 2 X E(X B) ε ε 2 ( X E(X B) 2 ) E ε 2 B. P( X E(X B) ε B) Var(X B) ε 2. ) B 10