Espérance conditionnelle



Documents pareils
Moments des variables aléatoires réelles

3. Conditionnement P (B)

Programmes des classes préparatoires aux Grandes Ecoles

Théorie de la Mesure et Intégration

MA6.06 : Mesure et Probabilités

Intégration et probabilités TD1 Espaces mesurés Corrigé

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

I. Polynômes de Tchebychev

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Intégration sur des espaces produits

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Image d un intervalle par une fonction continue

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Simulation de variables aléatoires

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Cours d Analyse. Fonctions de plusieurs variables

Commun à tous les candidats

4. Martingales à temps discret

Continuité en un point

Intégrale de Lebesgue

Dualité dans les espaces de Lebesgue et mesures de Radon finies

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Amphi 3: Espaces complets - Applications linéaires continues

Calcul fonctionnel holomorphe dans les algèbres de Banach

Intégration et probabilités TD1 Espaces mesurés

La mesure de Lebesgue sur la droite réelle

Suites numériques 3. 1 Convergence et limite d une suite

Correction du Baccalauréat S Amérique du Nord mai 2007

Résolution d équations non linéaires

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Que faire lorsqu on considère plusieurs variables en même temps?

Produits d espaces mesurés

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Théorie de la mesure. S. Nicolay

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

M2 IAD UE MODE Notes de cours (3)

Théorie de la Mesure et Intégration

3 Approximation de solutions d équations

THÉORIE DE LA MESURE ET DE L INTÉGRATION.

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Mesures gaussiennes et espaces de Fock

Approximations variationelles des EDP Notes du Cours de M2

Probabilités et statistique. Benjamin JOURDAIN

Fonctions de plusieurs variables. Sébastien Tordeux

Calculs de probabilités avec la loi normale

Loi d une variable discrète

Théorème du point fixe - Théorème de l inversion locale

Travaux dirigés d introduction aux Probabilités

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Chapitre 2 Le problème de l unicité des solutions

Construction de l'intégrale de Lebesgue

Probabilités III Introduction à l évaluation d options

Différentiabilité ; Fonctions de plusieurs variables réelles

Calcul différentiel. Chapitre Différentiabilité

Le modèle de Black et Scholes

Chapitre 2. Eléments pour comprendre un énoncé

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

MARTINGALES POUR LA FINANCE

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

CCP PSI Mathématiques 1 : un corrigé

Logique. Plan du chapitre

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles


FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Couples de variables aléatoires discrètes

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

I. Ensemble de définition d'une fonction

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Théorie de l estimation et de la décision statistique

Modèles et Méthodes de Réservation

Texte Agrégation limitée par diffusion interne

Mesures et Intégration

4 Distributions particulières de probabilités

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Probabilités sur un univers fini

Limites finies en un point

Équations non linéaires

Chapitre 7 : Intégration sur un intervalle quelconque

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

MÉTHODE DE MONTE CARLO.

Développement décimal d un réel

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

TSTI 2D CH X : Exemples de lois à densité 1

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Exercices - Polynômes : corrigé. Opérations sur les polynômes

1 TD1 : rappels sur les ensembles et notion de probabilité

Calcul différentiel sur R n Première partie

La fonction exponentielle

Correction du baccalauréat S Liban juin 2007

PROBABILITES ET STATISTIQUE I&II

Fonctions de plusieurs variables

Probabilités. C. Charignon. I Cours 3

Transcription:

Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58

Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle 4 Interprétation en termes de projection 5 Lois conditionnelles régulières Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 2 / 58

Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle 4 Interprétation en termes de projection 5 Lois conditionnelles régulières Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 3 / 58

Définition formelle Définition On se donne un espace de probabilités (Ω, F 0, P) et Une σ-algèbre F F 0. X F 0 telle que E[ X ] <. Espérance conditionnelle de X sachant F: Notée E[X F] Définie par: E[X F] est la v.a Y de L 1 (Ω) telle que (i) Y F. (ii) Pour tout A F, on a ou encore A XdP = A YdP. E[X1 A ] = E[Y 1 A ], Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 4 / 58

Remarques Notation: On utilisera la notation Y F pour dire qu une variable aléatoire Y est F-mesurable. Interprétation: de manière plus intuitive F représente une quantité d information Y est la meilleure prédiction de X lorsque l on possède l information contenue dans F. Existence: à voir après les exemples. Unicité: Si elle existe, l espérance conditionnelle est unique. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 5 / 58

Démonstration unicité But: Soit Y vérifiant (i) + (ii), de même que Y. Montrons Y = Y p.s Propriété générale: Pour tout A F, on a E[Y 1 A ] = E[Y 1 A ]. Cas particulier: Soit ɛ > 0, et posons Alors A ɛ F, et donc P(A ɛ ) = 0. A ɛ (Y Y ɛ). 0 = E[(Y Y )1 Aɛ ] ɛe[1 Aɛ ] = ɛp(a ɛ ) Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 6 / 58

Démonstration unicité (2) Ensemble A + : Soit A + (Y Y > 0) = n 1 A 1/n. On a n A 1/n croissante, et donc P(A + ) = P A 1/n = n lim P(A 1/n ) = 0. n 1 Ensemble A : De même, si on a P(A ) = 0. A = {Y Y < 0} Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 7 / 58

Démonstration unicité (3) Conclusion: On obtient, en posant A {Y Y } = A + A, que P(A ) = 0, et donc Y = Y p.s. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 8 / 58

Absolue continuité Définition Soit µ, ν deux mesures σ-finies sur (Ω, F). On dit que ν µ (µ est absolument continue par rapport à ν) si µ(a) = 0 = ν(a) = 0 pour tout A F. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 9 / 58

Théorème de Radon-Nykodym Théorème Soient µ, ν mesures σ -finies sur (Ω, F), telles que ν µ. Alors il existe f F telle que, pour tout A F, on a La fonction f : ν(a) = A f dµ. Se nomme dérivée de Radon-Nykodym de µ par rapport à ν Se note f dν dµ. On a f 0 µ-presque partout f L 1 (µ). Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 10 / 58

Existence de l espérance conditionnelle Hypothèse: On a Une σ-algèbre F F 0. X F 0 telle que E[ X ] <. X 0. Définition de deux mesures: on pose 1 µ = P, mesure sur (Ω, F). 2 ν(a) E[X 1 A ] = A X dp. Alors ν est bien une mesure (par Beppo-Levi). Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 11 / 58

Existence de l espérance conditionnelle (2) Absolue continuité: on a Donc ν P P(A) = 0 1 A = 0 P-p.s. X 1 A = 0 P-p.s. ν(a) = 0 Conclusion: par théorème de Radon-Nykodym, il existe f F telle que, pour tout A F, on a ν(a) = A f dp. On pose f = E[X F]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 12 / 58

Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle 4 Interprétation en termes de projection 5 Lois conditionnelles régulières Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 13 / 58

Exemples faciles Exemple 1: Si X F, alors E[X F] = X. Définition: On dit que X F si pour tout A F et B B(R), on a ou encore X 1 A. P((X B) A) = P(X B) P(A), Exemple 2: Si X F, alors E[X F] = E[X]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 14 / 58

Démonstration: exemple 2 On a (i) E[X] F car E[X] est constante. (ii) Si A F, ] E[X 1 A ] = E[X] E[1 A ] = E [E(X) 1 A. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 15 / 58

Espérance conditionnelle discrète Exemple 3: On considère { Ωj ; j 1 } partition de Ω telle que P(Ω j ) > 0 pour tout j 1. Alors F = σ(ω j ; j 1). E[X F] = j i E[X 1 Ωj ] P(Ω j ) 1 Ωj Y. (1) Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 16 / 58

Démonstration: exemple 3 Stratégie: on vérifie les points (i) et (ii) de la définition pour la variable aléatoire Y. (i) Pour tout j 1, on a 1 Ωj F. Donc, pour toute suite numérique (α j ) j 1, α i 1 Ωj F. (ii) Il suffit de vérifier (1) pour A = Ω n et n 1 fixé. Or, E[Y 1 Ωn ] = E j 1 { } E[X1Ωn ] P(Ω n ) 1 Ωn = E[X 1 Ωn] P(Ω n ) E[1 Ωn] = E[X 1 Ωn ]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 17 / 58

Probabilité conditionnelle enfantine Définition: Pour un ensemble mesurable A F 0, on pose P(A F) E[1 A F] Cas particulier de l exemple discret: Soit B, B c une partition de Ω, et A F 0. Alors 1 F = σ(b) = { Ω,, B, B c} 2 On a P(A F) = P(A B) 1 B + P(A B c ) 1 B c. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 18 / 58

Lancer de dé Exemple: On considère Ω = { 1, 2, 3, 4, 5, 6 }, A = {4}, B = "pair". Alors P(A F) = 1 3 1 B. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 19 / 58

Conditionnement d une v.a. par une autre v.a. Définition: Soient X et Y deux variables aléatoires avec X L 1 (Ω). On pose E[X Y ] = E[X σ(y )]. Critère pour déterminer si A σ(y ): On a A σ(y ) ssi A = { ω; Y (ω) B }, ou encore 1 A = 1 B (Y ) Critère pour déterminer si Z σ(y ): Soient Z et Y deux variables aléatoires réelles. Alors Z σ(y ) ssi on peut écrire Z = U(Y ), avec U B(R). Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 20 / 58

Conditionnement d une v.a. par une autre v.a. (2) Exemple 4: Lorsque X et Y sont des variables aléatoires discrètes Le calcul de E[X Y ] peut être traité selon la méthode présentée à l exemple 3. Exemple 5: Soit (X, Y ) couple de variables aléatoires réelles de densité mesurable f : R 2 R +. On suppose que R f (x, y)dx > 0, pour tout y R. Soit g : R R une fonction mesurable telle que g(x) L 1 (Ω). Alors E[g(X) Y ] = h(y ), avec h : R R définie par h(y) = R g(x)f (x, y)dx R f (x, y)dx. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 21 / 58

Démonstration intuitive On peut écrire formellement: P(X = x, Y = y) P(X = x Y = y) = P(Y = y) En intégrant contre cette densité, on obtient: E[g(X) Y = y] = = = f (x, y) f (x, y)dx, g(x)p(x = x Y = y) dx g(x)f (x, y)dx. f (x, y)dx Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 22 / 58

Démonstration rigoureuse Stratégie: on vérifie les points (i) et (ii) de la définition pour la variable aléatoire h(y ). (i) Si h B(R), on a vu que h(y ) σ(y ). (ii) Soit A σ(y ) Alors Donc A = { ω; Y (ω) B } = 1 A = 1 B (Y ) E[h(Y )1 A ] = E[h(Y )1 B (Y )] = h(y)f (x, y)dxdy = = B B B R dy dy R { g(z)f (z, y)dz f (z, y)dz }f (x, y)dx g(z)f (z, y)dz= E[g(X)1 B (Y )]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 23 / 58

Exemple tordu Exemple 6: On prend Ω = (0, 1), F 0 = B((0, 1)) et P = λ. On pose X(ω) = cos(πω), et F = {A (0, 1); A ou A c dénombrable}. Alors E[X F] = 0. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 24 / 58

Démonstration Stratégie: on vérifie les points (i) et (ii) de la définition. (i) On a bien entendu 0 F. (ii) Soit A F, tel que A est dénombrable. Alors E[X 1 A ] = A cos(πx)dx = 0. De même, si A F est tel que A c est dénombrable, on a E[X 1 A ] = 1 ce qui démontre notre résultat. 0 cos(πx)dx cos(πx)dx = 0, A c Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 25 / 58

Morale de l exemple tordu Intuition: On pourrait penser que, si pour tout x [0, 1], on sait si {x} a eu lieu (on a bien {x} F), alors E[X F] = X. Paradoxe: Ceci est faux car X / F. Bonne intuition: Si l on sait ω A i pour un nombre fini de A i F alors on ne connait rien de X. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 26 / 58

Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle 4 Interprétation en termes de projection 5 Lois conditionnelles régulières Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 27 / 58

Espérance, linéarité Proposition Soit X L 1 (Ω). Alors E { E[X F] } = E[X]. Proposition Soient α R, et X, Y L 1 (Ω). Alors E[αX + Y F] = α E[X F] + E[Y F] p.s. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 28 / 58

Démonstration Stratégie: on vérifie les points (i) et (ii) de la définition pour la v.a. Vérification: on a Z α E[X F] + E[Y F]. (i) Z est une combinaision linéaire de E[X F] et E[Y F] Z F. (ii) Pour tout A F, on a E[Z 1 A ] = E { (αe[x F] + E[Y F]) 1 A } = αe { E[X F] 1 A } + E { E[Y F] 1A } = αe[x 1 A ] + E[Y 1 A ] = E[(αX + Y ) 1 A ]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 29 / 58

Monotonie Proposition Soient X, Y L 1 (Ω) telles que X Y presque sûrement. On a E[X F] E[Y F] presque sûrement. Démonstration: On suit le schéma de la démonstration de l unicité de l espérance conditionnelle. Par exemple, si on pose A ε = {E[X F] E[Y F] ε > 0}, on vérifie aisément que P(A ε ) = 0. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 30 / 58

Convergence monotone Proposition Soit {X n ; n 1} une suite de variables aléatoires telle que X n 0 X n X presque sûrement E[X] <. Alors E[X n F] E[X F]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 31 / 58

Démonstration Stratégie: On pose Y n X X n. Il suffit de montrer que Z n E[Y n F] 0. Existence de limite: n Y n est décroissante, et Y n 0 Z n est décroissante et Z n 0. Z n admet une limite p.s, notée Z. But: Montrer que Z = 0. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 32 / 58

Démonstration (2) Espérance de Z : on va montrer E[Z ] = 0. En effet X n converge p.s. vers X. 0 X n X L 1 (Ω). Donc, par convergence dominée, E[X n ] E[X]. On en déduit: E[Y n ] 0 Comme E[Y n ] = E[Z n ], on a aussi E[Z n ] 0. Par convergence dominée, on a E[Z n ] E[Z ] Ceci implique bien E[Z ] = 0. Conclusion: Z 0 et E[Z ] = 0 Z = 0 presque sûrement. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 33 / 58

Inégalité de Cauchy-Schwarz Proposition Soient X, Y L 2 (Ω). Alors E 2 [X Y F] E[X 2 F] E[Y 2 F] p.s. Démonstration: Pour tout θ R, on a E[(X + θy ) 2 F] 0 p.s. Donc, presque sûrement, on a: pour tout θ Q, E[(X + θy ) 2 F] 0, Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 34 / 58

Démonstration Développement: Pour tout θ Q E[Y 2 F]θ 2 + 2E[XY F]θ + E[X 2 F] 0. Rappel: Si un polynôme aθ 2 + bθ + c 0 pour tout θ Q on a forcément b 2 4ac 0 Application: Presque sûrement, on a E 2 [XY F] E[X 2 F]E[Y 2 F] 0. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 35 / 58

Inégalité de Jensen Proposition Soit X L 1 (Ω), et ϕ : R R telle que ϕ(x) L 1 (Ω) et ϕ convexe. Alors ϕ(e[x F]) E[ϕ(X) F] p.s. Corollaire L espérance conditionnelle est une contraction dans L p (Ω) pour tout p 1 Démonstration: D après l inégalité de Jensen, et X L p (Ω) E[X F] L p (Ω) E { E[X F] p } E[ X p ] Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 36 / 58

Conditionnements en chaîne Théorème Soient Alors Deux σ-algèbres F 1 F 2. X L 1 (Ω). E {E[X F 1 ] F 2 } = E[X F 1 ] (2) E {E[X F 2 ] F 1 } = E[X F 1 ]. (3) Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 37 / 58

Démonstration Démonstration de (2): On pose Z E[X F 1 ]. Alors Z F 1 F 2. D après l Exemple 1, on a E[Z F 2 ] = Z, i.e. (2). Démonstration de (3): On pose U = E[X F 2 ]. On va montrer que E[U F 1 ] = Z, via (i) et (ii) de la définition. (i) Z F 1. (ii) Si A F 1, on a A F 1 F 2, et donc E[Z1 A ] = E[X1 A ] = E[U1 A ]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 38 / 58

Esp. conditionnelle de produits Théorème Soient X, Y L 2 (Ω), telles que X F. Alors E[X Y F] = X E[Y F]. Démonstration: On utilise une démarche classique en 4 étapes Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 39 / 58

Démonstration Etape 1: on suppose X = 1 B, avec B F On vérifie (i) et (ii) de la définition. (i) On a 1 B E[Y F] F. (ii) Pour A F, on a E {(1 B E[Y F]) 1 A } = E {E[Y F] 1 A B } = E[Y 1 A B ] = E[(1 B Y ) 1 A ], et donc 1 B E[Y F] = E[1 B Y F]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 40 / 58

Démonstration (2) Etape 2: Si X est de la forme X = i n α i 1 Bi, avec α i R et B i F, alors, par linéarité on trouve encore E[XY F] = X E[Y F]. Etape 3: Si X, Y 0 Il existe une suite {X n ; n 1} de variables aléatoires simples telle que X n X. Alors par application de la convergence monotone E[XY F] = X E[Y F]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 41 / 58

Démonstration (3) Etape 4: Cas général X L 2 Décomposition X = X + X et Y = Y + Y, et donc E[XY F] = XE[Y F] par linéarité. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 42 / 58

Esp. conditionnelle et indépendance Théorème Soient X, Y deux variables aléatoires réelles indépendantes α : R 2 R telle que α(x, Y ) L 1 (Ω) On pose, pour x R, g(x) = E[α(x, Y )]. Alors E[α(X, Y ) X] = g(x). Démonstration: en 4 étapes sur α. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 43 / 58

Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle 4 Interprétation en termes de projection 5 Lois conditionnelles régulières Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 44 / 58

Rappel: projection orthogonale Définition: Soit H un espace de Hilbert espace vectoriel muni d un produit scalaire et complet. F un sous espace fermé de H. Alors, pour tout x H Il existe un unique y F, noté y = π F (x) vérifiant l une des conditions équivalentes (i) ou (ii). (i) Pour tout z F, on a x y, z = 0. (ii) Pour tout z F, on a x y H x z H. π F (x) se nomme projection orthogonale de x sur F. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 45 / 58

Espérance conditionnelle et projection Théorème Considérons L espace L 2 (F 0 ) { Y F 0 ; E[Y 2 ] < }. Alors X L 2 (F 0 ). F F 0 1 L 2 (F 0 ) est un espace de Hilbert Produit scalaire X, Y = E[XY ]. 2 L 2 (F) est un sous espace fermé de L 2 (F 0 ). 3 π L 2 (F)(X) = E[X F]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 46 / 58

Démonstration Démonstration de 2: Si X n X dans L 2 Il existe une sous suite X nk Donc, si X n F, on a aussi X F. X p.s. Démonstration de 3: Vérifions le point (i) de la définition de projection Soit Z L 2 (F). On a E[Z X F] = Z E[X F], et donc E {Z E[X F]} = E {E[X Z F]} = E [X Z], ce qui suffit à vérifier (i) et E[X F] = π L 2 (F)(X). Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 47 / 58

Application aux vecteurs gaussiens Exemple: Soit Alors (X, Y ) vecteur gaussien centré de R 2 Hypothèse: V (Y ) > 0. E[X Y ] = αy, avec α = E[X Y ] V (Y ). Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 48 / 58

Démonstration Etape 1: On cherche α tel que Z = X αy = Z Y. Rappel: Si (Z, Y ) est un vecteur gaussien Z Y ssi cov(z, Y ) = 0 Application: cov(z, Y ) = E[Z Y ]. Donc cov(z, Y ) = E[(X αy ) Y ] = E[X Y ] αv (Y ), et cov(z, Y ) = 0 ssi α = E[XY ] V (Y ). Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 49 / 58

Démonstration (2) Etape 2: On applique à présent le (i) de la définition de π. Soit V L 2 (σ(y )). Alors Y (X αy ) = V (X αy ) et Donc E[(X αy ) V ] = E[X αy ] E[V ] = 0. X αy = π σ(y ) (X) = E[X Y ]. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 50 / 58

Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle 4 Interprétation en termes de projection 5 Lois conditionnelles régulières Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 51 / 58

LCR Définition Soit (Ω, F, P) un espace de probabilités (S, S) un espace mesurable X : (Ω, F) (S, S) une variable aléatoire G une σ-algèbre telle que G F. On dit que µ : Ω S [0, 1] est une loi conditionnelle régulière de X sachant G si (i) Pour tout A, l application ω µ(ω, A) est une variable aléatoire, égale à P(X A G) p.s. (ii) ω-p.s. A µ(ω, A) est une mesure de probabilité sur (S, S). Remarque: On aura toujours (S, S) de la forme (R, B(R)), (N, P(N), etc. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 52 / 58

Exemple discret Cas de la loi de Poisson: Soient X P(λ) et Y P(µ) X Y On pose S = X + Y. Alors LCR de X sachant S est Bin(S, p) avec p = Démonstration: on a vu que pour n m P(X = n S = m) = On prend alors S = N, G = σ(s) λ λ+µ ( ) n p n (1 p) m n avec p = λ m λ + µ. et on vérifie que ces probabilités conditionnelles définissent une LCR. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 53 / 58

Exemple continu Cas de la loi exponentielle: Soient X E(1) et Y E(1) X Y On pose S = X + Y. Alors LCR de X sachant S est U([0, S]). Démonstration: La densité du couple (X, S) est donnée par f (x, s) = e s 1 {0 x s}. Soit alors ψ B b (R + ). D après l Exemple 5, on a E[ψ(X) S] = u(s), avec u(s) = R 2 + R 2 + ψ(x)f (x, s)dx f (x, s)dx = 1 s s 0 ψ(x)dx. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 54 / 58

Démonstration De plus, S 0 presque sûrement, et donc, si A B(R), on a P (X A S) = A [0, S]. S En prenant espace d état = R +, S = B(R + ) et en posant µ(ω, A) = A [0, S(ω)], S(ω) on vérifie que l on a défini une loi conditionnelle régulière. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 55 / 58

Existence de la LCR Théorème Soit X une variable aléatoire sur (Ω, F 0, P). A valeurs dans un espace de la forme (R n, B(R n )). G F 0 une σ-algèbre. Alors la loi conditionnelle régulière de X sachant G existe. Démonstration difficile et admise. Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 56 / 58

Règles de calcul de LCR (1) Si G = σ(y ), avec Y variable aléatoire à valeurs dans R m, on a en fait µ(ω, A) = µ(y (ω), A), et on peut définir la loi conditionnelle régulière de X sachant Y comme une famille {µ(y,.); y R m } de probabilités sur R n, telle que pour tout A B(R n ), la fonction est mesurable. y µ(y, A) (2) Si Y suit une loi discrète, on a en fait µ(y, A) = P (X A Y = y) = P (X A, Y = y). P (Y = y) Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 57 / 58

Règles de calcul de LCR (2) (3) Lorsque l on connait la loi conditionnelle régulière, on peut calculer, pour φ B(R n ), les quantités: E [φ(x) G] = E [φ(x) Y ] = φ(x) µ(ω, dx) R n φ(x) µ(y, dx). R n (4) La loi conditionnelle régulière n est pas unique, mais si N 1, N 2 sont deux lois conditionnelles régulières de X sachant G, on a, ω-presque sûrement: N 1 (ω, A) = N 2 (ω, A) pour tout A B(R n ). Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 58 / 58