3. Conditionnement P (B)



Documents pareils
Espérance conditionnelle

Intégration et probabilités TD1 Espaces mesurés Corrigé

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Chapitre 2 Le problème de l unicité des solutions

Limites finies en un point

Moments des variables aléatoires réelles

4. Martingales à temps discret

Calcul fonctionnel holomorphe dans les algèbres de Banach

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

3 Approximation de solutions d équations

Simulation de variables aléatoires

Intégration et probabilités TD1 Espaces mesurés

MA6.06 : Mesure et Probabilités

Image d un intervalle par une fonction continue

Théorie de la Mesure et Intégration

Amphi 3: Espaces complets - Applications linéaires continues

Mesures gaussiennes et espaces de Fock

Correction de l examen de la première session

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Théorie de la mesure. S. Nicolay

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Programmes des classes préparatoires aux Grandes Ecoles

Le modèle de Black et Scholes

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Intégrale de Lebesgue

Probabilités sur un univers fini

Continuité en un point

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Continuité d une fonction de plusieurs variables

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Théorie de la Mesure et Intégration

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Cours d Analyse. Fonctions de plusieurs variables

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Intégration sur des espaces produits

Fonctions de plusieurs variables

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Développement décimal d un réel

Probabilités sur un univers fini

Théorème du point fixe - Théorème de l inversion locale

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Couples de variables aléatoires discrètes

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Cours de mathématiques

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Filtrage stochastique non linéaire par la théorie de représentation des martingales

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

I. Polynômes de Tchebychev

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Approximations variationelles des EDP Notes du Cours de M2

La mesure de Lebesgue sur la droite réelle

Texte Agrégation limitée par diffusion interne

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Calcul différentiel sur R n Première partie

Chapitre 7 : Intégration sur un intervalle quelconque

Chapitre 2. Matrices

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Les indices à surplus constant

Suites numériques 3. 1 Convergence et limite d une suite

TSTI 2D CH X : Exemples de lois à densité 1

1 Complément sur la projection du nuage des individus

Résolution de systèmes linéaires par des méthodes directes

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Modèles et Méthodes de Réservation

Université Paris-Dauphine DUMI2E 1ère année, Applications

Chp. 4. Minimisation d une fonction d une variable

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Travaux dirigés d introduction aux Probabilités

Chapitre VI - Méthodes de factorisation

Produits d espaces mesurés

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Programmation linéaire et Optimisation. Didier Smets

La fonction exponentielle

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Correction du baccalauréat ES/L Métropole 20 juin 2014

Cours d analyse numérique SMI-S4

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34


Commun à tous les candidats

Sur certaines séries entières particulières

Calcul différentiel. Chapitre Différentiabilité

I. Ensemble de définition d'une fonction

Résolution d équations non linéaires

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v t

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Chapitre 1 Cinématique du point matériel

Problème 1 : applications du plan affine

4 Distributions particulières de probabilités

Calcul Stochastique pour la finance. Romuald ELIE

THÉORIE DE LA MESURE ET DE L INTÉGRATION.

Mesures et Intégration

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Transcription:

Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte de la donnée a priori d une information supplémentaire sur le résultat de l expérience aléatoire. La notion d espérance conditionnelle (et plus généralement de loi conditionnelle) est à la base de la plupart des constructions de la théorie moderne des probabilités. Sauf mention contraire, on suppose donné un espace de probabilités (Ω, F, P ). 3.1. Probabilité conditionnelle et indépendance. Commençons par quelques rappels de notions élémentaires. Définition 3.1. Soient A et B deux événements tels que P (B) 0. On appelle probabilité conditionnelle de A sachant B le réel P (A/B) =. P (A B) P (B) Il faut bien sûr comprendre intuitivement la définition précédente comme mesurant la probabilité normalisée de ceux des ω B qui réalisent A. En quelque sorte, puisqu on connaît le fait que B se réalise, l espace de probabilités peut être restreint à B. Le cas particulier majeur de cette situation est celle où B n a pas d influence sur A, ce qui s exprime aussi en disant que conditionner ou non par B ne change pas la probabilité de A. Ce qui revient à dire que P (A/B) = P (A) ou encore P (A B) = P (A)P (B). Prolongeant cette définition au cas où P (B) = 0, on a la définition classique suivante Définition 3.2. a) Deux événements A et B sont indépendants si on a P (A B) = P (A)P (B). b) Deux sous-tribus G et H de F sont indépendantes si et seulement si tout élément de G et tout élément de H sont indépendants. L exercice suivant montre, si besoin était, qu il n y a aucun rapport entre l indépendance et la disjonction. Exercice 3.3. Montrer que A et A c sont indépendants si et seulement si P (A) = 0 ou 1. On prolonge comme d habitude cette définition au cas de n événements et plus généralement au cas de n variables aléatoires. Théorème et Définition 3.4. Soient X 1,..., X n des variables aléatoires à valeurs dans des espaces mesurables (E 1, E 1 ),..., (E n, E n ). On dit que les variables X 1,..., X n sont indépendantes si une des propriétés équivalentes suivantes est réalisée n (i) (A 1,..., A n ) E 1 E n, P (X 1 A 1,..., X n A n ) = P (X k A k ) (ii) µ (X1,...,X n)(dx 1,..., dx n ) = n µ Xk (dx k ) (iii) Pour toutes fonctions f k : E k R mesurables bornées (resp. mesurables positives), on a n n E( f k (X k )) = E(f k (X k )). Les équivalences du Théorème et Définition 3.4 sont laissées en exercice. Rappelons aussi à toutes fins utiles la Définition 3.5. On dit que la suite de variables aléatoires (X n ) n N est composée de variables indépendantes si et seulement si pour tout n, les variables X 1,..., X n sont indépendantes.

Conditionnement 17 Un résultat fondamental lié aux suites de variables indépendantes est dû à Kolmogorov: Théorème 3.6. (loi du 0-1) Soit (X n ) n 0 une suite de variables aléatoires indépendantes. On pose G = n 0 σ(x k, k n) ( tribu de queue ). Alors, A G, P (A) = 0 ou 1. Preuve: Posons F = σ(x 0, X 1,..., X n,... ). Noter qu évidemment G F. Soient A G et C = {B F, P (A B) = P (A)P (B)}. On vérifie immédiatement que C est une classe monotone. De plus, C contient l algèbre de Boole B = n 0 σ(x 0,..., X n ). Par le théorème de classe monotone (Théorème 1.2), il contient donc la tribu engendrée par B, c est à dire F. En particulier, A C et donc A est indépendant de lui même, ce qui équivaut à P (A) = 0 ou 1. Exercice 3.7. Soient A 1,..., A n des événements. a) Montrer que si A 1,..., A n sont indépendants, il en est de même de A 1,..., A n 1, A c n. b) Déduire que J {1,..., n}, (A c j, j J; A i, i {1,..., n} \ J) forme un ensemble de variables indépendantes. c) Montrer que A 1,..., A n sont indépendants si et seulement si les variables aléatoires 1 A1,..., 1 An sont indépendantes. Exercice 3.8. On se place sur l espace de probabilités ([0, 1], B, λ). Soit x [0, 1]. On écrit x sous la x k forme de sa décomposition dyadique x = 2 k et on pose X k(x) = x k. a) Montrer que les variables aléatoires (X k ) k 1 forment une suite de variables indépendantes et de même loi 1 2 (δ 0 + δ 1 ). b) Montrer qu il existe une suite (Y n ) de variables aléatoires indépendantes sur ([0, 1], B, λ) telle que Y n suit une loi uniforme sur [0, 1]. c) Soit (µ n ) n 1 une suite de mesures de probabilités sur R. Montrer qu il existe une probabilité IP sur E = R N telle que sous IP, les projections canoniques z k : E R, (x n ) n 0 x k forment une suite de variables indépendantes et z n a pour loi µ n. Exercice 3.9. Soit (B t ) t R + vérifiant les conditions suivantes: une famille de variables aléatoires (i) t 1 < t 2 < < t n, (B t1,..., B tn ) est un vecteur gaussien centré (ii) (s, t), E(B s B t ) = s t (iii) p.s., t B t (ω) est une fonction continue a) Montrer que (B t ) est à accroissements indépendants et stationnaires i.e. t 1 < t 2 < < t n, B t1, B t2 B t1,..., B tn B tn 1 sont des variables indépendantes et s < t, B t B s a même loi que B t s. n 1 b) On pose G n t = (B k+1 n k=0 t B k n t)2. Montrer qu il existe une suite n p telle que G np t t p.s. c) Soit t > 0. Montrer que p.s., s B s (ω) n est pas à variations finies sur l intervalle [0, t]. Exercice 3.10. On rappelle la Formule de Poincaré: si (A 1,..., A n ) sont des événements, n n P ( A k ) = ( 1) k 1 S k où S k = 1 i 1 <i 2 < <i k n P (A i1 A ik ).

A) Sur N, on considère la probabilité P s (s > 1 réel fixé), définie par où ζ(s) = n 1 1 (fonction de Riemann). ns Conditionnement 18 P s ({n}) = 1 ζ(s)n s Pour p premier, on définit les variables aléatoires ρ p et α p par ρ p (n) = 1 si p divise n, 0 sinon, et α p (n) = exposant de p dans la décomposition en facteurs premiers de n. a) Trouver la loi des variables ρ p et montrer qu elles sont indépendantes. b) Montrer que ζ(s) = (1 1 p s ) 1 où {p k, k 1} désigne la suite des nombres premiers dans N. k B) Soit N 2 un entier fixé. On pose Ω = {1,..., N} 2 et on note P N la probabilité uniforme sur Ω. 1) On introduit les événements B = { les entiers choisis sont premiers entre eux} et A p = { les entiers choisis sont divisibles par p} où p est premier. On note p 1, p 2,..., p n les nombres premiers inférieurs à N et on fixe un entier m 1. a) Montrer que où S k = 1 N 2 1 i 1 <i 2 < <i k m m P N ( A pk ) = [N/p i1... p ik ] 2. m ( 1) k 1 S k b) Déduire, toujours pour m fixé, que m m lim P N ( A pk ) = 1 N (1 1 p 2 ). k c) Conclure que lim N + P N(B) = 6 π 2. 3.2. Espérance conditionnelle. La notion d espérance conditionnelle prolonge le formalisme précédent en cherchant à intégrer la connaissance de la valeur d une variable aléatoire, et plus seulement celle du fait qu un événement particulier s est réalisé. Commençons par une situation simple mais exemplaire de ce qu on cherche à faire. Soit X une variable aléatoire réelle et T une variable aléatoire à valeurs dans un ensemble dénombrable E = {t 0, t 1,..., t n,... }. D après le paragraphe précédent, pour k N, sur l événement (T = t k ) est définie une probabilité Q k = P (./T = t k ) qui réprésente la mesure de probabilité P tenant compte du fait que (T = t k ) s est réalisé. De ce fait, la valeur moyenne de X sachant que T = t k sera naturellement prise égale à E(X/T = t k ) = X(ω)dQ k (ω), et on définira par suite l espérance conditionnelle (T =t k ) de X sachant T comme étant la variable aléatoire égale à E(X/T ) = k 0 E(X/T = t k )1 (T =tk ). Noter qu avec cette définition E(X/T ) apparaît comme une fonction de T, ou encore comme une variable σ(t )-mesurable. Pour chercher à prolonger ce résultat au cas de variables T à valeurs non dénombrables, on peut remarquer sur l exemple précédent que pour n importe quelle fonction bornée f : E R, E(f(T )X) = k 0 f(t k)e(1 (T =tk )X). Or, comme pour n importe quel A F, E(1 (T =tk )1 A ) = P ((T = t k ) A) =

Conditionnement 19 P (T = t k )Q k (A) = E(1 (T =tk )Q k (A)), on en déduit par les arguments habituels que E(1 (T =tk )X) = XdQ k ), et donc que E(1 (T =tk ) Ω E(f(T )X) = E( k 0 f(t k )1 (T =tk ) Ceci conduit naturellement à poser la définition suivante. Ω XdQ k ) = E(f(T )E(X/T )). Théorème et Définition 3.11. Soient X une variable aléatoire réelle admettant un moment d ordre 1 et T une variable aléatoire. On appelle espérance conditionnelle de X sachant T l unique variable aléatoire Y mesurable par rapport à σ(t )telle que pour toute variable bornée Z mesurable par rapport à σ(t ), on ait E(X.Z) = E(Y.Z). (3.1) Cette variable est notée E(X/T ) ou E σ(t ) (X). Preuve: Unicité: Supposons que Y et Y satisfassent la Définition 3.11. La variable aléatoire Z = Y Y Y Y 1 Y Y est σ(t ) mesurable et bornée. De ce fait, en appliquant (3.1), 0 = E((Y Y )Z) = E( Y Y 1 Y Y ) d où Y = Y -p.s. Existence: Commençons par supposer que X L 2 (Ω, F, P ). Posons H = L 2 (Ω, σ(t ), P ), il s agit d un sous espace vectoriel fermé de l espace de Hilbert L 2 (Ω, F, P ), et de ce fait, on peut définir Y la projection orthogonale de X sur H. C est une variable σ(t )-mesurable et elle satisfait, pour toute variable Z σ(t )-mesurable et bornée (et donc dans H), E(XZ) = E(Y Z) soit (3.1). D où l existence cherchée dans ce cas. Noter que par propriété de la projection orthogonale, l espérance conditionnelle sur L 2 est ainsi linéaire. Prenant Z = 1 dans (3.1) montre que E(E(X/T )) = E(X). De plus, si X 0, E(X/T ) 0 (prendre Z = 1 E(X/T ) 0 dans (3.1)). De ce fait, pour X L 2, on a E( X /T ) E(X/T ) et donc, prenant l espérance, E(X/T ) 1 X 1. Achevons la preuve du Théorème 3.11. Supposons que X soit dans L 1. On peut trouver une suite X n de variables de L 2 telle que X n X 1 0. On a E(X n /T ) E(X p /T ) 1 X n X p 1 et donc E(X n /T ) est une suite de Cauchy dans L 1 qui converge vers un élément noté E(X/T ). Pour tout Z, σ(t )-mesurable et borné, on a E(X n.z) = E(E(X n /T ).Z) et donc par passage à la limite L 1, E(X.Z) = E(E(X/T ).Z). Les principales propriétés de l espérance conditionnelle sont rappelées dans la proposition ci-dessous dont la démonstration est laissée en exercice ((i),(ii) et (iv) ont déjà été prouvées). Proposition 3.12. Soit T une variable aléatoire et soit X une v.a.r. intégrable. (i) E(./T ) est un opérateur linéaire positif continu sur L 1 (ii) Si X est σ(t )-mesurable, E(X/T ) = X, p.s. (iii) Si ϕ est convexe sur R, ϕ(e(x/t )) E(ϕ(X)/T ) p.s. (iv) E(X/T ) 1 X 1 (v) Si X n X p.s., et n 0, X n Y L 1, E(X n /T ) E(X/T ) p.s. Il sera souvent utile de considérer l information apportée dans le conditionnement sous la forme d une sous-tribu B de F, le cas précédent correspondant à B = σ(t ). La Définition 3.11 s étend alors naturellement:

Conditionnement 20 Définition 3.13. Soient X une variable aléatoire réelle intégrable, et B une sous-tribu de F. On appelle espérance conditionnelle de X sachant B l unique variable aléatoire Y, B-mesurable, telle que Z, B-mesurable bornée, E(X.Z) = E(Y.Z). Une propriété utile qui se déduit de la définition précédente est l emboîtement des conditionnements successifs. Proposition 3.14. Soient X une variable aléatoire réelle intégrable et B B deux sous-tribus de F. Alors E(X/B ) = E[E(X/B)/B ]. Preuve: Il suffit de remarquer que E(E(X/B)/B ) est une variable aléatoire B -mesurable et que, pour toute variable aléatoire Y, B mesurable bornée, on a E(Y.E[E(X/B)/B ]) = E(Y.E(X/B)) = E(Y.X), la dernière égalité résultant du fait que Y est aussi B-mesurable. Notons enfin, pour clore ce paragraphe sur l espérance conditionnelle que si X et T sont indépendantes, la relation (3.1) est évidemment vérifiée en prenant Y égale à la constante E(X), et donc, vu l unicité de l espérance conditionnelle, on peut énoncer Corollaire 3.15. Soient X une v.a.r. intégrable, et T une variable aléatoire telles que X et T soient indépendantes. Alors, E(X/T ) = E(X) p.s. Exercice 3.16. Soit (B i ) i I la famille de toutes les sous-tribus de F et X une v.a. intégrable. Montrer que la famille (IE B i (X)) i I est équi-intégrable. Exercice 3.17. On pose Var(X/G) = E[(X E(X/G)) 2 /G]. Montrer que Var(X) = E[Var(X/G)] + Var(E(X/G)). Exercice 3.18. a1) Soient (X, Y, Z) tel que (X, Z) (Y, Z). Montrer que f 0 et borélienne, E(f(X)/Z) = E(f(Y )/Z). a2) On pose h 1 (X) = E(g(Z)/X) et h 2 (Y ) = E(g(Z)/Y ) pour g borélienne positive donnée. Montrer que h 1 = h 2, µ-pp, où µ désigne la loi de X. b) Soient T 1,..., T n des variables aléatoires réelles intégrables indépendantes et de même loi. On pose T = T 1 + + T n. b1) Montrer que E(T 1 /T ) = T n. b2) Calculer E(T/T 1 ) Exercice 3.19. Soit (X n ) une suite de variables aléatoires réelles idépendantes à valeurs dans R d. On pose S 0 = 0, S n = X 1 + +X n, F n = σ(s k, k n). Montrer que pour toute f : R d R borélienne bornée, E(f(S n )/F n 1 ) = E(f(S n )/S n 1 ) et calculer cette quantité. Exercice 3.20. a) Soit X à valeurs dans R m tel que X = ϕ(y ) + Z où Y et Z sont indépendantes. Calculer E(f(X)/Y ). b) Soient X et Y à valeurs dans R k et R p respectivement. On suppose que (X, Y ) est un vecteur gaussien de moyenne On suppose R Y inversible. b1) Déterminer A telle que X AY et Y soient indépendantes. ( ) ( ) MX RX R et de covariance XY. M Y R Y X R Y b2) Montrer que E(f(X)/Y ) = f(x)µ Y (dx) où µ Y est la loi gaussienne de moyenne E(X/Y ) = M X + R XY R 1 Y (Y M Y ) et de covariance R X R XY R 1 Y R Y X.

Conditionnement 21 Exercice 3.21. A) Soient σ > 0, a R d et C une matrice d d définie positive. Montrer que (C + σ 2 a t a) 1 = C 1 C 1 a t ac 1 σ 2 + < C 1 a, a >. B) Soient (Z n ) une suite de variables aléatoires réelles idépendantes. On suppose que pour tout n, Z n N (0, c 2 n) où c n > 0. Soit X une variable aléatoire de loi N (0, σ 2 ) (σ > 0), indépendante de la suite (Z n ). On pose Y n = X + Z n, G n = σ(y 1,..., Y n ), ˆXn = E(X/G n ). On pose Y n = (Y 1,..., Y n ). B1) Quelle est la loi de (X, Y 1,..., Y n )? B2) Calculer E(f(X)/Y n ) B3) Calculer ˆX n et E((X ˆX n ) 2 ) B4) Montrer que ˆX n X dans L 2 si et seulement si n 1 c 2 n = +. Exercice 3.22. Soient F 1, F 2, F 3 trois sous-tribus de F. On dit que F 1 et F 2 sont conditionnellement indépendantes sachant F 3 si (A, B) F 1 F 2, E(1 A 1 B /F 3 ) = E(1 A /F 3 )E(1 B /F 3 ). Montrer que ceci équivaut à: Y, F 2 -mesurable bornée, E(Y/F 3 ) = E(Y/F 13 ), où F 13 = σ(f 1, F 3 ). 3.3. Lois conditionnelles. De même que la loi d une variable aléatoire X contient l information probabiliste requise pour l utilisation de cette variable, on a naturellement besoin d une notion correspondante pour l information qu apporte cette variable lorsqu on connait en plus une autre variable aléatoire T. C est le rôle que va jouer la loi conditionnelle. Soient X une variable aléatoire à valeurs dans (E, E) et T une variable aléatoire. Le problème qu on se pose est le suivant: construire une mesure ν T sur (E, E) telle que pour toute fonction f : E R mesurable bornée, on ait E(f(X)/T ) = E f(x)ν T (dx). Naturellement, une telle relation va imposer à ν T d être une mesure aléatoire, et même plus précisément que l aléa se lise à travers T (puisque par définition, E(f(X)/T ) est une variable σ(t )-mesurable). L idée qui vient naturellement est de définir la mesure ν T par ν T (A) = E(1 A (X)/T ). Le problème est que la relation précédente, une égalité entre variables aléatoires, n a de sens que p.s. et donc, sauf dans le cas particulier où X prend un nombre dénombrable de valeurs, il n est pas du tout évident que ν T (ω) ainsi définie soit une probabilité sur (E, E). De ce fait, on a en fait besoin de trouver ce qu on nomme une probabilité conditionnelle régulière qui permette de définir une véritable mesure aléatoire. La définition formelle suivante fixe le cadre. Définition 3.23. Soit (E, E) un espace mesurable et T une variable aléatoire à valeurs dans (F, F). On appelle T -probabilité de transition sur E une application ν : Ω E [0, + ] telle que (i) A E, ω ν(ω, A) est une variable aléatoire σ(t )-mesurable (ii)p -p.s., ν(ω, dx) est une mesure de probabilité sur (E, E) Pour une variable aléatoire X à valeurs dans un espace mesurable quelconque, on ne peut pas trouver en général de loi conditionnelle régulière. Le résultat suivant est de ce fait très important. Théorème et Définition 3.24. Soient X une variable aléatoire réelle à valeurs dans (E, E) un espace métrique séparable muni de sa tribu borélienne, et T une variable aléatoire. Une loi conditionnelle régulière de X sachant T existe et est une T -probabilité de transition ν T sur E telle que f : E R mesurable bornée, E(f(X)/T )(ω) = f(x)ν T (ω)(dx)p.s.. E

Conditionnement 22 Preuve: Nous nous contenterons de faire la démonstration pour E = R n et dans un deuxième temps expliquerons comment elle s étend à E = R N. Le lecteur que tout cela excite pourra chercher la démonstration générale dans la littérature. Cas E = R n : On pose X = (X 1,..., X n ). Pour r 1,..., r n des rationnels, définissons F ω (r 1,..., r n ) = E(1 T n i=1 (X i<r i )/T )(ω). Notons que, pour (r 1,..., r n ) et (r 1,..., r n) fixés tels que r i r i, 1 i n, on a F ω(r 1,..., r n ) F ω (r 1,..., r n) p.s. On a de plus, pour tout choix de (r 1,..., r n ), F ω (r 1 1 k,..., r n 1 k ) k + F ω (r 1,..., r n ) p.s. Donc on peut trouver un ensemble N tel que P (N) = 0 tel que sur N c, F définit une fonction croissante n-variée sur Q n et continue à gauche sur les rationnels. On peut de plus exiger (même raisonnement) que F tende vers 0 quand les r i tendent vers et vers 1 quand ils tendent vers +. On prolonge alors F à R n par continuité en posant, pour ω / N, F ω (x 1,..., x n ) = sup F ω (r 1,..., r n ). r 1 <x 1,...,r n<x n Pour ω N c, F ω détermine donc une mesure de probabilité sur E = R n que nous notons ν T (ω) soit la condition (ii) de la Définition 3.23. Montrons que la condition (i) est également satisfaite. Soit L = {A E, ν T (., A) est σ(t )-mesurable et ν T (A) = E(1 A (X)/T ) p.s }. L est clairement un λ-système (voir l Exercice 1.3), qui contient par construction tous les pavés n i=1 ], r i[, r i Q qui forment clairement un π-système. De ce fait, par le πλ-théorème, L contient la tribu borélienne B(R n ). L égalité E(f(X)/T ) = E f(x)ν T (dx)p.s. pour une fonction f mesurable bornée est alors obtenue par un raisonnement classique. Cas E = R N : On note X k les coordonnées du processus X. Reprenons la démonstration précédente et notons, pour n N, F n la fonction F précédente définie sur Q n, en exigeant de plus que p.s. lim F ω n+1 (r 1,..., r n, r) = Fω n (r 1,..., r n ). (3.2) r +,r Q On prolonge p.s. par continuité à gauche F n (ω) à R n comme précédemment et notons µ n (ω) la mesure de probabilité sur R n associée. La condition (3.2) revient à dire que la suite (µ n )(ω) n 1 est compatible au sens du Théorème 1.18, et de ce fait détermine une unique probabilité ν T (ω) sur n (R N, B(R N )). On a pour tout B = ], r k [ R R R..., où les r k sont des rationnels, E(1 B (X)/T ) = E(1 X1 <r 1,...,X n<r n /T ) = F n (r 1,..., r n ) = ν T (B) p.s.. Un raisonnement identique à celui du cas précédent permet alors de conclure. La démonstration précédente dans le cas E = R n permet d obtenir une preuve du Théorème de Kolmogorov 1.18 dans le cas E = R N (noter que ce théorème servait, dans la démonstration du Théorème 3.24, uniquement pour prouver le cas E = R N, et il n y a donc pas d entourloupette!). Corollaire 3.25. : (Théorème 1.18) Soit (µ n ) n 0 une famille de probabilités sur les espaces produit (R n+1, B(R n+1 )) qui satisfait la condition de compatibilité µ n (dx 0,..., dx n ) = µ n+1 (dx 0,..., dx n, dx n+1 ). R Alors il existe une unique probabilité P sur l espace canonique R N telle que sous P le processus canonique X admette les lois µ n comme répartitions finies.

Conditionnement 23 Preuve: Il suffit de démontrer que sur un espace de probabilité (Ω, F, P ), on peut trouver une suite de variables aléatoires réelles (X n ) n 0 telle que pour chaque n 0, la loi de (X 0,..., X n ) est donnée par µ n. La probabilité cherchée est alors la loi du processus. D après l Exercice 3.8, sur un espace (Ω, F, P ), il existe une suite de variables aléatoires indépendantes (U n ) n 0 de loi uniforme sur [0, 1]. Supposons que (X 0,..., X n 1 ) soit construit tel que (X 0,..., X k ) soit σ(u 0,..., U k )-mesurable et suive la loi µ k pour tout k n 1, et construisons X n. L idée va être de se débrouiller pour que cette variable admette la bonne loi conditionnelle sachant (X 0,..., X n 1 ). Considérons un vecteur aléatoire (Y 0,..., Y n ) sur un espace de probabilités (E, E, Q) de loi µ n (on peut par exemple prendre E = R n+1, Q la mesure µ n, et pour (Y 0,..., Y n ) le n + 1-uplet des projections canoniques). D après le premier cas de la démonstration du Théorème 3.24, il existe une loi conditionnelle de Y n sachant (Y 0,..., Y n 1 ), dont on note F n (y; Y 0,..., Y n 1 ) la fonction de répartition. Pour (y 0,..., y n 1 ) donné, soit G n (y; y 0,..., y n 1 ) = inf{t [0, 1], F n (y; y 0,..., y n 1 ) t} l inverse généralisée de F n ; on sait (cf. la démonstration du Théorème 2.26), qu alors G n (U n ; y 0,..., y n 1 ) suit la loi F n (dz; y 0,..., y n 1 ). Posons X n = G n (U n ; X 0,..., X n 1 ). Il est clair que X n est alors σ(u 0,..., U n ) mesurable. Examinons maintenant la loi de (X 0,..., X n ). Soit ϕ : R n+1 R mesurable bornée. E(ϕ(X 0,..., X n )) = E(ϕ(X 0,..., X n 1, G n (U n ; X 0,..., X n 1 )). Comme U n et (X 0,..., X n 1 ) sont indépendants, cette dernière expression se réécrit E( ϕ(x 0,..., X n 1, z)f n (dz; X 0,..., X n 1 )) R = ϕ(x 0,..., x n 1, z)f n (dz; x 0,..., x n 1 )µ n 1 (dx 0,..., dx n 1 ) R n+1 = ϕ(y 0,..., Y n 1, z)f n (dz; Y 0,..., Y n 1 )dq E R en utilisant le fait que (Y 0,..., Y n 1 ) suit la loi µ n 1 grâce à la condition de compatibilité, et cette dernière expression est aussi E Q (E Q (ϕ(y 0,..., Y n 1, Y n )/(Y 0,..., Y n 1 ))) = E Q (ϕ(y 0,..., Y n 1, Y n ) = ϕ(y 0,..., y n 1, y n )µ n+1 (dy 0,..., dy n ) R n+1 ce qui prouve donc que (X 0,..., X n ) suit la loi µ n. L exemple le plus important où la définition 3.24 s applique est celui où le vecteur (X, T ) est à valeurs dans R n+d et y admet une densité λ(x 1,..., x n ; t 1,..., t d ). La loi conditionnelle se calcule alors très aisément: Proposition 3.26. Soit (X, T ) un vecteur aléatoire à valeurs dans R n+d dont la loi admet une densité λ(x 1,..., x n ; t 1,..., t d ). Alors la loi conditionnelle de X sachant T est p.s. la loi sur R n admettant λ(x la densité α T (x 1,..., x n ) = 1,..., x n ; T ). R n λ(u 1,..., u n ; T )du 1... du n Preuve: Naturellement, la loi aléatoire à densité précédente est bien une T -probabilité de transition sur R n. De plus, pour f et g boréliennes bornées sur R n, on peut écrire grâce au théorème de Fubini qui s applique ici (puisque f et g sont bornées), E(f(X)g(T )) = f(x)g(t)λ(x, t)dxdt = g(t)[ f(x)α t (dx)]ρ(t)dt R n R d R d R n où ρ(t) = R n λ(u 1,..., u n ; t)du 1... du n est la densité de la loi de T. De ce fait, on a E(f(X)g(T )) = E(g(T )[ R n f(x)α T (dx)]) et donc p.s. E(f(X)/T ) = R n f(x)α T (dx).

Conditionnement 24 Exercice 3.27. Soient T 1, T 2,... des variables aléatoires de loi exponentielle de paramètre λ indépendantes. On pose T = T 1 + + T n. a) Déterminer la loi conditionnelle de T 1 sachant T et calculer E(T 1 /T ). b) Calculer E(T 2 1 /T ) et E(T 1T 2 /T ). Exercice 3.28. Soient X et Y deux variables aléatoires indépendantes de même loi de densité f. Soit M = max(x, Y ). Déterminer la loi conditionnelle de X sachant M.