Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte de la donnée a priori d une information supplémentaire sur le résultat de l expérience aléatoire. La notion d espérance conditionnelle (et plus généralement de loi conditionnelle) est à la base de la plupart des constructions de la théorie moderne des probabilités. Sauf mention contraire, on suppose donné un espace de probabilités (Ω, F, P ). 3.1. Probabilité conditionnelle et indépendance. Commençons par quelques rappels de notions élémentaires. Définition 3.1. Soient A et B deux événements tels que P (B) 0. On appelle probabilité conditionnelle de A sachant B le réel P (A/B) =. P (A B) P (B) Il faut bien sûr comprendre intuitivement la définition précédente comme mesurant la probabilité normalisée de ceux des ω B qui réalisent A. En quelque sorte, puisqu on connaît le fait que B se réalise, l espace de probabilités peut être restreint à B. Le cas particulier majeur de cette situation est celle où B n a pas d influence sur A, ce qui s exprime aussi en disant que conditionner ou non par B ne change pas la probabilité de A. Ce qui revient à dire que P (A/B) = P (A) ou encore P (A B) = P (A)P (B). Prolongeant cette définition au cas où P (B) = 0, on a la définition classique suivante Définition 3.2. a) Deux événements A et B sont indépendants si on a P (A B) = P (A)P (B). b) Deux sous-tribus G et H de F sont indépendantes si et seulement si tout élément de G et tout élément de H sont indépendants. L exercice suivant montre, si besoin était, qu il n y a aucun rapport entre l indépendance et la disjonction. Exercice 3.3. Montrer que A et A c sont indépendants si et seulement si P (A) = 0 ou 1. On prolonge comme d habitude cette définition au cas de n événements et plus généralement au cas de n variables aléatoires. Théorème et Définition 3.4. Soient X 1,..., X n des variables aléatoires à valeurs dans des espaces mesurables (E 1, E 1 ),..., (E n, E n ). On dit que les variables X 1,..., X n sont indépendantes si une des propriétés équivalentes suivantes est réalisée n (i) (A 1,..., A n ) E 1 E n, P (X 1 A 1,..., X n A n ) = P (X k A k ) (ii) µ (X1,...,X n)(dx 1,..., dx n ) = n µ Xk (dx k ) (iii) Pour toutes fonctions f k : E k R mesurables bornées (resp. mesurables positives), on a n n E( f k (X k )) = E(f k (X k )). Les équivalences du Théorème et Définition 3.4 sont laissées en exercice. Rappelons aussi à toutes fins utiles la Définition 3.5. On dit que la suite de variables aléatoires (X n ) n N est composée de variables indépendantes si et seulement si pour tout n, les variables X 1,..., X n sont indépendantes.
Conditionnement 17 Un résultat fondamental lié aux suites de variables indépendantes est dû à Kolmogorov: Théorème 3.6. (loi du 0-1) Soit (X n ) n 0 une suite de variables aléatoires indépendantes. On pose G = n 0 σ(x k, k n) ( tribu de queue ). Alors, A G, P (A) = 0 ou 1. Preuve: Posons F = σ(x 0, X 1,..., X n,... ). Noter qu évidemment G F. Soient A G et C = {B F, P (A B) = P (A)P (B)}. On vérifie immédiatement que C est une classe monotone. De plus, C contient l algèbre de Boole B = n 0 σ(x 0,..., X n ). Par le théorème de classe monotone (Théorème 1.2), il contient donc la tribu engendrée par B, c est à dire F. En particulier, A C et donc A est indépendant de lui même, ce qui équivaut à P (A) = 0 ou 1. Exercice 3.7. Soient A 1,..., A n des événements. a) Montrer que si A 1,..., A n sont indépendants, il en est de même de A 1,..., A n 1, A c n. b) Déduire que J {1,..., n}, (A c j, j J; A i, i {1,..., n} \ J) forme un ensemble de variables indépendantes. c) Montrer que A 1,..., A n sont indépendants si et seulement si les variables aléatoires 1 A1,..., 1 An sont indépendantes. Exercice 3.8. On se place sur l espace de probabilités ([0, 1], B, λ). Soit x [0, 1]. On écrit x sous la x k forme de sa décomposition dyadique x = 2 k et on pose X k(x) = x k. a) Montrer que les variables aléatoires (X k ) k 1 forment une suite de variables indépendantes et de même loi 1 2 (δ 0 + δ 1 ). b) Montrer qu il existe une suite (Y n ) de variables aléatoires indépendantes sur ([0, 1], B, λ) telle que Y n suit une loi uniforme sur [0, 1]. c) Soit (µ n ) n 1 une suite de mesures de probabilités sur R. Montrer qu il existe une probabilité IP sur E = R N telle que sous IP, les projections canoniques z k : E R, (x n ) n 0 x k forment une suite de variables indépendantes et z n a pour loi µ n. Exercice 3.9. Soit (B t ) t R + vérifiant les conditions suivantes: une famille de variables aléatoires (i) t 1 < t 2 < < t n, (B t1,..., B tn ) est un vecteur gaussien centré (ii) (s, t), E(B s B t ) = s t (iii) p.s., t B t (ω) est une fonction continue a) Montrer que (B t ) est à accroissements indépendants et stationnaires i.e. t 1 < t 2 < < t n, B t1, B t2 B t1,..., B tn B tn 1 sont des variables indépendantes et s < t, B t B s a même loi que B t s. n 1 b) On pose G n t = (B k+1 n k=0 t B k n t)2. Montrer qu il existe une suite n p telle que G np t t p.s. c) Soit t > 0. Montrer que p.s., s B s (ω) n est pas à variations finies sur l intervalle [0, t]. Exercice 3.10. On rappelle la Formule de Poincaré: si (A 1,..., A n ) sont des événements, n n P ( A k ) = ( 1) k 1 S k où S k = 1 i 1 <i 2 < <i k n P (A i1 A ik ).
A) Sur N, on considère la probabilité P s (s > 1 réel fixé), définie par où ζ(s) = n 1 1 (fonction de Riemann). ns Conditionnement 18 P s ({n}) = 1 ζ(s)n s Pour p premier, on définit les variables aléatoires ρ p et α p par ρ p (n) = 1 si p divise n, 0 sinon, et α p (n) = exposant de p dans la décomposition en facteurs premiers de n. a) Trouver la loi des variables ρ p et montrer qu elles sont indépendantes. b) Montrer que ζ(s) = (1 1 p s ) 1 où {p k, k 1} désigne la suite des nombres premiers dans N. k B) Soit N 2 un entier fixé. On pose Ω = {1,..., N} 2 et on note P N la probabilité uniforme sur Ω. 1) On introduit les événements B = { les entiers choisis sont premiers entre eux} et A p = { les entiers choisis sont divisibles par p} où p est premier. On note p 1, p 2,..., p n les nombres premiers inférieurs à N et on fixe un entier m 1. a) Montrer que où S k = 1 N 2 1 i 1 <i 2 < <i k m m P N ( A pk ) = [N/p i1... p ik ] 2. m ( 1) k 1 S k b) Déduire, toujours pour m fixé, que m m lim P N ( A pk ) = 1 N (1 1 p 2 ). k c) Conclure que lim N + P N(B) = 6 π 2. 3.2. Espérance conditionnelle. La notion d espérance conditionnelle prolonge le formalisme précédent en cherchant à intégrer la connaissance de la valeur d une variable aléatoire, et plus seulement celle du fait qu un événement particulier s est réalisé. Commençons par une situation simple mais exemplaire de ce qu on cherche à faire. Soit X une variable aléatoire réelle et T une variable aléatoire à valeurs dans un ensemble dénombrable E = {t 0, t 1,..., t n,... }. D après le paragraphe précédent, pour k N, sur l événement (T = t k ) est définie une probabilité Q k = P (./T = t k ) qui réprésente la mesure de probabilité P tenant compte du fait que (T = t k ) s est réalisé. De ce fait, la valeur moyenne de X sachant que T = t k sera naturellement prise égale à E(X/T = t k ) = X(ω)dQ k (ω), et on définira par suite l espérance conditionnelle (T =t k ) de X sachant T comme étant la variable aléatoire égale à E(X/T ) = k 0 E(X/T = t k )1 (T =tk ). Noter qu avec cette définition E(X/T ) apparaît comme une fonction de T, ou encore comme une variable σ(t )-mesurable. Pour chercher à prolonger ce résultat au cas de variables T à valeurs non dénombrables, on peut remarquer sur l exemple précédent que pour n importe quelle fonction bornée f : E R, E(f(T )X) = k 0 f(t k)e(1 (T =tk )X). Or, comme pour n importe quel A F, E(1 (T =tk )1 A ) = P ((T = t k ) A) =
Conditionnement 19 P (T = t k )Q k (A) = E(1 (T =tk )Q k (A)), on en déduit par les arguments habituels que E(1 (T =tk )X) = XdQ k ), et donc que E(1 (T =tk ) Ω E(f(T )X) = E( k 0 f(t k )1 (T =tk ) Ceci conduit naturellement à poser la définition suivante. Ω XdQ k ) = E(f(T )E(X/T )). Théorème et Définition 3.11. Soient X une variable aléatoire réelle admettant un moment d ordre 1 et T une variable aléatoire. On appelle espérance conditionnelle de X sachant T l unique variable aléatoire Y mesurable par rapport à σ(t )telle que pour toute variable bornée Z mesurable par rapport à σ(t ), on ait E(X.Z) = E(Y.Z). (3.1) Cette variable est notée E(X/T ) ou E σ(t ) (X). Preuve: Unicité: Supposons que Y et Y satisfassent la Définition 3.11. La variable aléatoire Z = Y Y Y Y 1 Y Y est σ(t ) mesurable et bornée. De ce fait, en appliquant (3.1), 0 = E((Y Y )Z) = E( Y Y 1 Y Y ) d où Y = Y -p.s. Existence: Commençons par supposer que X L 2 (Ω, F, P ). Posons H = L 2 (Ω, σ(t ), P ), il s agit d un sous espace vectoriel fermé de l espace de Hilbert L 2 (Ω, F, P ), et de ce fait, on peut définir Y la projection orthogonale de X sur H. C est une variable σ(t )-mesurable et elle satisfait, pour toute variable Z σ(t )-mesurable et bornée (et donc dans H), E(XZ) = E(Y Z) soit (3.1). D où l existence cherchée dans ce cas. Noter que par propriété de la projection orthogonale, l espérance conditionnelle sur L 2 est ainsi linéaire. Prenant Z = 1 dans (3.1) montre que E(E(X/T )) = E(X). De plus, si X 0, E(X/T ) 0 (prendre Z = 1 E(X/T ) 0 dans (3.1)). De ce fait, pour X L 2, on a E( X /T ) E(X/T ) et donc, prenant l espérance, E(X/T ) 1 X 1. Achevons la preuve du Théorème 3.11. Supposons que X soit dans L 1. On peut trouver une suite X n de variables de L 2 telle que X n X 1 0. On a E(X n /T ) E(X p /T ) 1 X n X p 1 et donc E(X n /T ) est une suite de Cauchy dans L 1 qui converge vers un élément noté E(X/T ). Pour tout Z, σ(t )-mesurable et borné, on a E(X n.z) = E(E(X n /T ).Z) et donc par passage à la limite L 1, E(X.Z) = E(E(X/T ).Z). Les principales propriétés de l espérance conditionnelle sont rappelées dans la proposition ci-dessous dont la démonstration est laissée en exercice ((i),(ii) et (iv) ont déjà été prouvées). Proposition 3.12. Soit T une variable aléatoire et soit X une v.a.r. intégrable. (i) E(./T ) est un opérateur linéaire positif continu sur L 1 (ii) Si X est σ(t )-mesurable, E(X/T ) = X, p.s. (iii) Si ϕ est convexe sur R, ϕ(e(x/t )) E(ϕ(X)/T ) p.s. (iv) E(X/T ) 1 X 1 (v) Si X n X p.s., et n 0, X n Y L 1, E(X n /T ) E(X/T ) p.s. Il sera souvent utile de considérer l information apportée dans le conditionnement sous la forme d une sous-tribu B de F, le cas précédent correspondant à B = σ(t ). La Définition 3.11 s étend alors naturellement:
Conditionnement 20 Définition 3.13. Soient X une variable aléatoire réelle intégrable, et B une sous-tribu de F. On appelle espérance conditionnelle de X sachant B l unique variable aléatoire Y, B-mesurable, telle que Z, B-mesurable bornée, E(X.Z) = E(Y.Z). Une propriété utile qui se déduit de la définition précédente est l emboîtement des conditionnements successifs. Proposition 3.14. Soient X une variable aléatoire réelle intégrable et B B deux sous-tribus de F. Alors E(X/B ) = E[E(X/B)/B ]. Preuve: Il suffit de remarquer que E(E(X/B)/B ) est une variable aléatoire B -mesurable et que, pour toute variable aléatoire Y, B mesurable bornée, on a E(Y.E[E(X/B)/B ]) = E(Y.E(X/B)) = E(Y.X), la dernière égalité résultant du fait que Y est aussi B-mesurable. Notons enfin, pour clore ce paragraphe sur l espérance conditionnelle que si X et T sont indépendantes, la relation (3.1) est évidemment vérifiée en prenant Y égale à la constante E(X), et donc, vu l unicité de l espérance conditionnelle, on peut énoncer Corollaire 3.15. Soient X une v.a.r. intégrable, et T une variable aléatoire telles que X et T soient indépendantes. Alors, E(X/T ) = E(X) p.s. Exercice 3.16. Soit (B i ) i I la famille de toutes les sous-tribus de F et X une v.a. intégrable. Montrer que la famille (IE B i (X)) i I est équi-intégrable. Exercice 3.17. On pose Var(X/G) = E[(X E(X/G)) 2 /G]. Montrer que Var(X) = E[Var(X/G)] + Var(E(X/G)). Exercice 3.18. a1) Soient (X, Y, Z) tel que (X, Z) (Y, Z). Montrer que f 0 et borélienne, E(f(X)/Z) = E(f(Y )/Z). a2) On pose h 1 (X) = E(g(Z)/X) et h 2 (Y ) = E(g(Z)/Y ) pour g borélienne positive donnée. Montrer que h 1 = h 2, µ-pp, où µ désigne la loi de X. b) Soient T 1,..., T n des variables aléatoires réelles intégrables indépendantes et de même loi. On pose T = T 1 + + T n. b1) Montrer que E(T 1 /T ) = T n. b2) Calculer E(T/T 1 ) Exercice 3.19. Soit (X n ) une suite de variables aléatoires réelles idépendantes à valeurs dans R d. On pose S 0 = 0, S n = X 1 + +X n, F n = σ(s k, k n). Montrer que pour toute f : R d R borélienne bornée, E(f(S n )/F n 1 ) = E(f(S n )/S n 1 ) et calculer cette quantité. Exercice 3.20. a) Soit X à valeurs dans R m tel que X = ϕ(y ) + Z où Y et Z sont indépendantes. Calculer E(f(X)/Y ). b) Soient X et Y à valeurs dans R k et R p respectivement. On suppose que (X, Y ) est un vecteur gaussien de moyenne On suppose R Y inversible. b1) Déterminer A telle que X AY et Y soient indépendantes. ( ) ( ) MX RX R et de covariance XY. M Y R Y X R Y b2) Montrer que E(f(X)/Y ) = f(x)µ Y (dx) où µ Y est la loi gaussienne de moyenne E(X/Y ) = M X + R XY R 1 Y (Y M Y ) et de covariance R X R XY R 1 Y R Y X.
Conditionnement 21 Exercice 3.21. A) Soient σ > 0, a R d et C une matrice d d définie positive. Montrer que (C + σ 2 a t a) 1 = C 1 C 1 a t ac 1 σ 2 + < C 1 a, a >. B) Soient (Z n ) une suite de variables aléatoires réelles idépendantes. On suppose que pour tout n, Z n N (0, c 2 n) où c n > 0. Soit X une variable aléatoire de loi N (0, σ 2 ) (σ > 0), indépendante de la suite (Z n ). On pose Y n = X + Z n, G n = σ(y 1,..., Y n ), ˆXn = E(X/G n ). On pose Y n = (Y 1,..., Y n ). B1) Quelle est la loi de (X, Y 1,..., Y n )? B2) Calculer E(f(X)/Y n ) B3) Calculer ˆX n et E((X ˆX n ) 2 ) B4) Montrer que ˆX n X dans L 2 si et seulement si n 1 c 2 n = +. Exercice 3.22. Soient F 1, F 2, F 3 trois sous-tribus de F. On dit que F 1 et F 2 sont conditionnellement indépendantes sachant F 3 si (A, B) F 1 F 2, E(1 A 1 B /F 3 ) = E(1 A /F 3 )E(1 B /F 3 ). Montrer que ceci équivaut à: Y, F 2 -mesurable bornée, E(Y/F 3 ) = E(Y/F 13 ), où F 13 = σ(f 1, F 3 ). 3.3. Lois conditionnelles. De même que la loi d une variable aléatoire X contient l information probabiliste requise pour l utilisation de cette variable, on a naturellement besoin d une notion correspondante pour l information qu apporte cette variable lorsqu on connait en plus une autre variable aléatoire T. C est le rôle que va jouer la loi conditionnelle. Soient X une variable aléatoire à valeurs dans (E, E) et T une variable aléatoire. Le problème qu on se pose est le suivant: construire une mesure ν T sur (E, E) telle que pour toute fonction f : E R mesurable bornée, on ait E(f(X)/T ) = E f(x)ν T (dx). Naturellement, une telle relation va imposer à ν T d être une mesure aléatoire, et même plus précisément que l aléa se lise à travers T (puisque par définition, E(f(X)/T ) est une variable σ(t )-mesurable). L idée qui vient naturellement est de définir la mesure ν T par ν T (A) = E(1 A (X)/T ). Le problème est que la relation précédente, une égalité entre variables aléatoires, n a de sens que p.s. et donc, sauf dans le cas particulier où X prend un nombre dénombrable de valeurs, il n est pas du tout évident que ν T (ω) ainsi définie soit une probabilité sur (E, E). De ce fait, on a en fait besoin de trouver ce qu on nomme une probabilité conditionnelle régulière qui permette de définir une véritable mesure aléatoire. La définition formelle suivante fixe le cadre. Définition 3.23. Soit (E, E) un espace mesurable et T une variable aléatoire à valeurs dans (F, F). On appelle T -probabilité de transition sur E une application ν : Ω E [0, + ] telle que (i) A E, ω ν(ω, A) est une variable aléatoire σ(t )-mesurable (ii)p -p.s., ν(ω, dx) est une mesure de probabilité sur (E, E) Pour une variable aléatoire X à valeurs dans un espace mesurable quelconque, on ne peut pas trouver en général de loi conditionnelle régulière. Le résultat suivant est de ce fait très important. Théorème et Définition 3.24. Soient X une variable aléatoire réelle à valeurs dans (E, E) un espace métrique séparable muni de sa tribu borélienne, et T une variable aléatoire. Une loi conditionnelle régulière de X sachant T existe et est une T -probabilité de transition ν T sur E telle que f : E R mesurable bornée, E(f(X)/T )(ω) = f(x)ν T (ω)(dx)p.s.. E
Conditionnement 22 Preuve: Nous nous contenterons de faire la démonstration pour E = R n et dans un deuxième temps expliquerons comment elle s étend à E = R N. Le lecteur que tout cela excite pourra chercher la démonstration générale dans la littérature. Cas E = R n : On pose X = (X 1,..., X n ). Pour r 1,..., r n des rationnels, définissons F ω (r 1,..., r n ) = E(1 T n i=1 (X i<r i )/T )(ω). Notons que, pour (r 1,..., r n ) et (r 1,..., r n) fixés tels que r i r i, 1 i n, on a F ω(r 1,..., r n ) F ω (r 1,..., r n) p.s. On a de plus, pour tout choix de (r 1,..., r n ), F ω (r 1 1 k,..., r n 1 k ) k + F ω (r 1,..., r n ) p.s. Donc on peut trouver un ensemble N tel que P (N) = 0 tel que sur N c, F définit une fonction croissante n-variée sur Q n et continue à gauche sur les rationnels. On peut de plus exiger (même raisonnement) que F tende vers 0 quand les r i tendent vers et vers 1 quand ils tendent vers +. On prolonge alors F à R n par continuité en posant, pour ω / N, F ω (x 1,..., x n ) = sup F ω (r 1,..., r n ). r 1 <x 1,...,r n<x n Pour ω N c, F ω détermine donc une mesure de probabilité sur E = R n que nous notons ν T (ω) soit la condition (ii) de la Définition 3.23. Montrons que la condition (i) est également satisfaite. Soit L = {A E, ν T (., A) est σ(t )-mesurable et ν T (A) = E(1 A (X)/T ) p.s }. L est clairement un λ-système (voir l Exercice 1.3), qui contient par construction tous les pavés n i=1 ], r i[, r i Q qui forment clairement un π-système. De ce fait, par le πλ-théorème, L contient la tribu borélienne B(R n ). L égalité E(f(X)/T ) = E f(x)ν T (dx)p.s. pour une fonction f mesurable bornée est alors obtenue par un raisonnement classique. Cas E = R N : On note X k les coordonnées du processus X. Reprenons la démonstration précédente et notons, pour n N, F n la fonction F précédente définie sur Q n, en exigeant de plus que p.s. lim F ω n+1 (r 1,..., r n, r) = Fω n (r 1,..., r n ). (3.2) r +,r Q On prolonge p.s. par continuité à gauche F n (ω) à R n comme précédemment et notons µ n (ω) la mesure de probabilité sur R n associée. La condition (3.2) revient à dire que la suite (µ n )(ω) n 1 est compatible au sens du Théorème 1.18, et de ce fait détermine une unique probabilité ν T (ω) sur n (R N, B(R N )). On a pour tout B = ], r k [ R R R..., où les r k sont des rationnels, E(1 B (X)/T ) = E(1 X1 <r 1,...,X n<r n /T ) = F n (r 1,..., r n ) = ν T (B) p.s.. Un raisonnement identique à celui du cas précédent permet alors de conclure. La démonstration précédente dans le cas E = R n permet d obtenir une preuve du Théorème de Kolmogorov 1.18 dans le cas E = R N (noter que ce théorème servait, dans la démonstration du Théorème 3.24, uniquement pour prouver le cas E = R N, et il n y a donc pas d entourloupette!). Corollaire 3.25. : (Théorème 1.18) Soit (µ n ) n 0 une famille de probabilités sur les espaces produit (R n+1, B(R n+1 )) qui satisfait la condition de compatibilité µ n (dx 0,..., dx n ) = µ n+1 (dx 0,..., dx n, dx n+1 ). R Alors il existe une unique probabilité P sur l espace canonique R N telle que sous P le processus canonique X admette les lois µ n comme répartitions finies.
Conditionnement 23 Preuve: Il suffit de démontrer que sur un espace de probabilité (Ω, F, P ), on peut trouver une suite de variables aléatoires réelles (X n ) n 0 telle que pour chaque n 0, la loi de (X 0,..., X n ) est donnée par µ n. La probabilité cherchée est alors la loi du processus. D après l Exercice 3.8, sur un espace (Ω, F, P ), il existe une suite de variables aléatoires indépendantes (U n ) n 0 de loi uniforme sur [0, 1]. Supposons que (X 0,..., X n 1 ) soit construit tel que (X 0,..., X k ) soit σ(u 0,..., U k )-mesurable et suive la loi µ k pour tout k n 1, et construisons X n. L idée va être de se débrouiller pour que cette variable admette la bonne loi conditionnelle sachant (X 0,..., X n 1 ). Considérons un vecteur aléatoire (Y 0,..., Y n ) sur un espace de probabilités (E, E, Q) de loi µ n (on peut par exemple prendre E = R n+1, Q la mesure µ n, et pour (Y 0,..., Y n ) le n + 1-uplet des projections canoniques). D après le premier cas de la démonstration du Théorème 3.24, il existe une loi conditionnelle de Y n sachant (Y 0,..., Y n 1 ), dont on note F n (y; Y 0,..., Y n 1 ) la fonction de répartition. Pour (y 0,..., y n 1 ) donné, soit G n (y; y 0,..., y n 1 ) = inf{t [0, 1], F n (y; y 0,..., y n 1 ) t} l inverse généralisée de F n ; on sait (cf. la démonstration du Théorème 2.26), qu alors G n (U n ; y 0,..., y n 1 ) suit la loi F n (dz; y 0,..., y n 1 ). Posons X n = G n (U n ; X 0,..., X n 1 ). Il est clair que X n est alors σ(u 0,..., U n ) mesurable. Examinons maintenant la loi de (X 0,..., X n ). Soit ϕ : R n+1 R mesurable bornée. E(ϕ(X 0,..., X n )) = E(ϕ(X 0,..., X n 1, G n (U n ; X 0,..., X n 1 )). Comme U n et (X 0,..., X n 1 ) sont indépendants, cette dernière expression se réécrit E( ϕ(x 0,..., X n 1, z)f n (dz; X 0,..., X n 1 )) R = ϕ(x 0,..., x n 1, z)f n (dz; x 0,..., x n 1 )µ n 1 (dx 0,..., dx n 1 ) R n+1 = ϕ(y 0,..., Y n 1, z)f n (dz; Y 0,..., Y n 1 )dq E R en utilisant le fait que (Y 0,..., Y n 1 ) suit la loi µ n 1 grâce à la condition de compatibilité, et cette dernière expression est aussi E Q (E Q (ϕ(y 0,..., Y n 1, Y n )/(Y 0,..., Y n 1 ))) = E Q (ϕ(y 0,..., Y n 1, Y n ) = ϕ(y 0,..., y n 1, y n )µ n+1 (dy 0,..., dy n ) R n+1 ce qui prouve donc que (X 0,..., X n ) suit la loi µ n. L exemple le plus important où la définition 3.24 s applique est celui où le vecteur (X, T ) est à valeurs dans R n+d et y admet une densité λ(x 1,..., x n ; t 1,..., t d ). La loi conditionnelle se calcule alors très aisément: Proposition 3.26. Soit (X, T ) un vecteur aléatoire à valeurs dans R n+d dont la loi admet une densité λ(x 1,..., x n ; t 1,..., t d ). Alors la loi conditionnelle de X sachant T est p.s. la loi sur R n admettant λ(x la densité α T (x 1,..., x n ) = 1,..., x n ; T ). R n λ(u 1,..., u n ; T )du 1... du n Preuve: Naturellement, la loi aléatoire à densité précédente est bien une T -probabilité de transition sur R n. De plus, pour f et g boréliennes bornées sur R n, on peut écrire grâce au théorème de Fubini qui s applique ici (puisque f et g sont bornées), E(f(X)g(T )) = f(x)g(t)λ(x, t)dxdt = g(t)[ f(x)α t (dx)]ρ(t)dt R n R d R d R n où ρ(t) = R n λ(u 1,..., u n ; t)du 1... du n est la densité de la loi de T. De ce fait, on a E(f(X)g(T )) = E(g(T )[ R n f(x)α T (dx)]) et donc p.s. E(f(X)/T ) = R n f(x)α T (dx).
Conditionnement 24 Exercice 3.27. Soient T 1, T 2,... des variables aléatoires de loi exponentielle de paramètre λ indépendantes. On pose T = T 1 + + T n. a) Déterminer la loi conditionnelle de T 1 sachant T et calculer E(T 1 /T ). b) Calculer E(T 2 1 /T ) et E(T 1T 2 /T ). Exercice 3.28. Soient X et Y deux variables aléatoires indépendantes de même loi de densité f. Soit M = max(x, Y ). Déterminer la loi conditionnelle de X sachant M.