Cours de probabilités, master 1. Yves Coudène

Dimension: px
Commencer à balayer dès la page:

Download "Cours de probabilités, master 1. Yves Coudène"

Transcription

1 Cours de probabilités, master 1 Yves Coudène 19 janvier 2015

2 2

3 Table des matières Introduction 5 Notations 6 1 Formalisme de Kolmogorov Le cas discret : Ω fini ou dénombrable Le cas continu : Ω = R ou R d Le cas des espaces produits Exercices Variables aléatoires Définition d une variable aléatoire Espérance et variance Inégalités Loi d une variable aléatoire Loi d un multiplet de variables aléatoires Exercices Indépendance Indépendance d événements et de variables aléatoires Lemme de Borel-Cantelli Loi d un multiplet de variables indépendantes Exercices Loi des grands nombres Loi faible des grands nombres Loi forte des grands nombres Illustration numérique Exercices Convergence de suites de variables aléatoires Les différents types de convergence Fonction caractéristique et transformée de Fourier Convergence en loi

4 4 TABLE DES MATIÈRES 5.4 Exercices Théorème de la limite centrée Fonction caractéristique de la loi normale Théorème de la limite centrée Illustration numérique Exercices Espérance conditionnelle Définition de la notion d espérance conditionnelle Exemples Propriétés de l espérance conditionnelle Conditionnement relativement à une variable aléatoire Exercices Théorie des martingales La notion de martingale Convergence des martingales Séries de variables aléatoires indépendantes Convergence des espérances conditionnelles Temps d arrêt Illustration par une marche aléatoire Exercices A Rappels d intégration 91 A.1 Théorèmes de convergence A.2 Intégrales dépendant d un paramètre A.3 Intégrales multiples A.4 Espaces L p A.5 Inégalités A.6 Formule d inversion de Fourier A.7 Exercices A.8 Contre-exemples B Formulaire 101 B.1 Loi d une variable aléatoire B.2 Inégalités B.3 Couples de variables aléatoires B.4 Convergence de variables aléatoires B.5 Théorèmes limites B.6 Espérance conditionnelle B.7 Martingales C Références 107

5 Introduction Ces notes proviennent d un cours de Master première année donné à l université de Brest sur la période Le cours était composé de douze séances de deux heures et portait sur les théorèmes de convergence en théorie des probabilités. Lafrappedutexte abénéficié del aidedesabinechanthara,jel enremercie vivement. Ce cours est destiné à des étudiants ayant déjà suivi un cours d intégrale de Lebesgue. Une annexe en fin d ouvrage rappelle les résultats d intégration qui sont utilisés dans le corps de ce texte. Il est aussi important d être familier avec les bases de la théorie hilbertienne que nous appliquons à l espace L 2 à plusieurs reprises, par exemple pour définir la notion d espérance conditionnelle. Enfin, un minimum de familiarité avec la théorie des probabilités discrètes, comme on peut la voir au lycée, est fortement conseillé. On s est concentré sur les théorèmes de convergence classiques, essentiellement dans le cadre indépendant : loi faible et forte des grands nombres, théorème de la limite centrée, convergence des martingales bornées dans L 2, théorème des trois séries, loi du 0-1 de Kolmogorov. Un résumé des théorèmes et des formules présentés dans le cours se trouve en annexe. Le texte est organisé de façon à parvenir assez rapidement à la preuve de la loi forte des grands nombres, au chapitre 4, qui est faite pour des variables de carré intégrable. Le cas intégrable est traité plus tard, dans le chapitre concernant les martingales, comme corollaire des théorèmes de convergence pour ces martingales. Le second objectif est le théorème de la limite centrée, atteint au chapitre 6. Il faut pour cela étudier en détail les différents types de convergence et les relations qui s établissent entre eux. On termine par la notion de martingale, qui permet de démontrer quelques résultats classiques de convergence, comme le théorème des trois séries et la loi du 0-1 de Kolmogorov. La théorie des martingales et des temps d arrêt est illustrée par une marche aléatoire symétrique sur l espace des entiers. La théorie des chaînes de Markov n est pas abordée dans ce texte. De même, on ne parle pas de sous et de sur-martingales, et la notion de convergence étroite est étudiée pour des mesures de probabilité définies sur R uniquement, ce qui permet quelques simplifications dans les preuves. 5

6 6 TABLE DES MATIÈRES Notations Les ensembles des nombres entiers, entiers relatifs, rationnels, réels et complexes sont notés respectivement N,Z,Q,R,C. On travaille en genéral sur un espace probabilisé (Ω,T,P). 1 A...fonction indicatrice de A B(x,r)...boule ouverte de centre x de rayon r C...ensemble des fonctions indéfiniment différentiables Cov(X,Y)... covariance de X et Y δ ω...mesure de Dirac au point ω E(X)... espérance de X E(X F)...espérance conditionnelle de X sachant F F...tribu F X...fonction de répartition L p...espace des classes de fonctions L p lim...limite supérieure lim...limite inférieure µ...mesure N...nombres entiers non nuls Ω...ensemble de résultats... composition ø...ensemble vide P...mesure de probabilité P X...loi de la variable aléatoire X P (X,Y)... loi du couple (X,Y) P(A F)...probabilité conditionnelle de A sachant F P Q...produit des probabilités P et Q p.s....presque partout S n...somme de X 1 à X n σ(x)... écart-type de X T...tribu T 1 T 2...produit des tribus T 1 et T 2 m n...minimum de m et n V(X)...variance de X X... variable aléatoire X,Y...produit scalaire dans L 2 X p...norme L p de X

7 Chapitre 1 Formalisme de Kolmogorov Nous désignons par épreuve une expérience ou une observation réalisée dans des conditions bien définies (protocole expérimental) reproductible, et dont le résultat est l un des éléments d un ensemble déterminé (univers). Le but de la théorie des probabilités est d associer à certains sous-ensembles de cet univers, appelés événements, un nombre réel compris entre 0 et 1, qui reflète notre degré de confiance dans la réalisation de l événement une fois que l épreuve a eu lieu. La théorie moderne des probabilités est formalisée par Kolmogorov en 1933, en se basant sur la théorie de la mesure. La notion clef est celle d espace probabilisé. Définition 1 Un espace probabilisé (Ω,T,P) est la donnée : d un ensemble Ω appelé univers, dont les éléments sont appelés résultats, d une tribu T de parties de Ω, dont les éléments sont appelés événements, d une mesure P définie sur la tribu T, qui satisfait P(Ω) = 1. Commençons par décrire trois exemples importants d espaces probabilisés. 1.1 Le cas discret : Ω fini ou dénombrable Pour T, on prend l ensemble des parties de Ω : T = P(Ω). Se donner une probabilité P : T [0,1] revient à se donner une famille de nombres réels p ω, ω Ω, qui satisfait 0 p ω 1 pour tout ω Ω, p ω = 1. ω Ω La correspondance entre P et les p ω est donnée par p ω = P({ω}), P(A) = ω Ap ω. 7

8 8 CHAPITRE 1. FORMALISME DE KOLMOGOROV Notons δ ω la mesure de Dirac au point ω : A T, δ ω (A) = { 1 si ω A 0 sinon On peut exprimer la probabilité P comme une somme de Dirac : P = ω Ωp ω δ ω. On a alors, pour g : Ω R mesurable, positif ou P-intégrable, Exemples Loi uniforme sur Ω = {1,2,...,n} : = ΩgdP p ω g(ω). ω Ω p ω = 1/n, P(A) = #A #Ω. Le lancé d un dé à 6 faces bien équilibré est modélisé par un tel espace probabilisé ( n = 6). Loi binomiale de paramètres n N, p [0,1], sur Ω = {0,...,n} : p k = P({k}) = C k n pk (1 p) n k pour k {0,...,n}. p k est la probabilité d obtenir k succès exactement au cours de n tirages indépendants, sachant que la probabilité de succès lors d un tirage est égale à p. Loi de Poisson sur Ω = N de paramètre λ > 0 : p k = P({k}) = λk k! e λ pour k N. 1.2 Le cas continu : Ω = R ou R d Ici T est la tribu engendrée par les intervalles de R ou les rectangles de R d. Ses éléments sont appelés boréliens. On peut définir une mesure de probabilité sur Ω à partir d une densité f : Ω R + satisfaisant les conditions suivantes : f est borélienne, ω Ω, f(ω) 0, Ωfdλ = 1. On a noté la mesure de Lebesgue sur Ω avec un λ. La mesure de probabilité P associée à la densité f est donnée par P(A) = A fdλ = A f(x)dx.

9 1.3. LE CAS DES ESPACES PRODUITS 9 On a alors pour toute fonction mesurable g : Ω R positive ou P-intégrable, Ω gdp = Ω g(x)f(x) dx. Exemples Probabilité uniforme sur [a,b], avec a,b R, a < b : f = 1 b a 1 [a,b] Loi de Laplace-Gauss ou loi normale de paramètres m R, σ > 0 : f(x) = 1 e (x m)2 2σ 2 2πσ 2 Elle est dite centrée si m = 0 et σ = 1. Probabilité exponentielle de paramètre l > 0 : f(x) = l e lx 1 R+ (x) 1.3 Le cas des espaces produits On s intéresse à une épreuve modélisée par un espace probabilisé (Ω,T,P) et on veut répéter cette épreuve plusieurs fois de manière indépendante, disons n fois, n N. Pour cela, on considère : l univers Ω n = Ω Ω... Ω, ses éléments sont des multiplets (ω 1,ω 2,...,ω n ) Ω n. L élément ω 1 est le résultat obtenu lors de la première épreuve, ω 2 lors de la seconde épreuve etc. La tribu produit T T...T = T n. C est la tribu engendrée par les parties de Ω n de la forme A 1 A 2... A n, avec A i T pour tout i. Dans le cas indépendant, la mesure produit P... P sur cette tribu. Cette mesure P n est l unique mesure vérifiant pour tout A 1,...,A n T. P n (A 1 A 2... A n ) = P(A 1 )P(A 2 )...P(A n ) On va chercher à étudier le comportement asymptotique d une répétition d épreuves, effectuées de manière indépendante, quand n tend vers l infini. Pour cela, nous introduisons un nouvel espace probabilisé. L univers Ω N est l ensemble de toutes les suites d éléments de Ω.

10 10 CHAPITRE 1. FORMALISME DE KOLMOGOROV On se place sur la tribu produit T N. C est la tribu de parties de Ω N engendrée par les cylindres de la forme avec n N et A 0,...,A n T. C A0,...,A n = {(ω i ) i N i = 0...n, ω i A i } Dans le cas indépendant, on considère sur T N la mesure produit P N, caractérisée de la façon suivante : Théorème 1 (Kolmogorov) Soit(Ω,T,P)un espaceprobabilisé.alorsil existe une unique mesure de probabilité sur T N, notée P N, qui satisfait pour tout n N et A 0,...,A n T. P(C A0,...,A n ) = P(A 0 )P(A 1 )...P(A n ) L exemple le plus simple est donné par la répétition un nombre arbitrairement grand de fois du lancer d une pièce de monnaie. L univers est donné par l ensemble de toutes les suites de pile ou face : {pile,face} N. Cet ensemble est muni de la tribu engendrée par tous les sous-ensembles de la forme {(ω i ) i N ω 0 A 0,...,ω m A m } avec m N et A i {pile,face} pour i allant de 0 à m. Si la pièce est bien équilibrée, on peut prendre comme probabilité le produit P N, où P({face}) = P({pile}) = 1/2.

11 1.4. EXERCICES Exercices exercice 1 Soit (A n ) n N une suite d événements deux à deux disjoints sur un espace probabilisé (Ω,T,P). Montrer que lim P(A n ) = 0. n exercice 2 Soit A 1,..., A n des événements tels que P(A k ) > 1 1 pour tout k de 1 à n. n Montrer qu il existe un résultat ω Ω qui appartient à tous les A k. Soit (A k ) k N une suite d événements. Montrer que si P(A k ) ne converge pas vers 0, alors il existe un résultat qui appartient à une infinité de A k. exercice 3 Soit c > 0 et A 1,..., A n Ω des événements tels que P(A i ) c pour tout i. Montrer qu il existe deux indices j, k distincts tels que P(A j A k ) nc2 c n 1. Indication : s intéresser à l intégrale de ( 1 Ai ) 2 et utiliser une inégalité fameuse. exercice 4 SoitP unemesure deprobabilitédéfiniesur latribudesboréliensder d etb(x,r) la boule euclidienne de rayon r centrée en x R d. Montrer que P(B(0,r)) converge vers 1 quand r tend vers l infini. Soit r 0 0 et x n R d une suite telle que x n. Montrer que n P(B(x n,r 0 )) n 0. exercice 5 Parmi ces fonctions, quelles sont celles qui sont des densités de probabilité? f(x) = 1 π f(x) = 1 2 e x 1 1+x 2 f(x) = e x 1 [0, [ (x) f(x) = x 2 1 [0,1] (x) exercice 6 Pour tout borélien A R, on pose f(x) = sin(x) 1 [0,3π/2] (x) f(x) = (1+cos(x)) 1 [0,π] (x) µ(a) = 1 2 e x2 dx+1 A (0)/2 π A Montrer que µ est une mesure de probabilité. On vérifiera en particulier qu elle est bien σ-additive. Soitf : R Runefonctionboréliennebornée.Donneruneformulepour f dµ.

12 12 CHAPITRE 1. FORMALISME DE KOLMOGOROV

13 Chapitre 2 Variables aléatoires En pratique, on s intéresse à certaines quantités numériques attachées aux résultats obtenus à l issue de notre épreuve. Pour modéliser cela, on introduit la notion de variable aléatoire. 2.1 Définition d une variable aléatoire Définition 2 Soit (Ω,T,P) un espace probabilisé. Par définition, une variable aléatoire X : Ω R est une fonction mesurable définie sur Ω, à valeurs réelles : pour tout intervalle I R, l image réciproque X 1 (I) de cet intervalle est dans T. Pour A R borélien, on pose On a alors X 1 (A) = {ω Ω X(ω) A} = (X A) X 1 ([a,b]) = (a X b) X 1 ([a, [) = (a X) = (X a) P(X 1 (A)) = P(X A). C est la probabilité d obtenir, à l issue de l épreuve, un résultat pour lequel la valeur de X est dans A. La quantité P(X A) est bien définie dès que A est borélien car l image réciproque d un borélien par une application mesurable est mesurable (c est-à-dire est dans T). 2.2 Espérance et variance Définition 3 Une variable aléatoire X est dite intégrable si Ω X dp < +. Dans ce cas l intégrale de X est bien définie, c est l espérance de X. E(X) = XdP. 13 Ω

14 14 CHAPITRE 2. VARIABLES ALÉATOIRES La variable aléatoire X est dite de carré intégrable si Ω X2 dp < +. Dans ce cas X est intégrable et on définit la variance de X par la formule V(X) = E ( (X E(X)) 2). On remarque qu une variable aléatoire de carré intégrable est intégrable en intégrant l inégalité 2X 1+X 2. On peut aussi faire appel à l inégalité de Cauchy- Schwarz : pour toutes variables aléatoires X,Y : Ω R, Ω XY dp Ω X 2 dp Y 2 dp. Ω En prenant Y = 1 dans cette formule, on obtient la majoration E( X ) Développons le carré qui apparaît dans la définition de la variance. E(X 2 ). E ( (X E(X)) 2) = E ( X 2 2XE(X)+E(X) 2) = E(X 2 ) 2E(X) 2 +E(X) 2. Nous avons obtenu la formule suivante, très utile pour calculer V(X) : Proposition 1 V(X) = E(X 2 ) E(X) 2. Dansle casdiscret, la variable aléatoirex est intégrable si ω Ωp ω X(ω) < + et dans ce cas E(X) = ω Ωp ω X(ω). Dans le cas continu, en notant f la densité de P, la variable aléatoire X est intégrable si Rd X(ω) f(ω)dω < + et dans ce cas E(X) = X(ω)f(ω)dω. R d Propriétés : Soit λ R et X,Y deux variables aléatoires intégrables. E(λX +Y) = λe(x)+e(y). (linéarité) Si X Y, c est-à-dire si pour tout ω Ω, X(ω) Y(ω), alors E(X) E(Y). Pour tout événement A T, P(A) = E(1 A ). (monotonie) Soit (X n ) une suite de variables aléatoires qui converge de manière croissante vers X : pour presque tout ω Ω, (X n (ω)) n N est croissante et X n (ω) X(ω). Alors E(X n ) n E(X).

15 2.3. INÉGALITÉS 15 Soit (X n ) une suite de variable aléatoires qui converge vers X presque partout. On suppose qu il existe Y intégrable telle que X n Y pour tout n N. Alors V(λX) = λ 2 V(X). E(X n ) n E(X). V(X +Y) = V(X)+V(Y)+2Cov(X,Y) en notant Cov(X,Y) = E(XY) E(X)E(Y) la covariance de X,Y qui est bien définie dès que X,Y sont de carrés intégrables. Ces propriétés sont des conséquences immédiates des définitions. Les deux théorèmes de passage à la limite découlent du théorème de convergence croissante et du théorème de convergence dominée. 2.3 Inégalités On s intéresse maintenant à deux inégalités classiques qui donnent quelques informations sur la manière dont les valeurs d une variable aléatoire se répartissent. Théorème 2 (Inégalité de Markov) Soit (Ω,T,P) un espace probabilisé, Y : Ω R + une variable aléatoire positive. Alors, pour tout λ > 0, P(Y λ) E(Y) λ. Preuve On a l inégalité λ1 (Y λ) Y ce qui donne, par monotonie, On conclut en remarquant que E(λ1 (Y λ) ) E(Y). E(λ1 (Y λ) ) = λe(1 (Y λ) ) = λp(y λ). Théorème 3 (Inégalité de Bienaymé-Tchebichev) Soit(Ω, T, P) un espace probabilisé, X : Ω R une variable aléatoire de carré intégrable. Alors, pour tout t > 0, P( X E(X) t) V(X) t 2.

16 16 CHAPITRE 2. VARIABLES ALÉATOIRES Cette inégalité peut se récrire à l aide de l écart-type σ(x) = suit : V(X) comme P ( X / ]E(X) tσ(x),e(x)+tσ(x)[ ) 1 t 2 Application Si X est de carré intégrable, la probabilité d obtenir à l issue de l épreuve une valeur à plus de 10 fois l écart-type de l espérance est inférieure à 1/100. Preuve L égalité de Bienaymé-Tchebichev se déduit de l inégalité de Markov en prenant Y = (X E(X)) 2 et λ = t 2 dans cette inégalité. On a alors P(Y λ) = P((X E(X)) 2 t 2 ) = P( X E(X) t), E(Y) λ La formule est démontrée. = E((X E(X))2 ) t 2 = V(X) t Loi d une variable aléatoire À chaque variable aléatoire X définie sur un espace probabilisé (Ω,T,P), on peut associer une probabilité P X qui rend compte de la distribution de ses valeurs, en procédant de la façon suivante. Définition 4 Soit (Ω, T, P) un espace probabilisé, X : Ω R une variable aléatoire. La loi de X est la probabilité définie sur la tribu des boréliens de R par la formule : P X (A) = P(X A) = P(X 1 (A)) pour tout A R borélien. La variable aléatoire X est dite discrète si sa loi P X est discrète : il existe un ensemble fini ou dénombrable D R tel que P X (D) = 1. Indiçons ses éléments par un ensemble I N : D = {x i } x I. On est presque sûr d obtenir un résultat qui se trouve dans cet ensemble de valeurs {x i } i I et on peut écrire P X = p xi δ xi i I où p xi est la probabilité d obtenir la valeur x i : P(X = x i ) = p xi.

17 2.4. LOI D UNE VARIABLE ALÉATOIRE 17 La variable aléatoire X est dite continue si P X est une loi continue, auquel cas sa densité est notée f X. C est une fonction borélienne positive dont l intégrale vaut un. On a alors P X (A) = P(X A) = f X (x)dx pour tout A R borélien. Dans ce cas, la probabilité P(X = x) est bien sûr nulle pour tout x R. L espérance et la variance d une variable aléatoire peuvent s exprimer en fonction de sa loi uniquement. En conséquence, deux variables qui ont même loi ont même espérance et même variance. Proposition 2 Si X est intégrable, Si X est de carré intégrable, V(X) = E(X) = R R A x dp X (x). (x E(X)) 2 dp X (x). Cette proposition se déduit de la formule de transfert. Proposition 3 (formule de transfert) Soit g : R R borélienne, positive ou P X -intégrable. Alors Ω g(x) dp = Preuve de la formule de transfert C est vrai pour g = 1 A, A borélien de R : R g(x) dp X (x). 1 A (X) dp = P(X A) = P(X 1 (A)), 1 A (x) dp X (x) = P X (A) = P(X A). C est vrai pour les combinaisons linéaires de fonctions indicatrices g = c i 1 Ai par linéarité de l intégrale. Une combinaison linéaire de fonctions indicatrices s appelle une fonction étagée. Toute fonction positive mesurable peut être approchée de manière croissante par une suite de fonctions étagées. Pour g 0, borélienne, on prend g n g, g n étagées, et on passe à la limite g n (X) dp n g(x) dp

18 18 CHAPITRE 2. VARIABLES ALÉATOIRES g n (x) dp X (x) n g(x) dp X (x) en appliquant le théorème de convergence croissante, si bien que g(x) dp = g(x) dpx (x). Pour g intégrable, on écrit g comme la différence de deux fonctions positives intégrables et on utilise la linéarité de l intégrale pour conclure. Exemple Si X est variable aléatoire obéissant à une loi exponentielle de paramètre l > 0, P X est associée à la densité f X (x) = le lx 1 R+ (x) et on a : dès que 0 a b. P X ([a,b]) = P(X [a,b]) = [a,b] f X (x)dx = b a le lx dx Il est parfois plus pratique de travailler avec des fonctions plutôt qu avec des lois de probabilité. Ceci nous amène à la notion de fonction de répartition. Définition 5 La fonction de répartition de X est définie par F X (x) = P(X x). On a alors l égalité, pour tout a,b R, P(X ]a,b]) = F X (b) F X (a). Comme une mesure de probabilité définie sur la tribu des boréliens de R est uniquement déterminée par ses valeurs sur les intervalles, la fonction de répartition caractérise la loi de X de manière unique : si deux variables aléatoires ont même fonction de répartition, elles ont même loi. F X = F Y P X = P Y. La fonction de répartition possède les propriétés suivantes : elle est croissante, à valeur dans l intervalle [0, 1], lim x F X(x) = 0, lim x + F X(x) = 1, elle est continue à droite et possède une limite à gauche en tout point, l ensemble des points de discontinuité de F X est composé des x R tels que P(X = x) > 0, il est donc dénombrable.

19 2.5. LOI D UN MULTIPLET DE VARIABLES ALÉATOIRES Loi d un multiplet de variables aléatoires Les considérations précédentes se généralisent à des couples et des multiplets de variables aléatoires. Soient X 1,...X n des variables aléatoires à valeurs réelles. On peut considérer ces variables comme une unique variable aléatoire à valeurs dans R n. (X 1,X 2,...,X n ) : Ω R n. On pose, pour A borélien de R n et A 1,..., A n des boréliens de R, ((X 1,...,X n ) A) = {ω Ω (X 1 (ω),x 2 (ω),...,x n (ω)) A}, (X 1 A 1,...,X n A n ) = ((X 1,...,X n ) A 1... A n ) = {ω Ω X 1 (ω) A 1,...,X n (ω) A n } = (X i A i ). 1 i n Définition 6 Soit (Ω,T,P) un espace probabilisé, X 1,..., X n des variables aléatoires. La loi du multiplet (X 1,...,X n ) est la mesure de probabilité définie sur la tribu des boréliens de R n par la formule : P (X1,...,X n)(a) = P((X 1,...,X n ) A) = P({ω Ω (X 1 (ω),...,x n (ω)) A}) pour tout A R n borélien. La loi du multiplet est discrète si la loi de P (X1,...,X n) est discrète : il existe un ensemble fini ou dénombrable D R n tel que P (X1,...,X n)(d) = 1. Elle est dite continue si P (X1,...,X n) est une loi continue, auquel cas sa densité est notée f X1,...,X n. Cette densité est une fonction borélienne, définie de R n dans R +, positive, d intégrale 1, et nous avons la relation P((X 1,...,X n ) A) = P (X1,...,X n)(a) = f X1,...,X n (x 1,...,x n ) dx 1...dx n. La formule de transfert se généralise à n variables. Proposition 4 (Formule de transfert) Soit g : R n R borélienne, positive ou P (X1,...,X n)-intégrable. Alors g(x 1,...,X n ) dp = g(x 1,...,x n ) dp X1,...,X n (x 1,...,x n ). Ω R n La preuve est similaire à celle faite précédemment dans le cas d une variable, on procède en approchant g par une fonction étagée. Les lois individuelles des X i peuvent se déduire de la loi du multiplet en remarquant que P(X i A) = P(X 1 Ω,...,X i 1 Ω,X i A,X i+1 Ω,...,X n Ω) = P (X1,...,X n)(ω... Ω A Ω... Ω). A

20 20 CHAPITRE 2. VARIABLES ALÉATOIRES On dit que les lois P Xi sont les lois marginales de la distribution (X 1,...,X n ). Dans le cas continu, la densité des X i se déduisent de celle du multiplet grâce à la formule suivante : ( P Xi (I) = f X1,...,X n (x 1,...,x n ) dx 1...dx i 1 dx i+1...dx n ) ) dx i I R n 1 où I est un intervalle ou un borélien de R, si bien que f Xi (x i ) = f X1,...,X n (x 1,...,x n ) dx 1...dx i 1 dx i+1...dx n. R n 1

21 2.6. EXERCICES Exercices exercice 1 Soit X une variable aléatoire strictement positive telle que X et 1/X sont intégrables. Montrer que E(X)E(1/X) 1. exercice 2 Soit X une variable aléatoire de carré intégrable. Montrer que pour tout c R, Soit a, b R. Montrer que V(X) E((X c) 2 ). P(X a) E((X +b)2 ) (a+b) 2 En déduire l inégalité de Cantelli, valide pour tout t > 0 : P ( X E(X) tσ(x) ) 1 1+t 2. exercice 3 Soit X une variable aléatoire telle que 0 X 1. Montrer que V(X) 1/4. À quelle condition a-t-on égalité? exercice 4 Soit X une variable aléatoire satisfaisant P(X = x) = 0 pour tout x R et F X sa fonction de répartition. Montrer que la variable aléatoire F X (X) obéit à la loi uniforme sur ]0, 1[. Étant donnée une variable aléatoire Y de loi uniforme sur ]0,1[ et ν une mesure de probabilité sur la tribu des boréliens de R, construire une variable aléatoire X de loi ν en composant Y par une fonction bien choisie. exercice 5 Soit X une variable aléatoire intégrable. Montrer les assertions suivantes. lim X dp = 0. N ( X >N) Pour tout ε > 0, il existe δ > 0 tel que pour tout A T, P(A) δ implique X dp ε. exercice 6 Soit X une variable aléatoire réelle positive, de fonction de répartition F X. Montrer que pour 0 < p <, E(X p ) = 0 pt p 1 P(X > t)dt = A 0 pt p 1 (1 F X (t)) dt. Soit X 1,X 2,...X n des variables aléatoires indépendantes de loi uniforme sur [0,1]. Calculez E(min(X 1,X 2,...X n )) et E(max(X 1,X 2,...X n )).

22 22 CHAPITRE 2. VARIABLES ALÉATOIRES

23 Chapitre 3 Indépendance On a vu comment modéliser une épreuve répétée un nombre fini ou infini de fois de manière indépendante, en prenant pour univers un espace produit et pour probabilité une probabilité produit. On va préciser cette notion d indépendance en l appliquant à des événements, des tribus ou des variables aléatoires. 3.1 Indépendance d événements et de variables aléatoires On commence par définir la notion d événements indépendants. Définition 7 Soit (Ω,T,P) un espace probabilisé. Deux événements A,B T sont dits indépendants entre eux si P(A B) = P(A)P(B). Soit (A i ) i I une famille d événements. Ces événements sont dits indépendants dans leur ensemble si S I fini, P ( ) A i = P(A i ). i S Exemple Pour une famille de trois événements {A 1,A 2,A 3 }, I = {1,2,3}, S = {1} P(A 1 ) = P(A 1 ) S = {2} P(A 2 ) = P(A 2 ) S = {3} P(A 3 ) = P(A 3 ) S = {1,2} P(A 1 A 2 ) = P(A 1 )P(A 2 ) S = {1,3} P(A 1 A 3 ) = P(A 1 )P(A 3 ) S = {2,3} P(A 2 A 3 ) = P(A 2 )P(A 3 ) S = {1,2,3} P(A 1 A 2 A 3 ) = P(A 1 )P(A 2 )P(A 3 ) sont les conditions à vérifier pour avoir l indépendance de A 1, A 2 et A 3 dans leur ensemble. 23 i S

24 24 CHAPITRE 3. INDÉPENDANCE Définition 8 Deux variables aléatoires X, Y : Ω R sont indépendantes entre elles si pour tous boréliens A,B R, les événements (X A) et (Y B) sont indépendants entre eux : P ( (X A) (Y B) ) = P(X A)P(Y B). Soit (X i ) i I une famille de variables aléatoires. Elle sont dites indépendantes entre elles si pour tout sous-ensemble S I fini et (A i ) i S des boréliens de R, les événements (X i A i ) sont indépendants dans leur ensemble : P ( i A i ) i S(X ) = P(X i A i ). i S Introduisons les notations suivantes pour alléger les formules : (X A,Y B) = (X A) (Y B) = {ω Ω X(ω) A et Y(ω) B} ( Xi A i,i S ) = (X i A i ) i S (X 1 A 1,X 2 A 2,...,X n A n ) = (X 1 A 1 ) (X 2 A 2 )... (X n A n ) Définition 9 Deux tribus T 1 T, T 2 T sont indépendantes entre elles si pour tout A T 1 et B T 2, A et B sont indépendants entre eux. Soit (T i ) i I une famille de tribus incluses dans T. Elle sont dites indépendantes entre elles si pour tout sous-ensemble S I fini et toute famille (A i ) i S satisfaisant A i T i pour tout i S, les événements A i sont indépendants dans leur ensemble : P ( ) A i = P(A i ). i S i S 3.2 Lemme de Borel-Cantelli Voici une première application de la notion d indépendance d événements. Lemme 1 (Borel-Cantelli) Soit (Ω,T,P) un espace probabilisé et (A i ) i N une suite d événements. Si i NP(A i ) < +, presque tout ω Ω n appartient qu à un nombre fini de A i. Si i NP(A i ) = +, et si les A i sont indépendants dans leur ensemble, alors presque tout ω Ω appartient à une infinité de A i. On définit la limite supérieure de la suite d ensembles A i comme suit : lim A i = ( ) A i = {ω Ω ω appartient à une infinité de A i }. i N N N i N

25 3.3. LOI D UN MULTIPLET DE VARIABLES INDÉPENDANTES 25 Le lemme se reformule alors de la façon suivante : i N i N P(A i ) < + implique P ( lim i N A i ) = 0. P(A i ) = + et (A i ) i N indépendants implique P ( lim i N A i ) = 1. Preuve du lemme Nous avons la relation #{i N ω A i } = i N 1 Ai (ω). Intégrons cette égalité : #{i N ω A i } dp(ω) = Ai dp = i N1 i N 1 Ai dp = i NP(A i ) < +. La fonction ω #{i N ω A i } est intégrable, donc finie presque partout; pour presque tout ω Ω, #{i N ω A i } < +. Supposons à présent les (A i ) indépendants et M,N N, N M. P ( M ) A c M i = i=n i=n P(A c i ) = M i=n (1 P(A i )) e M i=n P(A i) d après la majoration 1 x e x, valide pour tout x R. Nous avons donc P ( M A c i i=n ) e M i=n P(A i) et en passant à la limite sur M, P ( i N A c i) = Ceci entraîne P( N N i N A c i ) = 0 puis en passant au complémentaire, P(lim A i ) = P ( N N i N A i ) = Loi d un multiplet de variables indépendantes Calculons l espérance d un produit de variables aléatoires indépendantes. Proposition 5 Soit (Ω,T,P) un espace probabilisé, X,Y : Ω R deux variables aléatoires. On se donne f,g : R R des fonctions boréliennes telles que

26 26 CHAPITRE 3. INDÉPENDANCE f(x) et g(y) soient intégrables. On suppose X et Y indépendantes entre elles. Alors E(f(X)g(Y)) = E(f(X))E(g(Y)). Ceci se généralise à un nombre quelconque de variables aléatoires (X i ) i=1...n indépendantes entre elles : E ( n f i (X i ) ) n = E(f i (X i )) i=1 i=1 où les f i : R R sont des fonctions boréliennes telles que les f i (X i ) sont intégrables. Preuve Si f et g sont des fonctions indicatrices, f = 1 A, g = 1 B, E(f(X)g(Y)) = E(1 A (X)1 B (Y)) = E(1 (X A) 1 (Y B) ) = E(1 (X A) (Y B) ) = E(1 (X A, Y B) ) = P(X A,Y B) = P(X A)P(Y B) par indépendance, = E(1 A (X))E(1 B (Y)) = E(f(X))E(g(Y)). On procède ensuite comme pour la preuve de la formule de transfert : on vérifie la formule pour les fonctions étagées, par linéarité, puis on vérifie la formule pour f,g 0 en les approchant de manière croissante par des fonctions étagées, et enfin pourf, g intégrables en les écrivant comme différence de fonctions positives intégrables. Le cas d un nombre quelconque de variables indépendantes s en déduit de la même façon. Rappelons que la covariance de deux variables aléatoires est égale à l espérance du produit des variables moins le produit des espérances. On obtient le corollaire suivant : Corollaire 1 Soit X 1,..., X n des variables aléatoires de carré intégrable, indépendantes entre elles. Alors Cov(X i,x j ) = 0 si i j, V ( n ) n X i = V(X i ). i=1 i=1 Complément On montre que la loi d un couple ou d un multiplet de variables aléatoires indépendantes entre elles est égale au produit des lois de chacune des variables aléatoires.

27 3.3. LOI D UN MULTIPLET DE VARIABLES INDÉPENDANTES 27 Proposition 6 Soit X, Y deux variables aléatoires indépendantes entre elles. Alors P (X,Y) = P X P Y, E(h(X,Y)) = h(x,y)dp = h(x,y)dp X (x)dp Y (y) R 2 Ω pour toute fonction h : R 2 R borélienne, positive ou P (X,Y) -intégrable. Soit X 1,..., X n des variables aléatoires indépendantes entre elles. Alors P (X1,...,X n) = P X1 P X2... P Xn, E(h(X 1,...,X n )) = h(x 1,...,x n )dp X1 (x 1 )...dp Xn (x n ) R n pour toute fonction h : R n R borélienne, positive ou P (X1,...,X n)-intégrable. La preuve se ramène à celle de la proposition précédente en utilisant le fait que toute fonction borélienne bornée h : R 2 R peut s approcher en norme L 1 (R 2,P (X,Y) +P X P Y ) par une combinaison linéaire de fonctions de la forme (x,y) f(x)g(y), avec f et g boréliennes bornées. On généralise ensuite aux fonctions boréliennes positives en utilisant le théorème de convergence croissante puis aux fonctions intégrables. Le raisonnement est le même pour un multiplet de variables aléatoires.

28 28 CHAPITRE 3. INDÉPENDANCE 3.4 Exercices exercice 1 Soit X une variable aléatoire intégrable. Montrer que si X est indépendante d elle-même, elle est constante p.s. : il existe un réel C tel que P(X = C) = 1. exercice 2 Soit A n, n N, des événements. Montrer que lim 1 An = 1 liman, lim P(A n ) P ( lima n ). exercice 3 Soit X une variable aléatoire; la tribu associée à X est définie par T X = {X 1 (A) A R borélien}. Montrer que deux variables aléatoires X et Y sont indépendantes si et seulement si T X et T Y sont indépendantes. exercice 4 Montrer que si X et Y sont deux variables aléatoires indépendantes de densités f X et f Y, le couple (X,Y) admet pour densité la fonction (x,y) f X (x)f Y (y). exercice 5 Soient X et Y deux variables aléatoires indépendantes. On suppose que X admet une densité f X. Montrer que la somme X + Y admet aussi une densité qui est égale à f X+Y (t) = f X (t y)dp Y (y). R Montrer que si X et Y admettent des densités f X et f Y, la densité de X +Y est égale à la convolée de f X et f Y : f X+Y (t) = R f X(t y)f Y (y)dy. exercice 6 SoitX 1,...X n desvariablesaléatoirescentrées, indépendantes entreelles, decubes intégrables. On pose S n = n k=1 X k. Montrer que E(S 3 n) = n k=1 X 3 k. exercice 7 Soient (X i ) i N une suite de variables aléatoires indépendantes. On suppose que P Xi = P Xj pour i,j N et P(X k = x) = 0 pour x R et k N. On pose A n = {ω Ω k < n, X k (ω) < X n (ω)}. Si A n est réalisé, on dit qu on a obtenu un record à l étape n. Montrer que P(X i = X j ) = 0 si i j. Montrer que les A n sont indépendants entre eux et que P(A n ) = 1 n. En déduire que presque sûrement, on observe une infinité de records.

29 Chapitre 4 Loi des grands nombres On va s intéresser au comportement asymptotique d une suite de variables aléatoires. On se donne un espace probabilisé (Ω,T,P) et pour chaque entier n N une variable aléatoire X n : Ω R. Définition 10 La suite de variables aléatoires (X i ) i N est dite identiquement distribuée si tous les X i ont même loi : i,j N, P Xi = P Xj. En d autres termes, pour tout borélien A R, P(X i A) = P(X j A) et pour toute f : R R borélienne positive ou intégrable par rapport à P X0, E(f(X i )) = E(f(X j )). En particulier, E(X i ) = E(X j ) si les X i sont intégrables, E(X 2 i ) = E(X2 j ) et V(X i ) = V(X j ) si les X i sont de carrés intégrables. 4.1 Loi faible des grands nombres Soit (X i ) i N une suite de variables aléatoires indépendantes entre elles, identiquement distribuées (v.a i.i.d). On pose n S n = X i = X 1 +X X n. i=1 Pour ω Ω, la quantité Sn (ω) = X 1(ω)+X 2 (ω)+...+x n(ω) est la moyenne empirique n n calculée sur l échantillon donné par le résultat ω Ω. On cherche à étudier le comportement asymptotique de la moyenne Sn. n 29

30 30 CHAPITRE 4. LOI DES GRANDS NOMBRES Théorème 4 (loi faible des grands nombres) Soit (X i ) i N une suite de variables aléatoires indépendantes entre elles, identiquement distribuées, de carrés intégrables. Alors pour tout ε > 0, P ( S n n E(X 0) > ε ) n 0. La preuve du théorème repose sur le lemme suivant : Lemme 2 Soit (X i ) i N une suite de variables aléatoires indépendantes, identiquement distribuées. Alors E(S n ) = ne(x 0 ),V(S n ) = nv(x 0 ). Preuve du lemme E(S n ) = E(X 1 +X X n ) = E(X 1 )+E(X 2 )+...+E(X n ) par linéarité. V(S n ) = V(X X n ) = V(X 1 )+...+V(X n )+2 i<jcov(x i,x j ), où Cov(X i,x j ) = E(X i X j ) E(X i )E(X j ). La covariance de deux variables aléatoires est nulle dans le cas indépendant. D où V(S n ) = V(X 1 )+...+V(X n ) = nv(x 0 ). Preuve du théorème D après le lemme, E(S n /n) = E(X 0 ), V(S n /n) = V(X 0 )/n, σ(s n /n) = σ(x 0 )/ n. On applique alors l inégalité de Bienaymé-Tchebichev : P ( S n n E(S n n ) ) V(S n /n) > ε = σ(x 0) 2 ε 2 nε 0. 2 n Remarque On peut montrer que la loi faible des grands nombres est encore vraie pour des variables aléatoires indépendantes, identiquement distribuées, intégrables. 4.2 Loi forte des grands nombres Théorème 5 (loi forte des grands nombres) Soit (X i ) i N une suite de variables aléatoires intégrables, indépendantes entre elles, identiquement distribuées et S n = n i=1 X i. Alors pour presque tout ω Ω, S n n (ω) n E(X 0).

31 4.2. LOI FORTE DES GRANDS NOMBRES 31 En d autres termes, l ensemble {ω Ω Sn(ω) E(X n 0)} est un ensemble n dont la probabilité vaut 1. Vocabulaire On dit qu une propriété est vraie presque sûrement si elle est satisfaite pour presque tout ω Ω. Nous utiliserons dans la suite l abréviation p.s. pour le terme presque sûrement. Énonçons un premier corollaire de la loi forte des grands nombres, qui sera démontré dans la suite. Ce corollaire montre que la probabilité d un événement est presque sûrement égale à la limite du nombre de fois où il est réalisé sur le nombre total de fois où l épreuve est répétée, lorsque le nombre de répétitions tend vers l infini. Corollaire 2 Soit (X i ) i N une suite de variables aléatoires indépendantes identiquement distribuées et soit A un borélien de R. Alors #{i n X i (ω) A} n n P(X 0 A) presque sûrement. Illustrons la loi forte des grands nombres sur un exemple avant de la démontrer. Exemple Onlanceunepiècedemonnaiebienéquilibréeungrandnombredefoisdemanière indépendante. Pour modéliser ces épreuves, on commence par considérer la probabilité P définie sur P({pile,face}) par P({face}) = P({pile}) = 1/2 et on pose : Ω = {pile,face} N, T = P({pile,face}) N, P = P N. Les éléments de Ω sont des suites infinies de pile ou face. On définit maintenant une variable aléatoire X : {pile,face} R par X(pile) = 0, X(face) = 1 et on pose pour tout i N : { 1 si ωi = pile X i ((ω k ) k N ) = X(ω i ) = 0 si ω i = face Soit ω = (ω k ) k N Ω. L élément ω k de la suite ω est le résultat obtenu au k ième lancer. La quantité X k (ω) vaut 1 si ce résultat est face, 0 si il est égal à pile. Définissons également S n n (ω) = X 1(ω)+...+X n (ω) n = X(ω 1)+X(ω 2 )+...+X(ω n ). n C est la moyenne des valeurs prises par X au cours des n premières épreuves. C est le nombre moyen de fois où Face a été obtenu au cours des n premiers lancers.

32 32 CHAPITRE 4. LOI DES GRANDS NOMBRES Proposition 7 Les variables aléatoires X i sont indépendantes dans leur ensemble, identiquement distribuées, intégrables. Preuve P(X 0 A 0,...,X n A n ) = P N ({ω Ω X(ω 0 ) A 0,...,X(ω n ) A n }) = P N (C X 1 (A 0 ),...,X 1 (A n)) n = P(X 1 (A i )). i=0 De plus, P(X 0 A 0 ) = P(C X 1 (A 0 )) = P(X 1 (A 0 )). Nous avons également P(X i A i ) = P({ω Ω ω i X 1 (A i )}) = P(C Ω,...,Ω,X 1 (A i )) = P N (C Ω,...,Ω,X 1 (A i )) = P(Ω)... P(Ω) P(X 1 (A i )) = P(X 1 (A i )) D où P(X 0 A 0,...,X n A n ) = P(X 0 A 0 )...P(X n A n ) pour tout n N. On vient de démontrer que les X i sont indépendants. On a aussi vu que P(X i A) = P(X 1 (A)). La loi P Xi ne dépend donc pas de i et P Xi = P Xj pour tout i,j. Ceci termine la démonstration de la proposition. Dans notre exemple, nous avons P Xi = 1(δ 2 0 +δ 1 ) ce qui implique l égalité E(X 1 ) = xdp X1 (x) = 0 1/2+1 1/2 = 1/2. R On peut maintenant appliquer la loi forte des grands nombres : pour presque tout ω Ω, ou encore #{i n ω i = face} n n 1/2 P N({ (ω i ) i N {pile, face} N 1 n #{i n ω i = face} n 1/2}) = 1. La fréquence d apparition de face au cours d une infinité de lancers est égale à 1/2 presque sûrement, lorsque la pièce est bien équilibrée. Nous allons démontrer la loi forte des grands nombres à partir du lemme suivant : Lemme 3 Soit (Y i ) une suite de variables aléatoires. Si pour tout ε > 0, P( Y i > ε) < i=1 alors la suite (Y i ) i N converge presque sûrement vers 0 : pour presque tout ω Ω, Y i (ω) i 0.

33 4.2. LOI FORTE DES GRANDS NOMBRES 33 Le lemme montre que P({ω Ω Y i (ω) 0}) = 1. i Preuve du lemme On applique le lemme de Borel-Cantelli. La quantité ε étant fixée, on pose A i = ( Y i > ε). Comme P(A i ) <, presque tout ω Ω n appartient qu à un nombre fini de A i. Notons par C ε cet ensemble. Nous avons P(C ε ) = 1. ω C ε, N N, n N, ω / A n et Y n (ω) < ε. On prend ε = 1/k, k N et on considère l intersection des C 1/k. C = k N C 1/k, P(C) = 1. Pour tout ω C et tout k N, le point ω est dans C 1/k, si bien qu il existe N N tel que pour tout n N, Y n (ω) < 1/k. Ceci montre que lim Y n (ω) = 0, n comme souhaité. Preuve de la loi forte des grands nombres Pour simplifier, nous allons supposer que les X i sont de carré intégrable dans la preuve. On donnera une preuve dans le cas intégrable plus tard, dans le chapitre consacré à la convergence de séries de variables aléatoires. Nous avons, pour tout i, E(X i ) = E(X 1 ). Quitte à remplacer les X i par X i E(X i ), on peut supposer E(X i ) = 0. On dit qu on centre les variables aléatoires. On veut montrer que Sn converge presque sûrement vers 0. Essayons d appliquer n le lemme précédent. Rappelons l égalité E( S i i ) = E(X 1 ) = 0. P ( S i i > ε ) V(S i/i) = V(X 1) ε 2 iε 2 n=1 P ( S i i > ε ) V(X 1) ε 2 par Bienaymé-Tchebichev. i=1 1 i = +. La condition du lemme, avec Y i = S i /i, n est pas vérifiée. Remplaçons i par i 2 : Y i = S i 2. Nous avons maintenant i 2 i P ( S i 2 i 2 > ε ) V(X 1) ε La série 1 i 2 est convergente (sa limite vaut π 2 /6). Le lemme précédent donne la convergence de la suite S i 2 i 2 : S i 2 i 2 i 0 p.s. i 1 i 2.

34 34 CHAPITRE 4. LOI DES GRANDS NOMBRES Pour chaque n N, on prend i N le plus grand possible, tel que i 2 n. L entier i est égal à la partie entière de n et on a les encadrements : i 2 n (i+1) 2 1, i 2 n i 2 +2i, 0 n i 2 2i 2 n. n i 2 n S n = X k = X k + X k k=1 k=1 k=i 2 +1 S n S i n i 2 n n k=i 2 +1 X k. Pour majorer le dernier terme, on raisonne comme précédemment : P ( 1 n n k=i 2 +1 X k > ε ) 1 n 2 ε 2V ( n k=i 2 +1 La série 1 n 3/2 est convergente. D après le lemme, Le résultat est démontré. 1 n n k=i 2 +1 X k ) n i 2 n 2 ε 2 V(X 1 ) 2 n 3/2 V(X 1 ) ε 2. X k i 0 p.s. Preuve du corollaire On applique la loi des grands nombres à la suite (1 A X i ). E(1 A X 1 ) = E(1 X 1 1 (A)) = E(1 (X 1 A)) = P(X 1 A). S n n = 1 n n 1 A (X k (ω)) = 1 n #{k {1,...,n} X k(ω) A} k=1 Cette quantité converge vers E(1 A X 1 ) d après la loi forte des grands nombres. Complément Donnons une généralisation aisée de la loi des grands nombres qui s avère utile en pratique. Proposition 8 Soit(X i ) i N une suite devariablesaléatoiresindépendantesidentiquement distribuées. Soit m N et f : R m R une fonction qui est P (X1,...,X m)-intégrable. Alors pour presque tout ω Ω, 1 N N k=1 f(x k,...,x k+m 1 ) N E(f(X 1,...,X m )).

35 4.2. LOI FORTE DES GRANDS NOMBRES 35 Preuve On pose Y k = f(x k,...x k+m 1 ); les variables Y k ne sont pas indépendantes dans leur ensemble. Par contre, les variables Y 1,Y m+1,y 2m+1,Y 3m+1... sont indépendantes entre elles. Plus généralement, pour chaque r {1,..., m}, les variables (Y mk+r ) k N sontintégrables,indépendantesetidentiquement distribuées. Onpeut donc appliquer la loi des grands nombres à ces m suites de variables aléatoires et faire la somme des résultats, ce qui donne 1 n mn k=1 Y k n m E(Y i ). i=1 CommelesvariablesX i sontindépendantesidentiquement distribuées, nousavons E(Y i ) = E(f(X i,...,x m+i 1 )) = f(x 1,...,x m )dp Xi (x 1 )...dp Xm+i 1 (x m ) = f(x 1,...,x m )dp X1 (x 1 )...dp X1 (x m ) = E(f(X 1,...,X m )). Ceci montre le résultat pour N multiple de m. Si N n est pas multiple de m, on peut l écrire sous la forme N = mn+i avec 0 < i < m. On remarque alors que chacun des termes Y mn+i /n converge vers 0 presque sûrement quand n tend vers l infini, d après la loi des grands nombres : Y mn+i n = ( 1 n n k=1 ) n 1( n 1 1 ) Y mk+i Y mk+i n n 1 E(Y i) E(Y i ) = 0. n k=1 La proposition s ensuit. Application On revient à l exemple de pile ou face. Prenons Ω = {pile,face} N, T = P({pile,face}) N, P = ( 1 2 δ pile δ face) N. D après la loi des grands nombres, 1 n #{k {1,...,n} ω 1 k = face} n 2 pour presque tout ω Ω. En particulier, pour presque tout ω Ω, face apparaît une infinité de fois dans la suite Ω. Soit (a 1,...,a m ) {pile,face} m. Prenons f = 1 {(a1,...,a m)}. Nous obtenons E(f(X 1,...,X m )) = P(X 1 = a 1,...,X m = a m ) = P(X 1 = a 1 )...P(X n = a m ) = 1/2 m.

36 36 CHAPITRE 4. LOI DES GRANDS NOMBRES Appliquons la proposition précédente. 1 n #{k {1,...,n} (ω 1 k,...,ω k+m 1 ) = (a 1,...,a m )} n 2 p.s. m Notons par Ω (a1,...,a m) l ensemble des ω Ω pour lesquels on a cette convergence. Cet ensemble est de probabilité 1. On en déduit P ( ) = 1 Ω (a1,...,a m) m N (a 1,...,a m) {pile,face} m Presque tout ω Ωappartient à tousles Ω (a1,...,a m). Cela signifie que danspresque toute suite ω Ω, tous les mots (a 1,...,a m ) apparaissent une infinité de fois dans la suite ω avec fréquence 1/2 m, pour tout m N. 4.3 Illustration numérique Pour illustrer la loi des grands nombres, on considère plusieurs suites numériques, chacune consistant en mille chiffres obtenus de plusieurs façons. La première a été obtenue en lançant mille fois un dé à dix faces La seconde est obtenue en utilisant un ordinateur et un générateur de nombres aléatoires

37 4.3. ILLUSTRATION NUMÉRIQUE 37 La troisième est constituée des mille premières décimales de π La quatrième est obtenue en conservant les cinq derniers chiffres de deux cents numéros de téléphone successifs d un annuaire téléphonique La cinquième s obtient en concaténant les nombres entiers dans l ordre croissant en partant de un La sixième est obtenue en concaténant le nombre d habitants de chacune des communes de l Ain, ordonnées par ordre alphabétique (2012, Abergement-Clémenciat Vonnas) et en conservant les mille premiers chiffres.

38 38 CHAPITRE 4. LOI DES GRANDS NOMBRES La dernière est faite maison. On a demandé à une personne de réciter mille chiffres successivement sans réfléchir. Voilà le résultat Le tableau qui suit donne, pour chacune des suites qui viennent d être présentées, le nombre d occurrences de chacun des dix chiffres dans la suite ainsi que de quelques nombres à deux chiffres pris au hasard : 00, 11, 32, 66, 69 et dé à dix faces 2 générateur de nombres aléatoires 3 décimales de π 4 numéros de téléphone 5 nombres entiers par ordre croissant 6 nombre d habitants par commune 7 récitation

39 4.3. ILLUSTRATION NUMÉRIQUE 39 Pour les trois premières suites, les occurrences sont proches des valeurs asymptotiques produites par une suite indépendante identiquement distribuée. Chaque chiffre apparaît avec une fréquence proche du dixième, tandis que les mots de deux lettres ont une fréquence proche du centième. On n est pas surpris que les deux premières suites se comportent conformément à la loi des grands nombres. La question reste ouverte de démontrer qu il en va vraiment de même pour la troisième suite constituée par les décimales de π. On ne sait même pas si tous les chiffres apparaissent une infinité de fois dans le développement décimal de π. Les chiffres 5 et 9 sont sur-représentés dans la quatrième suite, sans qu il soit possible d en déterminer la raison. On pourrait s attendre à ce que l annuaire produise des valeurs aléatoires uniformément distribuées mais cet exemple ne permet pas de confirmer cette intuition. Il faudrait une analyse plus fine pour déterminer si c est l échantillon qui est particulier ou si un ordre se cache derrière la répartition des numéros. La cinquième suite présente des disparités importantes, avec le chiffre 1 très largement représenté tandis que le 0 est peu fréquent. On n est pas surpris que le chiffre 1 apparaisse souvent dans la liste des premiers entiers naturels. Le nombre dont les décimales sont obtenues en faisant la liste de tous les entiers par ordre croissant s appelle la constante de Champernowne. On peut montrer que la fréquence de chacun des chiffres finit par converger vers un dixième, contrairement à ce que pourrait laisser penser les premiers termes de la suite. De manière étonnante, on peut même montrer que la constante de Champernowne est un nombre normal : pour tout entier n > 0, tous les mots constitués de n chiffres apparaissent dans la suite de ses décimales avec une fréquence égale à 10 n. La sixième suite présente aussi des variations importantes avec le chiffre 1 qui apparaît le plus fréquemment. Ce phénomène est parfois observé quand on étudie des données statistiques concernant des populations humaines et provient de la croissance exponentielle de ces populations. Il est relié à la loi de Benford. Cette loi est bien vérifiée par le nombre d habitants des trente six mille communes de France et on l observe déjà sur l échantillon que nous avons considéré. Finalement, la septième suite est loin d être uniformément répartie, avec le chiffre 3 sous-représenté tandis que le 4 revient fréquemment. Elle montre à quel pointilestdifficilepourunêtrehumaindesimulerlehasard.l absencedecertains mots de longueur deux est typique dans ce genre d expérimentation et permet de repérer aisément les suites qui sont le produit d une intervention humaine plutôt que d un procédé aléatoire.

40 40 CHAPITRE 4. LOI DES GRANDS NOMBRES 4.4 Exercices Dans les exercices qui suivent, (X n ) n N est une suite de variables aléatoires indépendantes identiquement distribuées et S n = n k=1 X k. exercice 1 On suppose les (X n ) intégrables. Montrer que X n n n 0 p.s. p.s. +. n Si de plus l espérance des X k est strictement positive, alors S n exercice 2 On suppose les (X n ) de carrés intégrables. Montrer que les suites suivantes convergent presque sûrement vers une limite qu on calculera. 1 n n k=1 X 2 k, 1 n n X k X k+1, k=1 2 n(n 1) 1 i<j n X i X j, nk=1 X k nk=1. Xk 2 exercice 3 Soit x R. Montrer la convergence 1 n #{1 k n X p.s. k(ω) x} F X n 0 (x). exercice 4 Soit f : [0,1] R continue. Montrer que la suite u n = admet une limite que l on précisera. f ( x x ) n dx1...dx n n exercice 5 Soit(p k ) k=1..r desnombresréelsstrictement positifstelsque p k = 1.Onsuppose que la loi des X n est donnée par P(X i = k) = p k. On considère les variables aléatoires Π n (ω) = p X1 (ω)p X2 (ω)...p Xn(ω). Montrer que 1 r n ln(π n) p k ln(p k ) p.s. n k=1 exercice 6 On suppose les X n centrés de carrés intégrables. En inspectant la preuve de la loi forte des grands nombres, montrer qu on peut trouver α > 0 tel que Montrer l égalité n k=1 X k k = n k=1 S n p.s. n 0. 1 α n ( 1 k 1 ) Sk + 1 k +1 n+1 S n. En déduire que la série X k k converge presque sûrement.

41 Chapitre 5 Convergence de suites de variables aléatoires 5.1 Les différents types de convergence. Les résultats précédents font appel à différentes notions de convergence. On va préciser ces notions et étudier les relations qu elles entretiennent entre elles. Rappelons la définition des normes L p, p 1. Soit (Ω,T,P) un espace probabilisé. Pour p [1,+ [, la norme L p de la variable aléatoire Y : Ω R est définie par Y p = ( Y p dp) 1/p. La norme L de Y est définie par Y = inf{c > 0 Ω tel que P(Ω ) = 1 et Y(ω) C pour tout ω Ω } Définition 11 Soient Y n,y des variables aléatoires définies sur (Ω,T,P) et p [1,+ ]. La suite Y n converge en norme L p vers Y si Y n Y p n 0. La suite Y n converge en probabilité vers Y si ε > 0, P( Y n Y > ε) n 0. La suite Y n converge presque sûrement vers Y si pour presque tout ω Ω, Y n (ω) n Y(ω). La suite Y n converge en loi vers Y si pour toute fonction f : R R continue bornée, 41 f dp Yn n f dp Y.

42 42CHAPITRE5. CONVERGENCEDESUITESDEVARIABLESALÉATOIRES Proposition 9 Soient p,q R tels que 1 p q. On a les implications CV L CV L q CV L p CV L 1 CV en proba CV en loi. CV L CV p.s. CV en proba. CV L CV en proba CV p.s. d une sous-suite. Remarque La convergence L 2 implique la convergence en probabilité. C est comme cela que nous avons démontré la loi faible des grands nombres. Celle-ci affirme que Sn n converge vers E(X 0 ) en probabilité, si les (X i ) sont indépendantes, identiquement distribuées. On avait obtenu ce résultat en montrant que V( Sn) 0. D après n n la relation suivante, cela est équivalent à la convergence L 2 : V ( ) Sn = E ( S n S ) n n E( n 2 ) = E ( S n n Démonstration de la proposition CV L q CV L p si p q. Démontrons l égalité Y p Y q n E(X 0) 2) = S n n E(X 0) 2. 2 en utilisant l inégalité de Hölder : pour tout p,q 1 tels que 1/p+1/q = 1, YZ dp Y p Z q. On prend Y constant égal à 1 dans cette inégalité, auquel cas Y p = 1 et Z 1 Z q. Ceci démontre le résultat pour p = 1. Pour p général, on remplace q par q/p et Z par Y p, ce qui donne : CV L CV L p. Y p dp ( Y pq/p dp ) p/q, Y p Y q. On a pour presque tout ω Ω, Y(ω) Y. En intégrant, on obtient Y p p = Y(ω) p dp(ω) Y p dp = Y p. CV L 1 CV en proba L C est une conséquence de l inégalité de Markov. Si Y 1 n Y, n P( Y n Y > ε) E( Y n Y ) ε = Y n Y 1 ε n 0

43 5.2. FONCTIONCARACTÉRISTIQUEETTRANSFORMÉEDEFOURIER43 CV L CV p.s. L Si Y n Y, il existe n Ω Ω de probabilité 1 tel que sup Y n (ω) Y(ω) 0. ω Ω n On en déduit, pour tout ω Ω, Y n (ω) n Y(ω). CV en proba CV p.s. d une sous-suite Nous savons que pour tout ε > 0, P( Y n Y > ε) n 0. Pour tout k N, on peut donc trouver n k N aussi grand qu on veut, tel que P( Y nk Y > 1/k) 1/2 k. On a alors P( Y nk Y > 1/k) < k=0 On applique le lemme de Borel-Cantelli : pour presque tout ω Ω, hormis pour un nombre fini d indices k, Y nk (ω) Y(ω) < 1/k. La suite Y nk converge vers Y presque sûrement. CV p.s. CV en proba Nous avons les deux conditions suivantes : 1 ( Yn Y >ε)(ω) n 0 pour presque tout ω Ω car Y n(ω) Y(ω) n 0. 1 ( Yn Y >ε) 1 Ω et 1 Ω est intégrable, ne dépend pas de n. On peut appliquer le théorème de convergence dominée : lim P( Y n Y > ε) = lim n n 1 ( Yn Y >ε)dp = lim 1 ( Y n n Y >ε)dp = 0 L implication CV en proba CV en loi sera démontrée dans la suite. 5.2 Fonction caractéristique et transformée de Fourier Pour étudier plus en détail la convergence en loi, on va utiliser la notion de fonction caractéristique d une variable aléatoire et de transformée de Fourier d une mesure de probabilité. Définition 12 La fonction caractéristique d une variable aléatoire Y : Ω R est définie par ϕ Y (t) = E(e ity ) = Ω e ity dp = R e ity dp Y (y).

44 44CHAPITRE5. CONVERGENCEDESUITESDEVARIABLESALÉATOIRES La transformée de Fourier d une mesure de probabilité µ définie sur la tribu des boréliens de R est définie par µ(t) = e itx dµ(x). On a donc l égalité ϕ Y (t) = P Y (t). Propriétés ϕ Y (t) 1 pour tout t R, ϕ Y (0) = 1, t ϕ Y (t) est continue sur R, si Y est intégrable, alors t ϕ Y (t) est dérivable et ϕ Y(0) = ie(y), R si Y est de carré intégrable, t ϕ Y (t) est de classe C 2 et ϕ Y(0) = E(Y 2 ). La continuité et la dérivabilité découlent des théorèmes de continuité et de dérivabilité sous le signe intégrable. Par exemple, si X est intégrable, on a la majoration t eity = iy e ity Y ce qui implique ϕ Y(t) = d dt( Ω eity dp ) = Ω t eity dp = Ω iyeity dp. La loi d une variable aléatoire est complètement caractérisée par sa fonction caractéristique. Proposition 10 Deux variables aléatoires qui ont même fonction caractéristique ont même loi : ϕ X = ϕ Y implique P X = P Y. Ce théorème est admis et ne sera pas utilisé dans la suite. On passe maintenant à quelques calculs explicites de fonctions caractéristiques. Cas discret LavariablealéatoireY prend unnombrefini oudénombrable devaleursy k,k I, avec I = {1,...,n} ou I = N. ϕ Y (t) = E(e ity ) = k Ie ity k P(Y = y k ). Loi de Bernoulli de paramètre p [0,1] Si Y obéit à une telle loi, P(Y = 0) = 1 p, P(Y = 1) = p. On a alors ϕ Y (t) = e it 0 P(Y = 0)+e it 1 P(Y = 1), Loi uniforme sur {1,...,n}, n N ϕ Y (t) = 1 p+pe it.

45 5.3. CONVERGENCE EN LOI 45 Si Y obéit à une telle loi, P(Y = k) = 1/n pour k {1,...,n}, ce qui implique ϕ Y (t) = n k=1 e itk P(Y = k) = n 1 k=1 n (eit ) k = 1 n eit n 1 k=0 (eit ) k. ϕ Y (t) = 1 n eit 1 eitn 1 e it si t / 2πZ. Cas continu La variable aléatoire Y est associée à la densité f Y : R R + si bien que P(Y A) = A f Y(y)dy. ϕ Y (t) = E(e ity ) = e ity dp Y (y) = e ity f Y (y)dy. Loi uniforme sur [a,b], a < b. ϕ Y (t) = R eity 1 b a 1 [a,b](y)dy = 1 b a b a eity dy = 1 b a [eity it ]b a. ϕ Y (t) = eitb e ita it(b a) si t 0. Loi exponentielle de paramètre l > 0 ϕ Y (t) = R eity le ly 1 R (y) dy = + 0 le (it l)y dy = [le (it l)y /(it l)] + 0. ϕ Y (t) = l l it. Remarque on utilise parfois à la place de la fonction caractéristique la notion de fonction génératrice. Définition 13 On considère l ensemble des z C pour lesquels la fonction z Y est intégrable. La fonction génératrice d une variable aléatoire Y est définie sur cet ensemble par l expression z E(z Y ) Attention, elle n est pas forcément définie pour tout z C, la fonction z z Y n étant pas forcément intégrable. Lorsque z = e it, elle est bien intégrable et on retrouve la fonction caractéristique de la variable Y. 5.3 Convergence en loi Rappelons que Y n converge en loi vers Y si pour toute fonction f : R R continue bornée, f dp Yn f dp Y. n

46 46CHAPITRE5. CONVERGENCEDESUITESDEVARIABLESALÉATOIRES Définition 14 Soit µ n et µ des mesures de probabilité définies sur la tribu des boréliens de R. Nous dirons que µ n converge étroitement vers µ si pour toute fonction f : R R continue bornée, f dµ n f dµ. n La suite Y n converge en loi vers Y si et seulement si P Yn converge étroitement vers P Y. On va relier la convergence en loi à la convergence simple des fonctions caractéristiques, dans le but de démontrer le théorème de la limite centrée. Théorème 6 Soit µ,µ n, n N, des mesures de probabilité définies sur la tribu des boréliens de R. Les propriétés suivantes sont équivalentes : fdµ n f dµ pour toute fonction f continue bornée, n fdµ n fdµ pour toute fonction f C à support compact, n fdµ n fdµ pour toute fonction f de la forme e itx, t R. n Le premier point correspond à la convergence étroite des µ n vers µ. Le dernier point correspond à la convergence des transformées de Fourier des µ n. On en déduit le corollaire suivant. Corollaire 3 Soit µ,µ n des mesures de probabilité définies sur la tribu des boréliens de R. Si pour tout t R, µ n (t) µ(t), alors µ n converge vers µ n étroitement. Soit(Y n ) une suite de variablesaléatoires.si pour tout t R,ϕ Yn (t) ϕ Y(t), n alors Y n converge vers Y en loi. Rappelons que f : R R est à support compact s il existe A > 0 tel que f est nulle hors de [ A,A]. Un exemple de fonction C à support compact est donné par f(x) = e 1 1 x 2 1 [ 1,1] (x) Pour démontrer le théorème, nous allons avoir besoin de la formule d inversion de Fourier. Soit f : R R une fonction intégrable par rapport à la mesure de Lebesgue. Sa transformée de Fourier est définie par f(t) = e itx f(x)dx. R On montre que cette fonction est continue en appliquant le théorème de continuité sous le signe intégral.

47 5.3. CONVERGENCE EN LOI 47 Théorème 7 (formule d inversion de Fourier) Soit f une fonction C à support compact. Alors f(x) = 1 e itx f(t)dt pour tout x R. 2π R La preuve du théorème est donnée en annexe, sous des hypothèses un peu plus générales. La formule d inversion de Fourier implique la relation suivante entre µ et sa transformée de Fourier. Corollaire 4 Soit µ une mesure de probabilité définie sur la tribu des boréliens de R et f : R R une fonction C à support compact. Alors f(x)dµ(x) = 1 f(t) µ(t)dt. 2π Preuve du corollaire f(x)dµ(x) = R R = 1 2π = 1 2π = 1 2π 1 2π R R R R R e itx f(t)dt dµ(x) itx e f(t)dµ(x)dt ( f(t) R f(t) µ n (t)dt. ) e itx dµ(x) dt Ici on a utilisé le théorème de Fubini pour intervertir les deux intégrales. Pour justifierl emploidecethéorème,remarquonsquel intégrale R2 eitx f(t) dµ(x)dt est finie : e itx f(t) dµ(x)dt = dµ(x) f(t) dt = f(t) dt <. R R R R R La preuve est terminée. Oncommence par démontrer que fdµ n fdµ pour toutef C à support compact si µ n (t) µ(t) pour tout t R. D après le corollaire précédent, f(x)dµ n (x) = 1 f(t) µ n (t)dt, 2π f(x)dµ(x) = 1 f(t) µ(t)dt. 2π Il suffit d appliquer le théorème de convergence dominée pour conclure : f(t) µ n (t)dt f(t) µ(t)dt. n

48 48CHAPITRE5. CONVERGENCEDESUITESDEVARIABLESALÉATOIRES L emploi duthéorème de convergence dominée est justifié ici car µ n (t) n µ(t) pour tout t R par hypothèse et f µ n est majorée par f qui est intégrable. On cherche à présent à démontrer que si fdµ n fdµ pour toute fonction C à support compact, il en va de même pour toute fonction continue bornée. Lemme 4 Pour tout ε > 0, il existe A > 0 tel que pour tout n N, µ n ([ A,A]) 1 ε. Une suite de mesures de probabilité qui vérifie cette propriété est dite tendue. Preuve du lemme Soit g une fonction C telle que 0 g 1, g = 1 sur [ A+1,A 1], g = 0 sur [ A,A] c. Fixons ε > 0. Comme µ([ A+1,A 1]) µ(r) = 1, on peut choisir A 0 tel A que µ[ A 0 +1,A 0 1] > 1 ε. µ n ([ A 0,A 0 ]) gdµ n n 1 0 gdµ µ([ A 0 +1,A 0 1]) > 1 ε. On peut donc trouver n 0 N tel que pour tout n n 0,µ n ([ A 0,A 0 ]) 1 ε. De plus, pour chaque k {0,...,n 0 }, on peut trouver un ensemble A k tel que µ k ([ A k,a k ]) 1 ε. Pour tout A supérieur à max{a 0,...,A n0 }, on a Le lemme est démontré. n N, µ n ([ A,A]) 1 ε. Soit f continue bornée. Sur [ A 2, A+2], on peut approcher f uniformément par une fonction C en faisant appel au théorème de Stone-Weierstraß ou en convolant avec une fonction C. Cette approximation peut être prolongée en une fonction C à support compact définie sur R tout entier en la multipliant par une fonction de classe C, comprise entre 0 et 1, qui vaut 1 sur [ A,A] et 0 hors de [ A 1,A+1]. Pour tout ε > 0 on peut donc trouver f C à support compact telle que sup f(x) f(x) < ε. x [ A,A]

49 5.3. CONVERGENCE EN LOI 49 On veut montrer que fdµ n fdµ est inférieur à ε pour tout n suffisamment grand. On décompose comme suit : + + fdµ n fdµ fdµ n fdµn fdµn fdµ fdµ fdµ Comme f est C à support compact, f dµn f dµ. On peut trouver N N tel que pour tout n N, fdµn fdµ < ε. fdµ n fdµ n [ A,A] f f dµ n + [ A,A] c f f dµ n εµ n ([ A,A])+(sup R f +sup R f )µ n ([ A,A] c ) ε+(sup R f +sup R f )ε. Cette majoration est valide pour tout n N. Le terme f f dµ se majore de la même façon. Finalement, on remarque que sup f sup f + ε sup f + 1 sur R par construction. On a donc, pour tout n N, f dµ n f dµ (4+2sup f )ε. Le théorème est démontré. Proposition 11 Soient µ n, µ des mesures de probabilités définies sur la tribu des boréliens de R. On suppose que µ n converge étroitement vers µ. Alors pour tout a, b R tels que µ({a}) = 0 et µ({b}) = 0, on a µ n ([a,b]) n µ([a,b]). De même, pour tout x R tel que µ({x}) = 0, µ n ([x,+ [) n µ([x,+ [), µ n (],x]) n µ(],x]). Appliquons cette proposition à une suite de variables aléatoires. Corollaire 5 Soient (X n ) n N et X des variables aléatoires définiessur un espace probabilisé(ω,t,p)telles que X n convergeen loi vers X. Alors pour tout a,b R tels que P(X = a) = P(X = b) = 0, P(a X n b) P(a X b). n Deplus, lesfonctionsde répartitiondesx n convergentversla fonctionde répartition de X en tout point x R tel que P(X = x) = 0 : F Xn (x) n F X(x) si P(X = x) = 0.

50 50CHAPITRE5. CONVERGENCEDESUITESDEVARIABLESALÉATOIRES Remarque On peut démontrer que la convergence des fonctions de répartition en tout point x tel que P(X = x) = 0 est en fait équivalente à la convergence en loi de la suite X n vers X. Preuve Il s agit d approcher 1 [a,b] par des fonctions continues bornées. Soit h m la fonction continue bornée, affine par morceaux telle que : h m = 1 sur [a+ 1 m,b 1 m ], h m = 0 hors de [a,b]. la pente de h m vaut m sur [a,a+ 1 m ] et m sur [b 1 m,b]. Soit g m la fonction continue bornée, affine par morceaux, telle que g m = 1 sur [a,b], g m = 0 hors de [a 1 m,b+ 1 m ], la pente de g m vaut m sur [a 1 m,a] et m sur [b,b+ 1 m ]. Nous avons la majoration 0 g m h m 1 [a 1 m,a+ 1 m ] +1 [b 1 m,b+ 1 ] si bien que m 0 ( [a 1 g m h m dµ µ m,a+ 1 ] ) [b 1 +µ( m m,b+ 1 ] ) m Ce dernier terme converge vers µ({a}) + µ({b}), quantité qui est nulle par hypothèse. Fixons ε > 0 et choisissons n N tel que g m h m dµ ε. La suite µ n converge vers µ étroitement et h m 1 [a,b] g m, nous avons donc pour tout n suffisamment grand, h m dµ ε h m dµ n µ n ([a,b]) g m dµ n g m dµ+ε. Nous avons aussi, en vertu des inégalités h m 1 [a,b] g m et g m h m dµ ε, g m dµ ε h m dµ µ([a,b]) g m dµ h m dµ+ε, ce qui donne le résultat recherché : µ([a,b]) 2ε µ n ([a,b]) µ([a,b])+2ε. On termine ce chapitre par la preuve d un résultat énoncé précédemment.

51 5.3. CONVERGENCE EN LOI 51 Théorème 8 Soit X n,x des variables aléatoires. Si X n converge vers X en probabilité, alors X n converge vers X en loi. Preuve Soit f : R R C à support compact. Par le théorème des valeurs intermédiaires, pour tout x,y R, f(x) f(y) sup f x y. R On veut montrer que la différence fdp Xn fdp X tend vers 0 quand n. f dp Xn f dp X = f(x n )dp f(x)dp f(x n ) f(x) dp X n X >δ f(x n) f(x) dp + X n X <δ f(x n) f(x) dp 2sup R f P( X n X > δ)+sup R f δ. Comme X n converge vers X en probabilité, P( X n X > δ) n 0. Pour tout ε > 0, on choisit δ telle que sup f δ < ε/2. Il existe alors N N tel que pour tout n N, P( X n X > δ) ε 4sup R f ce qui implique fdp Xn fdp X < ε. Le théorème est démontré.

52 52CHAPITRE5. CONVERGENCEDESUITESDEVARIABLESALÉATOIRES 5.4 Exercices exercice 1 Montrer qu une suite de variables aléatoires (X n ) converge en loi vers zéro si et seulement si les lois P Xn convergent étroitement vers la mesure de Dirac en zéro. exercice 2 Soitg unefonctionc 1 àsupportcompactetx unevariablealéatoire.montrerque E(g(X)) = F X (t)g (t)dt. Soit (X n ) une suite de variables aléatoires telle que F Xn (x) converge vers F X (x) pour tout x satisfaisant P(X = x) = 0. Montrer que X n converge en loi vers X. R exercice 3 Soit (Ω,T,P) un espace probabilisé. On considère sur l ensemble des couples de fonctions mesurables de Ω dans R l expression d(x,y) = E ( ) X Y 1+ X Y. Montrer que cela définit une distance si on identifie les fonctions qui coïncident presque partout. Montrer que la convergence relativement à cette distance est proba équivalente à la convergence en loi : X n X d(x n,x) 0. n n exercice 4 Soit (A i ) une suite d événements indépendants dans leur ensemble. proba Montrer que 1 Ai 0 si et seulement si P(A i) 0. i p.s. Montrer que 1 Ai 0 si et seulement si la série P(A i ) est convergente. i i N exercice 5 Étudier la convergence en loi des suites (X n ) n N suivantes : P(X n = 1+ 1 ) = 1 = P(X n 2 n = 1 1 ). n P(X n = 0) = 1 1 et P(X n n = 1) = 1. n X n de loi uniforme sur {0, 1, 2 n 1,...,,1}. n n n exercice 6 Soit S n,p une variable aléatoire qui obéit à une loi binomiale de paramètres n,p. Calculer la fonction caractéristique de S n,p. Cette fonction est notée ϕ n,p. La suite ϕ n, 1 converge-t-elle simplement lorsque n tend vers +? n Calculer la fonction caractéristique de la loi de Poisson de paramètre λ > 0. Que peut-on dire de la suite S n, 1? n exercice 7 Soit (X n ) et (Y n ) deux suites de variables aléatoires et a R. Montrer que X n X n loi a si et seulement si X n n loi X et Y n n loi proba a. n loi X. n 0 implique X n +Y n n

53 Chapitre 6 Théorème de la limite centrée Pour démontrer le théorème de la limite centrée, nous allons utiliser la caractérisation de la convergence en loi par le biais des fonctions caractéristiques. On commence par calculer la fonction caractéristique de la loi normale. 6.1 Fonction caractéristique de la loi normale Théorème 9 Soit Y une variable aléatoire qui obéit à une loi normale centrée normalisée (m = 0,σ = 1). Sa densité est donnée par f Y (y) = 1 2π e y2 /2 et sa fonction caractéristique vaut ϕ Y (t) = e t2 /2. Preuve Par définition, ϕ Y (t) = R eity 1 2π e y2 /2 dy. Onsaitquee ity = + (ity) k k=0 pour y R. Remplaçons dans l intégrale précédente. k! R e ity e y2 /2 dy = = = + R k=0 + k=0 + k=0 R (it) k k! (ity) k e y2 /2 dy k! (it) k y k e y2 /2 dy k! R y k e y2 /2 dy. Pour justifier l interversion signe somme intégrale, il faut vérifier que la quantité 0 R (ity)k e y2 /2 dy est finie. k! + e y2 /2 ty k + dy = e y2 /2 e ty dy < +. 0 k! 53

54 54 CHAPITRE 6. THÉORÈME DE LA LIMITE CENTRÉE Il faut maintenant calculer I k = R yk e y2/2 dy. Lorsque k est impair, la fonction y y k e y 2 /2 est une fonction impaire, si bien que son intégrale est nulle : I 2l+1 = 0 pour tout l N. Pour k pair, k = 2l, on fait une intégration par partie pour obtenir une relation de récurrence. I 2l+2 = y 2l+1 ye y2 /2 dy = [y 2l+1 ( e y2 /2 )] + + (2l+1)y 2l e y2 /2 dy = (2l+1)I 2l Nous savons que I 0 = R e y2 /2 dy = 2π, si bien que I 2l = (2l 1)(2l 3) π. LaquantitéI 2l estdiviséepar(2l)!dansl expressiondelafonctioncaractéristique. I 2l (2l)! = (2l 1)(2l 3)...1 2π (2l)(2l 1)(2l 2)(2l 3) = 2π (2l)(2l 2)(2l 4)...2 = 1 1 2π 2 l l(l 1)(l 2)...1 = 1 2π. 2 l l! Nous pouvons calculer ϕ Y : ϕ Y (t) = 1 2π e ity e y2 /2 dy = + l=0 I 2l (it) 2l (2l)! 2π = l=0 ( t 2 ) l 2 l l! = e t2 /2. La formule est démontrée. 6.2 Théorème de la limite centrée Théorème 10 Soit (Ω,T,P) un espace probabilité, (X n ) n N une suite de variables aléatoires indépendantes, identiquement distribuées, de carrés intégrables et de variance non nulle. On pose S n = n i=1 X i. Alors la loi de la variable aléatoire n ( S n σ(x 0 ) n E(X 0) ) converge étroitement vers une loi normale d espérance nulle et d écart-type 1. En particulier, pour tout intervalle [a, b] R, ( P a n ( S n σ(x 0 ) n E(X 0) ) ) b n 1 b e x2 /2 dx. 2π a

55 6.2. THÉORÈME DE LA LIMITE CENTRÉE 55 Remarque L événement ci-dessus peut s écrire comme suit : ( a n σ(x 0 ) (Sn n E(X 0)) b ) = ( n σ(x 0 ) (Sn n E(X 0)) [a,b] ) = ( E(X 0 )+a σ(x 0) n Sn n E(X 0)+b σ(x 0) n ) Lorsque n est grand, la probabilité que Sn n [ soit dans l intervalle E(X 0 ) t σ(x 0),E(X 0 )+t σ(x ] 0) n n est proche de 1 2π t t e x2 /2 dx. Pour t = 1,96, 1 2π t t e x2 /2 dx = 0,95. Pour t = 2,58, 1 2π t t e x2 /2 dx = 0,99. Il y a donc à peu près 99% de chance, lorsque n est grand, d avoir une moyenne empirique Sn dans l intervalle [ ] E(X n 0 ) 2,58 σ(x 0) n,e(x 0 )+2,58 σ(x 0) n. Il est d usage de noter la convergence des lois d une suite de variables aléatoires Y n vers la loi normale de paramètres m, σ comme suit : Y n loi n N(m,σ2 ) Dans le cas où les X i sont indépendantes identiquement distribuées d espérance nulle et d écart-type égal à un, le théorème de la limite centrée peut se résumer comme suit : S n loi N(0,1). n n Preuve du théorème Quitte à remplacer les X i par X i E(X i ), on peut supposer que les X i sont centrées : E(X i ) = 0. Quitte à diviser par σ(x i ), on peut aussi supposer que σ(x i ) = 1. On veut montrer que la loi de Sn n converge vers la loi normale. Il suffit donc de montrer que /2 ϕ Sn(t) n n e t2 pour tout t R. Calculons :

56 56 CHAPITRE 6. THÉORÈME DE LA LIMITE CENTRÉE ϕ Sn(t) = E ( Sn ) it e n n = E ( e it n n 1 X k = E ( n = k=1 n k=1 = E ( e it ) e it n X k ) E ( e it n X k ) n X 0 ) n = ϕ X0 ( t n ) n. par indépendance, car les X i sont de même loi, Pour calculer la limite de cette expression quand n tend vers +, on fait un développement limité. Comme X 0 est de carré intégrable, ϕ X0 est C 2 et on a : ϕ X0 (t) = e itx 0 dp, ϕ X 0 (t) = ix 0 e itx 0 dp, ϕ X 0 (t) = X0 2 eitx 0 dp, ϕ X0 (0) = 1, ϕ X 0 (0) = ie(x 0 ) = 0, ϕ X 0 (0) = E(X 2 0 ) = 1. D après la formule de Taylor, ϕ X0 (x) = 1 x2 2 +x2 ε 0 (x), avec ε 0 (x) 0 lorsque x 0. Ceci implique : ϕ Sn(t) = ϕ ( t ) n ( t 2 X0 = 1 n n 2n + t2 2n ε 0( t ) ) n, n n ln ( 1 t2 2n + t2 n ε 0( t n ) ) = n ( t2 2n + t2 n ε 0( t n )+ 1 n ε 1( 1 n ) ) = t2 2 +ε 2( 1 n ), 2 n e t 2. ϕ Sn(t) = ( 1 t2 n 2n + t2 n ε 0( t ) ) n = e t2 2 +ε 2( 1 ) n n Le théorème de la limite centrée est démontré. 6.3 Illustration numérique Nous allons illustrer le théorème de la limite centrée à l aide des graphes des fréquences de la suite S n. Soit X une variable aléatoire discrète. Le graphe des fréquences de X correspond au graphe de la fonction x P(X = x), où x varie parmi les nombres réels tels que P(X = x) > 0. Considérons le lancer d un dé à six faces, modélisé par une variable aléatoire X 0 qui suit une loi uniforme sur l ensemble {1,2,3,4,5,6} : P(X 0 = k) = 1/6 pour k entier compris entre 1 et 6. On répète le lancer n fois, n N, ce qui se décrit par une suite de variables aléatoires X 1,... X n indépendantes entre elles et ayant même loi que X 0. On pose S n = n k=1 X k. Voici les graphes des fréquences de X 0 et S 2 = X 1 +X 2.

57 6.3. ILLUSTRATION NUMÉRIQUE Graphe des fréquences de X Graphe des fréquences de S 2 = X 1 +X 2 On calcule le graphe des fréquences de S n pour tout n par récurrence en utilisant la formule P(S n+1 = k) = P(X n+1 = l)p(s n = k l) j où la somme porte sur l ensemble des valeurs l que prend X n+1. Si n est suffisamment grand, le graphe des fréquences devrait se rapprocher d une gaussienne, pour peu qu il soit convenablement renormalisé. Dans les figures qui suivent, on s est restreint sur l axe des abscisses aux valeurs de k qui sont à moins de trois fois l écart-type de l espérance de S n Graphe de S Graphe de S Graphe de S Graphe de S 10

58 58 CHAPITRE 6. THÉORÈME DE LA LIMITE CENTRÉE Graphe de S Graphe de S 20 Dès n = 5, on voit les probabilités s ordonner selon la fameuse courbe en cloche, dont la densité est donnée par la gaussienne. Il est intéressant de regarder ce qu on obtient lorsqu on part d une loi qui présente plusieurs maxima. Prenons pour X 0 la loi P(X 0 = k) = k2 pour k 770 compris entre 10 et 10. Le graphe des fréquences de X 0 est ci-dessous. P(X 0 = k) = k2 770, k { 10, 9,..,9,10} Graphe de X Graphe de S Graphe de S Graphe de S 10

59 6.3. ILLUSTRATION NUMÉRIQUE Graphe de S Graphe de S 20 La gaussienne met plus de temps à apparaître. Les premiers graphes présentent des oscillations qui s amortissent quand n devient grand. Un autre cas intéressant est donné par une loi fortement dissymétrique. Considérons un X 0 pour lequel P(X 0 = 1) = 0,95 P(X 0 = 2) = P(X 0 = 3) = P(X 0 = 4) = P(X 0 = 5) = P(X 0 = 6) = 0, Graphe de X Graphe de S Graphe de S Graphe de S 10

60 60 CHAPITRE 6. THÉORÈME DE LA LIMITE CENTRÉE Graphe de S Graphe de S 20 Comme nous pouvons le voir sur ces graphiques, la dissymétrie est encore présente pour n = 100. Cet exemple doit donc inciter à la prudence quant aux valeurs de n pour lesquelles l approximation donnée par la loi normale est pertinente. Il est d usage en statistique de faire cette approximation dès que n = 30, mais cela n est pas toujours valide en pratique.

61 6.4. EXERCICES Exercices exercice 1 Soit X k une suite de variables aléatoires indépendantes suivant chacune une loi de Poisson de paramètre un. Quelle est la loi de la somme 1 k nx k? Considérons pour chaque n N une variable aléatoire Y n suivant une loi de Poisson de paramètre n N. Montrer que Y n n n loi n N(0,1). exercice 2 Soit Y, Y n et Z n des variables aléatoires telles que Y n converge en loi vers Y et Z n converge presque sûrement vers une constante c R. Montrer que Y n Z n converge en loi vers cy. Indication : Y n et Z n sont tendues. Soit (X n ) n 1 une suite de variables aléatoires indépendantes identiquement distribuées, de carrés intégrables, centrées. Montrer que n / ( n X k Xk) 2 1/2 N(0,1). n k=1 k=1 exercice 3 Soit (X n ) n 1 une suite de variables aléatoires indépendantes identiquement distribuées, positives, de carrés intégrables et telles que E(X n ) = 1, σ(x n ) = 1. Montrer que 2 ( S n n ) loi N(0,1). n exercice 4 Soit (X n ) une suite de variables aléatoires indépendantes, S n = n k=1 X k. Étudier la convergence en loi de S n /σ(s n ) dans les cas suivants : P(X k = k ) = P(X k = k ) = 1 2 P(X k = k) = P(X k = k) = 1 2 P(X k = 1 k ) = P(X k = 1 k ) = 1 2 P(X k = a k ) = P(X k = a k ) = 1, où (a 2 k) k N est bornée et a 2 k = +. exercice 5 Soit ϕ la fonction caractéristique d une variable aléatoire réelle X non constante. On suppose que ϕ est réelle et positive. Montrer que ϕ(t) = R cos(tx)dp X(x). Montrer que pour tout u R, cos(u) 1 u2 2 + u4 Montrer la minoration pour t R : 1 ϕ(t) t k=1 [ 1t,1t ]x2 ( 1 t2 x 2 12 ) dpx (x). Montrerqu il existe δ > 0etǫ > 0telsquepourtoutt ] δ,δ[, ϕ(t) 1 εt 2. En déduire que pour tout p > 2, la fonction t e t p n est la fonction caractéristique d aucune mesure de probabilité.

62 62 CHAPITRE 6. THÉORÈME DE LA LIMITE CENTRÉE

63 Chapitre 7 Espérance conditionnelle Nous allons introduire un nouveau concept pour mesurer l indépendance de deux variables aléatoires ou d une variable aléatoire et d une tribu. 7.1 Définition de la notion d espérance conditionnelle Définition 15 Soit (Ω,T,P) un espace probabilisé, X : Ω R une variable aléatoire intégrable et F T une tribu. Alors il existe une unique fonction intégrable E(X F), appelée l espérance conditionnelle de X sachant F, qui satisfait les deux conditions suivantes : E(X F) est F-mesurable, pour toute variable aléatoire Y qui est F-mesurable bornée, E(E(X F) Y) = E(XY). L unicité est à comprendre presque partout. Deux fonctions qui satisfont les conditions précédentes sont égales presque partout. Définition 16 La probabilité conditionnelle d un événement A Ω relativement à la tribu F est la fonction définie par P(A F) = E(1 A F). Attention, P(A F) est une fonction définie presque partout sur Ω. Il n est pas garanti qu il y ait, pour presque tout ω Ω, une mesure de probabilité µ ω définie sur T telle que µ ω (A) = P(A F)(ω). 63

64 64 CHAPITRE 7. ESPÉRANCE CONDITIONNELLE Preuve de l existence de E(X F) On commence par le cas où X est de carré intégrable. L espace L 2 (Ω,T,P) est muni d un produit scalaire : X,Y = XYdP = E(XY). On a donc une notion d orthogonalité et de projection orthogonale. Considérons le sous-espace fermé L 2 (Ω,F,P) constitué des fonctions de carré intégrable qui sont F-mesurables. L espérance conditionnelle de X est la projection orthogonale de X sur ce sous-espace. Cette projection orthogonale appartient au sous-espace si bien que E(X F) est F-mesurable. C est la première condition. La variable aléatoire X E(X F) est orthogonale à tous les éléments Y de L 2 (Ω,F,P) : X E(X F),Y = 0 Autrement dit, E((X E(X F)) Y) = 0. C est la seconde condition. Ces deux conditions caractérisent de manière unique la projection orthogonale. On peut généraliser cela aux variables aléatoires positives. Soit X 0, on pose X l = min(x,l). La variable aléatoire X l est borné donc de carré intégrable et X l converge en croissant vers X. On va vérifier dans la suite que E(X l F) est une fonction positive et que la suite E(X l F) est croissante. On définit alors E(X F) = lim l E(X l F) [0,+ ]. En utilisant le théorème de convergence croissante, on montre que E(X F) satisfait les conditions voulues pour tout Y 0. Pour les variables aléatoires intégrables, on les écrit comme différence de variables aléatoires intégrables positives, pour lesquelles on a vu comment définir l espérance conditionnelle. Le passage du cadre L 2 au cadre des variables aléatoires positives puis intégrables est justifié par les propriétés de l espérance conditionnelle qui vont être détaillées après les exemples qui suivent. 7.2 Exemples Tribu associée à une partition finie On considère une partition finie (E i ) i=1..n de Ω : n Ω = E i i=1 E i E j = ø pour tout i,j tels que i j.

65 7.2. EXEMPLES 65 P(E i ) 0 pour tout i. On peut associer à cette partition une tribu F = { E i S {1,...,n} }. i S C est l ensemble des parties de Ω qui peuvent s écrire comme union d éléments de la partition. Proposition 12 n E(X F)(ω) = i=1 E(X1 Ei ) P(E i ) 1 Ei (ω) = n i=1 ( 1 XdP ) 1 Ei (ω) P(E i ) E i avec la notation P(A B) = P(A B) P(B). n P(A F)(ω) = P(A E i )1 Ei (ω) i=1 On a donc P(A F)(ω) = P(A E i ) si ω E i. Preuve de la proposition On montre que la variable aléatoire E(X 1 Ei ) P(E i 1 ) Ei satisfait les deux propriétés qui définissent l espérance conditionnelle. Commençons par vérifier que toute fonction F-mesurable est combinaison linéaire des fonctions indicatrices des E i. Pour cela, montrons qu une telle fonction f est constante sur chacun des E i. Soit x, y E i, l ensemble f 1 ({f(x)}) est dans F et contient x, il contient donc E i. Le point y E i est dans cet ensemble, par conséquent f(y) = f(x). L espérance conditionnelle E(X F) est F-mesurable, nous venons de voir qu elle est de la forme E(X F) = c k 1 Ek, où les c k restent à déterminer. On utilise la deuxième propriété définissant l espérance conditionnelle en prenant Y = 1 Ei pour un certain i. E(E(X F) Y) = E(( c k 1 Ek )1 Ei ) = E(c i 1 Ei ) = c i P(E i ) E(XY) = E(X1 Ei ). Ces deux expressions sont égales, ce qui donne c i = E(X1 E i ) P(E i ) comme souhaité. Le cas d un espace produit On considère l espace produit Ω = Ω 1 Ω 2 muni de la probabilité P = P 1 P 2 et la tribu F = {A Ω 2 A Ω 1 }. Vérifions qu une fonction f est mesurable par rapport à F si et seulement si elle ne dépend que de la première coordonnée.

66 66 CHAPITRE 7. ESPÉRANCE CONDITIONNELLE Soit (ω 1,ω 2 ) Ω; posons f(ω 1,ω 2 ) = t. Nous avons (ω 1,ω 2 ) f 1 ({t}) F. Il existe donc A Ω 1 tel que f 1 ({t}) = A Ω 2.Lerésultat (ω 1,ω 2 )est dansa Ω 2 et ω 1 est dans A. Pour tout ω Ω 2, (ω 1,ω) appartient à A Ω 2 = f 1 ({t}), si bien que f(ω 1,ω) = t = f(ω 1,ω 2 ). Calculons l espérance conditionnelle d une variable aléatoire X relativement à la tribu F. Proposition 13 E(X F)(ω 1 ) = X(ω 1,ω 2 )dp 2 (ω 2 ). Preuve Nous savons que E(X F)(ω 1,ω 2 ) est de la forme f(ω 1 ) pour une certaine fonction f par F-mesurabilité. On doit avoir de plus pour tout Y : Ω 1 R E(E(X F) Y) = f(ω 1 )Y(ω 1 )dp 1 (ω 1 )dp 2 (ω 2 ) = f(ω 1 )Y(ω 1 )dp 1 (ω 1 ). Ceci doit être égal à E(XY) = X(ω 1,ω 2 )Y(ω 1 )dp 1 (ω 1 )dp 2 (ω 2 ). Nous avons donc l égalité, pour tout Y, ( f(ω 1 )Y(ω 1 )dp 1 (ω 1 ) = X(ω 1,ω 2 )dp 2 (ω 2 ) ) Y(ω 1 )dp 1 (ω 1 ) ce qui implique f(ω 1 ) = X(ω 1,ω 2 )dp 2 (ω 2 ). 7.3 Propriétés de l espérance conditionnelle L espérance conditionnelle jouit d un certain nombre de propriétés proches de celles de l intégrale. Soient X, Y deux variables aléatoires intégrables ou positives et F une tribu. Proposition 14 E(X {ø,ω}) = E(X), E(X T ) = X, E(1 F) = 1. E(E(X F)) = E(X). Si X est F-mesurable, alors E(X F) = X. Si X est indépendante de F, alors E(X F) = E(X). Linéarité : pour tout λ R, E(λX +Y F) = λe(x F)+E(Y F). Positivité : si X 0 alors E(X F) 0. Monotonie : si X Y alors E(X F) E(Y F). Pour tout Y F-mesurable, positive si X est positive, bornée si X est intégrable, E(YX F) = YE(X F).

67 7.3. PROPRIÉTÉS DE L ESPÉRANCE CONDITIONNELLE 67 Si X est dans L p et 1 p, alors E(X F) p X p. Si F 1 F 2, alors E(E(X F 1 ) F 2 ) = E(X F 1 ), E(E(X F 2 ) F 1 ) = E(X F 1 ). Preuve Toutes ces propriétés sont d abord démontrées pour des variables aléatoires de carré intégrables en utilisant le fait que l espérance conditionnelle est une projection orthogonale. Elles sont ensuite généralisées aux variables aléatoires positives par un argument de convergence croissante, et enfin aux variables aléatoires intégrables en les décomposant comme différence de deux fonctions croissantes intégrables. La variable E(X T) est la projection de X sur L 2 (Ω,T,P), cette projection est égale à l identité. Pour E(X {ø, Ω}), toute fonction mesurable relativement à la tribu {ø,ω} est constante. La variable E(X {ø,ω}) est donc constante. Prenons Y = 1, nous avons E(E(X F)) = E(X), cette constante vaut donc E(X). SiX estf-mesurable,x estdansl 2 (Ω,F,P),elleestdoncégaleàsaprojection sur L 2 (Ω,F,P) : E(X F) = X. Si X est indépendante de F, elle est indépendante de toute variable aléatoire Y F-mesurable. Nous avons alors E(E(X F) Y) = E(XY) = E(X)E(Y) = E(E(X F))E(Y). Prenons Y = E(X F) qui est bien F-mesurable. Nous avons E(E(X F) 2 ) = E(E(X F)) 2 ou encore V(E(X F)) = 0. Ceci montre que E(X F) est constante p.s. En conséquence, E(X F) = E(X). Linéarité : c est la linéarité de la projection orthogonale. Positivité : soit X 0; on prend Y = 1 (E(X F)<0). E(E(X F)Y) = E(E(X F)1 (E(X F)<0) ) 0 E(XY) = E(X1 (E(X F)<0) ) 0 Ces deux expressions sont égales, elles sont donc toutes les deux nulles, ce qui implique E(X F)1 (E(X F)<0) = 0 p.s. et par conséquent E(X F) 0 p.s.

68 68 CHAPITRE 7. ESPÉRANCE CONDITIONNELLE Monotonie : soit Y,Z tels que Y Z. D après le point précédent, E(Y F) E(Z F) = E(Y Z F) 0. Soit Y F-mesurable. La fonction YE(X F) est aussi F-mesurable. De plus pour tout Z F-mesurable, E(ZYE(X F)) = E(ZYX) carzy estf-mesurable.lafonctionye(x F)satisfaitdonclesdeuxpropriétés caractérisant E(YX F) et nous avons l égalité E(YX F) = YE(X F) p.s. Soit F 1 F 2. La fonction E(X F 1 ) est F 2 -mesurable si bien que E ( E(X F 1 ) F 2 ) = E(X F1 ). Démontrons l égalité E ( E(X F 2 ) F 1 ) = E(X F1 ). La fonction E ( ) E(X F 2 ) F 1 est F1 -mesurable. De plus, pour tout YF 1 - mesurable, Y est à la fois F 1 et F 2 -mesurable et d après la propriété précédente, ( E YE ( ) ) E(X F 2 ) F 1 = E (E ( ) ) E(YX F 2 ) F 1 = E ( E(YX F 2 ) ) = E(YX) Ce sont les deux propriétés qui caractérisent E(X F 1 ). La majoration de la norme L p de E(X F) découle de l inégalité de Jensen, qui fait l objet de la proposition qui suit. Proposition 15 (Inégalité de Jensen) Soit (Ω, T, P) un espace probabilisé, X : Ω R une variable aléatoire et ϕ : R R une fonction convexe. On suppose que X et ϕ(x) sont intégrables ou positives. Alors ϕ ( E(X F) ) E ( ϕ(x) F ) presque sûrement. Preuve Une fonction convexe est continue, admet des dérivées à gauche et à droite en chaque point et on a l inégalité pour tout x,x 0 R, ϕ(x) ϕ(x 0 )+ϕ + (x 0)(x x 0 ) - - où ϕ + (x - 0)est la dérivée à droite en x 0. Le graphe - de ϕ se trouve au-dessus de ses tangentes.

69 7.4. CONDITIONNEMENTRELATIVEMENTÀUNEVARIABLEALÉATOIRE69 Appliquons cette inégalité pour x = X(ω) et x 0 = E(X F)(ω). ϕ(x) ϕ(e(x F))+ϕ + (E(X F))(X E(X F)) On prend maintenant l espérance conditionnelle des deux termes de cette inégalité. E ( ϕ(x) F ) ( E ϕ ( E(X F) ) ) ( (X E(X ) ( ) ) F +E F) ϕ + E(X F) F Les fonctions ϕ ( E(X F) ) et ϕ +( E(X F) ) sont F-mesurables si bien que ( E ϕ ( E(X F) F ) = ϕ ( E(X F) ), ( (X E(X ) ) E F) ϕ +( ) ) ( ) E(X F) = ϕ +( E(X F) E X E(X F) F = 0. L inégalité est démontrée. Exemple Les fonctions x x, x e x, x x p pour p 1 sont convexes. Appliquons l inégalité de Jensen à la fonction x x p. Utilisons la monotonie de l espérance : E(X F) p E( X p F). E(X F) p p = E( E(X F) p) E ( E( X p F) ) = E( X p ) = X p p. Nous avons démontré l inégalité recherchée entre la norme L p d une variable aléatoire et celle de son espérance conditionnelle. 7.4 Conditionnement relativement à une variable aléatoire On commence par associer à toute variable aléatoire X une tribu dont les éléments sont composés d union de lignes de niveau de X. Définition 17 Soit (Ω,T,P) un espace probabilisé, X : Ω R une variable aléatoire. La tribu associée à X, notée T X ous(x), est définie par : T X =S(X) = {X 1 (A) T A borélien de R} Proposition 16 Une variable aléatoire Y : Ω R est T X -mesurable si et seulement si il existe une fonction f : R R borélienne telle que Y = f X.

70 70 CHAPITRE 7. ESPÉRANCE CONDITIONNELLE Preuve Si Y = f(x), pour tout A borélien, l ensemble Y 1 (A) = X 1 (f 1 (A)) est bien dans T X. Soit Y une variable aléatoire T X -mesurable. Montrons que Y est de la forme f(x) pour une certaine fonction f borélienne. Traitons le cas où Y est étagée : n Y = c i 1 Ai, A i T X. i=1 Pour chaque i, on peut trouver un borélien B i R tel que A i = X 1 (B i ). Y = c i 1 X 1 (B i ) = c i 1 Bi X = ( c i 1 Bi ) X La variable aléatoire Y est bien de la forme h X avec h = c i 1 Bi. Passons au cas où Y 0. On peut l approcher de manière croissante par une suite de fonctions étagées (Y n ) n N qui sont T X -mesurables, donc de la forme h n X. Nous avons : Y n = h n X (sup n h n ) X = sup(h n X) = supy n = Y n Comme Y n converge vers Y, on en déduit Y = (sup n h n ) X et Y est bien une fonction de X. Toute variable aléatoire T X -mesurable peut s écrire comme différence de deux fonctionst X -mesurablespositivesdelaformeh X.Lapropositionestdémontrée. Nous somme en mesure de définir l espérance conditionnelle d une variable aléatoire relativement à une autre variable aléatoire. Définition 18 Soit X, Y deux variables aléatoires définies sur Ω. L espérance conditionnelle de Y relativement à X, notée E(Y X), est définie par E(Y X) = E ( Y T X ). Soit A T. La probabilité conditionnelle de A relativement à X est définie par P(A X) = E(1 A X) = E(1 A T X ). La fonction E(Y X) est T X -mesurable. Elle peut donc s exprimer comme une fonction de X. Cette fonction est notée E(Y X = x). C est l espérance de Y sachant que X a pris la valeur x et on a pour P-presque tout ω Ω, E(Y X)(ω) = E ( Y X = X(ω) ),

71 7.4. CONDITIONNEMENTRELATIVEMENTÀUNEVARIABLEALÉATOIRE71 P(A X)(ω) = P ( A X = X(ω) ). Notons que l espérance conditionnelle E(Y X = x) est une fonction de R dans R qui est définie P X -presque partout. De fait, deux fonctions f et g sont égales P X -presque partoutsiet seulement si f X et g X sont égalesp-presquepartout, d après la formule de transfert. On peut exprimer E(Y X) en fonction de la loi du couple (X,Y). Rappelons que cette loi est donnée par la formule P (X,Y) (A) = P ( (X,Y) A ) = P ( {ω Ω (X(ω),Y(ω)) A} ) pour tout sous-ensemble borélien A R 2. La mesure P (X,Y) est une mesure de probabilité définie sur la tribu des boréliens de R 2. Elle est dite à densité si on peut trouver f X,Y : R 2 R +, d intégrale un sur R 2, telle que P (X,Y) (A) = A f X,Y (x,y)dxdy, A R 2. Soit g : R R une fonction borélienne telle que g(y) est positive ou intégrable. L espérance conditionnelle E(g(Y) X) est uniquement déterminée par le fait qu elle est T X -mesurable et qu elle satisfait l égalité E ( E(g(Y) X) Z ) = E ( g(y) Z ) pour toutz T X -mesurable, c est-à-direpour tout Z dela formef(x).la fonction x E(g(Y) X = x) est donc uniquement déterminée par la relation : f(x)e(g(y) X = x)dp X (x) = f(x)g(y)dp = f(x)g(y)dp (X,Y) (x,y). Cas d une loi P (X,Y) à densité Cherchons à donner une expression pour l espérance conditionnelle dans le cas à densité. Lorsque P (X,Y) admet une densité f X,Y, la loi P X admet la densité f X (x) = R f X,Y (x,y)dy. En remplaçant dans l expression précédente, on doit avoir pour tout f : R R borélienne bornée, f(x)e(g(y) X = x) ( f X,Y (x,y)dy ) dx = f(x) ( g(y)f X,Y (x,y)dy ) dx. Comme cette relation doit être vérifiée pour toute fonction f, on en déduit la proposition suivante.

72 72 CHAPITRE 7. ESPÉRANCE CONDITIONNELLE Proposition 17 Soit X, Y deux variables aléatoires telles que le couple (X,Y) admette une densité f X,Y et soit g : R R une fonction borélienne positive ou P Y -intégrable. Alors, pour P X -presque tout x R, R E(g(Y) X = x) = g(y)f X,Y(x,y)dy R f. X,Y(x,y)dy Cas d une loi P X discrète Étudions maintenant le cas où P(X = x 0 ) > 0 pour un certain x 0 R, ce qui se produit par exemple si X est une variable aléatoire discrète. Prenons pour f la fonction indicatrice du singleton {x 0 }. Nous avons la relation : P(X = x 0 )E(g(Y) X = x 0 ) = {x 0 } E(g(Y) X = x)dp X(x) = Ω g(y(ω))1 (X=x 0 )(ω)dp(ω) = (X=x 0 ) g(y(ω))dp(ω). On retrouve l expression habituelle de l espérance conditionnelle pour les variables aléatoires discrètes. Proposition 18 Soit X, Y deux variables aléatoires et g : R R une fonction borélienne positive ou P Y -intégrable. Pour tout x R tel que P(X = x) > 0, E(g(Y) X = x) = E(g(Y)1 (X=x)) P(X = x) = 1 g(y)dp. P(X = x) (X=x) On termine par une formule qui permet de calculer la probabilité d un événement à partir des probabilités conditionnelles. Proposition 19 Soit X une variable aléatoire, A T et I R un intervalle ou un borélien de R. Alors P ( A X 1 (I) ) = P(A X = x)dp X (x), P(A) = Ces formules découlent des égalités R I P(A X = x)dp X (x). I E(1 A X = x)dp X (x) = E(1 (X I) E(1 A X)) = E(1 (X I) 1 A ) = P(A (X I)).

73 7.4. CONDITIONNEMENTRELATIVEMENTÀUNEVARIABLEALÉATOIRE73 Généralisation à n variables Les considérations précédentes se généralisent à un nombre quelconque de variables aléatoires. Définition 19 Soient X 1,...,X n des variables aléatoires définies sur Ω. La tribu engendrée par les X i est notée T X1,...,X n ous(x 1,...,X n ). On pose T X1,...,X n =S(X 1,...,X n ) = {(X 1,...,X n ) 1 (A) A R n borélien} E(Y X 1,X 2,...,X n ) = E ( Y T X1,X 2,...,X n ). On démontre comme précédemment que toute fonction T X1,X 2,...,X n -mesurable est de la forme f(x 1,X 2,...,X n ) où f : R n R est borélienne. On a donc une fonction (x 1,...,x n ) E(Y X 1 = x 1,...,X n = x n ) définie de R n dans R qui, composée avec (X 1,X 2,...,X n ), redonne E(Y X 1,X 2,...,X n ).

74 74 CHAPITRE 7. ESPÉRANCE CONDITIONNELLE 7.5 Exercices exercice 1 Onconsidèreunespaceprobabilisé(Ω,T,P),unetribuF T etdeuxévénements A T, F F. Montrer la formule suivante : F P(A F)dP P(F A) = P(A F)dP. Quelle formule obtient-on lorsque F est associée à une partition E i = Ω? Ω exercice 2 SoitX unevariablealéatoiredecarréintégrable.montrerquee(x 2 X+1) = X 2. exercice 3 Soit X : Ω R + une variable aléatoire positive définie sur (Ω,T,P) et F T une tribu. Montrer que presque sûrement, X > 0 implique E(X F) > 0. exercice 4 SoitX, Y deux variablesaléatoirestelleque lecouple(x,y) suit uneloiuniforme sur le disque unité : f X,Y (x,y) = 1 π 1 [0,1](x 2 +y 2 ). Calculer E(X 2 Y). exercice 5 Soit X une variable aléatoire de densité f X. On considère sa valeur absolue X. Montrer que X admet la densité f X (x) = ( f X (x)+f X ( x) ) 1 R+ (x). Montrer que E ( g(x) X = x ) = g(x)f X(x)+g( x)f X ( x) f X (x)+f X ( x) exercice 6 On considère une variable aléatoire suivant une loi exponentielle de paramètre λ. Sa densité est donc donnée par : f(x) = λ e λx 1 [0, [ (x) Pour s,t > 0, calculez P(X t) et P(X t+s X s). On dit que la loi exponentielle est sans mémoire. Montrer que cette propriété est aussi vraie pour une variable aléatoire discrète suivant une loi géométrique de paramètre p. exercice 7 Soit X une variable aléatoire de carré intégrable définie sur (Ω,T,P), F T une tribu et un nombre réel t > 0. Montrer que P( X t F) E(X2 F) t 2. exercice 8 Soit X une variable aléatoire de carré intégrable définie sur (Ω,T,P) et F T une tribu. On définit la variance conditionnelle de X relativement à F comme suit : V(X F) = E(X 2 F) E(X F) 2 Montrer que V(X) = E(V(X F))+V(E(X F)). p.s.

75 Chapitre 8 Théorie des martingales Pour obtenir des théorèmes de convergence pour les séries de variables aléatoires indépendantes, nous allons introduire le concept de martingale. 8.1 La notion de martingale Définition 20 Soit (Ω,T,P) un espace probabilisé, F n T des tribus, n N. On dit que les F n forment une filtration si elles constituent une suite croissante pour l inclusion : F n F n+1 pour tout n N. Une suite de variables aléatoires (M n ) est dite adaptée à la filtration F n si M n est F n -mesurable pour tout n N. La suite (M n ) n N est une martingale relativement à la filtration F n si les M n sont intégrables, la suite (M n ) est adaptée à F n, E(M n+1 F n ) = M n pour tout n N. Si la filtration F n n est pas spécifiée, on prend F n = T M1,...,M n. Lorsque la suite est composée de fonctions de carrés intégrables, la variable M n s obtient en projetant orthogonalement M n+1 sur L 2 (Ω,F n ). Montrons que la projection de M n+k, k > 0, sur L 2 (Ω,F n ) est aussi égale à M n. Proposition 20 Pour tout k > 0, E(M n+k F n ) = M n. Cette proposition se démontre par récurrence sur k. Supposons là vérifiée pour k > 0 et démontrons là pour k +1. Comme F n F n+k, E(M n+k+1 F n ) = E(E(M n+k+1 F n+k ) F n ) = E(M n+k F n ) = M n. La proposition est démontrée. 75

76 76 CHAPITRE 8. THÉORIE DES MARTINGALES Donnons quelques exemples de martingales. Premier exemple Soit(X k ) k N unesuitedevariablesaléatoiresindépendantes entreellesetcentrées (E(X n ) = 0 pour tout n N). Posons S n = X 1 +X X n. Alors la suite (S n ) n N est une martingale relativement à la filtration F n = T X1,X 2,...,X n. Preuve La variable aléatoire S n est bien intégrable et F n -mesurable. E(S n+1 F n ) = E(S n+1 X 1,...,X n ) = E(X n+1 +S n X 1,...,X n ) = E(X n+1 X 1,...,X n )+E(S n X 1,...,X n ) = E(X n+1 )+S n = S n C est la relation voulue. Remarquons qu on a l égalité T X1,X 2,...,X n = T S1,S 2,...,S n car les X i s expriment en fonction des S i et réciproquement. La suite (S n ) est une martingale aussi bien par rapport aux (X i ) qu aux (S i ). Second exemple Soit M une variable aléatoire intégrable et (F n ) une filtration. La suite est une martingale. M n = E(M F n ) Preuve E(M n+1 F n ) = E ( E(M F n+1 ) F n ) = E(M Fn ) = M n. Troisième exemple Onconsidèresurl espaceω = [0,1[,muni de la mesure de Lebesgue, les fonctions M n (x) = 2 n 1 [0,1/2 n [(x). 2 n 1 On prend pour F n la tribu associée à la partition [0,1[= [ k k +1[ k=0 2n,. 2 n La suite (M n ) est une martingale relativement à la filtration F n. Preuve 1 Les fonctions M n sont intégrables : 0 M n (x) dx = 1. La variable aléatoire M n est mesurable relativement à la tribu F n car elle est constantesurchacundesélémentsdelapartitionassociéeàf n.onavuprécédemment une formule explicite pour l espérance conditionnelle relativement aux F n.

77 8.1. LA NOTION DE MARTINGALE 77 Notons I k = [ k 2 n, k+1 2 n [ Fn. E(M n+1 F n ) = k E(M n+1 1 Ik ) P(I k ) 1 Ik = 2 n E ( ) 2 n+1 1 [0, 1 [ 1I0 = 2 n 1 I0 = M n. 2 n+1 La suite M n satisfait bien les propriétés qui définissent les martingales. Quatrième exemple Voici un autre exemple en lien avec les jeux de hasard. Proposition 21 Soit (M n ) n N une martingale et (H n ) n N une suite de variables aléatoires telle que H n est F n 1 -mesurable pour tout n 1. On suppose que H n est bornée pour chaque n N. On pose G 0 = 0 et Alors (G n ) n N est une martingale. n G n = H m (M m M m 1 ) m=1 Preuve E(G n+1 F n ) = E( n+1 1 H m (M m M m 1 F n ) = E(H n+1 (M n+1 M n ) F n )+E( n 1 H m (M m M m 1 ) F n ) = H n+1 E(M n+1 M n F n )+E(G n F n ) = G n. De plus G n est bien F n -mesurable et G n est intégrable. Prenons (X n ) n N une suite de variables aléatoires indépendantes identiquement distribuées telle que P(X n = 1) = P(X n = 1) = 1/2 et définissons n M 0 = 0, M n = X i, H 1 = 1, i=1 { 2Hn 1 si X H n = n 1 = 1 1 sinon. Il s agit ici de modéliser une succession de mises à la roulette. On suppose que rouge et noir sortent chacun avec probabilité 1/2. La variable X n vaut 1 si le joueur gagne au tirage n et vaut 1 sinon. La quantité H n est la mise engagée par le joueur au n ième tirage, elle est fonction des résultats observés au cours des précédents tirages. Dans la martingale classique, le joueur double sa mise s il a perdu au tirage précédent; sinon il mise 1 euro. La valeur G n représente le gain (ou la perte) à l étape n. Notons F 0 la fortune initiale du joueur. Après avoir joué n fois, sa fortune vaut F n = G n +F 0. C est une martingale. Proposition 22 Soit M n une martingale. Alors E(M n ) = E(M n 1 ) =... = E(M 1 ) = E(M 0 ).

78 78 CHAPITRE 8. THÉORIE DES MARTINGALES Preuve E(M n ) = E(E(M n+1 F n )) = E(M n+1 ) pour tout n N. Dans l exemple précédent, nous avons E(F n ) = E(F 0 ). Le joueur ne peut pas augmenter l espérance de sa fortune par une stratégie H n judicieuse. 8.2 Convergence des martingales On va montrer qu une martingale est convergente dès qu elle est bornée en norme L 2. Définition 21 Une martingale (M n ) est dite bornée dans L 2 si il existe C > 0 telle que pour tout n N, M n 2 C. Théorème 11 (convergence L 2 ) Toute martingale bornée dans L 2 converge au sens de la norme L 2 et presque sûrement : il existe une variable aléatoire M de carré intégrable telle que L M 2 n M, n M n p.s. n M. Remarque On a alors M n = E(M F n ). On peut montrer que ce théorème se généralise à L p pour p ]1, [. Preuve de la convergence L 2 Posons Y i = M i M i 1 si bien que n M n = Y i +M 0. i=1 Vérifions que la famille des Y i est orthogonale. Comme M n est une martingale, E(Y i F i 1 ) = E(M i F i 1 )+E(M i 1 F i 1 ) = M i 1 M i 1 = 0 La variable Y j est F i 1 -mesurable pour tout j < i, ce qui donne i=1 Y i,y j = E(Y i Y j ) = E(E(Y i F i 1 ) Y j ) = E(0) = 0. On a donc : n E(Yi 2 ) = E ( n ) ( Yi 2 = E (Mn M 0 ) 2) = E(Mn) E(M 2 0) 2 C. i=1 Cette série à termes positifs est bornée, elle converge. Elle est donc de Cauchy. On en déduit que la suite M i est aussi de Cauchy pour la norme L 2 : ( ( M n M m 2 2 = E((M n M m ) 2 n ) ) 2 ) = E Y i = i=m+1 n m+1 E(Y 2 i )

79 8.2. CONVERGENCE DES MARTINGALES 79 pour n N et m n. La série E(Yi 2 ) étant de Cauchy, la dernière somme est inférieure à ε dès que m et n sont suffisamment grands. La suite (M n ) est bien de Cauchy pour la norme L 2, elle converge donc. Pour démontrer la convergence presque sûre, on utilise le lemme suivant : Lemme 5 (inégalité maximale) Soit(M n ) n N une martingale.alorspour tout N N et tout λ > 0, P ( max 0 i N M i λ ) E(M2 N ) λ 2. Preuve du lemme On s intéresse au premier indice pour lequel la martingale dépasse λ. A 0 = ( M 0 λ) A 1 = ( M 0 < λ, M 1 λ) A j = ( M 0 < λ,..., M j 1 < λ, M j λ) Nous avons alors ( max 0 i N M i λ ) = N A j. j=0 Cherchons à minorer E(M 2 N 1 A j ) en insérant le terme M j dans le carré. E(M 2 N 1 A j ) = E((M N M j ) 2 1 Aj )+E(M 2 j 1 A j )+2E((M N M j )M j 1 Aj ). Le premier terme à droite de l égalité est positif, tandis que le second terme est supérieur à E(λ 2 1 Aj ) car M j est supérieur à λ sur A j. Vérifions que le dernier terme est nul en utilisant le fait que M n est une martingale : E(M N M j 1 Aj ) = E(E(M N M j 1 Aj F j )) = E(M j 1 Aj E(M N F j )) = E(M j 1 Aj M j ) car M j et 1 Aj sont F j -mesurables. On endéduit E((M N M j )M j 1 Aj ) = 0 comme souhaité. Au final, E(M 2 N1 Aj ) λ 2 E(1 Aj ) = λ 2 P(A j ). On conclut en faisant la somme pour j allant de 0 à n. E(M 2 N) E(M 2 N 1Aj ) λ 2 P( A j ) = λ 2 P(max M i λ). Preuve de la convergence presque sûre On a vu que pour tout ε > 0, il existe N tel que pour tout m,n N E((M n M m ) 2 ) < ε.

80 80 CHAPITRE 8. THÉORIE DES MARTINGALES On peut donc construire par récurrence une suite croissante n i telle que n 0 = 0 et E((M ni M ni 1 ) 2 ) 1/2 i. Soit n N et i le plus grand entier tel que n i n. Nous avons l encadrement n i n < n i+1. Décomposons la martingale M n comme suit : i M n = (M n M ni )+ (M nj M nj 1 ) +M 0. j=1 Appliquons l inégalité maximale à la martingale M n = M n+ni, N = n i+1 n i et λ = 1 i 2 : P ( max M n M ni 1/i 2) E((M n M i+1 n i ) 2 ) i2 n i n n i+1 1/i 2 2 i. La série de terme général i 2 /2 i converge, on peut appliquer le lemme de Borel- Cantelli : presque sûrement, pour i assez grand, max n i n n i+1 M n M ni 1 i 2 i 0. En particulier, pour n = n i+1 et i supérieur à un certain i 0 N dépendant de ω, M ni+1 M ni 1 i 2. La série i i 0 M ni+1 M ni i 0 1/i 2 est de nature convergente, ce qui montre quelasérie M ni+1 M ni estabsolument convergente. Lethéorèmeest démontré. 8.3 Séries de variables aléatoires indépendantes Le premier résultat que nous pouvons déduire du théorème de convergence des martingalesbornéesdansl 2 est uncritère pourlaconvergence presque sûred une série de variables aléatoires indépendantes. Corollaire 6 Soit (X i ) une suite de variables aléatoires indépendantes centrées (E(X i ) = 0 pour tout i) et de carrés intégrables. On suppose que V(X i ) <. i N Alors la série X i converge presque sûrement et en norme L 2.

81 8.3. SÉRIES DE VARIABLES ALÉATOIRES INDÉPENDANTES 81 Preuve Nous avons vu précédemment que sous les hypothèses du corollaire, la suite S n = ni=1 X i est une martingale. Remarquons que l espérance de S n est nulle : E(S n ) = n E(X i ) = 0. 1 Sa variance est donc égale au carré de sa norme L 2 que nous évaluons comme suit : S n 2 2 = E(S2 n ) = V(S n) = V( n X i ) = 1 n V(X i ) 1 V(X i ). 1 La martingale S n est bornée dans L 2, elle converge presque sûrement et dans L 2. Exemple La série harmonique 1 est divergente. La série alternée ( 1) k est convergente. k k Qu en est-il lorsque nous choisissons les signes des termes de la série de manière aléatoire? Proposition 23 Soit (ε k ) une suite de variables aléatoires indépendantes identiquement distribuées telles que P(ε k = 1) = P(ε k = 1) = 1/2. Alors la série k ε k k converge presque sûrement. Cela se déduit du corollaire. Il suffit de remarquer d abord que E( ε i i ) = 0 puis que k=1 V ( ε ) k = k k=1 1 k 2 V(ε k) = k=1 1 k 2 <. Comme exemple d une telle suite de variables aléatoires, on peut prendre Ω = { 1,1} N, P = ( 1 2 δ δ ) N, ( ) 1 εi (xk ) k N = xi. On a alors P ({ (x i ) i N Ω x k k 1 k converge }) = 1. On se pose maintenant la question générale de la convergence d une série X i lorsque les X i sont indépendantes entre elles. Le théorème suivant est dû à A. Kolmogorov.

82 82 CHAPITRE 8. THÉORIE DES MARTINGALES Théorème 12 (théorème des trois séries) Soit(X i ) i N une suite de variables aléatoires indépendantes entre elles. Posons Y i = X i 1 ( Xi 1). Alors la série X i converge presque sûrement si et seulement si les trois séries suivantes convergent : P( X i 1), E(Y i ), V(Y i ). Preuve Ce théorème se déduit du corollaire précédent. On se contente de démontrer que la convergence des trois séries implique la convergence presque sûre de X i. Comme P( X i 1) converge, nous pouvons appliquer le lemme de Borel- Cantelli : pour presque tout ω, il existe i 0 tel que pour tout i i 0, X i (ω) 1. On a alors Y i (ω) = X i (ω). Les séries X i et Y i sont donc de même nature. Posons Ỹi = Y i E(Y i ). Comme E(Y i ) converge, il suffit de démontrer la convergence presque sûre de Ỹ i. Les Ỹi sont centrées et leur variance est égale à celle des Y i : Ỹi 2 2 = V(Ỹi) = V(Y i ). On sait que la série V(Ỹi) = V(Y i ) converge. Le corollaire s applique, la série Ỹ i est convergente presque sûrement et le théorème est démontré. Complément Donnons une preuve de la loi des grands nombres dérivée des théorèmes précédents et valide pour toute suite de variables aléatoires (X n ) n N indépendantes identiquement distribuées intégrables. On considère les variables Y k = X k 1 ( Xk k). Montrons que la série V(Y k ) est k 2 convergente. k 1 E(Yk 2) = 1 x 2 1 k 2 k 1 k 2 {x k} dp Xk (x) = 0 ( 0 k 1 ) x k 1 2 {k x} xdp X0 (x). La somme qui apparaît sous l intégrale dans le dernier terme est majorée par 2 k 1 1 k 2 pour x [0,2]. Pour x 2, on effectue une comparaison série-intégrale. k 1 x k 1 2 {k x} k k x k 1 x t 2 dt x 1 x t 2 dt x x 1 2. Nous avons de plus V(Y k E(Y k )) = V(Y k ) E(Yk 2 ), si bien que la série V( Y k E(Y k ) ) est convergente. La série Y k E(Y k ) converge donc presque sûrement, en vertu du théorème vu k k précédemment.

83 8.4. CONVERGENCE DES ESPÉRANCES CONDITIONNELLES 83 1 n De manière générale, pour toute suite (x k ) telle que x i i converge, la moyenne xk converge vers 0. Cela découle de la formule suivante 1 n n ( k k=1 i=1 x ) i n x i = i i=1 i 1 n n x i i=1 qui se démontre en intervertissant les deux signes sommes. On en déduit 1 n n (Y k E(Y k )) k=1 p.s. n 0. Par convergence dominée, la suite E(Y k ) = x1 { x k} dp X0 (x) converge vers E(X 0 ). Il en va donc de même pour 1 n E(Yk ). Il reste à remarquer que P(Y k X k ) = P( X 0 k) = 1 {k x} dp X0 (x) xdp X0 (x) < k=1 k=1 k=1 D aprèslelemmedeborel-cantelli,pourpresque toutω,lessuitesx k (ω)ety k (ω) coïncident à partir d un certain rang et la différence 1 Xk (ω) 1 Yk (ω) tend n n vers 0. Le résultat est démontré. 8.4 Convergence des espérances conditionnelles Théorème 13 Soit (Ω,T,P) un espace probabilisé et F n T une suite de tribus croissante pour l inclusion telle que T soit engendrée par tous les F n. Alors pour tout X : Ω R de carré intégrable, E(X F n ) n X presque sûrement et en norme L2. Remarque Ce théorème est encore vrai si X est juste intégrable, on a alors convergence presque sûrement et en norme L 1. Preuve On a vu précédemment que la suite E(X F n ) est une martingale. On sait aussi qu elle est bornée dans L 2 : E(X F n ) 2 X 2. Elle converge donc presque sûrement et en norme L 2, notons X sa limite et montrons que X = X. Soit n 0 N et n n 0. E(X X F n0 ) 2 = E(E(X F n ) X F n0 ) 2 E(X F n ) X 2 n 0 On a donc pour tout n 0 N et A F n0, E(X X F n0 ) = 0. Ceci implique : X XdP = E(1 A (X X)) = E(1 A E(X X F n0 )) = 0. A On en déduit que X = X en posant A = n NF n et en appliquant le résultat d intégration suivant.

84 84 CHAPITRE 8. THÉORIE DES MARTINGALES Proposition 24 Soit (Ω,T,P) un espace probabilisé, Y : Ω R intégrable, A T une algèbre de parties de T. Si AYdP = 0 pour tout A A, alors Y = 0 presque sûrement. Donnons deux applications du théorème de convergence précédent. Notons T (Xk,k N) ous(x k,k N) la tribu engendrée par toutes les variables X k, k N. Théorème 14 (Loi du 0-1 de Kolmogorov) Soit (X k ) k N une suite de variables aléatoires indépendantes et A T (Xk,k N). N N Alors la probabilité de l événement A vaut 0 ou 1 : P(A) {0,1}. Preuve Pourn N,l événementaappartientàlatribut (Xk,k n+1).ilestdoncindépendant de X 0,X 1,...,X n. On en déduit P(A) = P(A X 0,...,X n ). Les tribus F n = T X0,...,X n sont croissantes et engendrent F = T (Xk,k 0). On peut appliquer le théorème précédent en se plaçant sur l espace (Ω,F,P) : P(A) = P(A X 0,...,X n ) = E(1 A F n ) n 1 A On peut donc trouver ω Ω tel que P(A) = 1 A (ω) {0,1}. Exemple Soit (X n ) n N une suite de variables aléatoires indépendantes et A = {ω Ω k 0X k converge}. On peut écrire A sous la forme suivante, pour tout N N : A = {ω Ω X k converge} T (Xk,k N). k N D après la loi du 0-1, l événement A a pour probabilité 0 ou 1. Par conséquent, ou bien pour presque tout ω Ω, la série X k (ω) converge, ou bien pour presque tout ω Ω, la série X k (ω) diverge. Posons S n = n k=1 X k. Par le même raisonnement, l ensemble {ω Ω la suite (S n (ω)) n N est bornée} acomme probabilité0ou1.defait,n étantdonné, lasuite (S n (ω)) n 1 est bornée si et seulement si la suite ( n k=n X k (ω)) n N est bornée et cette dernière suite ne dépend que de X k pour k N. Comme autre application, montrons qu on peut approcher presque partout toute fonction de carré intégrable définie sur [0, 1[ par des fonctions en escalier explicites. p.s.

85 8.4. CONVERGENCE DES ESPÉRANCES CONDITIONNELLES 85 Proposition 25 Soit f L 2 ([0,1[,dx). Alors 2 n 1 k=0 ( 2 n k+1 2 n f(x)dx ) 1 k [ k 2 n 2 n, k+1 2 n [ p.s. n f Preuve On prend pour F n la tribu associée à la partition [0,1[ = précédemment que E(f F n ) = 2 n 1 k=0 ( 2 n k+1 2 n 2 n 1 k=0 f(x)dx ) 1 k [ k 2 n 2 n, k+1 2 n [. [ k 2 n, k+1 2 n [. On a vu De plus, les intervalles de la forme [ k, k+1 [, n N et k {0,...,2 n 1}, engendrent latribudesboréliens. Lethéorèmeprécédent montrequee(f F n ) f 2 n 2 n p.s. et en norme L 2. Complément Une martingale (M n ) est dite bornée dans L 1 s il existe C 0 tel que pour tout n N, M n 1 C. On peut montrer qu une telle martingale converge presque sûrement mais on n a pas forcément la convergence en norme L 1. Cette convergence a lieu en norme L 1 si et seulement si (M n ) satisfait la condition suivante : sup n N E( M n 1 Mn λ)) λ 0. Une suite de variable aléatoires (M n ) qui satisfait cette condition est dite équiintégrable. Voici un exemple d une telle suite. Considérons une variable aléatoire X intégrable et F n une filtration. Alors la suite E(X F n ) est une martingale équiintégrable. C est une conséquence du calcul suivant. ( E(X F n) λ) E(X F n) dp (E( X F n) λ) E( X F n)dp (E( X F n) λ) X dp ( X λ) X dp + λp ( E( X F n ) > λ ) ( X E( X ) λ) X dp + λ La première inégalité provient de la majoration E(X F) E( X F) et de la croissance de la fonction x x1 x λ. La dernière majoration provient de l inégalité de Markov. Comme application, on peut montrer que la suite E(X F n ) converge vers X aussi bien en norme L 1 que presque sûrement lorsque les F n engendrent toute la tribu T et que X est intégrable.

86 86 CHAPITRE 8. THÉORIE DES MARTINGALES 8.5 Temps d arrêt Définition 22 Soit (F n ) une filtration. Une variable aléatoire τ : Ω N { } est un temps d arrêt relativement à la filtration F n si l événement (τ = n) est dans F n pour tout n N. Remarque On a alors (τ n) F n pour tout n N car (τ n) = (τ = k) 0 k n 0 k n F k = F n. Théorème 15 Soit (M n ) une martingale et τ un temps d arrêt. On pose Alors (M n τ ) est une martingale. (n τ)(ω) = min(n,τ(ω)), (M n τ )(ω) = M (n τ)(ω) (ω). Remarque Considérons un résultat ω Ω pour lequel τ(ω) est fini. Nous avons M n τ (ω) = { Mn (ω) si n τ(ω) M τ(ω) (ω) si n τ(ω) Nous voyons que si τ(ω) <, la suite (M n τ )(ω) est stationnaire, c est-à-dire constante à partir d un certain rang. La suite (M n τ ) n N converge sur l ensemble (τ < ) vers la variable aléatoire ω M τ(ω) (ω), notée M τ. Sur l ensemble (τ = ), elle coïncide avec la suite (M n ). Exemple On revient à l exemple de la fortune F n d un joueur qui joue au casino. On a vu que c est une martingale et que E(F n ) = E(F 0 ). Le joueur peut-il augmenter l espérance de sa fortune en s arrêtant de jouer au bon moment? Reprenons l exemple de la martingale consistant à doubler la mise si on est perdant. Plutôt que de jouer un nombre de foisnfixé, le joueur décide de s arrêter au premier gain s il y a effectivement un gain qui se produit au cours des n tirages. La variable τ(ω) = min{k N X k (ω) = 1} est un temps d arrêt : (τ = n) = (X 1 = 1,...,X n 1 = 1,X n = 1) T X1,...,X n. La fortune du joueur est maintenant égale à F n τ. C est une martingale, nous avons donc E(F n τ ) = E(F 0 τ ) = E(F 0 ) = F 0. On ne peut pas améliorer les gains par cette méthode.

87 8.6. ILLUSTRATION PAR UNE MARCHE ALÉATOIRE 87 Preuve du théorème On pose H n = 1 (τ n). Cette fonction est F n 1 -mesurable : (τ n) = (τ < n) c = (τ n 1) c F n 1. Posons G n = n m=1 H m (M m M m 1 ) = n m=1 1 (m τ) (M m M m 1 ). Nous avons G n (ω) = M τ(ω) (ω) M 0 (ω) si n τ(ω), = M n (ω) M 0 (ω) si n τ(ω). ce qui montre que G n = M n τ M 0 et nous avons vu plus haut que G n est une martingale. 8.6 Illustration par une marche aléatoire On se donne une suite de variables aléatoires (X k ) k N indépendantes identiquement distribuées telle que P(X k = 1) = P(X k = 1) = 1/2. Posons S n = n k=1 X k. La suite (S n (ω)) n N est ici interprétée comme un déplacement sur l ensemble des entiers Z. L entier S n (ω) correspond à la position de la marche au temps n, en considérant que nous sommes à l origine au temps 0. Si nous sommes à la position S n au temps n, nous avons une chance sur deux de nous déplacer d un pas vers la droite au temps n+1, et une chance sur deux de nous déplacer d un pas vers la gauche : P(S n+1 = S n +1) = P(X n+1 = 1) = 1/2, P(S n+1 = S n 1) = P(X n+1 = 1) = 1/2. On parle ici d une marche aléatoire symétrique sur Z. Voici une présentation imagée de cette marche aléatoire et des problématiques associées. Un individu passablement éméché se déplace sur un chemin, de réverbères en réverbères, de manière aléatoire, avec probabilité 1/2 de partir vers la gauche

88 88 CHAPITRE 8. THÉORIE DES MARTINGALES ou la droite à chaque étape. Sa maison se trouve en a, le bar en b avec a,b N. Deux questions se posent : - Parviendra-t-il à atteindre sa maison ou à retourner au bar? - Quelle est la probabilité qu il atteigne la maison avant le bar? Théorème 16 Presque sûrement, la marche atteint a ou b : P({ω Ω n N tel que S n = a ou S n = b}) = 1. La probabilité que la marche atteigne a avant b est égale à b a+b : P({ω n N tel que a < S k (ω) < b pour tout k < n et S n (ω) = a}) = b a+b. preuve Posons τ(ω) = inf{k N S k = a ou S k = b} si la suite (S n (ω)) atteint effectivement a ou b et τ(ω) = + sinon. Cette variable aléatoire τ est un temps d arrêt à valeurs dans N { }. La preuve du théorème se fait en deux temps. On commence par vérifier que τ est fini presque sûrement : P(τ < ) = 1. La variable aléatoire ω S τ(ω) (ω) est alors bien définie, on la note S τ, elle ne prend que les deux valeurs a et b. On montre ensuite que cette variable est d espérance nulle : E(S τ ) = 0. On a alors le système de deux équations { P(Sτ = a) + P(S τ = b) = 1 ap(s τ = a) + bp(s τ = b) = E(S τ ) = 0 qu il suffit de résoudre pour trouver la probabilité P(S τ = a). Montrons que τ est fini presque sûrement. On a vu précédemment que l événement {ω Ω la suite (S n (ω)) n N est bornée} a pour probabilité 0 ou1. C est une conséquence dela loi du0-1. Onveut montrer que cette probabilité vaut 0. Si cela n est pas le cas, pour presque tout ω Ω, la suite (S n (ω)) est bornée, ce qui implique S n (ω) n n 0, et pour toute f continue bornée, par convergence dominée, fdp Sn = f ( S n (ω) ) dp(ω) f(0)dp = f(0) = R n Ω n n f(ω)dδ 0 (ω).

89 8.6. ILLUSTRATION PAR UNE MARCHE ALÉATOIRE 89 La suite Sn n converge en loi vers la mesure de Dirac en zéro, ce qui contredit le théorème de la limite centrée. La suite n est pas bornée, elle atteint a ou b presque sûrement. Nous savons maintenant que la variable S τ est bien définie, montrons que son espérance est nulle. S n τ p.s. n S τ et a S n τ b pour tout n N. Appliquons le théorème de convergence dominée : E(S τ ) = lim n E(S n τ ). Comme (S n τ ) est une martingale, nous avons E(S n τ ) = E(S 1 τ ) = E(S 1 ) = 0, ce qui montre que E(S τ ) = 0. Le théorème est démontré. Complément Donnons une autre preuve des deux résultats P(τ < ) = 1 et E(S τ ) = 0 en utilisant le théorème de convergence des martingales plutôt que la loi du 0-1. Nous savons que la suite (S n τ ) est une martingale dont l espérance est nulle et qui est toujours comprise entre a et b. Elle est donc bornée dans L 2 et converge en norme L 2 vers une certaine variable aléatoire Y. Par l inégalité de Cauchy- Schwarz, la convergence L 2 implique la convergence des espérances : E(Y) = lim n E(S n τ ) = 0. Sur l ensemble (τ = ), nous avons pour presque tout ω et pour tout n, S n τ (ω) = S n (ω), a < S n (ω) < b. La suite S n converge donc vers Y en norme L 2 sur (τ = ) et la suite S n+1 S n doit converger vers 0 sur cet ensemble. Comme elle est constante égale à un, on en déduit que l ensemble (τ = ) est négligeable et Y = S τ presque sûrement.

90 90 CHAPITRE 8. THÉORIE DES MARTINGALES 8.7 Exercices exercice 1 Soit (X n ) une suite de variables aléatoires indépendantes identiquement distribuées centrées de carrés intégrables. On pose S n = n k=1 X k. Montrer que pour tout ε > 0, la série suivante converge presque sûrement : En déduire que la suite k 2 X k kln(k) 1/2+ε nln(n) S n 1/2+ε est bornée, puis qu elle converge vers zéro. exercice 2 Soit (M k ) k N une martingale relativement à une filtration (F k ). On suppose les M k de carrés intégrables. Montrer que si les M k sont indépendants entre eux, chacun des M k est constant presque partout. exercice 3 Soit (X i ) i N une suite de variables aléatoires positives, indépendantes entre elles, telles que E(X i ) = 1 pour tout i. On pose M n = X 1 X 2...X n. Montrer que M n est une martingale. En déduire que M n converge presque sûrement. La limite est notée M. On suppose maintenant que P(X i = 1/2) = P(X i = 3/2) = 1/2. Posons τ n (ω) = Card{1 k n X k (ω) = 3/2}. Montrer que τn converge presque sûrement vers une limite qu on calculera. n Vérifier que M n = 3 τn /2 n. ( ) En déduire que M = 0 presque sûrement puis que E X i E(X i ). i=1 i=1 exercice 4 Soit a un entier strictement positif, (X i ) i N une suite de variables aléatoires indépendantes identiquement distribuées, telles que P(X i = 1) = P(X i = 1) = 1/2. On pose S n = n i=1 X i, F n = T X1,...,X n et on s intéresse au premier entier τ tel que S τ est égal à a en valeur absolue : τ(ω) = inf{k N S k (ω) = a}. Montrer que la suite M n = (S n ) 2 n est une martingale relativement aux (F n ). Montrer que τ est un temps d arrêt relativement aux (F n ). Montrer que E(M n τ ) = 0 pour tout n N. Montrer la convergence E(n τ) E(τ). n Montrer que pour presque tout ω Ω, il existe k N tel que S k (ω) = a. En déduire que S n τ a pour tout n N et (S n τ ) 2 n a2 p.s. Déduire de ce qui précède que E(τ) = a 2.

91 Annexe A Rappels d intégration On rappelle dans cette annexe un certain nombre de résultats d intégration utilisés dans le cours. Le cadre est l intégrale de Lebesgue. On adopte les notations probabilistes : (Ω,T,P) est un espace probabilisé, c est-à-dire un espace mesuré pour lequel P(Ω) = 1. A.1 Théorèmes de convergence Théorème 17 (convergence croissante) Soit f n : Ω R + une suite de fonctions mesurables positives. On suppose que pour presque tout ω Ω, la suite (f n (ω)) n N est croissante et on note f(ω) la limite de cette suite. Alors lim n Ω f n (ω)dp(ω) = Ω f(ω)dp(ω). Commentaire : la valeur des intégrales peut être égale à +. Cas particulier : en appliquant ce théorème à une suite de fonctions indicatrices 1 An, où (A n ) n N est une suite d ensembles croissante pour l inclusion, alors P ( ) A n = limn P(A n ). 0 Théorème 18 (lemme de Fatou) Soit f n : Ω R + une suite de fonctions mesurables positives. Alors lim inf f n(ω)dp(ω) liminf f n (ω)dp(ω). n n Ω Théorème 19 (convergence dominée) Soit f n : Ω R une suite de fonctions mesurables qui converge presque partout vers une fonction f. On suppose que pour presque tout ω Ω, la suite f n (ω) est dominée par une fonction g : Ω R + intégrable : f n (ω) g(ω) pour presque tout ω Ω. 91 Ω

92 92 ANNEXE A. RAPPELS D INTÉGRATION Alors lim f n (ω)dp(ω) = f(ω)dp(ω). n Ω Ω Commentaire : Nous avons supposé P(Ω) = 1 si bien que toute suite f n bornée est dominée par une fonction constante, qui est intégrable. Le théorème s applique donc à une telle suite. Théorème 20 (interversion somme intégrale, cas positif) Soit f n : Ω R + une suite de fonctions mesurables positives. Alors f n (ω) dp(ω) = Ω n=0 n=0 Ω f n (ω) dp(ω). Commentaire : la somme de la série peut être égale à +. Théorème 21 (interversion somme intégrale, cas intégrable) Soitf n : Ω R une suite de fonctions mesurables. On suppose que n=0 Ω f n (ω) dp(ω) < +. Alors f n (ω) dp(ω) = Ω n=0 n=0 Ω f n (ω) dp(ω). Commentaire : la série qui apparaît dans le second terme est convergente. A.2 Intégrales dépendant d un paramètre Théorème 22 (continuité sous le signe intégral) Soit I un intervalle de R. Soit f : I Ω R une fonction mesurable telle que pour P-presque tout ω Ω, t f(t,ω) est continue sur I, il existe une fonction intégrable g : Ω R telle que pour tout t I, f(t,ω) g(ω) pour presque tout ω Ω. Alors la fonction t Ω f(t,ω)dp(ω) est continue sur I : pour tout t 0 I lim f(t,ω)dp(ω)= f(t 0,ω)dP(ω). t t 0 Ω Ω

93 A.3. INTÉGRALES MULTIPLES 93 Théorème 23 (dérivée sous le signe intégral) Soit I un intervalle de R et f : I Ω R une fonction mesurable telle que pour tout t I, ω f(t,ω) est intégrable, pour P-presque tout ω Ω, t f(t,ω) est dérivable en tout point t I, il existe une fonction intégrable g : Ω R telle que pour tout t I, t f(t,ω) g(ω) pour presque tout ω Ω. Alors en tout point t I, d f(t,ω)dp(ω) = dt Ω A.3 Intégrales multiples Ω t f(t,ω)dp(ω). Ici, (Ω 1,T 1,P 1 ) et (Ω 2,T 2,P 2 ) sont des espaces probabilisés. Théorème 24 (Fubini, cas positif) Soit f : Ω 1 Ω 2 R + une fonction T 1 T 2 -mesurable positive. Alors Ω 1 Ω 2 f(ω 1,ω 2 ) dp 1 P 2 (ω 1,ω 2 ) = Ω 2 ( Ω 1 f(ω 1,ω 2 )dp 1 (ω 1 ) ) dp 2 (ω 2 ) Commentaire : les intégrales peuvent valoir +. = Ω 1 ( Ω 2 f(ω 1,ω 2 )dp 2 (ω 2 ) ) dp 1 (ω 1 ) Théorème 25 (Fubini, cas intégrable) Soit f : Ω 1 Ω 2 R une fonction T 1 T 2 -mesurable. On suppose que Ω 1 Ω 2 f(ω 1,ω 2 ) dp 1 P 2 (ω 1,ω 2 ) < +. Alors Ω 1 Ω 2 f(ω 1,ω 2 ) dp 1 P 2 (ω 1,ω 2 ) = Ω 2 ( Ω 1 f(ω 1,ω 2 )dp 1 (ω 1 ) ) dp 2 (ω 2 ) Commentaire : la fonction f est dans L 1 (Ω 1 Ω 2 ). = Ω 1 ( Ω 2 f(ω 1,ω 2 )dp 2 (ω 2 ) ) dp 1 (ω 1 ). Théorème 26 (changement de variables) Soient U,V deux ouverts de R d, ϕ : U V un difféomorphisme de classe C 1, f : V R une application mesurable relativement à la mesure de Lebesgue sur V. On suppose f positive ou intégrable. Alors f(ϕ(u))jϕ(u) du = f(v)dv U où Jϕ(u) est le jacobien de ϕ : Jϕ(u) = det(d u ϕ). Commentaire : pour le changement de variables en coordonnées polaires, u = (r,θ), v = ϕ(u) = ϕ(r,θ) = (rcos(θ),rsin(θ)), du = drdθ et Jϕ(r,θ) = r. V

94 94 ANNEXE A. RAPPELS D INTÉGRATION A.4 Espaces L p Rappel : f p = ( f p dp ) 1/p pour 1 p <. Ω f = inf{m 0 pour presque tout ω Ω, f(ω) M}. Théorème 27 (convergence normale dans L p ) Soit p [1, ] et (f n ) une suite de fonctions dans L p (Ω). On suppose que n N f n p <. Alors la série f n converge presque partout et en norme L p vers une certaine fonction f L p (Ω). Théorème 28 (inclusion des espaces L p ) Soit p,q R tels que 1 p q. Alors L (Ω) L q (Ω) L p (Ω) L 1 (Ω). De plus, pour tout f : Ω R mesurable, f 1 f p f q f. Commentaire : le cas p = 2 est important : L (Ω) L 2 (Ω) L 1 (Ω). Théorème 29 (extraction de sous-suites) Soit (f n ) n N une suite de fonctions de L p (Ω) qui converge au sens de la norme L p vers une certaine fonction f dans L p (Ω). Alors il existe une sous-suite n k telle que f nk converge presque partout vers f. Commentaire : en général, la convergence L p n implique pas la convergence presque partout. A.5 Inégalités Théorème 30 (inégalité de Minkowski) Soit p [1, ] et f,g L p (Ω). Alors f +g p f p + g p. Commentaire : c est l inégalité triangulaire pour les normes L p.

95 A.6. FORMULE D INVERSION DE FOURIER 95 Théorème 31 (inégalité de Cauchy-Schwarz) Soit f,g L 2 (Ω). Alors fg est intégrable et fgdp f 2 g 2. Ω Commentaire : on a égalité si et seulement si f et g sont proportionnelles. Théorème 32 (inégalité de Hölder) Soit p,q [1, ] tels que 1/p + 1/q = 1/r ainsi que f L p (Ω), g L q (Ω). Alors fg est dans L r (Ω) et fg r f p g q. Commentaire : l inégalité de Cauchy-Schwarz correspond à p = q = 2, r = 1. Théorème 33 (inégalité de Jensen) Rappelons que P(Ω) = 1. Soit ϕ : R R une fonction convexe et f : Ω R telle que f et ϕ f sont intégrables. Alors ϕ ( dp Ωf ) ϕ f dp A.6 Formule d inversion de Fourier Le théorème suivant est une version ponctuelle de la formule d inversion de Fourier; c est l analogue du théorème de Dirichlet pour les séries de Fourier. On donne un énoncé est un peu plus général que celui utilisé dans le cours. La convention utilisée pour la transformée de Fourier est la suivante : ˆf(t) = e itx f(x)dx. R Lorsquef est intégrable, sa transformée ˆf est continue. Elletendvers 0enl infini, en vertu du lemme de Riemann-Lebesgue. Lemme 6 (Riemann-Lebesgue) Soit f L 1. Alors lim e itx f(x) dx = 0. t R Ce lemme se démontre par un calcul explicite lorsque f est la fonction indicatrice d un intervalle. Dans le cas général, il suffit d approcher en norme L 1 la fonction f par une combinaison linéaire de fonctions indicatrices. Théorème 34 (formule d inversion de Fourier) Soit f L 1 (R) et t R. On suppose que f admet une limite à gauche et une limite à droite en t, notées f(t ) et f(t + ). On suppose également que f est dérivable à droite et à gauche en t. Alors, 1 ( f(t )+f(t + ) ) A = lim e itx dx ˆf(x) 2 A A 2π. Ω

96 96 ANNEXE A. RAPPELS D INTÉGRATION Lorsque f est intégrable de classe C 1 et que ˆf est intégrable, la formule devient f(t) = 1 e itx ˆf(x)dx pour tout t R. 2π R Remarquons que ˆf est intégrable dès que f est C 2 et f est intégrable. En effet, ˆf est alors continue et majorée par une constante multipliée par 1 t 2, comme le montre l égalité ˆf(t) = 1 t 2 f (t), t R, qui s obtient par une intégration par partie. En particulier, la formule d inversion est vraie pour toute fonction C à support compact. Preuve de la formule d inversion Quitte à translater la variable, on peut supposer t = 0. On a 1 [ A,A] (x)ˆf(x) dx R 2π R = ( On va montrer que lim A 0 1 [ A,A] (x)f(x) dx 2π R = 2sinAx x ) 2sinAx x f(x) dx 2π 1 2 f(0+ ) Faisons le changement de variable y = Ax et remarquons que = 0. f(x) dx 2π. 0 sinax x dx = 0 siny y dy = π 2, 2sinAx et qu ainsi f(x) dx 0 x 2π 1 2 f(0+ ) = 2sin(Ax) f(x) f(0+ ) dx 0 x 2π. Sans le facteur 1/x, il suffirait d appliquer le lemme de Riemann-Lebesgue. On découpe en deux l intégrale pour analyser ce qui se passe près de 0 et loin de 0. Près de 0, on utilise l hypothèse suivante : f(x) = f(0 + )+xf (0 + )+x ε(x), avec lim x 0 ε(x) = 0. Par conséquent, il existe δ > 0 tel que f(x) f(0+ ) f(x) f(0 + ) x x est borné sur ]0,δ]. La fonction 1 ]0,δ] (x) est intégrable et par le lemme de Riemann-Lebesgue, δ lim sin(ax) f(x) f(0+ ) A + 0 x dx = 0. Loin de 0, sur [δ,+ [, on a 0 < 1/x < 1/δ, et la fonction f(x) x intégrable. Par Riemann-Lebesgue, 1 [δ, [ (x) est lim sin(ax) f(x) A + δ x dx = 0.

97 A.6. FORMULE D INVERSION DE FOURIER 97 Enfin, par définition des intégrales généralisées, on a : sin(ax) lim A + δ x f(0 + siny ) dx = lim A + Aδ y dy f(0 + ) = 0. 0 On démontre de même que lim A la preuve. 2sinAx x f(x) dx 2π = 1 2 f(0 ), ce qui termine

98 98 ANNEXE A. RAPPELS D INTÉGRATION A.7 Exercices exercice 1 n Calculer n lim 0 ( x) n 1 dx. n exercice 2 1 Soit f : [0,1] R une fonction mesurée. Calculer lim n 0 exercice 3 Montrer l égalité 1 1 exercice 4 Soit t > 0, calculer l intégrale En déduire la valeur de xy dxdy = 0 ( sinx x n=1 1 n 2. ( sinx) 2 e tx dx. x ) 2 dx. exercice 5 Calculer de deux manières différentes l intégrale En déduire la valeur de l intégrale 0 ln(x) (x 2 1) dx. exercice 6 On considère la série suivante, pour x [0,1], n 1 2 n x sin(n) nf(x) 2 dx. 1 (1+y)(1+x 2 y) dxdy. Montrer qu elle converge pour presque tout x [0, 1], mais qu elle diverge pour un ensemble dense de x [0,1]. exercice 7 Calculer l intégrale dxdy en effectuant le changement de variables 1 xy { x = cosθ t y = cosθ+t exercice 8 On se place sur R + muni de la mesure de Lebesgue et on considère f(x) = Montrer que : f L 1 ([1, [) et f / L p ([1, [) si p < 1. f L 1 ([0,1]) et f / L p ([0,1]) si p > 1. f L 1 ([0, [) et f / L p ([0, [) si p 1. 1 x(1+ ln(x) ) 2.

99 A.8. CONTRE-EXEMPLES 99 A.8 Contre-exemples Vérifier les assertions suivantes en calculant les deux termes de chacune des inégalités. Expliquer pourquoi les théorèmes classiques ne s appliquent pas dans chacun des cas. Linéarité : x(x+1) 1 1 x dx x(x+1) dx 1 0 x dx Interversion limite intégrale : lim n 1 0 nx n dx 1 0 lim n nxn dx Interversion somme intégrale : k=0 x k x 2k x 2k+1 dx + k=0 1 0 x k x 2k x 2k+1 dx Continuité sous le signe intégral : lim t 0 0 t 1+t 2 x 2 dx 0 lim t 0 t 1+t 2 x 2 dx Intégrales multiples : ( 1 1 ) x y max(x 3,y 3 ) dx dy ( 1 1 ) x y max(x 3,y 3 ) dy dx

100 100 ANNEXE A. RAPPELS D INTÉGRATION

101 Annexe B Formulaire On collecte dans cette annexe les formules vues dans le cours. B.1 Loi d une variable aléatoire Loi d une variable aléatoire X P X (A) = P(X A) = P(X 1 (A)) Espérance E(X) = Variance V(X) = E ( (X E(X)) 2) = Ω Ω XdP = R xdp X (x) (X E(X)) 2 dp = R (x E(X)) 2 dp X (x) V(X) = E(X 2 ) E(X) 2 = ΩX 2 dp ( X dp ) 2 = Ω Rx 2 dp X (x) ( xdp X (x) ) 2 R Formule de transfert E(g(X)) = Ω g(x) dp = Fonction de répartition F X (x) = P(X x) = Fonction caractéristique ϕ X (t) = E(e itx ) = Ω R x e itx dp = g(x) dp X (x) dp X (x) R e itx dp X (x) 101

102 102 ANNEXE B. FORMULAIRE Cas discret P X = p xk δ xk, P X (A) = p xk k I x k A E(X) = X (x) = RxdP x k P(X = x k ) k I V(X) = (x k E(X)) 2 P(X = x k ) = x 2 k P(X = x k) ( x k P(X = x k ) ) 2 k I k I k I E(g(X)) = g(x)dp = X (x) = Ω Rg(x)dP g(x k )P(X = x k ) k I F X (x) = P(X = x k ) x k x ϕ X (t) = k e itx k P(X = x k ) Cas continu dp X (x) = f X (x)dx, P X (A) = E(X) = R xf X (x)dx A f X (x)dx V(X) = (x E(X)) 2 f X (x)dx = R Rx 2 f X (x)dx ( xf X (x)dx ) 2 R E(g(X)) = g(x)dp = g(x)dp X (x) = g(x)f X (x)dx B.2 Inégalités Inégalité de Cauchy-Schwarz Ω F X (x) = ϕ X (t) = R x R f X (x)dx e itx f X (x)dx R E( XY ) = XY dp X 2 dp Ω Ω Ω Y 2 dp = X 2 Y 2 Inégalité de Markov P(Y λ) E(Y) λ si λ > 0, Y 0.

103 B.3. COUPLES DE VARIABLES ALÉATOIRES 103 Inégalité de Bienaymé-Tchebichev P( X E(X) t) V(X) t 2 si t > 0, E(X 2 ) <. Majoration L p, 1 p, pour l espérance conditionnelle Inégalité de Jensen conditionnelle E(X F) p X p si X est dans L p. ϕ ( E(X F) ) E ( ϕ(x) F ) p.s. si ϕ est convexe et X, ϕ(x) intégrables. Inégalité maximale pour les martingales P ( max 0 i N M i λ ) E(M2 N ) λ 2 si (M n ) est une martingale. B.3 Couples de variables aléatoires Soit X et Y deux variables aléatoires. La loi du couple (X,Y) est donnée par P (X,Y) (A) = P((X,Y) A) = P({ω Ω (X(ω),Y(ω)) A}) Covariance Cov(X,Y) = E(XY) E(X)E(Y) = dp ΩXY ( ΩXdP )( Y dp ). Ω V(X +Y) = V(X)+V(Y)+2Cov(X,Y) Formule de transfert E(g(X,Y)) = g(x,y)dp = g(x,y)dp (X,Y) (x,y) Ω R 2 Espérance d un produit de variables indépendantes E(f(X)g(Y)) = E(f(X))E(g(Y)) Loi d un couple de variables indépendantes E(g(X,Y)) = g(x,y)dp (X,Y) (x,y) = g(x,y)dp X (x)dp Y (y) R 2 R 2 Cas discret P (X,Y) = p xi,y j δ (xi,y j ) i,j P (X,Y) (A) = P(X = x i,y = y j ) i,j tels que (x i,y j ) A

104 104 ANNEXE B. FORMULAIRE E(g(X,Y)) = g(x,y)dp (X,Y) (x,y) = R 2 i,j g(x i,y j )P(X = x i,y = y j ) P(X = x i ) = j P(X = x i,y = y j ) Cas continu dp (X,Y) (x,y) = f X,Y (x,y)dxdy, P (X,Y) (A) = A f X,Y (x,y)dxdy E(g(X,Y)) = g(x,y)dp (X,Y) (x,y) = g(x,y)f X,Y (x,y)dxdy R 2 R 2 f X1 (x 1 ) = f X1,X 2 (x 1,x 2 )dx 2 B.4 Convergence de variables aléatoires Convergence presque sûre X n Convergence L p R p.s. X si P({ω Ω X n(ω) X(ω)}) = 1. n n X n Convergence en probabilité L p n X si X n X p n 0. proba X n X si P( X n X > ε) 0 pour tout ε > 0. n n Convergence en loi X n loi X si n f dp Xn n f dp X pour toute f continue bornée. B.5 Théorèmes limites n n On pose S n = X k. Alors E(S n ) = E(X k ). De plus, k=1 k=1 n V(S n ) = V(X k ) si les X i sont indépendantes. k=1 Loi faible des grands nombres Si les X i sont i.i.d. intégrables, S n n proba n E(X 1)

105 B.6. ESPÉRANCE CONDITIONNELLE 105 Loi forte des grands nombres Si les X i sont i.i.d. intégrables, Théorème de la limite centrée Si les X i sont i.i.d. centrées telles que 0 < σ(x i ) 2 <, Convergence des martingales bornées dans L 2 S n n p.s. n E(X 1) S n loi n n N(0,σ2 ) Si M n est une martingale et M n 2 C, M n converge p.s. et L 2 Convergence de la somme dans le cas de variance bornée Si les X i sont indépendantes centrées et V(X i ) <,S n converge p.s. et L 2 Théorème des trois séries Soit Y i = X i 1 ( Xi 1). Si les X i sont indépendantes, S n converge p.s. P( X i 1), E(Y i ), V(Y i ) convergent. Convergence des espérances conditionnelles Si X est de carré intégrable et les F i sont croissantes et engendrent T, p.s. et L2 E(X F n ) X n B.6 Espérance conditionnelle Caractérisation de l espérance conditionnelle Propriétés E(X F) est F-mesurable E(E(X F) Y) = E(XY) pour tout Y F-mesurable E(E(X F)) = E(X) E(YX F) = YE(X F) si Y est F-mesurable E(E(X F 1 ) F 2 ) = E(E(X F 2 ) F 1 ) = E(X F 1 ) si F 1 F 2 Conditionnement relativement à une variable aléatoire f(x)e(g(y) X = x)dp X (x) = f(x)g(y)dp (X,Y) (x,y) si f est bornée Cas discret Cas continu E(g(Y) X = x) = E(g(Y)1 (X=x)) P(X = x) E(g(Y) X = x) = = 1 g(y)dp P(X = x) (X=x) R g(y)f X,Y(x,y)dy R f X,Y(x,y)dy

106 106 ANNEXE B. FORMULAIRE B.7 Martingales Caractérisation M n est F n mesurable, E(M n+1 F n ) = M n pour tout n. Propriétés E(M n+k F n ) = M n pour tout k > 0. E(M n ) = E(M 0 ) pour tout n.

107 Annexe C Références Références en français concernant les probabilités Jean Jacod, Philip Protter L essentiel en théorie des probabilités Cassini. ISBN Dominique Foata, Aimé Fuchs Calcul des probabilités Dunod. ISBN Références en anglais concernant les probabilités Rick Durrett Probability : theory and examples. Cambridge University Press. ISBN Patrick Billingsley Probability and measure. John Wiley & Sons, Inc. ISBN Référence en français pour la théorie de l intégration Marc Briane, Gilles Pagès Théorie de l intégration, cours et exercices Vuibert. ISBN Référence en anglais pour la théorie de l intégration Richard Mansfield Dudley Real analysis and probability. Cambridge University Press. ISBN Yves Coudène, Janvier 2015.

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

Commun à tous les candidats

Commun à tous les candidats EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Université Pierre & Marie Curie (Paris 6) Licence de Mathématiques L3 UE LM364 Intégration 1 & UE LM365 Intégration 2 Année 2010 11 Théorie de la Mesure et Intégration Responsable des cours : Amaury LAMBERT

Plus en détail

Que faire lorsqu on considère plusieurs variables en même temps?

Que faire lorsqu on considère plusieurs variables en même temps? Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2 Probabilités Table des matières I Petits rappels sur le vocabulaire des ensembles 2 I.1 s................................................... 2 I.2 Propriétés...................................................

Plus en détail

La mesure de Lebesgue sur la droite réelle

La mesure de Lebesgue sur la droite réelle Chapitre 1 La mesure de Lebesgue sur la droite réelle 1.1 Ensemble mesurable au sens de Lebesgue 1.1.1 Mesure extérieure Définition 1.1.1. Un intervalle est une partie convexe de R. L ensemble vide et

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Suites numériques 3. 1 Convergence et limite d une suite

Suites numériques 3. 1 Convergence et limite d une suite Suites numériques 3 1 Convergence et limite d une suite Nous savons que les termes de certaines suites s approchent de plus en plus d une certaine valeur quand n augmente : par exemple, les nombres u n

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : [email protected] Mots-clés : équation fonctionnelle, série

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300 I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

Probabilités avancées. Florin Avram

Probabilités avancées. Florin Avram Probabilités avancées Florin Avram 24 janvier 2014 Table des matières 1 Mise en scène discrète 3 1.1 Espace des épreuves/résultats possibles, événements, espace probabilisé, mesure de probabilités, variables

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

1 TD1 : rappels sur les ensembles et notion de probabilité

1 TD1 : rappels sur les ensembles et notion de probabilité 1 TD1 : rappels sur les ensembles et notion de probabilité 1.1 Ensembles et dénombrement Exercice 1 Soit Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(p(ω)) = 2 4. Soit k n (

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1 Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Ecole Nationale de la Statistique et de l Administration Economique Théorie de la Mesure et Intégration Xavier MARY 2 Table des matières I Théorie de la mesure 11 1 Algèbres et tribus de parties d un ensemble

Plus en détail

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v 1 1 2 t

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v 1 1 2 t 3.La méthode de Dirichlet 99 11 Le théorème de Dirichlet 3.La méthode de Dirichlet Lorsque Dirichlet, au début des années 180, découvre les travaux de Fourier, il cherche à les justifier par des méthodes

Plus en détail

Etude de fonctions: procédure et exemple

Etude de fonctions: procédure et exemple Etude de fonctions: procédure et exemple Yves Delhaye 8 juillet 2007 Résumé Dans ce court travail, nous présentons les différentes étapes d une étude de fonction à travers un exemple. Nous nous limitons

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

Probabilités. C. Charignon. I Cours 3

Probabilités. C. Charignon. I Cours 3 Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3

Plus en détail

Mesures gaussiennes et espaces de Fock

Mesures gaussiennes et espaces de Fock Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première

Plus en détail

Théorie de la mesure. S. Nicolay

Théorie de la mesure. S. Nicolay Théorie de la mesure S. Nicolay Année académique 2011 2012 ii Table des matières Introduction v 1 Mesures 1 1.1 Sigma-algèbres................................. 1 1.2 Mesures.....................................

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7 Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Probabilités et statistique. Benjamin JOURDAIN

Probabilités et statistique. Benjamin JOURDAIN Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech

Plus en détail

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre : Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant

Plus en détail

Produits d espaces mesurés

Produits d espaces mesurés Chapitre 7 Produits d espaces mesurés 7.1 Motivation Au chapitre 2, on a introduit la mesure de Lebesgue sur la tribu des boréliens de R (notée B(R)), ce qui nous a permis d exprimer la notion de longueur

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

Chapitre 2. Eléments pour comprendre un énoncé

Chapitre 2. Eléments pour comprendre un énoncé Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données

Plus en détail

EI - EXERCICES DE PROBABILITES CORRIGES

EI - EXERCICES DE PROBABILITES CORRIGES EI 1 EI - EXERCICES DE PROBABILITES CORRIGES Notations 1 Les coefficients du binôme sont notés ( n p 2 Un arrangement de n objets pris p à p est noté A p n 3 Si A est un ensemble fini, on notera A ou card

Plus en détail

Coefficients binomiaux

Coefficients binomiaux Probabilités L2 Exercices Chapitre 2 Coefficients binomiaux 1 ( ) On appelle chemin une suite de segments de longueur 1, dirigés soit vers le haut, soit vers la droite 1 Dénombrer tous les chemins allant

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

Fonctions de plusieurs variables. Sébastien Tordeux

Fonctions de plusieurs variables. Sébastien Tordeux Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. [email protected]. http ://freakonometrics.blog.free.

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free. Actuariat I ACT2121 septième séance Arthur Charpentier [email protected] http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement

Plus en détail

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers

Plus en détail

EXERCICE 4 (7 points ) (Commun à tous les candidats)

EXERCICE 4 (7 points ) (Commun à tous les candidats) EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat

Plus en détail

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement

Plus en détail

Équations non linéaires

Équations non linéaires Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et

Plus en détail

Pour l épreuve d algèbre, les calculatrices sont interdites.

Pour l épreuve d algèbre, les calculatrices sont interdites. Les pages qui suivent comportent, à titre d exemples, les questions d algèbre depuis juillet 003 jusqu à juillet 015, avec leurs solutions. Pour l épreuve d algèbre, les calculatrices sont interdites.

Plus en détail

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie... 1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................

Plus en détail

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours MSUR T INTÉGRATION N UN DIMNSION Notes de cours André Giroux Département de Mathématiques et Statistique Université de Montréal Mai 2004 Table des matières 1 INTRODUCTION 2 1.1 xercices.............................

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

Calculs de probabilités

Calculs de probabilités Calculs de probabilités Mathématiques Générales B Université de Genève Sylvain Sardy 13 mars 2008 1. Définitions et notations 1 L origine des probabilités est l analyse de jeux de hasard, tels que pile

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Tests semi-paramétriques d indépendance

Tests semi-paramétriques d indépendance Tests semi-paramétriques d indépendance Bernard Colin et Ernest Monga Département de Mathématiques Université de Sherbrooke Sherbrooke J1K-2R1 (Québec) Canada Rapport de recherche N o 139 Abstract Let

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Corrigé du baccalauréat S Pondichéry 12 avril 2007

Corrigé du baccalauréat S Pondichéry 12 avril 2007 Corrigé du baccalauréat S Pondichéry 1 avril 7 EXERCICE 1 Commun à tous les candidats 4 points 1 a Les vecteurs AB et AC ont pour coordonnées AB ; ; ) et AC 1 ; 4 ; 1) Ils ne sont manifestement pas colinéaires

Plus en détail