Chapitre 2 Le mouvement Brownien en tant que processus de Markov On définit tout d abord la notion de filtration : Définition 0.5 Une filtration sur un espace mesurable (Ω, F) est une famille (F t ) t 0 de soustibus telle que s t, F s F t. Une filtration (F t ) t 0 est IP-complète pour une certaine mesure de probabilité IP, si F 0 contient tous les événements de mesure nulle, i.e. N = {N F tel que IP(N) = 0}. Une filtration (F t ) t 0 est continue à droite si t 0, F t = F t + où F t + = ε>0 F t+ε = n>0 F t+ 1 n. Soit (F t ) t 0 une filtration alors (G t ) t 0 définie par G t = F cpl t mesure IP, G t = σ(f t, N )) est une filtration complète pour IP. (complétion par rapport à la On dit qu une filtration (F t ) t 0 satisfait les conditions habituelles si elle est continue à droite et complète. 1 Premières propriétés du mouvement brownien Propriété 1.1 Soit B un mouvement brownien. Alors - Symétrie : B est un mouvement brownien, - Propriété de scaling : soit k > 0, ( 1 k B kt, t 0) est un mouvement brownien, - Inversion du temps : (tb 1, t 0) est un mouvement brownien. t Preuve. Il est facile de vérifier que ces processus sont gaussiens, centrés, continus et de covariance t s. Pour montrer la continuité de (tb 1, t 0) en 0, de remarquer que le processus B, avec t B t = tb 1 et B ont même loi et sont continus sur ]0, + [. Par conséquent, comme B est continu t en zéro IP( B t 0) = IP( B t 1 t 0 n ) n 1 p 1 t ]0,1/p] Q = IP( B t 1 n ) = IP(B t 0) = 1. t 0 n 1 p 1 t ]0,1/p] Q 17
18 1.1 Propriéte de Markov simple Définition 1.2 Soit B un mouvement brownien. On appelle filtration brownienne la filtration définie pour tout t 0 par F B t = σ(b s, 0 s t) cpl. Proposition 1.3 Propriété de Markov simple. On fixe t 0 et on définit B par : s 0, Bs = B t+s B t. Comme les accroissements du brownien sont indépendants et stationnaires, le processus B est indépendant de F B t et a la même loi que B. On peut réécrire la propriété de Markov du mouvement brownien dans le cadre classique de la théorie des processus de Markov : indépendance du futur et du passé conditionnellement un présent. Notons IP x pour x IR (ou IR d ) la loi du mouvement brownien issu de x, i.e. la loi de x + B où B est un mouvement brownien. Proposition 1.4 Propriété de Markov simple, 2ème version. Soit t 0 fixé. On pose B s = B t+s, s 0. Conditionnellement à B t = x, le processus B est indépendant de F B t et a pour loi IP x. Preuve. On remarque que B s = B t+s B t +B t, où B s = B t+s B t est un mouvement brownien indépendant de F B t et B t est une variable F B t -mesurable. D où le résultat. Propriété 1.5 La filtration brownienne (F B t ) t 0 est continue à droite. Exemple 1.6 Voici un exemple de filtration non continue à droite. On considère le processus X défini par : X t = tε où ε est une variable de Bernoulli : IP(ε = 1) = IP(ε = 1) = 1/2. On a F 0 est la tribu triviale et F t = σ(ε) pour t > 0. Par contre, F 0 + = σ(ε) F 0. Corollaire 1.7 Loi du 0-1 de Blumenthal. La tribu F B 0 + est triviale : i.e. IP(Λ) = 0 ou 1 pour tout Λ F B 0 +. Conséquence 1.8 On définit S le processus : t 0 S t = sup B s. 0 s t La mesurabilité de S t est assurée par la continuité du mouvement brownien. Alors IP(S t > 0, t > 0) = 1. Le brownien prend des valeurs > 0 p.s. De même, si on note I t = inf 0 s t B s, en utilisant la propriété de symétrie, on a IP(I t < 0, t > 0) = 1. Comme les trajectoires de B sont continues, on a par conséquent que p.s. l ensemble {t 0 : B t = 0} admet 0 comme point d accumulation. Preuve. on remarque que {S t > 0, t > 0} F B 0 +, car S t F B t pour tout t 0 et {S t > 0, t > 0} = n>0 {S 1 > 0} F B n 0 + (intersection décroissante). D après le loi de Blumenthal, on a donc IP(S t > 0, t > 0) = 0 ou 1. Par ailleurs IP(S t > 0) IP(B t > 0) = 1/2, donc IP(S t > 0, t > 0) = 1. Preuve de la continuité à droite de la filtration brownienne. i) Montrons que F B 0 + est la tibu triviale.
Le mouvement Brownien en tant que processus de Markov 19 On considère le processus X n défini sur [0, 2 n ] : X n = (B 2 n +t B 2 n, 0 t 2 n ). La suite (X n ) n IN est une suite de variables indépendantes. On remarque que l on peut retrouver la trajectoire du brownien à partir des variables X k, k n : Par conséquent, B 2 n +t = X n (t) + X n+k (2 n k ). k=1 F 2 n = σ(x n+1,..., X n+k,...) et comme F 0 + = n 0 F 2 n, F 0 + est la tribu asymptotique engendrée par les processus indépendants X n. D après la loi du 0-1 de Kolmogorov, F0 B est triviale. + ii) Montrons que (F B t ) t 0 est continue à droite. soit C un ensemble de fonctions stable par multiplication. Si C E, alors E contient toutes les fonctions σ(c)-mesurables. Soit t 0 et ε > 0. On considère la tribu G t = σ(b t+s B t, s 0) Montrons que G t est indépendante de Ft B. + Par construction, G t+ε est indépendante de F B et donc indépendante de Ft B = + ε>0 Ft+ε. B La famille (G t+ε ) ε est croissante, de limite ε>0 G t+ε. Par ailleurs, par continuité des trajectoires browniennes, s 0 B t+s B t = lim B t+s+ε B t+ε, ε 0 donc B t+s B t est mesurable par rapport à ε>0 G t+ε, d où G t = ε>0 G t+ε et donc G t est indépendante de Ft B. + Soit des variables bornées telles que X soit Ft B -mesurable, Y Ft B -mesurable et Z G + t -mesurable. Alors E[XZY ] = E[XY ]E[Z] car F B t + et G t indépendantes = E[XZE[Y F B t ]] = E[XE[Y F B t ]]E[Z] Considérons l e.v. des variables bornées W telles que E[W Y ] = E[W E[Y Ft B ]]. Cet espace contient les variables de la forme XZ avec X L (F t B ) et Z L (G t ). L espace vectoriel W contient toutes les v.a. mesurables par rapport à G t F B t = F B où F B est la tribu engendrée par tout le mouvement brownien. Conclusion : E[W Y ] = E[W E[Y Ft B ]] pour tout W L (F B ), d où Y = E[Y Ft B ] p.s. Comme la tribu est complète, Y coïncide avec une variable Ft B -mesurable. Remarque 1.9 En fait, la filtration brownienne (Ft B ) t 0 est aussi continue à gauche : i.e. Ft B = ε>0 F t ε. B Dans la suite seule la continuité à droite nous intéressera. 1.2 Semi-groupe associé au mouvement brownien Soit B un mouvement brownien. Soit f une fonction mesurable bornée, on définit pour tout x IR, E x [f(b t )] = E[f(x + B t )]. Définition-Proposition 1.10 Soit f une fonction mesurable positive (ou bornée). On définit pour t 0 P t (f) = E x [f(b t )]. Alors
20 - P t : L (IR) L (IR), - P t est un opérateur de convolution P t f(x) = 1 2π IR y f(x + 2 y)e 2t dy. Comme pour f bornée, E[f(B t+s ) F t ] = E Bt [f(b s )], on peut exprimer la propriété de Markov simple de la façon suivante : Y F t -mesurable bornée, E[Y f(b t+s )] = E[Y P s f(b t )]. Propriété 1.11 (P t ) t 0 est un semi-groupe : - P 0 = id, - P t+s = P t P s pour tout t, s 0. En fait, c est même un semi-groupe de Feller. Définition 1.12 On note C 0 (E) est l ensemble des fonctions sur E qui tendent vers 0 à l infini. Une famille d opérateurs (P t ) t 0 est un semi-groupe de Feller si t 0 P t est un opérateur linéaire de C 0 (E) dans C 0 (E) tel que - P 0 = id et P t 1 pour tout t 0, - P t+s = P t P s pour tout t, s 0, - pour tout f C(E), P t f t 0 f au sens de la norme uniforme. Preuve. Soit t, s 0 et f mesurable bornée, P t+s f(x) = E x [f(b t+s )] = E x [f(b t+s B t + B t )] = E x [E x [f(b t+s B t + B t ) F t ]] = E x [P s f(b t )] = P t (P s f)(x) d après la propriété de Markov. Si f C 0 (IR), alors f et bornée qui converge vers 0 à l infini d après le théorème de convergence dominée, donc P t (f) C 0 (IR). Soit f C 0 (IR), par conséquent f est uniformément continue. Soit ε > 0, alors η > 0 tel que pour tout x, y IR : x y < η, on a f(x) f(y) < ε. Par conséquent, P t f(x) f(x) E[ f(x + B t ) f(x) ] ε IP( B t < η) + E[(f(x + B t ) f(x)) I Bt η] Par ailleurs, B t proba t 0 ε + 2 f IP( B t η) 0, donc il existe t η tel que t t η, IP( B t η) ε. Par conséquent, ε > 0, alors t η > 0 tel que t t η, x IR P t f(x) f(x) ε(1 + 2 f ). D où la convergence uniforme. 2 Propriété de Markov forte et applications 2.1 Notion de temps d arrêt Définition 2.1 Soit (F t ) t 0 une filtration. On dit qu une variable aléatoire T à valeurs dans [0, + ] est un (F t ) t 0 -temps d arrêt si t 0, {T t} F t.
Le mouvement Brownien en tant que processus de Markov 21 Propriété 2.2 Soient T et S deux (F t ) t 0 -temps d arrêt, alors T S et T S sont des (F t ) t 0 - temps d arrêt. Si (T n ) n 0 une suite monotone de (F t ) t 0 -temps d arrêt, alors T = lim T n est un (F t ) t 0 -temps d arrêt. Remarque 2.3 Si (F t ) t 0 est une filtration continue à droite, alors T est un (F t ) t 0 -temps d arrêt ssi t 0, {T < t} F B t. C est notamment le cas de la filtration brownienne. Preuve. En effet, si T vérifie cette propriété, on a {T t} = ε>0{t < t + ε} F t + = F t. Exemple 2.4 Soit O un ouvert et F un fermé, alors sont des (F B t ) t 0 -temps d arrêt. T O = inf{t 0 : B t O} et T F = inf{t 0 : B t F } Preuve. Soit O un ouvert. Soit t 0, on a {T O < t} = { s < t : B s O} = { s [0, t[ Q : B s O} par continuité des trajectoires = {B s O} s [0,t[ Q Comme {B s O} F s, on a bien que {T O < t} F t. Donc T O est un (F B t ) t 0 -temps d arrêt. Soit F un fermé et t 0. {T F t} = {ω Ω : inf 0 s t d(b s(ω), F ) = 0} = {ω Ω : inf s [0,t] Q d(b s(ω), F ) = 0} car B est continu et donc la distance aussi. Par ailleurs, un inf dénombrable de fonctions mesurables est mesurable. Par conséquent, {T T t} F t et donc T F est un (Ft B ) t 0 -temps d arrêt. Définition 2.5 Soit T un (F t ) t 0 -temps d arrêt. On dit que T est un temps d arrêt simple si l ensemble des valeurs prises par T est au plus dénombrable, i.e. il existe une suite (t n ) de temps positifs dans IR telle que IP(T = t n ) = 1. n=0 Proposition 2.6 Soit T un (F t ) t 0 -temps d arrêt. Alors il existe une suite décroissante (T n ) n IN de (F t ) t 0 -temps d arrêt simples telle que p.s. lim T n = T. n + Preuve. On pose T n = ([T 2 n ] + 1)2 n sur {T < }, i.e. T n = (j + 1)2 n sur l événement {T [j2 n, (j + 1)2 n [} et T n = sur {T = }.
22 Vérifions que T n est un (F t ) t 0 -temps d arrêt : {T n t} = = Par construction, p.s. p 1 j=0 p 1 j=0 { Tn = (j + 1)2 n} avec p tel que p2 n t < (p + 1)2 n { T [j2 n, (j + 1)2 n [ } = { T [0, p2 n [ } F p2 n F t. lim T n = T. n + Définition 2.7 Soit T un (F t ) t 0 -temps d arrêt. On définit la tribu F T = {Λ F : t 0 Λ {T t} F t }. Remarque 2.8 Si T = t est déterministe, alors F T = F t. Si T et S sont deux (F t ) t 0 -temps d arrêt tels que T S, alors F T F S. Proposition 2.9 Soit T un (F B t ) t 0 -temps d arrêt fini p.s.. Alors T est F T -mesurable. Preuve. Soit s 0, on veut montrer que {T s} F T. Soit t 0, on a {T s} {T t} = {T s t}. Comme T est un temps d arrêt, {T s t} F t, ceci t 0. Donc {T s} F T pour tout s 0 et T est bien F T mesurable. 2.2 Propriété de Markov forte Théorème 2.10 Propriété de Markov forte Soit T un (Ft B ) t 0 -temps d arrêt fini p.s.. On note B le processus : pour s 0 B s = B T +s B T. Alors le processus B est indépendant de FT B et a même loi que B. De façon équivalente, la propriété s énonce : conditionnellement à B T = x, le processus B, définit par B s = B T +s, est indépendant de FT B et a pour loi IP x (loi du mouvement brownien issu de x). Preuve. Soit T un (F B t ) t 0 -temps d arrêt fini p.s. On pose pour s 0, Bs = B T +s B T. i) Si T est déterministe. Le résultat est vrai, c est la propriété de Markov simple. ii) Si T est un temps d arrêt simple. Alors il existe une suite (t n ) de temps positifs telle que n=0 IP(T = t n) = 1. Soient Λ F T et φ : C([0, + [, IR) IR mesurable bornée. Alors, par Fubini E[I Λ φ( B)] = E[I Λ I T =tn φ( B)] n=0 Sur l événement {T = t n }, Bs = B s n où B n est le processus défini par B s n = B tn+s B tn. D après la propriété de Markov simple, Bn est indépendant de F tn et a même loi que B. Comme I λ I T =tn est F tn -mesurable, on a E[I Λ φ( B)] = E[I Λ I T =tn ]E[φ(B)] n=0 = E[I Λ ]E[φ(B)]. Donc la propriété est vraie pour les temps d arrêt simples.
Le mouvement Brownien en tant que processus de Markov 23 iii) Si T est un temps d arrêt p.s. fini. Il existe une suite (T n ) de temps d arrêt simples telle que p.s. lim T n = T. n + On note B s n = B Tn+s B Tn. On sait que le processus B n est indépendant de F Tn et a même loi que B. Comme T n T, on a F T F Tn, donc B n est indépendant de F T. Par ailleurs, par continuité de B, on a B n B ps. Donc B est indépendant de F T et a même loi que B. n + 2.3 Application : principe de réflexion Théorème 2.11 Principe de réflexion Soit B un mouvement brownien et S t = sup{b s : 0 s t} pour t 0. Soit a 0 et b IR avec b a, on a IP(S t > a, B t < b) = IP(B t > 2a b) En particulier, pour tout t 0 fixé S t Loi = B t. Attention : il n y a pas égalité en loi des processus S et B. En effet, S est un processus croissant et pas B. Preuve. Soit b a. On note T a = inf{t 0 : B t = a}. T a est bien fini p.s. (voir exercices). On remarque que {S t > a} = {T a < t} et donc IP(S t > a, B t < b) = IP(T a < t, B t < b). On note B t := B Ta+t B Ta = B Ta+t a. D après la propriété de Markov forte B est un mouvement brownien indépendant de F Ta. Donc, Par ailleurs, IP(T a < t, B t < b) = IP(T a < t, B t Ta < b a) = = t 0 t 0 IP(T a ds) IP( B t s < b a) IP(T a ds) IP( B t s > a b) par symétrie = IP(T a < t, B t Ta > a b) = IP(T a < t, B t > 2a b) IP(S t > a) = IP(S t > a, B t > a) + IP(S t > a, B t a) = IP(B t > a) + IP(B t > a) par le principe de réflexion = IP( B t > a) par symétrie. Théorème 2.12 Loi du logarithme itéré (Khintchine, 1933) p.s. lim sup t 0 + B t 2t log log 1 t = 1. Remarque 2.13 On peut remplacer B t par B t par symétrie du mouvement brownien. Preuve. i) Majoration.
24 Loi Soit α > 1 et r (0, 1). Par scaling, on a S r n = r n S 1, d où IP(S r n > α 2r n+1 log log(r n )) = IP(S 1 > α 2r log log(r n )) = 2 IP(B 1 > α 2r log log(r n )) 2 exp ( α 2 r log log(r n ) ) 2π cste n α2r. En choisissant r tel que α 2 r > 1, d après le lemme de Borel-Cantelli, p.s. pour n assez grand S r n α 2r n+1 log log(r n ). Pour t assez petit : r n+1 t < r n, alors B t S r n α 2t log log(1/t), alors p.s. lim sup t 0 + B t 2t log log 1 t 1. ii) Minoration. On va utiliser l indépendance des accroissements du brownien. Rappel : Minoration de la queue gaussienne : Soit N N (0, 1), pour β > 1 et x assez grand, En effet, Soit α < 1 et r (0, 1). P (N > x) P (N > x) e x2 β 2 /2. βx x e y2 /2 dy x(β 1)e x2 β 2 /2. IP(B r n B r n+1 > α 1 r 2r n log log(r n )) = IP(N > α 2 log log(r n )) e β2 α 2 log log(r n ) = cste n α2 β 2 pour β > 1 et r assez petit En choisissant β > 1 avec α 2 β 2 1, on reconnaît le terme général d une série divergente. Donc, du fait que les événements sont indépendants (par indépendance des accroissements du mouvements brownien), d après le lemme de Borel-Cantelli, p.s. infiniment souvent, B r n 2rn log log(r n ) > α B 1 r + r n+1 2rn log log(r n ). D après le première partie de la preuve, on a donc p.s. infiniment souvent, α 2r = α 2r n+1 log log(r n ) 2rn log log(r n ) > α 1 r + B r n+1 2rn log log(r n ). Par symétrie du mouvement brownien, B Loi = B, p.s. infiniment souvent, B r n+1 2rn log log(r n ) > α 1 r α 2r. En prenant, α proche de 1 et r aussi petit que l on veut, p.s. lim sup t 0 + B t 2t log log 1 t 1.
Bibliographie [1] Jean-François Le Gall. Introduction au mouvement brownien. Gazette des Mathématiciens, 40, 1989. [2] Dominique Foata et Aimé Fuchs. Processus stochastiques. Dunod, 1998. [3] Daniel Revuz et Marc Yor. Continuous martingales and brownian motion. Springer, 1991. [4] Claude Dellacherie et Paul-André Meyer. Probabilités et potentiels. Hermann, 1975. [5] Ioannis Karatzas et Steven E. Shreve. Springer, 1991. [6] Hui-Hsiung Kuo. Introduction to stochastic integration. Springer, 2006. [7] Edward Nelson. Dynamical theories of Brownian motion. http ://www.math.princeton.edu / nelson/books/bmotion.pdf. [8] Philip Protter. Stochastic integration and differential equations. Springer, 1995. 25
26