CALCUL STOCHASTIQUE I M.BENABDALLAH MASTER MINMACS SEMESTRE 3 AUTOMNE 2013
Le but de ce cours est d'introduire le calcul stochastique an de faire des applications. Après avoir étudié le mouvement brownien en M1 avec ses diérentes propriétés en particulier le fait que c'est une martingale, on introduit l'intégrale stochastique par rapport au mouvement brownien qui se généralise à une martingale. La diérentielle stochastique est traitée qui permet de passer au chapitre suivant où on fera du calcul d'itô avec la formule d'itô, pierre angulaire, qui va permettre d'étudier une nouvelle famille d'équations, généralisant les équations diérentielles, à savoir les équations diérentielles stochastiques. Le lien entre ces dernières et les équations aux dérivées partielles sera établi grâce à la notion de générateur induit par un processus de diusion.
CHAPITRE 1 : Préliminaires 1. Généralités 2. Régularité des processus CHAPITRE 2 :Intégrales stochastiques 1. Intégrales stochastiques 2. Intégrales stochastiques indénies 3. Extensions de l'intégrale stochastique CHAPITRE 3 : Calcul d'itô 1. Formule d'itô 2. Représentation Intégrale d'itô 3. Théorème de Girsanov CHAPITRE 4 : Equations diérentielles stochastiques 1. Existence et Unicité 2. Propriétés de Markov d'un processus de diusion 3. Générateur d'un processus de diusion 4. Formules de Feymann-Kac
CHAPITRE 1 : Préliminaires
Généralités On rappelle dans cette section le vocabulaire et le notions de base de la théorie des processus stochastiques et on insistera surtout sur les processus à paramètre continu.
On dispose pour cela d'un espace probabilisé formé d'un triplet (Ω, F, P) où : 1. Ω est l'ensemble de toutes les événements élémentaires de l'expérience aléatoire appelé univers. 2. F est une famille de parties de Ω qui est une tribu : 2.1 F 2.2 Si A F alors son complémentaire A c appartient aussi àf 2.3 A 1, A 2,... F i=1 A i F 3. P est une fonction qui associe à tout A F un nombre P(A), avec les propriétés suivantes : 3.1 0 P(A) 1, 3.2 P(Ω) = 1 3.3 Pour toute suite A 1, A 2,... d'ensembles disjoints deux à deux de F ( c'est à dire A i A j = si i j), P( A i ) = i=1 P(A i ). i=1
Les éléments de F sont appelés événements et l'application P est appelée mesure de probabilité. Dénition 1 Un processus stochastique est une famille de variables aléatoires {X t, t T } dénies sur un espace probabilisé (Ω, F, P) et à valeurs dans R. L'ensemble T est appelé ensemble d'indices. Dans ce cours, T sera souvent égal à R + =[0, + ), ou une partie de R + de la forme [a, b]. Ainsi l'indice t représente le temps, et on peut penser que X t comme l'état ou la position du processus au temps t. L'espace d'état est en général R, et le processus est dit à valeurs réelles. Tous les résultats se généralisent au cas où le processus est à valeurs dans R n.
Pour tout ω Ω, l'application : t X t (ω) dénie sur l'ensemble des indices T, est appelée une réalisation, une trajectoire, de l'espace des trajectoires. Soit {X t, t T } un processus stochastique à valeurs réelles et {t 1 <... < t n } T, alors la loi de probabilité = P (X t1,..., X tn ) 1 du vecteur aléatoire P t1,..,t n (X t1,..., X tn ) : Ω R n. est appelée loi marginale ni-dimensionnelle du processus {X t, t T }.
Le théorème suivant, du à Kolmogorov, établit l'existence d'un processus stochastique associé à une famille de lois ni-dimensionnelles satisfaisant à la condition de consistance (dans sa version la plus simple) : Théorème : Soient une famille de mesures de probabilités {P t1,..,t n, t 1 <... < t n, n 1, t i T } telle que : 1. P t1,..,t n est une probabilité sur R n 2. (Condition de consistance) : Si {t k1 <... < t km } {t 1 <... < t n } alors P tk1,..,t km est la marginale de P t1,..,t n correspondant aux indices k 1,.., k m. Alors, il existe un processus stochastique à valeurs réelles {X t, t 0} déni sur un espace probabilisé (Ω, F, P) qui admet la famille P t1,..,t n comme loi marginale ni-dimensionnelle.
Remarque Le processus {X t, t 0} peut être vu comme fonction de deux variables (t, ω) X (t, ω) de T Ω à valeurs dans R. il est naturel, de point de vue analyse stochastique d'avoir X (t, ω) conjointement mesurable en (t, ω). On peut aussi identier chaque ω avec la fonction de T à valeurs dans R. t X t (ω)
On peut ainsi voir Ω comme un sous ensemble de l'espace Ω = R T des fonctions de T à valeurs dans R. Alors la tribu F contient la tribu B engendrée par les ensembles de la forme {ω; ω(t 1 ) F 1,.., ω(t n ) F n } F i R, boréliens (B est la même tribu que la tribu borélienne sur Ω si T = [0, ] et Ω est munie de la topologie produit). On adopte souvent ce point de vue qui consiste à voir un processus comme une mesure de probabilité sur l'espace mesurable (R T, B).
Retour sur les temps d'arrêts On revoit dans cette section la notion de ltration à paramétres dans un ensemble continu ainsi que les temps d'arrêt qui leurs sont associés. Dénition 1 : Soit (Ω, F, P) un espace probabilisé. Une ltration (F t ) t 0 est une famille croissante de sous tribus de F.La tribu F t représente l'information dont on dispose à l'instant t. On dit qu'un processus (X t ) t 0 est adapté à (F t ) t 0, si pour chaque t, X t est F t mesurable.
Remarque : Les ltrations que l'on va considérer vérieront la propriété suivante : pour tout A F et si P(A) = 0 alors pour tout t, A F t Ceci exprime que F t contient tous les ensembles de mesures nulle de A. Le but de cette hypothèse est de permettre d'armer que si X = Y Pp.s. et que Y est F t -mesurable alors X est F t -mesurable. Exemple : On peut construire une ltration à partir du processus stochastique (X t ) t 0 en posant F X t = σ(x s, 0 s t) Cette ltration ne vérie pas en général le propriété énoncée dans la remarque. On peut cependant la remplacer la tribu F X t par la tribu F X t engendrée par F X t et N,l'ensemble des éléments de F de mesure nulle. On appelle cette ltration la ltration naturelle du processus (X t ) t 0. Il est clair que (X t ) t 0 est F X t -adapté.
On introduit ci-après la notion de temps d'arrêt, utile pour le calcul stochastique, qui modélise un temps aléatoire dépendant du processus de façon non anticipante ( à un instant t on sait si un temps d'arrêt est plus petit que t). Dénition 2 : On appelle temps d'arrêt par rapport à la ltration (F t ) t 0 une variable aléatoire τ à valeurs dans R + + telle que, pour tout t 0 : {τ t} F t On associe à un temps d'arrêt τ une tribu que l'on note F τ dénie par : F τ = {A F, pour tout t 0, A {τ t} F t } Cette tribu représente les informations disponibles avant l'instant aléatoire τ.
Propriétés des temps d'arrêts. 1. Si S et T sont deux temps d'arrêts, il en est de même de S T et S T. En fait, c'est une conséquence des relations {S T t} = {S t} {T t} {S T t} = {S t} {T t} En particulier si S est un temps d'arrêt et t un temps déterministe, alors S t est un temps d'arrêt. 2. Si S et T sont deux temps d'arrêts tels que S T, alors F S F T. En fait,si A F S, alors A {T t} = (A {S t}) {T t} F t pour toutt 0. 3. Soit {X t } un processus stochastique adapté continu et soit τ un temps d'arrêt. Alors la variable aléatoire X τ (ω) = X τ(ω) (ω) est F τ mesurable.
Régularité des processus Dénition 3 : Un processus stochastique (X t ) t 0 est dit équivalent à un autre processus (Y t ) t 0 si P(X t = Y t ) = 1 pour tout t 0 On dit aussi que (X t ) t 0 est une version de (Y t ) t 0. On peut noter que deux processus équivalents ont des lois ni-dimensionnelles égales, néanmoins ils peuvent avoir des trajectoires diérentes. Exemple : Soit ξ une variable aléatoire de loi continue. Pour t 0, les processus X t = 0 Y t = { 0 si ξ t 1 si ξ = t sont équivalents mais ont des trajectoires diérentes.
Ainsi, si on considère un processus stochastique comme une probabilité sur (R) [0,+ ),deux tels processus peuvent avoir la même loi alors que leurs trajectoires sont diérentes. Dénition 4 : Deux processus stochastiques (X t ) t 0 et (Y t ) t 0 sont indistinguables si X. (ω) = Y. (ω) pour tout ω / N, avec P(N) = 0. Remarque : On peut montrer que deux processus stochastiques équivalents ayant des trajectoires continues sont alors indistinguables.
Dénition 5 : Un processus stochastique (X t ) t 0 est dit continu en probabilité si, pour tout ɛ > 0 et pour tout t 0 lim P( X t X s > ɛ) = 0. s t Dénition 6 : On xe p 1. Soit (X t ) t 0 un processus stochastique réel, tel que E( X t p < pour tout t 0. Le processus (X t ) t 0 est dit continu en moyenne d'ordre p si lim E( X t X s p ) = 0. s t La continuité en moyenne d'ordre p implique la continuité en probabilité. Toutefois, la continuité en probabilité(ou en moyenne d'ordre p) n'entraine pas nécessairement que les trajectoires du processus sont continus.
Dans le but de montrer qu'un processus stochastique admet des trajectoires continues, il sut d'avoir des estimations sur les moments des accroissements du processus. Le critère de continuité suivant dû à Komogorov donne des conditions suivantes de ce type : Proposition : (Critère de continuité de Kolmogorov) Soit (X t ) t 0 un processus stochastique réél vériant la condition suivante : pour tout T > 0 il existe des constantes positives α, β, D telles que E( X t X s α ) D. t s 1+β ; 0 s, t T (1) Alors il existe une version du processus (X t ) t 0 avec des trajectoires continus.
La condition (1) donne aussi des informations concernant le module de continuité des trajectoires du processus. Cela signie, que pour ω Ω xé, quel est l'ordre de X t (ω) X s (ω), en comparaison de t s. plus précisément, pour tout ɛ > 0 il existe une variable aléatoire G ɛ tel que, avec une probabilité 1, X t (ω) X s (ω) G ɛ t s 1+β α ɛ ; 0 s, t T (2) De plus, E(G α ɛ ) <.
Pour terminer cette section, on présente une classe de processus d'on pourrait être amené à utiliser par la suite. Dénition 7 : Un processus à valeurs réelles (X t ) t 0 est appelé processus de second ordre si E(X 2 t ) < pour tout t 0. La moyenne et la fonction covariance d'un processus de second ordre (X t ) t 0 sont dénis par m X (t) = E(X t ) Γ X (s, t) = Cov(X s, X t ) = E[(X s m X (s))(x t m X (t)) La variance d'un processus X t ) t 0 est dénie par σ 2 X (t) = Γ X (t, t) = Var(X t ). Dénition 8 : Un processus à valeurs réelles (X t ) t 0 est appelé processus gaussien si ses lois marginales nidimensionnelles sont des vecteurs gaussiens.
La moyenne m X (t) et la fonction covariance Γ X (s, t) d'un processus gaussien détermine ses lois marginales nidimensionnelles. Inversement, supposons qu'on dispose d'une fonction arbitraire m : [0, ) R et d'une fonction symétrique Γ : [0, ) [0, ) R qui est dénie positive, c'est à dire n Γ(t i, t j )a i a j 0 i,j=1 pour tout t i [0, ), a i R et n 1, alors il existe un processus gaussien de moyenne m et de fonction covariance Γ.