COURS DE PROBABILITES ET CALCUL STOCHASTIQUE. Semestre d hiver

Dimension: px
Commencer à balayer dès la page:

Download "COURS DE PROBABILITES ET CALCUL STOCHASTIQUE. Semestre d hiver"

Transcription

1 COURS DE PROBABILITES ET CALCUL STOCHASTIQUE Olivier Lévêque, EPFL Semestre d hiver 24-25

2 Avertissement Ce polycopié a été établi sur la base des notes du cours de probabilité et calcul stochastique donné dans le cadre du cycle d études postgrades en ingénierie mathématique à l EPFL. Il ne constitue en aucun cas une référence de calcul stochastique, étant donné les nombreuses lacunes et imprécisions qui le parsèment. Pour une exposition plus complète, le lecteur est renvoyé à la bibliographie. Le but du cours est de donner une première idée du sujet à des étudiants provenant d horizons différents (sur un court laps de temps de 3 périodes concentrées sur deux mois). Le niveau requis pour suivre le cours est celui d un étudiant ayant accompli une formation d ingénieur et déjà suivi un cours de base de probabilités. Pour bénéficier pleinement de la lecture de ce polycopié, il est nécessaire d effectuer en parallèle les exercices qui l accompagnent. Ceux-ci sont disponibles sur la page web : http ://lthiwwww.epfl.ch/ leveque/proba/ Remerciements Deux personnes ont fortement contribué à la rédaction de ce polycopié. Je désirerais remercier tout d abord Raffi Aghayekian, étudiant de la volée 22-23, pour sa prise de notes appliquée qui a constitué la première version manuscrite de ces notes de cours. Mes remerciements vont ensuite à Erika Gindraux qui a patiemment dactylographié la première version de ces notes. Un grand merci va également à tous les étudiants pour leur motivation à apprendre les probabilités et leurs nombreuses questions et commentaires qui ont contribué à l élaboration de ces notes. Et finalement, merci à Benjamin Bergé pour avoir pour avoir pris le temps de relire le manuscrit. ii

3 Table des matières 1 Rappels de probabilité Espace de probabilité Variable aléatoire Loi d une variable aléatoire Espérance d une variable aléatoire Indépendance Indépendance d événements Indépendance de tribus Indépendance de variables aléatoires Espérance conditionnelle Conditionnement par rapport à un événement B F Conditionnement par rapport à une v.a. discrète Y (à valeurs dans D dénombrable) Conditionnement par rapport à une v.a. Y continue? Cas général? Conditionnement par rapport à une tribu G Convergences de suites de variables aléatoires Processus aléatoire à temps discret Vecteur aléatoire Calcul stochastique Processus aléatoire à temps continu Processus à accroissements indépendants et stationnnaires Mouvement brownien standard Processus gaussien Processus de Markov Martingale à temps continu Intégrale de Riemann-Stieltjes Variation quadratique Intégrale stochastique (ou intégrale d Itô) Formules d Itô Formules de base Processus d Itô (ou semi-martingale continue ) Retour à l intégrale de Stratonovich Formules d Itô généralisées Formule d intégration par parties (IPP) Equations différentielles stochastiques (EDS) Equations homogènes en temps Equations inhomogènes en temps iii

4 2.6.3 Equations linéaires Solution faible Martingale exponentielle Théorème de Girsanov Liens EDS EDP Lien mouvement brownien équation(s) de la chaleur Lien EDS EDP paraboliques (formule de Feynman-Kac) Processus multidimensionnels Analyse et simulation numériques des EDS Pour conclure Bibliographie 94 iv

5 1 Rappels de probabilité 1.1 Espace de probabilité Cours 1 Un espace de probabilité est un triplet (Ω, F, P) où : - Ω est un ensemble, - F est une tribu (ou σ-algèbre) sur Ω, - P est une (mesure de) probabilité sur (Ω, F). Définition Une tribu (ou σ-algèbre) sur Ω est une famille F de sous-ensembles de Ω (appelés événements ) tels que i) F, ii) A F A c F, iii) (A n ) n=1 F n=1a n F. En particulier : A, B F A B F. De même, A, B F A B F (cf. exercices pour d autres propriétés). Exemple Soit Ω = {1,..., 6}. On peut définir plusieurs tribus sur Ω : F = P(Ω) = {, {1}, {2},..., {1, 2},..., Ω}= tribu complète (la plus grande), F = {, Ω} = tribu triviale (la plus petite) ( = évén. impossible, Ω = évén. arbitraire), F 1 = {, {1}, {2,..., 6}, Ω}, F 2 = {, {1, 3, 5}, {2, 4, 6}, Ω}, etc. - Soit Ω = [, 1] et I 1,..., I n une famille d intervalles formant une partition de Ω. La famille de sous-ensembles définie par est une tribu sur Ω. G = {, I 1, I 2,..., I 1 I 2,..., I 1 I 2 I 3,..., Ω} Définition Soit A = {A i, i I} une famille de sous-ensembles de Ω. Alors la tribu engendrée par A est la plus petite tribu sur Ω qui contient tous les sous-ensembles A i, i I. Elle est notée σ(a). (NB : l ensemble I n est pas forcément dénombrable.) Exemple Reprenons l exemple Soit Ω = {1,..., 6}. Si A 1 = {{1}}, alors σ(a 1 ) = F 1. Si A 2 = {{1, 3, 5}}, alors σ(a 2 ) = F 2. Et si A = {{1, 3, 5}, {1, 2, 3}}, alors σ(a) =? (cf. exercices). - Soit Ω = [, 1]. Si A = {I 1,..., I n }, alors σ(a) = G. 1

6 Définition Soit Ω = [, 1]. La tribu borélienne sur [, 1] est la tribu engendrée par la famille de sous-ensembles A = { ]a, b[ : a < b 1} = {intervalles ouverts dans [, 1]}. Elle est notée B([, 1]). Elle contient un très grand nombre de sous-ensembles de [, 1], mais pas tous. Remarque Pour Ω ensemble fini, on choisit souvent F = P(Ω). - Pour Ω R ou Ω R n, on choisit souvent F = B(Ω). Définition Une sous-tribu de F est une tribu G telle que si A G alors A F. On note G F. Exemple Reprenons l exemple On a F F 1 F, F F 2 F, mais pas F 1 F 2, ni F 2 F 1. Remarque importante : Il est toujours vrai que A G et G F A F. Mais il est faux de dire que A B et B F A F. Contre-exemple : {1} {1, 3, 5}, {1, 3, 5} F 2, mais {1} F 2. Définition Soit F une tribu sur Ω. Une (mesure de) probabilité sur (Ω, F) est une application P : F [, 1] telle que { i) P( ) = et P(Ω) = 1, ii) (A n ) n=1 F disjoints (i.e. A n A m =, n m) P( n=1a n ) = n=1 P(A n ). En particulier : A, B F et A B = P(A B) = P(A) + P(B). De plus : { i) Si (An ) n=1 F, A n A n+1 et n=1 A n = A, alors lim n P(A n ) = P(A), ii) Si (A n ) n=1 F, A n A n+1 et n=1 A n = A, alors lim n P(A n ) = P(A). Pour d autres propriétés, cf. exercices. Exemple Soient Ω = {1,..., 6}, F = P(Ω). On définit : - P 1 ({i}) = 1 i (mesure de probabilité associée à un dé équilibré). 6 Dans ce cas, on voit p. ex. que P 1 ({1, 3, 5}) = P 1 ({1}) + P 1 ({3}) + P 1 ({5}) = = P 2 ({i}) = i 5, P 2 ({6}) = 1 (mesure de probabilité associée à un dé pipé). Définition Soient Ω = [, 1] et F = B([, 1]). On appelle mesure de Lebesgue sur [, 1] la mesure de probabilité définie par P( ]a, b[ ) = b a, a < b 1. P n est définie a priori que sur les intervalles, mais est uniquement extensible à tout ensemble borélien B B([, 1]). Elle est notée P(B) = B, B B([, 1]). 2

7 En utilisant la propriété (ii) ci-dessus, on déduit que pour tout x [, 1] : {x} = n lim ]x 1 n, x + 1 n [ = lim 2 n n =. Généralisation à n dimensions : Soit Ω = [, 1] n. - Tribu borélienne : B(Ω) = σ(a), où A = { ]a 1, b 1 [ ]a 2, b 2 [ ]a n, b n [, a i < b i 1}. A est la famille des rectangles dans Ω. - Mesure de Lebesgue : P( ]a 1, b 1 [ ]a 2, b 2 [ ]a n, b n [ ) = (b 1 a 1 )(b 2 a 2 ) (b n a n ). Comme dans le cas uni-dimensionnel, P n est définie a priori que sur certains ensembles (les rectangles), mais est uniquement extensible à tout B B(Ω) (p.ex. B = disque, ovale...). Notation : P(B) = B, pour B B(Ω). 1.2 Variable aléatoire Définition Soit (Ω, F, P) un espace de probabilité. Une variable aléatoire (souvent abrégé v.a. par la suite) est une application X : Ω R telle que {ω Ω : X(ω) B} = {X B} F, B B(R). Proposition X est une v.a. ssi {ω Ω : X(ω) t} F, t R. Remarque X est aussi dite une fonction (ou v.a.) F-mesurable. - Si F = P(Ω), alors X est toujours F-mesurable. - Si Ω = R et F = B(R), alors X est dite une fonction borélienne. { 1 si ω A, Définition Pour A Ω, on pose 1 A (ω) = sinon. On vérifie que la v.a. 1 A est F-mesurable ssi A F. Exemple Soit (Ω, F, P) l espace de probabilité du dé équilibré (cf. exemple 1.1.1). X 1 (ω) = ω : P({ω Ω : X 1 (ω) = i}) = P({i}) = 1 6. X 2 (ω) = 1 {1,3,5} (ω) : P({ω Ω : X 2 (ω) = 1}) = P({1, 3, 5}) = 1 2. Soit F = P(Ω). X 1 et X 2 sont toutes deux F-mesurables. Soit F 2 = {, {1, 3, 5}, {2, 4, 6}, Ω}. Seule X 2 est F 2 -mesurable ; X 1 ne l est pas. En effet : {ω Ω : X 2 (ω) = 1} = {1, 3, 5} F 2 et {ω Ω : X 2 (ω) = } = {2, 4, 6} F 2, tandis que {ω Ω : X 1 (ω) = 1} = {1} F 2. 3

8 Définition La tribu engendrée par une famille de v.a. {X i, i I} sur (Ω, F, P) est définie par σ(x i, i I) = σ({x i B}, i I, B B(R)) = σ({x i t}, i I, t R). Exemple Reprenons l exemple précédent : σ(x 1 ) = F = P(Ω), σ(x 2 ) = F 2 P(Ω). Proposition Si g : R R est borélienne et X : Ω R est une v.a., alors g(x) est une v.a. Démonstration. Soit B B(R). On a {ω Ω : g(x(ω)) B} = {ω Ω : X(ω) g 1 (B)}. Or g 1 (B) = {x R : g(x) B} B(R), car g est borélienne. Comme X est une v.a., on en déduit que {ω Ω : X(ω) g 1 (B)} F, et donc finalement que g(x) est une v.a. Proposition Toute fonction continue est borélienne (et pratiquement toute fonction discontinue l est aussi!). 1.3 Loi d une variable aléatoire Définition La loi d une v.a. X est l application µ X : B(R) [, 1] définie par µ X (B) = P({X B}), B B(R). NB : (R, B(R), µ X ) forme un nouvel espace de probabilité! Exemple Soit Ω = {1,..., 6}, F = P(Ω), P({i}) = 1 6, i. X 1 (ω) = ω, µ X ({i}) = P({X = i}) = P({i}) = Soit Ω = {1,..., 6} {1,..., 6}, F = P(Ω), P({(i, j)}) = 1, (i, j) Ω. 36 X(ω) = X(ω 1, ω 2 ) = ω 1 + ω 2. On a alors, p.ex : µ X ({7}) = P({X = 7}) = P({(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)} = 6 1 = Fonction de répartition d une variable aléatoire Définition La fonction de répartition d une v.a. X est l application F X : R [, 1] définie par F X (t) = P({X t}) = µ X ( ], t]), t R. Proposition La donnée de F X équivaut à celle de µ X. 4

9 Cette dernière proposition est à rapprocher de la proposition Deux types particuliers de variables aléatoires A) Variable aléatoire discrète : X prend ses valeurs dans un ensemble D dénombrable (X(ω) D, ω Ω). Dans ce cas, on a : σ(x) = σ({x = x}, x D), p(x) = P({X = x}) et x D p(x) = P({x D}) = 1. De plus, F X (t) = x D:x t p(x). B) Variable aléatoire continue : P({X B}) = si B = (en part. P({X = x}) = x). Sous cette condition, le théorème de Radon-Nikodym assure l existence d une fonction borélienne f X : R R (appelée densité) telle que f X (x), x R, f X (x) dx = 1 et P({X B}) = f X (x) dx. De plus, F X (t) = f X(x) dx et F X(t) = f X (t). R B Exemple A) Loi binomiale B(n, p), n 1, p [, 1] : où ( n p ) = p(k) = P({X = k}) = n! k!(n k)!. ( n p B) Loi gaussienne N (µ, σ 2 ), µ R, σ > : densité : f X (x) = ) p k (1 p) n k, pour k n, ( ) 1 exp (x µ)2, x R. 2πσ 2 2σ 2 Terminologie : - Si X suit une loi gaussienne (p.ex.), on écrit X N (µ, σ 2 ). - Si X et Y suivent une même loi, on dit que X et Y sont identiquement distribuées (i.d.) et on note X Y (ne pas confondre avec X Y, qui veut dire que X est à peu près égale à Y ). 5

10 1.4 Espérance d une variable aléatoire Cours 2 Construction de l espérance (= intégrale de Lebesgue!) On procède en trois étapes : 1. Soit X(ω) = i= x i 1 Ai (ω), x i, A i F. On définit l espérance de telles v.a. (dites simples) comme suit : E(X) = x i P(A i ) [, + ]. i= Attention! E(X) peut prendre la valeur +. Exemples : - Si X = 1 A, P(A) = p, alors E(X) = P(A) = p. - Si X = c 1 Ω = cte sur Ω, alors E(X) = c. 2. Soit X une v.a. F-mesurable telle que X(ω), ω Ω. On pose X n (ω) = i= i 2 n 1 { i 2 n X< i+1 2 n } (ω). Alors (X n ) est une suite croissante de v.a. qui tend vers X. On définit E(X) = n lim E(X n ) = n lim i= 3. Soit X une v.a. F-mesurable quelconque. On pose ({ i i 2 P n 2 X < i + 1 }) [, + ]. n 2 n X(ω) = X + (ω) X (ω) avec { X + (ω) = max(, X(ω)), X (ω) = max(, X(ω)). On a alors X(ω) = X + (ω) + X (ω). - Si E( X ) <, alors on définit E(X) = E(X + ) E(X ). - Si E( X ) =, alors on dit que E(X) n est pas définie. Terminologie : - Si E(X) =, alors on dit que X est une v.a. centrée. - Si E( X ) <, alors on dit que X est une v.a. intégrable. - Si E(X 2 ) < alors on dit que X est une v.a. de carré intégrable. - On dit que X est une v.a. bornée s il existe une cte K > telle que X(ω) K, ω Ω. Remarque X bornée E(X 2 ) < E( X ) <. 6

11 Proposition Soient X une v.a. et g : R R une fonction borélienne telle que E( g(x) ) <. Alors A) Si X est une v.a. discrète (à valeurs dans D dénombrable), alors E(g(X)) = x D g(x) P({X = x}). B) Si X est une v.a. continue (avec densité f X ), alors E(g(X)) = Ceci s applique en particulier si g(x) = x. Variance et covariance de variables aléatoires R g(x) f X (x) dx. Définition Soient X, Y deux v.a. de carré intégrable. On pose Var(X) = E((X E(X)) 2 ) = E(X 2 ) (E(X)) 2 Cov(X, Y ) = E((X E(X))(Y E(Y ))) = E(XY ) E(X) E(Y ) Terminologie : - Un événement A F est dit négligeable si P(A) =. - Un événement A F est dit presque sûr (souvent abrégé p.s.) si P(A) = 1, i.e. si A c est négligeable. Exemple Soit X une v.a. telle que P({X = c}) = 1. Alors on dit que X = c presque sûrement ( X = c p.s. ) Proposition Si (A n ) n=1 F est une famille d événements négligeables (i.e. P(A n ) = n), alors n=1a n est négligeable. Démonstration. P( n=1a n ) n=1 P(A n ) =. Exemple L ensemble A = [, 1] Q est négligeable pour la mesure le Lebesgue, car Q est dénombrable et {x} = pour tout x [, 1]. Propriétés de l espérance Soient X, Y deux v.a. intégrables. - Linéarité : E(cX + Y ) = c E(X) + E(Y ), c R et X, Y v.a. intégrables. - Positivité : si X p.s., alors E(X). - Positivité stricte : si X p.s. et E(X) =, alors X = p.s. 7

12 - Monotonie : si X Y p.s., alors E(X) E(Y ). Inégalité de Cauchy-Schwarz Soient X, Y deux v.a. de carré intégrable. Alors { i) XY est intégrable, ii) (E( XY )) 2 E(X 2 ) E(Y 2 ). En posant Y 1, on trouve que (E( X )) 2 E(X 2 ) (donc E( X ) < si E(X 2 ) < ; cf. remarque 1.4.1). Inégalité triangulaire Soient X, Y deux v.a. intégrables. Alors E( X + Y ) E( X ) + E( Y ) Inégalité de Jensen Soient X une v.a. et ϕ : R R une fonction borélienne et convexe telle que E( ϕ(x) ) <. Alors ϕ(e(x)) E(ϕ(X)). En particulier, E(X) E( X ). Démonstration. Vu que ϕ est convexe, on a ϕ(x) = sup (ax + b) et donc : a,b: ay+b ϕ(y), y R ϕ(e(x)) = sup(a E(X) + b) = sup E(aX + b) sup E(ϕ(X)) = E(ϕ(X)). a,b:... a,b:... a,b:... Exemple Si X = a ou b avec prob. 1-1 a+b et ϕ est convexe, alors ϕ(e(x)) = ϕ( ) ϕ(a)+ϕ(b) = E(ϕ(X)). 2 Inégalité de Chebychev (ou Markov) Soient X une v.a. et ψ : R R + telle que ψ est borélienne et croissante sur R +, ψ(a) > pour tout a > et E(ψ(X)) <. Alors P({X a}) E(ψ(X)), a >. ψ(a) Démonstration. Du fait que ψ est croissante sur R +, on a E(ψ(X)) E(ψ(X) 1 {X a} ) E(ψ(a) 1 {X a} ) = ψ(a) E(1 {X a} ) = ψ(a) P({X a}). Comme ψ(a) >, ceci permet de conclure. 8

13 1.5 Indépendance Indépendance d événements Définition Deux événements A et B( F) sont indépendants si P(A B) = P(A) P(B). Attention! Ne pas confondre : A et B sont disjoints si A B = ( P(A B) = P(A)+P(B)). Notation : Si A est indépendant de B, on note A B (de même pour les tribus et les v.a. ; voir plus bas). Conséquence : P(A c B) = P(B\(A B)) = P(B) P(A B) = P(B) P(A) P(B) = (1 P(A)) P(B) = P(A c ) P(B). De même, on a P(A B c ) = P(A) P(B c ) et P(A c B c ) = P(A c ) P(B c ). Définition n événements A 1,..., A n F sont indépendants si n P(A 1 A n) = P(A i ), où A i = soit A i, soit A c i. Proposition n événements A 1,..., A n F sont indépendants ssi P( i I A i ) = i I P(A i ), I {1,..., n}. Remarque Pour n > 2, la condition P(A 1 A n ) = P(A 1 ) P(A n ) ne suffit pas! - L indépendance de n événements telle que définie ci-dessus est plus forte que l indépendance deux à deux (A i A j, i j) Indépendance de tribus Définition Une famille (F 1... F n ) de sous-tribus de F est indépendante si P(A 1 A n ) = P(A 1 ) P(A n ), A 1 F 1,..., A n F n. Proposition (σ(a 1 ),..., σ(a n )) est une famille de sous-tribus indépendantes ssi les événements (A 1,..., A n ) sont indépendants. 9

14 1.5.3 Indépendance de variables aléatoires Définition Une famille (X 1,..., X n ) de v.a. (F-mesurables) est indépendante si (σ(x 1 ),..., σ(x n )) est indépendante. Proposition (X 1,..., X n ) est une famille de v.a. indépendantes ssi les événements {X 1 t 1 },..., {X n t n } sont indépendants t 1,..., t n R. En particulier : X Y ssi P({X t, Y s}) = P({X t}) P({Y s}), t, s R. Exemple Soit Ω = {1... 6} {1... 6}, F = P(Ω), P({(i, j)}) = 1. On pose 36 X(ω) = X(ω 1, ω 2 ) = ω 1, Y (ω) = Y (ω 1, ω 2 ) = ω 2. Calculons P({X = i}) = P({ω Ω : ω 1 = i}) = P({i, 1),..., (i, 6)}) = 1 = P({Y = j}). 6 D autre part, P({X = i, Y = j}) = P({(i, j)}) = 1 = 1 1 = P({X = i}) P({Y = j}), donc X et Y sont indépendantes. Exemple Si X(ω) = c, ω Ω, alors X Y, Y (une v.a. constante est indépendante de toute autre v.a.). Exemple Si X Y et g, h sont des fonctions boréliennes, alors g(x) h(y ) ; c est vrai en particulier si g = h (mais pas X = Y, bien sûr!). Cette propriété découle du fait que g(x) est σ(x)-mesurable (resp. que h(y ) est σ(y )-mesurable) et de la définition d indépendance pour les tribus. Proposition Soient c R et X, Y deux v.a. de carré intégrable. Si X Y, alors E(XY ) = E(X) E(Y ) et Var(cX + Y ) = c 2 Var(X) + Var(Y ), La première égalité dit que si deux v.a. sont indépendantes, alors elles sont décorrélées ; la réciproque n est pas vraie. Proposition Si X Y et X, Y sont deux v.a. continues possédant une densité conjointe f X,Y (i.e. P((X, Y ) B) = B f X,Y (x, y) dx dy, B B(R 2 )), alors f X,Y (x, y) = f X (x) f Y (y), x, y R. 1.6 Espérance conditionnelle Cours Conditionnement par rapport à un événement B F P(A B) Soit A F : P(A B) =, si P(B). P(B) Soit X une v.a. intégrable (i.e. E( X ) < ) : E(X B) = E(X 1 B), si P(B). P(B) 1

15 1.6.2 Conditionnement par rapport à une v.a. discrète Y (à valeurs dans D dénombrable) Soit A F : P(A Y ) = ϕ(y ), où ϕ(y) = P(A Y = y), y D. Soit X une v.a. intégrable : E(X Y ) = ψ(y ), où ψ(y) = E(X Y = y), y D. Remarque Il est important de voir que soit P(A Y ), soit E(X Y ) sont des v.a.! Exemple Soient (X 1, X 2 ) deux jets de dés indépendants : E(X 1 + X 2 X 2 ) = ψ(x 2 ), où ψ(y) = E(X 1 + X 2 X 2 = y) = E((X 1 + X 2 ) 1 {X2 =y}) P({X 2 = y}) = E((X 1 + y) 1 {X2 =y}) P({X 2 = y}) = E(X 1 + y) P({X 2 = y}) P({X 2 = y}) = E(X 1 ) + y, donc E(X 1 + X 2 X 2 ) = E(X 1 ) + X Conditionnement par rapport à une v.a. Y continue? Cas général? P(A Y ) = ψ(y ) où ψ(y) = P(A Y = y) =??? Problème : P({Y = y}) =. Il vaut mieux généraliser la définition pour une tribu Conditionnement par rapport à une tribu G Soient (Ω, F, P) un espace de probabilité ; X une v.a. F-mesurable telle que E( X ) < et G une sous-tribu de F. Théorème - Définition. Il existe une v.a. Z telle que E( Z ) < et { i) Z est une v.a. G-mesurable, ii) E(XU) = E(ZU), v.a. U G-mesurable et bornée. Z est notée E(X G) et est appelée l espérance conditionnelle de X par rapport à G. De plus, si Z 1 et Z 2 vérifient (i) et (ii), alors Z 1 = Z 2 p.s. Remarque A cause de cette dernière phrase, l espérance conditionnelle n est définie qu à un p.s. près, c est-à-dire à un ensemble négligeable près (qu on va peu à peu oublier...). Définition On pose P(A G) = E(1 A G) (probabilité conditionnelle par rapport à une tribu), ainsi que E(X Y ) = E(X σ(y )) (espérance conditionnelle par rapport à une variable aléatoire). 11

16 Remarque Du fait que toute v.a. U σ(y )-mesurable et bornée s écrit U = g(y ) avec g borélienne et bornée, on peut définir de manière équivalente E(X Y ) comme la v.a. Z qui vérifie E( Z ) < et { i) Z est une v.a. σ(y )-mesurable, ii) E(Xg(Y )) = E(Z g(y )), fonction g borélienne et bornée. Exemple Soient X, Y deux v.a. aléatoires continues possédant une densité conjointe f X,Y. Alors E(X Y ) = ψ(y ) p.s., où ψ(y) = E(X Y = y) = 1 x f X,Y (x, y) dx f Y (y) R et f y (y) = R f X,Y (x, y) dx. Démonstration. 1) Simplification : on admet que la fonction ψ définie ci-dessus est borélienne. Il en découle donc directement que ψ(y ) est une v.a. σ(y )-mesurable. 2) Montrons que E(X g(y )) = E(ψ(Y ) g(y )), g borélienne bornée : E(ψ(Y ) g(y )) = ψ(y) g(y) f Y (y) dy = = R ( 1 R f Y (y) R x f X,Y (x, y) dx ) g(y) f Y (y) dy R 2 x g(y) f X,Y (x, y) dx dy = E(X g(y )). Propriétés de l espérance conditionnelle (démonstration : cf. exercices) Soient X, Y deux v.a. intégrables. - Linéarité : E(cX + Y G) = c E(X G) + E(Y G) p.s. - Positivité-monotonie : X Y p.s. E(X G) E(Y G) p.s. - E(E(X G)) = E(X). - Si X G alors E(X G) = E(X) p.s. - Si X est G-mesurable, alors E(X G) = X p.s. - Si Y est G-mesurable et bornée, alors E(XY G) = E(X G) Y p.s. - Si H G F alors E(E(X H) G) = E(X H) = E(E(X G) H) p.s. Proposition (cf. exercices pour une démonstration simplifiée) Si X G, Y est G-mesurable et ϕ : R R R est borélienne et telle que E( ϕ(x, Y ) ) <, alors E(ϕ(X, Y ) G) = ψ(y ), où ψ(y) = E(ϕ(X, y)). 12

17 Inégalité de Jensen (démonstration : cf. même propriété pour l espérance) Soient X une v.a., G une sous-tribu de F et ϕ : R R convexe telle que E( ϕ(x) ) <. Alors ϕ(e(x G)) E(ϕ(X) G) p.s. En particulier : E(X G) E( X G) p.s. Remarque C est très souvent en utilisant les propriétés mentionnées ci-dessus qu on peut véritablement calculer une espérance conditionnelle. Le recours à la définition théorique n est utile que dans certains cas délicats. 1.7 Convergences de suites de variables aléatoires Soient (X n ) n=1 une suite de v.a. et X une autre v.a., toutes définies sur (Ω, F, P). Il y a plusieurs façons de définir la convergence de la suite (X n ) vers X, car X : Ω R est une fonction. Convergence en probabilité X n Convergence presque sûre P n X si ε >, lim n P({ω Ω : X n (ω) X(ω) > ε}) =. X n X p.s. si P({ω Ω : lim X n (ω) = X(ω)}) = 1. n n Remarque Si X n n Xp.s., alors X P n n X. Le contraire est faux. Donnons un contre-exemple : soit une suite de pile ou face indépendants et équilibrés (p. ex. PFPPPFFP... ). On définit { 1 si 1er résultat=pile, X 1 = 1 P = X sinon, 2 = 1 F, X 3 = 1 P P, X 4 = 1 P F, X 5 = 1 F P, X 6 = 1 F F, X 7 = 1 P P P, X 8 = 1 P P F... La suite (X n ) converge en probabilité vers car P( X n > ε) = P(X n = 1) n. Mais (X n ) ne converge pas p.s. vers, car pour un ω donné, on a p. ex. (X n (ω)) = (1,,, 1,,,,,, 1,,......, 1,,...), Autrement dit, il y a toujours un 1 qui apparaît et la suite ne converge pas vers. 13

18 Critère pour la convergence presque sûre : X n n X p.s. ssi ε >, P({ω Ω : X n (ω) X(ω) > ε pour une infinité de n}) =. Revenons à l exemple ci-dessus : P({X n = 1 pour une infinité de n}) = 1. Convergence en moyenne (ou convergence L 1 ) lim E( X n X ) =. n Convergence quadratique (ou convergence L 2 ) lim E( X n X 2 ) = n L une ou l autre de ces convergences implique la convergence en probabilité. En effet, on a p.ex. pour tout ε > fixé : P({ X n X > ε}) E( X n X 2 ) ε 2 (On a appliqué ici l inégalité de Chebychev avec ϕ(x) = x 2.) Lemme de Borel-Cantelli (B-C) Soit (A n ) une suite d événements de F. (a) Si n=1 P(A n ) <, alors n. P({ω Ω : ω A n pour une infinité de n}) =. (b) Si (A n ) n=1 sont indépendants et n=1 P(A n ) =, alors P({ω Ω : ω A n pour une infinité de n}) = 1. Application : Si n=1 E( X n X 2 ) <, alors X n Démonstration. n X p.s. P({ X n X > ε}) 1 E( X n=1 ε 2 n X 2 ) <, n=1 ε > fixé. D après B-C (a), on a alors ε > fixé, P({ω Ω : X n (ω) X(ω) > ε pour une infinité de n} =. Par le critère énoncé ci-dessus, X n n X p.s. 14

19 Loi des grands nombres (LGN) Soient (X n ) n=1 une suite de v.a. indépendantes et identiquement distribuées (i.i.d.) et S n = X X n. Si E( X 1 ) <, alors (a) Loi faible : S n n (b) Loi forte : S n n P n E(X 1). E(X 1) p.s. n Remarque Si on supprime l hypothèse que E( X 1 ) <, alors les choses changent : (a) Si lim a a P( X 1 > a) =, alors S n n E(X P 1 1 X1 n). n (b) Si E( X 1 ) =, alors S n n diverge p.s. lorsque n. Exemple Soit (X n ) une suite de pile (1) ou face () indépendants et équilibrés. Du fait que E(X 1 ) = 1 <, on a par la loi forte des grands nombres : 2 S n n 1 2 p.s., i.e. S n n 2. Question : quelle est la déviation moyenne de S n n 2? Convergence en loi Soient (X n ) une suite de v.a. (définies sur (Ω, F, P)) et (F Xn ) la suite des fonctions de répartition correspondantes (F Xn (t) = P({X n t}), t R). X n converge en loi vers X ( X n n X ) si lim n F Xn (t) = F X (t), t R point de continuité de F X. Théorème central limite (TCL) Soit (X n ) n=1 une suite de v.a. i.i.d. telle que E(X 1 ) = µ R et Var(X 1 ) = σ 2 >. Soit S n = X X n. Alors S n nµ n σ n Z N (, 1), i.e. P ( Sn nµ nσ t ) 1 e x2 2 n dx = Φ(t), t R. 2π (NB : la fonction de répartition Φ de la loi N (, 1) est continue sur tout R.) Exemple Soit (X n ) n=1 la suite de pile ou face indépendants et équilibrés considérée ci-dessus : E(X 1 ) = 1 2 et Var(X 1) = 1 4, donc S n n 2 n 1 Z N (, 1), i.e. S n n n Z 2 La réponse à la question posée ci-dessus est donc que la déviation est d ordre n. 15

20 1.8 Processus aléatoire à temps discret Cours 4 Marche aléatoire symétrique sur Z Soit (X n ) n=1 une suite de v.a. i.i.d. telle que P({X 1 = +1}) = P({X 1 = 1}) = 1. 2 Soient S =, S n = X X n. Le processus (S n, n N) est appelé la marche aléatoire symétrique sur Z. (S n, n N) est une famille de v.a. à valeurs dans Z, Deux points de vue possibles : S : Remarque E(X 1 ) = E(S n ) =. Var(X 1 ) = E(X 2 1) = 1 Var(S n ) = n Var(X i ) = n. Loi des grands nombres : S n n p.s. Théorème central limite : Ω {suites (z n, n N) à valeurs dans Z}, ω S(ω) = (S n (ω), n N) = suite aléatoire. S n n Z N (, 1) (i.e. S n n Z). Généralisations : - Marche aléatoire asymétrique sur Z : S n = X X n, X i i.i.d., P({X 1 = +1}) = 1 P({X 1 = 1}) = p 1/2. - Marche aléatoire à valeurs dans R : S n = X X n, X i i.i.d., X 1 N(, 1) (p.ex.). - Temps continu : mouvement brownien (voir section 2). Chaîne de Markov Processus aléatoire à temps discret (M n, n N) à valeurs dans un ensemble D dénombrable (appelé espace des états) tel que P(M n+1 = x n+1 M n = x n, M n 1 = x n 1... M = x ) = P(M n+1 = x n+1 M n = x n ), n 1, x... x n+1 D (c est un processus qui oublie son histoire au fur et à mesure). Chaîne de Markov stationnaire Chaîne de Markov telle que P(M n+1 = y M n = x) = Q(x, y) pour tout n N, x, y D. Q(x, y) est appelée la probabilité de transition de x à y. La probabilité définie par µ({x}) = P(M = x), x D, est appelée la loi initiale. µ et Q caractérisent entièrement la chaîne de Markov (dans le cas stationnaire). En effet, on vérifie que : P(M n = x n,..., M = x ) = µ(x ) Q(x, x 1 ) Q(x n 1, x n ). 16

21 Exemple La marche aléatoire symétrique ou asymétrique sur Z est une chaîne de Markov stationnaire. Soit effectivement S =, S n = X X n, avec X i i.i.d. et P({X 1 = 1}) = p = 1 P({X 1 = 1}) : P(S n+1 = y S n = x, S n 1 = x n 1... S = x ) = P(S n+1 = y, S n = x,... S = x ) P(S n = x, S n 1 = x n 1... S = x ) = ( ) Par définition, S n+1 = X X n + X n+1 = S n + X n+1, i.e. X n+1 = S n+1 S n, donc ( ) = P(X n+1 = y x, S n = x... S = x ). P(S n = x... S = x ) Or X n+1 S n, S n 1... S (du fait que les (X i ) sont i.i.d.), donc ( ) = P(X n+1 = y x) P(S n = x... S = x ) = P(X n+1 = y x) = Q(x, y), P(S n = x... S = x ) où p si y x = +1, Q(x, y) = 1 p si y x = 1, sinon. On montre de la même manière que P(S n+1 = y S n = x) = Q(x, y). D autre part, on a (mais ceci n est pas nécessaire à la démonstration) : { 1 si x =, µ({x}) = P(S = x) = si x. Martingale Définition Soit (Ω, F, P) un espace de probabilité. - Une filtration est une famille (F n, n N) de sous-tribus de F tq F n F n+1, n N. - Un processus aléatoire à temps discret (X n, n N) est adapté à la filtration (F n, n N) si X n est F n -mesurable n N. - La filtration naturelle d un processus (X n, n N) est donnée par (F X n, n N), où F X n = σ(x i, i n). Définition Une sous-martingale (resp. sur-martingale) est un processus (M n, n N) adapté à une filtration (F n, n N) tel que { i) E( Mn ) <, n N, ii) E(M n+1 F n ) M n p.s. (resp. E(M n+1 F n ) M n p.s.), n N. - Une martingale est un processus qui est à la fois une sous-martingale et une sur-martingale (i.e. un processus qui vérifie (i) et l égalité au point (ii)). 17

22 Remarque La notion de martingale équivaut à celle de jeu honnête (s il est toutefois possible de parler de jeu honnête losqu on parle de jeu d argent...) : à l instant n (où l on dispose de l information F n ), l espérance de la somme possédée l instant d après est égale à la somme dont on dispose à l instant présent. - Les appellations sous-martingale et sur-martingale sont contre-intuitives : une sousmartingale est un processus qui a tendance à monter (jeu favorable), une sur-martingale est un processus qui tendance à descendre (jeu défavorable). Proposition (démonstration : cf. exercices) Soit (M n, n N) une martingale. Alors m, n N, E(M n+m F n ) = M n p.s. E(M n+1 M n F n ) = p.s., E(M n+1 ) = E(E(M n+1 F n )) = E(M n ) =... = E(M ). Exemple Soit (S n, n N) une marche aléatoire symétrique à valeurs dans Z ou R, i.e. S =, S n = X X n, avec X i i.i.d. et E(X 1 ) =. On pose F = {, Ω} (la tribu triviale) et F n = σ(x i, 1 i n) n 1. Alors (S n, n N) est une martingale par rapport à (F n, n N). En effet : () S n est F n -mesurable, n N. (i) E( S n ) n E( X i )) <. (ii) E(S n+1 F n ) = E(S n F n ) + E(X n+1 F n ) = S n + E(X n+1 ) = S n p.s. (Dans cette série d égalités, on a utilisé successivement : le fait que S n+1 = S n + X n+1 et la linéarité de l espérance conditionnelle, le fait que S n est F n -mesurable et que X n+1 est indépendante de F n, et finalement l hypothèse que les v.a. X n sont toutes centrées.) Exemple Si on reprend l exemple ci-dessus en supposant cette fois que E(X 1 ) > (marche asymétrique), alors (S n ) devient une sous-martingale. Proposition Soit (M n ) une martingale par rapport à (F n ) et ϕ : R R convexe telle que E( ϕ(m n ) ) <, n N. Alors (ϕ(m n )) est une sous-martingale (par rapport à (F n )). En particulier, (M 2 n) est une sous-martingale. Démonstration. Par l inégalité de Jensen (pour l espérance conditionnnelle), on a E(ϕ(M n+1 ) F n ) ϕ(e(m n+1 F n )) = ϕ(m n ) p.s., ce qui prouve la proriété (ii). Les autres vérifications sont triviales. 18

23 Définition Un temps d arrêt par rapport à (F n ) est une v.a. T à valeurs dans N {+ } telle que {T n} F n, n N. Exemple Si (X n ) est un processus adapté à (F n ), alors pour tout a R, la v.a. T a définie par T a = inf{n N : X n a}, est un temps d arrêt, car {T a n} = { i {,..., n} tel que X i a} = n i={x i a} F n, car chaque événement {X i a} F i F n, du fait que le processus (X n ) est adapté et que i n. Définition Soit (X n ) un processus adapté à une filtration (F n ) et T un temps d arrêt (p.r. à (F n )). On pose X T (ω) = X T (ω) (ω) = n N X n (ω) 1 {T =n} (ω), F T = {A F : A {T n} F n, n N}. Remarque Bien que sa définition soit peu explicite, la tribu F T représente simplement l information dont on dispose au temps aléatoire T. Théorème d arrêt Soient (M n ) une martingale par rapport à (F n ) et T 1, T 2 deux temps d arrêt tels que T 1 (ω) T 2 (ω) N <, ω Ω. Alors E(M T2 F T1 ) = M T1 p.s., et donc E(M T2 ) = E(M T1 ). En particulier si T (ω) N, ω Ω, alors E(M T ) = E(M ). Remarque Ce théorème reste vrai pour une sous-martingale ou une sur-martingale (avec les inégalités correspondantes). Pour la démonstration, on aura besoin du lemme suivant : Lemme Y est une v.a. F T -mesurable ssi Y 1 {T =n} est une v.a. F n -mesurable n. Démonstration. (théorème d arrêt) - Démontrons tout d abord que si T est un temps d arrêt tel que T (ω) N, ω Ω, alors N E(M N F T ) = M n 1 {T =n} = M T p.s. (1) n= 19

24 Appelons Z le terme du milieu de l équation ci-dessus. Pour vérifier que E(M N F T ) = Z, il faut vérifier les deux points de la définition de l espérance conditionnelle : (i) Z est F T -mesurable : effectivement, Z 1 {T =n} = M n 1 {T =n} est F n -mesurable n, donc par le lemme, Z est F T -mesurable. (ii) E(Z U) = E(M N U), v.a. U F T -mesurable et bornée : E(Z U) = N n= = E(M N U), E(M n 1 {T =n} U) (a) = N n= E(E(M N F n ) 1 {T =n} U) (b) = N E(M N 1 {T =n} U) n= car (a) : (M n ) est une martingale et (b) : 1 {T =n} U est F n -mesurable par le lemme. - En utilisant (1) avec T = T 1 et T = T 2 succesivement, on trouve donc que M T1 = E(M N F T1 ) (c) = E(E(M N F T2 ) F T1 ) = E(M T2 F T1 ) p.s., où (c) découle du fait que F T1 F T2 (car T 1 T 2 ). Intégrale stochastique discrète Définition Un processus (H n, n N) est dit prévisible (par rapport à une filtration (F n, n N)) si H = et H n est F n 1 -mesurable n 1. Soit (H n ) un processus prévisible et (M n ) une martingale. On pose I = et I n = (H M) n = H i (M i M i 1 ), n 1. I n représente le gain effectué au temps n en appliquant la stratégie (H n ) sur le jeu (M n ) ; H n représente la mise au temps n, qui ne doit logiquement dépendre que des observations passées (la tribu F n 1 ), sinon il y a délit d initié (i.e. on a une information sur le futur du processus). Proposition Si H n est une v.a. bornée (i.e. H n (ω) K n, ω Ω) n 1, alors le processus (I n ) est une martingale par rapport à (F n ). Démonstration. Il est clair que I n est F n -mesurable n N. D autre part, on a E( I n ) E( H i (M i M i1 ) ) K i (E( M i ) + E( M i+1 )) <, n=1 E(I n+1 F n ) = E(I n F n ) + E(H n+1 (M n+1 M n ) F n ) = I n + H n+1 E(M n+1 M n F n ) = I n p.s. ce qui prouve les points (i) et (ii) de la définition d une martingale. 2

25 Remarque Une réciproque à cette proposition existe : cf. exercices. Application : Soit (M n ) la marche aléatoire symétrique sur Z (M n = X X n, P(X 1 = +1) = P(X n = 1) = 1/2). On pose H =, H 1 = 1, H n+1 = { 2Hn si X 1 =... = X n = 1, dès que X n = +1. Alors I n = n H i (M i M i 1 ) = n H i X i est une martingale par la proposition ci-dessus (chacune des v.a. H i est clairement bornée). En particulier E(I n ) = E(I ) =. On définit le temps d arrêt T = inf{n 1 : X n = +1}. Il est alors facile de voir que I T = 1, donc E(I T ) = 1 E(I ) =??? Effectivement, le théorème d arrêt mentionné ci-dessus ne s applique pas ici car T n est pas borné (en d autres mots, en appliquant la stratégie (H n ), on est sûr de gagner un franc au temps T, mais le prix à payer est que ce temps T peut être arbitrairement grand, et donc qu on risque de perdre toute notre fortune avant de gagner ce franc). 1.9 Vecteur aléatoire Cours 5 Définition { Un vecteur aléatoire (de dimension n 1) est une application Ω R n X : telle que ω X(ω) = (X 1 (ω),..., X n (ω)) {ω Ω : X(ω) B} F, B B(R n ). Proposition X est un vecteur aléatoire ssi {ω Ω : X 1 (ω) t 1,..., X n (ω) t n } F, t 1,..., t n R. Remarque Si X est un vecteur aléatoire, alors chaque X i est une v.a. aléatoire, mais la réciproque n est pas vraie. Deux types particuliers de vecteurs aléatoires A) Vecteur aléatoire discret : X prend ses valeurs dans un ensemble dénombrable D. B) Vecteur aléatoire continu : P({X B}) = si B =. Sous cette condition, le théorème de Radon-Nikodym assure l existence d une fonction borélienne f X : R n R (appelée densité conjointe) telle que f X (x 1,..., x n ), f X (x 1,..., x n ) dx 1 dx n = 1 et P({X B}) = R n 21 B f X (x 1,..., x n ) dx 1 dx n.

26 Remarque A) X est un vecteur aléatoire discret ssi chaque X i est une v.a. discrète. B) Si X est un vecteur aléatoire continu, alors chaque X i est une v.a. aléatoire continue, mais la réciproque n est pas vraie : soit U est une v.a. continue ; alors le vecteur aléatoire X = (U, U) n est pas un vecteur aléatoire continu, car pour B = {(x, y) R 2 : x = y}, on a P({X B}) = 1 alors que B =. Espérance et matrice de covariance d un vecteur aléatoire Soit X un vecteur aléatoire (tel que X i est une v.a. de carré intégrable, i {1,..., n}). Alors { i) E(X) = (E(X1 )... E(X n )), ii) Cov(X) = Q où Q est une matrice n n, Q ij = Cov(X i, X j ) = E(X i X j ) E(X i ) E(X j ). Proposition i) Q ij = Q ji (i.e. Q est symétrique), ii) n i,j=1 c i c j Q ij, c 1... c n R (i.e. Q est définie positive). Démonstration. La symétrie est claire. La seconde propriété découle du fait que ( n ) c i c j Q ij = c i c j Cov(X i, X j ) = Cov c i X i, c j X j = Var c i X i. i,j=1 i,j=1 j=1 (On a utilisé ici la bilinéarité de la covariance.) Rappel : Une matrice symétrique Q est définie positive ssi toutes ses valeurs propres sont positives (i.e. ). Proposition Si (X 1... X n ) sont des v.a. indépendantes et de carré intégrable, alors X = (X 1,..., X n ) est un vecteur aléatoire et Cov(X) est une matrice diagonale (i.e. Cov(X i, X j ) =, i j). Vecteur aléatoire gaussien Convention : si Y (ω) c, alors on dit par abus de langage que Y est une v.a. gaussienne (de moyenne c et de variance nulle) et on note Y N (c, ). Définition Un vecteur aléatoire X = (X 1,..., X n ) est dit gaussien si c 1,..., c n R, la v.a. c 1 X c n X n est une v.a. gaussienne. Exemple Si X 1,..., X n sont indépendantes et gaussiennes, alors X = (X 1,..., X n ) est un vecteur gaussien. Proposition Soit X un vecteur aléatoire gaussien. Alors les v.a. X 1,..., X n sont indépendantes ssi la matrice Cov(X) est diagonale. 22

27 Remarque Il n est pas obligatoire qu un vecteur formé de deux v.a. gaussiennes X 1 et X 2 soit un vecteur gaussien. - De la même manière, il n est pas vrai que deux v.a. gaussiennes décorrélées sont toujours indépendantes (cf. exercices). Notation : Si X est un vecteur gaussien de moyenne m et de (matrice de) covariance Q, on note X N (m, Q). Définition Soit X un vecteur aléatoire gaussien de dimension n, moyenne m et covariance Q. X est dit dégénéré si rang(q) < n. Rappel : Une matrice symétrique Q vérifie : rang(q) < n ssi Q est non-inversible ssi det(q) = NB : rang(q) = nombre de valeurs propres non-nulles. ssi Q admet au moins une valeur propre nulle. Proposition Soit X un vecteur aléatoire gaussien non-dégénéré de dimension n, moyenne m et covariance Q. Alors X un vecteur aléatoire continu dont la densité conjointe f X est donnée par f X (x 1,..., x n ) = 1 (2π) n det Q exp 1 2 NB : det(q) et Q 1 existe par hypothèse. (x i m i )(Q 1 ) ij (x j m j ). i,j=1 Proposition (décomposition de Karhunen-Lowe) Soit X un vecteur aléatoire gaussien de dimension n, moyenne m et covariance Q. Soit k = rang(q) {1,..., n}. Alors il existe k v.a. U 1,..., U k i.i.d. N (, 1) et des nombres réels (α ij ) n,k i,j=1 tels que k X i = α ij U j, j {1,..., n}. j=1 En mots, cette proposition dit qu un vecteur gaussien dont la matrice de covariance est de rang k peut toujours s exprimer en termes de k variables gaussiennes indépendantes. Cette décomposition correspond à la décomposition de la matrice Q dans la base de ses vecteurs propres (associés aux valeurs propres non-nulles). 23

28 2 Calcul stochastique 2.1 Processus aléatoire à temps continu Définition Un processus aléatoire à temps continu est une famille de v.a. (X t, t R + ) définie sur (Ω, F, P). On peut également le voir comme une fonction aléatoire : { Ω {fonctions de R+ dans R} X : ω {t X t (ω)} Remarque Pour caractériser une v.a. X, il suffit de donner sa loi P(X x), x R. Que faut-il pour caractériser un processus (X t, t R + )? - 1ère idée : donner P(X t x), t R +, x R. Ça n est pas suffisant : si on demande p.ex. que X t N (, t), t R +, alors X (1) t = t Y, où Y N(, 1) et X (2) t = mouvement brownien (voir plus loin) satisfont tous deux la condition ci-dessus, mais ces deux processus ne se ressemblent pas du tout! - 2ème idée : donner P(X t x, X s y), t, s R +, x, y R. Ça n est pas suffisant non plus... - n-ème idée : donner P (X t x 1,..., X tn x n ), n 1, t 1... t n R +, x 1... x n R. C est suffisant, mais a-t-on toujours besoin de toutes ces informations pour caractériser un processus? Définition Les v.a. X t X s, t > s, sont appelées des accroissements du processus (X t ) Processus à accroissements indépendants et stationnnaires (Indépendance) : (X t X s ) F X s = σ(x r, r s), t > s. (Stationnarité) : X t X s X t s X, t > s. Pour de tels processus, donner la loi de X t X, t >, ainsi que celle de X suffit à caractériser entièrement le processus. Citons encore une définition dont nous avons besoin pour définir le mouvement brownien. Définition Un processus (X t ) est appelé un processus à trajectoires continues (ou simplement processus continu) si P({ω Ω : t X t (ω) est continue}) = 1. Attention : ne pas confondre processus à temps continu (=notion générale) et processus continu (=processus à trajectoires continues). 24

29 2.1.2 Mouvement brownien standard Définition (1ère caractérisation du mouvement brownien standard) Un mouvement brownien standard (abrégé m.b.s.) est un processus aléatoire à temps continu (B t, t R + ) tel que i) B = p.s., ii) (B t ) est à accroissements indépendants et stationnaires, iii) B t N (, t), t >, iv) (B t ) est à trajectoires continues. Remarque De cette définition, il suit que pour t s, B t B s B t s N (, t s), i.e. E(B t B s ) = et E((B t B s ) 2 ) = t s. En appliquant la loi des grands nombres, on trouve encore que Bt p.s. lorsque t. t De plus, on a Bt t N (, 1), pour tout t > (pas besoin par contre du TCL pour le prouver!). On voit donc que le m.b.s. est bien une généralisation à temps continu de la marche aléatoire symétrique sur Z. Il existe plusieurs manières de construire un mouvement brownien standard. Citons trois d entre elles. I. Construction de Kolmogorov Un théorème d existence général (le théorème de Kolmogorov ) implique qu il existe un processus (B t ) qui vérifie (i) - (iii). A priori, il n est pas clair que ce processus possède des trajectoires continues, mais un second théorème (baptisé critère de continuité de Kolmogorov ) permet de montrer que E( B t B s 2p ) C p t s p, p 1, ( B t ) tel que P( B t = B t ) = 1, t R, et ( B t ) est à trajectoires continues. Le processus ( B t ) est donc un m.b.s. Cette construction a le désavantage de ne pas être explicite, contrairement aux deux suivantes. II. Principe d invariance de Donsker Soit S =, S n = X X n, la marche aléatoire symétrique sur Z (avec X i i.i.d. et P(X i = +1) = P(X i = 1) = 1 2 ). Rappel : par le TCL, Sn n n Z N (, 1). 25

30 Soit Y t = S [t] + (t [t]) X [t]+1 (i.e. si t = n + ε, alors Y t = S n + ε X n+1 ). On pose B (n) t = Ynt n. Supposons pour simplifier que nt N. Alors on a B (n) t ce qui veut dire que = S nt = t S nt n nt P(B (n) t n t Z N (, t), car Z N (, 1), x) n P(B t x). On peut montrer de manière similaire que m 1, t 1,..., t m R +, x 1,..., x m R, P(B (n) t 1 x 1,..., B (n) t m x m ) n P(B t1 x 1,..., B tm x m ), i.e. que la suite de processus (B (n) t ) converge en loi vers le m.b.s. (B t ). III. Construction par série de Fourier Soit t [, π]. On pose 8 B t = π n=1 sin(nt) n où (ξ n ) est une suite de v.a. i.i.d. N (, 1). Alors B t est une v.a. gaussienne (car c est une somme de v.a. gaussiennes indépendantes), E(B t ) = et ξ n, E(B 2 t ) = 8 π 2 n,m=1 sin(nt) n sin(mt) n E(ξ n ξ m ) = 8 π 2 n=1 (sin(nt)) 2 n 2 = t. On peut également vérifier que le processus (B t ) ainsi défini a toutes les propriétés d un m.b.s. A l aide de cette troisième construction, effectuons un petit calcul (formel) : ( ) B t 8 sin(nt) 8 = ξ n = cos(nt) ξ n. t π t n π n=1 La v.a. Bt est donc une v.a. gaussienne (car c est une somme de v.a. gaussiennes indépendantes), t mais ) 2 Bt E ( = 8 (cos(nt)) 2 =. t π 2 Il y a donc une contradiction, car une v.a. gaussienne ne peut pas avoir une variance infinie. En conclusion, la v.a. Bt n est pas bien définie, i.e. la fonction t B t t est continue mais pas dérivable. On reverra ceci de manière plus rigoureuse ci-après. Remarque Il est toutefois possible de définir la dérivée du mouvement brownien au sens des distributions ; l objet représentant la dérivée est appelé bruit blanc. 26 n=1 n=1

31 Transformations du mouvement brownien standard (cf. exercices) Soit (B t, t R + ) un mouvement brownien standard. Alors les cinq processus ci-dessous sont également des mouvements browniens standard : 1) B (1) t = B t, t R + ( propriété de symétrie du mouvement brownien) ; 2) soit T R + fixé : B (2) t = B t+t B T, t R + ( stationnarité) ; 3) soit T R + fixé : B (3) t = B T B T t, t [, T ] ( renversement du temps) ; 4) soit a > fixé : B (4) t = 1 a B at, t R + ( loi d échelle) ; 5) B (5) t = tb 1, t > et B (5) := ( inversion du temps). t A cause de la propriété 4), on appelle le mouvement brownien standard un fractal aléatoire ou encore un processus auto-similaire, i.e. un processus qui garde le même aspect à différentes échelles Processus gaussien Définition Un processus gaussien est un processus (X t, t R + ) tel que (X t1,..., X tn ) est un vecteur aléatoire gaussien n 1 et t 1,..., t n R +. Ceci revient à dire que c 1 X t c n X tn est une v.a. gaussienne n 1, t 1,..., t n R + et c 1,..., c n R. Pour un vecteur aléatoire (pas forcément gaussien), on définit encore : - La fonction m : R + R donnée par m(t) = E(X t ) et appelée la moyenne du processus. - La fonction K : R + R + R donnée par K(t, s) = Cov(X t, X s ) et appelée la covariance du processus. Proposition (valide pour tout processus aléatoire) K est symétrique : K(t, s) = K(s, t), s, t R +. K est définie positive : n i,j=1 c i c j K(t i, t j ), n 1, c 1,..., c n R, t 1,..., t n R +. La démonstration de cette proposition est identique à celle donnée pour un vecteur aléatoire. Proposition (Kolmogorov) Etant donné m : R + R et K : R + R + R symétrique et définie positive, il existe un processus gaussien (X t, t R + ) de moyenne m et de covariance K. De plus, m et K caractérisent entièrement le processus (X t ). Proposition (2ème caractérisation du mouvement brownien standard) Un mouvement brownien standard (B t, t R + ) est un processus à trajectoires continues et gaussien avec moyenne m(t) = et covariance K(t, s) = t s = min(t, s). 27

32 Démonstration. Il faudrait vérifier que c 1 B t c n B tn est une v.a. gaussienne. Vérifions seulement que B t + B s est gaussienne : B t + B s = (B t B s ) + 2 B s, c est donc une v.a. gaussienne, car la somme de deux v.a. gaussiennes indépendantes est encore gaussienne. Soit maintenant t s : m(t) = E(B t ) =, K(t, s) = Cov(B t, B s ) = E(B t B s ) = E((B t B s + B s ) B s ) = E((B t B s ) B s ) + E(B 2 s) = + s, car (B t B s ) B s. On a donc K(t, s) = min(t, s) Processus de Markov Cours 6 Processus (X t, t R + ) tel que E(f(X t ) F X s ) = E(f(X t ) X s ) p.s., pour tout t > s et pour toute fonction f : R R borélienne et bornée (NB : Fs X = σ(x r, r s)). En particulier, si f(x) = 1 B (x) avec B B(R), alors P(X t B F X s ) = P(X t B X s ). Proposition Le mouvement brownien standard (B t, t R + ) est un processus de Markov. Démonstration. En utilisant le fait que (B t B s ) B s, B s est F B s -mesurable et la proposition 1.6.7, on obtient E(f(B t ) F B s ) = E(f(B t B s + B s ) F B s ) = ψ(b s ) p.s., où ψ(y) = E(f(B t B s + y)). Un calcul identique montre que E(f(B t ) B s ) = ψ(b s ) p.s. et donc la propriété de Markov est démontrée. Remarque De la démonstration ci-dessus, on déduit que E(f(B t ) F B s ) = ψ(b s ) p.s., où ψ(y) = E(f(X + y)), avec X N (, t s). Ceci montre qu une expression a priori compliquée faisant intervenir une espérance conditionnelle d une fonction du mouvement brownien peut se réduire à une simple espérance d une fonction d une loi gaussienne. 28

33 2.1.5 Martingale à temps continu Définition Soit (Ω, F, P) un espace de probabilité. - Une filtration est une famille (F t, t R + ) de sous-tribus de F tq F s F t, t s. - Un processus (X t ) est adapté à (F t ) si X t est F t -mesurable t. - La filtration naturelle d un processus (X t, t R + ) est donnée par (F X t, t R + ), où F X t = σ(x s, s t). Définition Un processus (M t ) adapté à (F t ) tel que { i) E( Mt ) <, t, ii) E(M t F s ) = M s p.s., t > s, est appelé une martingale (à temps continu). On définit de manière similaire une sousmartingale et une sur-martingale (à temps continu), avec les inégalités correspondantes. Proposition Le mouvement brownien standard (B t, t R + ) est une martingale par rapport à sa filtration naturelle (F B t, t R + ). Démonstration. i) Par Cauchy-Schwarz, on a E( B t ) E(Bt 2 ) = t <, t. ii) t > s, on a E(B t Fs B ) = E(B t B s Fs B ) + E(B s Fs B ) = E(B t B s ) + B s = B s. Remarque Pour des raisons techniques, on a parfois besoins d augmenter la filtration naturelle (F B t ). On ne rentrera pas dans ces détails dans ce cours. Proposition (démonstration : cf. exercices) Les processus suivants sont des martingales par rapport à (F B t ) : { i) Mt = B 2 t t, ii) N t = exp(b t t 2 ). Théorème de Lévy (3ème caractérisation du mouvement brownien standard) Soit (X t ) un processus à trajectoires continues, adapté à une filtration (F t ) et tel que { i) (Xt ) est une martingale par rapport à (F t ), ii) (Xt 2 t) est une martingale par rapport à (F t ), Alors (X t ) est un mouvement brownien standard. Définition Soit (F t, t R + ) une filtration. - Un temps d arrêt T par rapport à (F t ) est une v.a. T à valeurs dans R + {+ } telle que {T t} F t, t R +. - On définit F T = {A F : A {T t} F t, t R + }. - Si (X t ) est un processus adapté à la filtration (F t ), on pose X T (ω) = X T (ω) (ω). 29

34 Théorème d arrêt Soient (M t ) une martingale continue (par rapport à (F t )) et T 1, T 2 deux temps d arrêt tels que T 1 (ω) T 2 (ω) K <, ω Ω. Alors E(M T2 F T1 ) = M T1 p.s. et donc E(M T2 ) = E(M T1 ). En particulier, si T (ω) K, ω, alors E(M T ) = E(M ). Remarque Bien que l énoncé soit en tout point identique au théorème dans le cas discret, la démonstration du théorème à temps continu est beaucoup plus laborieuse! - Le théorème est encore valide pour une sous-martingale et une sur-martingale (avec les inégalités correspondantes). C est ce que nous allons utiliser pour démontrer les inégalités de Doob ci-dessous. Terminologie : Une martingale (M t ) est dite de carré intégrable si E(M 2 t ) <, t R +. Inégalités de Doob Soit (M t ) une martingale (par rapport à une filtration (F t )) continue, de carré intégrable et telle que M = p.s. Alors a) P(sup s t M s λ) E( M t ), t >, λ >, λ b) E(sup s t M s 2 ) 4 E( M t 2 ), t >. Remarque Ces inégalités sont précieuses, car elles permettent de borner (en espérance) le supremum d une martingale sur un intervalle par quelque chose qui ne dépend que de la valeur de la martingale à la fin de l intervalle. Démonstration. (inégalités de Doob) a) Par l inégalité de Jensen, le processus ( M t, t R + ) est une sous-martingale. On définit T 1 = inf{s : M s λ} t, T 2 = t. On voit alors que T 1 T 2 = t. En appliquant le théorème d arrêt ci-dessus à la sousmartingale ( M t ), on trouve donc que M T1 E( M t F T1 ). En multipliant par 1 { MT1 λ}, on trouve encore M T1 1 { MT1 λ} E( M t 1 { MT1 λ} F T1 ), 3

35 car 1 { MT1 λ} est F T1 -mesurable. De là, on déduit que λ P({ M T1 λ}) = E(λ 1 { MT1 λ}) E( M T1 1 { MT1 λ}) E( M t 1 { MT1 λ}). Soit maintenant M = sup s t M s : il importe de remarquer que { M T1 λ} = {M λ}. (Effectivement, chacun des deux événements ci-dessus correspond à l événement le processus M t a dépassé la valeur λ dans l intervalle [, t] ). Ceci implique que et donc l inégalité a). λ P({M λ}) E( M t 1 {M λ}) E( M t ) (2) b) Pour simplifier, supposons que l on sait que E((M ) 2 ) < (ça n est pas clair a priori). Alors du fait que (cf. exercices) g(m ) = on a par l inégalité de gauche dans (2), E((M ) 2 ) = 2x P({M x}) dx g (x) 1 {M x} dx, L inégalité de Cauchy-Schwarz permet finalement de conclure que E((M ) 2 ) 2 E( M t 2 ) E(M ) 2 ), 2 E( M t 1 {M x}) dx = 2 E( M t M ). autrement dit, E((M ) 2 ) 2 E(Mt 2 ) i.e. E((M ) 2 ) 4 E(Mt 2 ), ce qui termine la démonstration. 31

36 2.2 Intégrale de Riemann-Stieltjes Intégrale de Riemann Soit t > et f : R + R continue. On définit où = t (n) < t (n) 1 <... < t (n) n f(s) ds = lim = t, s (n) i n [t (n) i 1, t (n) i ] et (t (n),..., t (n) n ) est une suite de parti- t (n) i 1 =. tions de [, t] telle que lim n max 1 i n t (n) i Fonction (localement) à variation bornée Fonction g : R + R telle que t >, f(s (n) i ) (t (n) i t (n) i 1), sup g(t i ) g(t i 1 ) <, où le supremum est pris sur toutes les partitions (t,..., t n ) de [, t], avec n arbitraire. Remarque Si g est croissante, alors g est à variation bornée, car g(t i ) g(t i 1 ) = (g(t i ) g(t i 1 )) = g(t) g() est indépendant de la partition choisie, donc sup g(t i ) g(t i 1 ) = g(t) g() <. - Si g est la différence de deux fonctions croissantes, alors g est à variation bornée. (La démonstration est similaire à ce qui précède.) - Si g est continûment dérivable, alors g est à variation bornée, car i g(t i ) g(t i 1 ) = g n (s) ds t i 1 sup g (s) (t i t i 1 ) s [t i 1,t i ] sup g (s) (t i t i 1 ) = sup g (s) t s [,t] s [,t] est indépendant de la partition choisie, donc sup g(t i ) g(t i 1 ) sup g (s) t <. s [,t] 32

37 Intégrale de Riemann-Stieltjes Soit t >, f : R + R continue et g : R + R à variation bornée. On définit f(s) dg(s) = lim f(s (n) i ) (g(t (n) i ) g(t (n) i 1)), où = t (n) < t (n) 1 <... < t (n) n = t, s (n) i n [t (n) i 1, t (n) i ] et (t (n),..., t (n) n ) est une suite de parti- t (n) i 1 =. tions de [, t] telle que lim n max 1 i n t (n) i Proposition Si f est continue et g est continûment dérivable, alors f(s) dg(s) = - Si f et g sont continues et à variation bornée, alors f(s) df(s) = f(t)2 2 f()2 2, f(s) g (s) ds. f(s) dg(s) = f(t) g(t) f() g() g(s) df(s). Passons des fonctions déterministes aux processus aléatoires Soit (H t, t R + ) un processus à trajectoires continues. Soit (V t, t R + ) un processus (à trajectoires) à variation bornée. On définit ( ) H s dv s (ω) = H s (ω) dv s (ω) Cette intégrale est définie trajectoire par trajectoire (i.e. ω par ω ). Remarque Si la courbe (V t ) est l évolution du prix d un actif financier et (H t ) est la stratégie d investissement sur cet actif, alors H s dv s représente le gain effectué sur l intervalle [, t]. L intégrale ci-dessus est donc bien définie et l on peut se demander pourquoi on a besoin de parler d intégrale stochastique? Il se trouve qu en mathématiques financières, les processus d évolution des prix sont mieux repésentés par des mouvements browniens (ou des processus plus compliqués encore). Or le mouvement brownien (standard) a des trajectoires continues mais pas à variation bornée (voir plus loin). Comment définir alors H s db s? Une fausse solution : si on suppose (H t ) à variation bornée, alors on pourrait définir H s db s = H t B t H B B s dh s. Le terme de droite est bien défini, car (H t ) est à variation bornée et (B t ) est continu. Mais comment définir alors B s db s??? 33

38 2.3 Variation quadratique Cours 7 Variation quadratique du mouvement brownien standard Soit (B t, t R + ) un mouvement brownien standard (par convenance, on notera parfois B t = B(t)). Pour t >, on définit B (n) t = 2 n Proposition - Définition. Pour t >, ( B ( it 2 n ) B ( (i 1) t 2 n )) 2. lim n B (n) t = t p.s. et on définit la variation quadratique du mouvement brownien standard B t comme étant donnée par cette limite (par convention, on pose également B = ). Démonstration. Soient X i = B ( it 2 n ) B ( (i 1)t 2 n ), 1 i 2 n (t et n fixés). Les v.a. X i sont i.i.d. N(, t/2 n ) et B (n) t = 2 n X 2 i. De plus, on a E( B (n) t ) = Var( B (n) t ) = = 2 n 2 n 2 n ( E(X 2 i ) = Var(X 2 i ) = 3 t2 4 n t2 4 n 2 n 2 n t 2 n = t, ) (E(X 4 i ) E(X 2 i ) 2 ) = t2 2 n 1. En conséquence, n=1 P( B (n) t t > ε) 1 ε 2 n=1 Var( B (n) t ) = 1 ε 2 n=1 t 2 <. 2n 1 Par le lemme de Borel-Cantelli (a) et le critère donné pour la convergence presque sûre, on a donc B (n) t n t p.s. Corollaire n lim n B ( ) ( ) it 2 B (i 1) t n 2 = p.s. n donc le processus (B t ) n est pas à variation bornée. 34

39 Démonstration. Supposons par l absurde que P(lim n n B( it ) B( (i 1)t ) < ) >. 2 n 2 n Alors en reprenant la notation de la démonstration précédente, on a B t = n lim B (n) t = n lim 2 n Xi 2 ( ) ( lim max X i lim n 1 i 2 n 2 n n Vu que le processus (B t ) est continu, il est uniformément continu sur [, t], et donc X i ). lim max X i = n 1 i 2 n p.s. D un autre côté, on a supposé que ( P lim 2 n n X i < De la première inégalité, on conclut donc que P ( B t = ) >, ) >. ce qui est clairement en contradiction avec le fait que B t = t p.s., démontré ci-dessus. Remarque Le fait que le processus (B t ) n est pas à variation bornée implique que ses trajectoires ne sont pas dérivables. Remarque En appliquant la proposition (i), on remarque que le processus (B 2 t B t, t R + ) est une martingale. Ceci n est pas un hasard. Cette propriété va même nous servir à définir la variation quadratique d une martingale continue de carré intégrable. Théorème de décomposition de Doob Soit (X t, t R + ) une sous-martingale continue (par rapport à une filtration (F t, t R + )). Alors il existe un unique processus (A t, t R + ) croissant, continu et adapté à (F t, t R + ) tel que A = et (X t A t, t R + ) est une martingale. Application : définition de la variation quadratique d une martingale Soit (M t ) une martingale continue de carré intégrable (par rapport à une filtration (F t )). Alors (M 2 t ) est une sous-martingale et donc, d après le théorème ci-dessus, il existe un unique processus (A t ) croissant, continu et adapté à (F t ) tel que A = et (M 2 t A t ) est une martingale. On note A t = M t et on appelle ce processus la variation quadratique de (M t ). Exemple On a vu que B t = t. Noter que dans ce cas, la variation quadratique est un processus déterministe. 35

40 Remarque Noter qu on a toujours par définition : E( M t ) = E(M 2 t ) E(M 2 ). - Du fait que le processus ( M t ) est croissant, c est un processus à variation bornée (i.e. la variation quadratique d une martingale est un processus à variation bornée). - Si (M t ) est une martingale continue à variation bornée, alors M t = M pour tout t > (i.e. M t est constante). Proposition Si (M t ) est une martingale continue de carré intégrable, alors on a : M (n) t = 2 n ( M ( it 2 n ) M ( (i 1) t 2 n )) 2 P n M t, t. Remarque A priori, la convergence n a lieu qu en probabilité (alors qu elle a lieu presque sûrement dans le cas où (M t ) est un mouvement brownien standard). - Bien que la variation quadratique soit une quantité aléatoire, la proposition ci-dessus illustre le fait qu elle est une généralisation de la notion de variance pour des processus aléatoires. Définition Soient (M t ), (N t ) deux martingales continues de carré intégrable. On définit la covariation quadratique de (M t ) et (N t ) par M, N t = 1 4 ( M + N t M N t ). Proposition (démonstration : cf. exercices) Le processus (M t N t M, N t ) est une martingale. Proposition Si (M t ) et (N t ) sont deux martingales continues de carré intégrable, alors on a : M, N (n) t = 2 n ( ( ) ( )) ( ( ) ( )) M it 2 M (i 1) t n 2 N it n 2 N (i 1) t P M, N n 2 t, t. n n Remarque De la même manière que ci-dessus, on voit que la covariation quadratique est en quelque sorte une généralisation de la covariance pour des processus aléatoires. En particulier, elle est bilinéaire et on a également la proposition suivante. Proposition (cf. proposition ) Soient (M t ), (N t ) deux martingales continues de carré intégrable indépendantes et soit c R. Alors M, N t = et cm + N t = c 2 M t + N t. La première égalité vient du fait que si (M t ) et (N t ) sont deux martingales indépendantes de carré intégrable, alors (M t N t ) est une martingale (mais la démonstration de ce fait est plus longue qu on pourrait imaginer). 36

41 Changement de temps Définition On appelle mouvement brownien standard par rapport à une filtration (F t ) un mouvement brownien standard (B t ) adapté à (F t ) et tel que (B t B s ) F s, t > s. On est maintenant en mesure de donner une version différente du théorème de Lévy. Théorème de Lévy (seconde version) Soit (M t ) une martingale continue de carré intégrable par rapport à une filtration (F t ) telle que M t = t p.s., t R +. Alors (M t ) est un mouvement brownien standard par rapport à (F t ). Proposition Soit (M t ) une martingale continue de carré intégrable (par rapport à une filtration (F t )) et telle que lim t M t = p.s. Soit T (s) = inf{t : M t s}. On pose G s = F T (s) et B s = M T (s), s R +. Alors le processus (B s ) est un mouvement brownien standard par rapport à (G s ). Démonstration. On utilise la version du théorème de Lévy mentionnée ci-dessus. Par continuité de l application s T (s) (qui provient de la continuité de t M t ), le processus (B s ) est continu. D autre part, pour s 2 > s 1, on a, par le théorème d arrêt : E(B s2 B s1 G s1 ) = E(M T (s2 ) M T (s1 ) F T (s1 )) =. (NB : ici, T (s 2 ) n est pas forcément borné (i.e. on n est pas sûr que T (s 2 )(ω) K, ω Ω), mais le théorème d arrêt s applique malgré tout). Le processus (B s ) est donc une martingale p.r. à (F s ). Elle est également de carré intégrable et E(B 2 s 2 B 2 s 1 G s1 ) = E(M 2 T (s 2 ) M 2 T (s 1 ) F T (s1 )). Par définition de la variation quadratique (et en utilisant à nouveau le théorème d arrêt), on a E(M 2 T (s 2 ) M T (s2 ) F T (s1 )) = M 2 T (s 1 ) M T (s1 ), i.e. E(B 2 s 2 B 2 s 1 G s1 ) = E( M T (s2 ) M T (s1 ) F T (s1 )) = E(s 2 s 1 F T (s1 )) = s 2 s 1. Donc le processus (Bs 2 s) est une martingale par rapport à (G s ), i.e. B s = s p.s., et par le thèorème de Lévy, (B s ) est un mouvement brownien standard par rapport à (G s ). 37

42 Corollaire Toute martingale continue de carré intégrable telle que lim t M t = p.s. s écrit M t = B( M t ), où (B t ) est un mouvement brownien standard. On voit donc qu une martingale se comporte généralement comme un mouvement brownien (en ce qui concerne l allure des trajectoires). En ce sens, le mouvement brownien est la martingale typique. Attention! Du corollaire ci-dessus, on pourrait avoir envie de conclure que toute martingale est un processus gaussien. Ça n est évidemment pas vrai, car le changement de temps t M t est lui-même aléatoire (en général), et donc la variable aléatoire B( M t ) n est pas nécessairement gaussienne. Il est par contre vrai que si ( M t ) est un processus déterministe, alors (M t ) est un processus gaussien. 2.4 Intégrale stochastique (ou intégrale d Itô) Soit (B t, t R + ) un mouvement brownien standard par rapport à (F t, t R + ). Soit T > fixé ( temps d arrêt). Notre but est de construire l intégrale stochastique ( ) H s db s, t [, T ] pour un processus (H t ) vérifiant certaines propriétés. Pour cela, on procède en plusieurs étapes (cf. construction de l espérance). Remarque En mathématiques financières, T représente l horizon du marché (désormais, on travaillera toujours à horizon fini, ce qui simplifie les choses), (B t ) représente l évolution du prix d un actif, (H t ) la stratégie d investissement sur cet actif et H s db s la gain réalisé au temps t avec la stratégie H. De la même manière qu à temps discret, (H t ) doit être prévisible pour qu il n y ait pas délit d initié. Nous allons voir une manière simple de traduire cette propriété de prévisibilité à temps continu. Première étape Définition Un processus simple prévisible (par rapport à une filtration (F t )) est un processus (H t, t [, T ]) tel que H t = X i 1 ]ti 1,t i ](t), t [, T ], où = t < t 1 <... < t n = T forme une partition de [, T ] et X i est une v.a. F ti 1 -mesurable et bornée i {1,..., n}. 38

43 On voit donc que sur l intervalle ]t i 1, t i ], la valeur du procesus (H t ) est déterminée par l information F ti 1, d où le nom de prévisible (l appellation simple vient quant à elle du fait que le processus ne prend qu un nombre fini de valeurs (aléatoires!)). On pose T (H B) T H s db s = X i (B ti B ti 1 ). Cette définition de l intégrale stochastique pour des processus simples prévisibles est univoque (mais ça demande un petit travail de vérification) et l intégrale est linéaire en H, i.e. ((c H + K) B) T = c (H B) T + (K B) T. Remarque Cette intégrale représente en quelque sorte l aire sous la courbe t H t, lorsqu on mesure les intervalles ]t i 1, t i ] à l aide du brownien (B t ). Ici, il faut faire attention quand on parle de mesure car 1) la mesure de l intervalle B ti B ti 1 peut être négative ; 2) cette mesure ne vérifie pas non plus l axiome (ii) de la définition Proposition On a les égalités suivantes : ( ) T E((H B) T ) = et E((H B) 2 T ) = E Hs 2 ds. La seconde égalité ci-dessus est appelée l isométrie d Itô. Remarquer que si H(t) 1, alors on retrouve l égalité E(B 2 T ) = T. Démonstration. En utilisant la linéarité de l espérance et en introduisant un conditionnement à l intérieur de l espérance, on obtient E((H B) T ) = E(X i (B ti B ti 1 )) = = = E ( E(X i (B ti B ti 1 ) F ti 1 ) ) E ( X i E(B ti B ti 1 F ti 1 ) ) E ( X i E(B ti B ti 1 ) ) =, où on a utilisé le fait que X i est F ti 1 -mesurable et (B ti B ti 1 ) F ti 1. Pour l isométrie, on calcule E((H B) 2 T ) = E ( X i X j (B ti B ti 1 ) (B tj B tj 1 ) ) = i,j=1 E ( X 2 i (B ti B ti 1 ) 2) E ( X i X j (B ti B ti 1 )(B tj B tj 1 ) ). i,j=i i<j

44 En introduisant à nouveau un conditionnement à l intérieur des espérances, on obtient E((H B) 2 T ) = = = E ( E(Xi 2 (B ti B ti 1 ) 2 F ti 1 ) ) +2 E ( ) E(X i X j (B ti B ti 1 ) (B tj B tj 1 ) F tj 1 i,j=1 i<j E ( Xi 2 E((B ti B ti 1 ) 2 ) ) + 2 E(Xi 2 ) (t i t i 1 ) +, i,j=1 i<j E ( X i X j (B ti B ti 1 ) E(B tj B tj 1 ) ) car E((B ti B ti 1 ) 2 ) = t i t i 1. D autre part, on a ( ) E Hs 2 ds = E ( n ) ( n ) Hs 2 ds = E Xi 2 (t i t i 1 ), t i 1 i donc l isométrie est vérifiée. Remarque Pour être tout à fait exact, l isométrie d Itô dit encore que si H et K sont deux processus simples prévisibles, alors ( ) T E((H B) T (K B) T ) = E H s K s ds. La vérification est similiaire à celle effectuée ci-dessus, quoiqu un peu plus technique. Deuxième étape Soit (H t, t [, T ]) un processus simple prévisible comme défini ci-dessus et t [, T ]. On pose (H B) t H s db s = ((H 1 [,t] ) B) T = X i (B ti t B ti 1 t). A nouveau, cette intégrale est linéaire en H et on a par la proposition précédente : ( ) T E((H B) t ) = et E((H B) 2 t ) = E(((H 1 [,t] ) B) 2 T ) = E Hs 2 1 [,t] (s) ds De plus, en utilisant la remarque 2.4.5, on peut encore calculer ( s ) Cov((H B) t, (K B) s ) = E((H B) t (K B) s ) = E H r K r dr. 4 ( ) = E Hs 2 ds.

45 Remarque Si t ]t k 1, t k ], alors Cours 8 (H B) t = k 1 X i (B ti B ti 1 ) + X k (B t B tk 1 ). Proposition Le processus ((H B) t, t [, T ]) est une martingale continue de carré intégrable. Démonstration. Par la remarque ci-dessus et la continuité de (B t ), le processus ((H B) t ) est clairement continu à l intérieur des intervalles ]t k 1, t k [. Aux points limites, il est aisé de vérifier que le processus reste continu également. D autre part, l isométrie montrée plus haut dit que ((H B) t ) est un processus de carré intégrable, donc par l inégalité de Cauchy-Schwarz, E( (H B) t ) De plus, si on suppose que t ]t k 1, t k ], alors E((H B) 2 t ) <. E((H B) T F t ) = = = k 1 + k 1 + k 1 E(X i (B ti B ti 1 ) F t ) + E(X k (B tk B tk 1 ) F t ) i=k+1 E(X i (B ti B ti 1 ) F t ) X i (B ti B ti 1 ) + X k E(B tk B tk 1 F t ) i=k+1 E(X i E(B ti B ti 1 F ti 1 ) F t ) X i (B ti B ti 1 ) + X k (B t B tk 1 ) + = (H B) t, par la remarque ci-dessus. Le processus ((H B) t ) est donc une martingale car pour t s, on a E((H B) t F s ) = E(E((H B) T F t ) F s ) = E((H B) T F s ) = (H B) s. D après l inégalité de Doob (b), on a donc : ( ) E sup (H B) 2 t 4 E ( ( ) ) T (H B) 2 T = 4 E Hs 2 ds. t [,T ] 41

46 Troisième étape On étend maintenant l intégrale (H B) par continuité à l ensemble H T = { (H t, t [, T ]) : H est adapté, continu à gauche, limité à droite ( ) T } et tel que E Hs 2 ds <. Cet ensemble est un espace vectoriel normé et complet (ou espace de Banach), muni de la norme T,1 définie par ( ) H 2 T,1 = E Hs 2 ds. Remarque Un processus adapté et continu à gauche est l équivalent à temps continu d un processus prévisible à temps discret : la valeur d un tel processus à l instant t ne peut pas différer trop de sa valeur à l instant t ε, instant où il est F t ε -mesurable car adapté. Il existe toutefois une notion plus générale de processus prévisible à temps continu, mais nous n entrerons pas dans ces détails dans ce cours. D autre part, on entend par limité à droite que le processus peut être discontinu à droite, mais doit tout de même avoir une limite depuis la droite (i.e. le futur ). Cette restriction est essentiellement technique ; elle assure que le processus soit suffisamment régulier. On a maintenant besoin du lemme suivant. Lemme H H T, il existe une suite (H (n) ) de processus simples prévisibles tels que E ( T (H (n) s H s ) 2 ds ). n Conséquence : Du fait que la suite (H (n) ) converge, c est également une suite de Cauchy : E ( T (H (n) s H s (m) ) 2 ds ). n,m Et donc, on a E ( ) sup ((H (n) B) t (H (m) B) t ) 2 t [,T ] = E ( 4 E ) sup ((H (n) H (m) ) B) t ) 2 t [,T ] ( T (H (n) s H s (m) ) 2 ds ). n,m 42

47 La suite de processus ((H (n) B)) est donc une suite de Cauchy dans l espace de Banach M T défini par M T = {(M t, t [, T ]) martingale continue de carré intégrable telle que M = } et muni de la norme T,2 définie par M 2 T,2 = E ( sup Mt 2 t [,T ] Le fait que M T soit complet (i.e. que toute suite de Cauchy dans M T converge dans M T ) implique que la suite ((H (n) B)) converge dans M T. Il existe donc un élément (H B) M T tel que E ( ) sup ((H (n) B) t (H B) t ) 2 t [,T ] Nous avons ainsi défini l application linéaire et continue { HT M T, H (H B). Remarque (3) implique en particulier que pour tout ε >, P( sup (H (n) B) t (H B) t > ε) n, t [,T ] ).. (3) n donc la suite ((H (n) B)) converge uniformément sur [, T ] en probabilité vers (H B). - Attention : la construction de l intégrale stochastique ci-dessus implique qu elle n est définie qu à un ensemble négligeable près (cf. définition de l espérance conditionnelle). Plus important : l intégrale stochastique n est pas définie trajectoire par trajectoire, i.e. ω par ω : pour un ω Ω donné, il est impossible de dire ce que vaut (H B) T (ω) si on ne connaît que les trajectoires t H t (ω) et t B t (ω) ; aussi étrange que cela puisse paraître, il faut connaître les processus (H t ) et (B t ) en entier! Propriétés de l intégrale stochastique - Linéarité : ((c H + K) B) t = c (H B) t + (K B) t p.s. - Espérance nulle et isométrie : E((H B) t ) = et Cov((H B) t, (K B) s ) = E( s H r K r d r ). - (H B) est une martingale continue de carré intégrable telle que ( ) ( ) T E sup (H B) 2 t 4 E Hs 2 ds. t [,T ] 43

48 Les propriétés ci-dessus ont déjà été vérifiées lors de la seconde étape pour des processus H simples prévisibles (on vérifie le cas général en utilisant la continuité). Citons encore une propriété qui n a pas été mentionnée précedemment et qui est plus délicate à démontrer, mais très utile en pratique : ou plus généralement, (H B) t = (H B), (K B) t = H 2 s ds, H s K s ds. Ainsi, on peut calculer facilement la variation quadratique d une intégrale stochastique, ou la covariation quadratique de deux intégrales stochastiques, sans devoir se référer à la définition de (co)variation quadratique. Remarque Soit (H t, t [, T ]) H T, qu on suppose de plus à trajectoires continues. On pose H (n) t = H (n) t 1 (t), (n) i 1 ]t i 1,t(n) i ] où = t (n) < t (n) 1 <... < t (n) n = t et lim n max 1 i n t (n) i t (n) i 1 =. Alors on a (H (n) B) T = T P H (n) t (B (n) i 1 t B (n) i t ) (H B) T H s db s. i 1 n Mais : 1) La convergence a lieu seulement en probabilité (on peut en fait montrer que si on exige que la convergence ait lieu presque sûrement pour tout processus continu H, alors le processus B doit être à variation bornée). 2) On n a plus le choix du point s (n) i [t (n) i 1, t (n) i ], comme c était le cas pour l íntégrale de Riemann-Stieltjes ; il faut maintenant choisir systématiquement le point à gauche de l intervalle (s (n) i = t (n) i 1), sinon la limite change. Illustration de ce dernier point : intégrale de Stratonovich On pose (H B) T T H s db s = lim n 1 2 (H t (n) i 1 + H (n) t ) (B (n) i t B (n) i t ), i 1 où la limite est une limite en probabilité. On peut montrer que (cf. exercices) : (H B) T = (H B) T H, B T 44

49 où (H B) T est l intégrale définie au sens d Itô et H, B T = n lim (H (n) t i H (n) t ) (B (n) i 1 t B (n) i t ), i 1 où la limite est à nouveau une limite en probabilité (NB : si H et B sont des martingales continues de carré intégrable, alors la définition de H, B T ci-dessus coïncide avec celle de covariation quadratique donnée plus haut). Ainsi, si au lieu de considérer le point à gauche de l intervalle, on choisit la moyenne entre le point à gauche et le point à droite, alors la valeur de l intégrale change. De plus, le processus ((H B) t ) n est pas une martingale. Par contre, on verra que l intégrale de Stratonovich présente des avantages du point de vue du calcul différentiel. Intégrale stochastique par rapport à une martingale On peut définir H s dm s de la même manière que H s db s si on suppose que M est une martingale continue de carré intégrable. 1. Pour (H t ) un processus simple donné par H t = n X i 1 ]ti 1,t i ](t), on pose et on vérifie que (H M) t H s dm s = X i (M ti t M ti 1 t) E((H M) t ) =, ( ) E((H M) 2 t ) = E Hs 2 d M s. Remarquer que le terme ds apparaissant dans l isométrie pour (H B) t a logiquement été remplacé par d M s pour tenir compte de la variation quadratique M s de la martingale qui n est pas forcément égale à s. D autre part, on vérifie que le processus ((H M) t, t [, T ]) est également une martingale continue de carré intégrable. 2. L extension de l intégrale à un processus (H t ) adapté, continu à gauche, limité à droite et tel que ( ) T E Hs 2 d M s < est identique à celle effectuée pour H sdb s. 45

50 Donnons ici la liste des propriétés de (H M) t H s dm s : Linéarité : ((ch + K) M) t = c (H M) t + (K M) t et (H (M + N)) t = (H M) t + (H N) t. E((H M) t ) =, E((H M) 2 t ) = E( H2 s d M s ). Cov((H M) t, (K N) t ) = E( H s K s d M, N s ). (H M) t = H2 s d M s. (H M), (K N) t = H s K s d M, N s. Règle utile à retenir : si X t = H sdm s (i.e. dx t = H t dm t ), alors d X t = H 2 t d M t. Noter que si M t = K s db s, alors X t = H s K s db s et X t = H 2 s K 2 s ds. De même, vu que la proriété de martingale (continue de carré intégrable) est préservée, on peut encore définir (L X) t L s dx s etc. etc. Remarque On a maintenant défini une application linéaire et continue { HT M T M T, (H, M) (H M), où H T est l ensemble des processus (H t ) adaptés, continus à gauche, limités à droite et tels que E( T H2 s d M s ) <. 46

51 2.5 Formules d Itô Cours Formules de base Jusqu à présent, on a défini l intégrale stochastique, mais il nous manque encore des règles de calcul. La première règle de calcul est la suivante. Théorème Soit (B t, t R + ) un mouvement brownien stantard par rapport à (F t, t R + ) et f C 2 (R) (i.e. f, f et f sont des fonctions continues). On suppose de plus que ( ) E (f (B s )) 2 ds <, t >. (4) Alors pour tout t >, f(b t ) f(b ) = f (B s ) db s f (B s ) ds p.s. (5) Remarque Vu que (f (B t ), t ) est un processus continu et adapté à (F t ) et que la condition (4) est vérifiée, f (B s ) db s est bien définie (et f (B s ) ds l est également car l application s f (B s ) est continue). - Le second terme du membre de droite dans (5) (absent dans les règles de calcul différentiel classique ) est appelé terme d Itô ; il résulte la variation quadratique non-nulle du mouvement brownien. Démonstration.(idée principale) f(b t ) f(b ) = (f(b (n) t ) f(b (n) i t )), i 1 où = t (n) < t (n) 1 <... < t (n) n = t est une suite de partitions de [, t] telle que lim max n 1 i n t(n) i t (n) i 1 =. Par un développement de Taylor classique, on a où lim h r(h) h 2 f(b t ) f(b ) = f(y) f(x) = f (x) (y x) f (x) (y x) 2 + r(y x), = (on note aussi r(h) = o(h 2 )). Donc P n ( f (B (n) t ) (B (n) i 1 t B (n) i t ) + 1 i 1 2 f (B (n) t ) (B (n) i 1 t B (n) i t i 1 f (B s ) db s ce qui permet de conclure, vu que B s = s. 47 f (B s ) d B s +, ) ) 2 + r (n) i

52 Remarque Cette démonstration évite un très grand nombre de détails techniques concernant la convergence des divers termes. Notamment, il faut choisir les points B (n) t (et i 1 non B (n) t ou autre chose) pour le développement de Taylor, ce qui n apparaît pas clairement i ci-dessus. Remarquer d autre part que dans le cas où f (x) = 1, on a déjà vu que 1 (B t (n) i B (n) t ) 2 P B t = 1 d B s. i 1 n Exemple Soit f(x) = x ; la formule (5) s écrit alors B t B = 1 db s +, autrement dit, rien de nouveau (ceci correspond au calcul différentiel classique). Exemple Soit f(x) = x 2 ; on a d après (5) : B 2 t B 2 = 2B s db s ds = 2 B s db s + t, autrement dit : Bt 2 t = 2 B sdb s est une martingale, ce qu on avait déjà montré d une autre manière (noter que la condition (4) est vérifiée car E( (2B s) 2 ds) = 4s ds = 2t2 < ). Exemple Soit f(x) = e x : f (x) = f (x) = e x, et donc e Bt 1 = e Bs db s Noter qu ici aussi la condition (4) est vérifiée, car e Bs ds. ( ) E (e Bs ) 2 ds = E(e 2Bs ) ds = e 2s ds = e2t 1 2 Si on pose X t = e Bt, alors la formule ci-dessus devient : X t 1 = X s db s X s ds. <. Autrement dit, on a trouvé une équation (intégrale) pour le processus (X t ). Sous forme difféntielle, celle-ci s écrit dx t = X t db t X t dt et X = 1. Vu que dbt n existe pas, on ne divise pas par dt. Noter que la forme différentielle ci-dessus dt n a aucun sens en tant que telle et ne constitue qu une notation pour la forme intégrale donnée 48

53 plus haut. L esprit humain cependant a plus de facilité à raisonner avec des différentielles, c est pourquoi celle-ci est largement répandue. Sous une forme ou l autre, l équation ci-dessus est notre premier exemple d équation différentielle stochastique. Il se trouve que c est aussi un cas particulier de l équation de Black & Scholes, largement utilisée en mathématiques financières pour décrire l évolution du prix d un actif (noter que la solution X t = e Bt suit une loi log-normale et est toujours à valeurs positives). Voyons maintenant une version légèrement plus élaborée de la formule (5). Théorème Soient (B t ) un mouvement brownien standard et f C 1,2 (R + R) (i.e f, f, f, 2 f sont continues) telle que t x x 2 ( ) t 2 E f x (s, B s) ds <, t >. Alors pour tout t >, f(t, B t ) f(, B ) = f t t (s, B f s) ds + x (s, B s) db s f 2 x (s, B s) ds 2 p.s. Démonstration. La démonstration reprend le schéma de celle du théorème esquissée ci-dessus. Le développement de Taylor utilisé est : f(u, y) f(t, x) = f f (t, x) (u t) + t x (t, x) (y x) + 2 f x (t, x)(y 2 x)2 + r(u t, y x), ce qui explique l apparition du terme supplémentaire dans la formule. Remarque Vu que la fonction t t est une fonction à variation bornée, il n y a pas besoin d effectuer un développement de la fonction f à l ordre 2 en t. Exemple Soit f(t, x) = x 2 t : f t = 1, f x = 2x, 2 f x 2 = 2, donc f f t 2 x 2 = et B 2 t t = On retrouve donc la même formule que ci-dessus. 2B s db s. Exemple Soit f(t, x) = e x t f 2 : = 1f, f t 2 x f f = et t 2 x 2 e Bt t 2 1 = e Bs s 2 dbs. 49 = 2 f x 2 = f, donc à nouveau

54 Le processus (Z t = e Bt t 2 ) est donc une martingale (appelée la martingale exponentielle associée au mouvement brownien standard). De plus, il satisfait l équation différentielle stochastique : Z t 1 = Z s db s, i.e. dz t = Z t db t et Z = 1. Remarque On sait que le processus X t = e Bt est une sous-martingale. En utilisant l une ou l autre des formules d Itô ci-dessus, on a vu qu il y a deux manières de l écrire : ou X t = 1 + X t = e t/2 + e Bs db s e Bs ds e t s 2 e Bs db s. Or selon le théorème de décomposition de Doob, toute sous-martingale X t continue s écrit de manière unique comme M t +A t, où M t est une martingale continue et A t est un processus croissant continu adapté tel que A =. L exemple ci-dessus ne contredit-il donc pas le théorème? Non, car le processus e t s 2 e Bs db s n est pas une martingale (à cause de la dépendance en t de l intégrand) Processus d Itô (ou semi-martingale continue ) Définition Un processus d Itô est un processus (X t ) pouvant se décomposer comme (X t = M t + V t ), où : { (Mt ) est une martingale continue de carré intégrable (p.r. à une filtration (F t )), (V t ) est un processus continu à variation bornée, adapté à (F t ) et tel que V =. Remarque Le nom semi-martingale vient simplement du fait que le processus (X t ) est composé pour moitié d une martingale. Exemple D après le théorème de décomposition de Doob, toute sous-martingale (resp. sur-martingale) continue de carré intégrable est un processus d Itô (car un processus croissant (resp. décroissant) est à variation bornée). Exemple Soit (X t ) le processus défini par X t = X + H s db s + K s ds, où (H t ) est continu adapté et tel que E( H2 s db s ) < pour tout t et (K t ) est continu et adapté. (X t ) un processus d Itô. 5

55 Exemple Soit f C 2 (R) vérifiant la condition (4). Alors (f(b t )) est un processus d Itô, car par la formule (5), f(b t ) = f(b ) + f (B s ) db s f (B s ) ds, i.e. (f(b t )) est la somme d une martingale continue de carré intégrable (M t = f(b ) + f (B s ) db s ) et d un processus continu à variation bornée (V t = 1 2 f (B s ) ds) tel que V =. Définition Pour t, la variation quadratique du processus d Itô (X t = M t + V t ) est définie par X t = M t, et pour deux processus d Itô (X t = M t + V t ) et (Y t = N t + U t ), on pose X, Y t = M, N t. Remarque Remarquer que si (X t ) est à variation bornée, alors X t = M + V t (rappelons ici que si (M t ) est une martingale continue à variation bornée, alors M t = M pour tout t > ) et donc, X t = selon la définition ci-dessus. De même, X, Y t =, quel que soit (Y t ) (ceci vient de l inégalité de Cauchy-Schwarz : X, Y t X t Y t ). - Si d autre part (X t ) et (Y t ) sont indépendants (mais pas forcément à variation bornée), alors X, Y t =. Définition Soit (X t = M t + V t ) un processus d Itô et (H t ) un processus continu, adapté à (F t ) et tel que ( ) ( ) E Hs 2 d X s E Hs 2 d M s <. On pose (H X) t H s dx s = H s dm s + H s dv s. Remarquer qu une intégrale stochastique par rapport à un processus d Itô (X t ) est la somme d une intégrale stochastique pure et d une intégrale de Riemann-Stieltjes Retour à l intégrale de Stratonovich On peut maintenant définir l intégrale de Stratonovich de la manière suivante. Etant donnés (H t ) et (X t ) deux processus d Itô tels que ( ) E Hs 2 d X s <, 51

56 on pose On a la proposition suivante. H s db s (H B) t = (H B) t H, B t. Proposition Soient (B t ) un mouvement brownien standard et f C 3 (R) telle que Alors ( ) ( ) E (f (B s )) 2 ds < et E (f (B s )) 2 ds <. f(b t ) f(b ) = f (B s ) db s Ceci montre bien le côté agréable du calcul de Stratonovich par rapport au calcul d Itô ; l absence de terme supplémentaire dans la formule ci-dessus permet en effet d utiliser des règles de calcul classiques sans se poser de questions (faire attention toutefois qu on a besoin d hypothèses a priori plus fortes sur f). On a p.ex. B s db s = B2 t B 2. 2 p.s. Démonstration. Soit g = f. Par la définition ci-dessus, on a : g(b s ) db s = g(b s ) db s g(b), B t. Or par hypothèse g C 2 (R) et E( (g (B s )) 2 ds) <, donc par la formule d Itô, donc Autrement dit, g(b t ) = g(b ) + g(b), B t = M, B t = g (B s ) db s g (B s ) 1 d B, B s = g (B s ) ds = M t + V t, g (B s ) ds. g(b s ) db s = = g(b s ) db s f (B s ) db s g (B s ) ds f (B s ) ds = f(b t ) f(b ), par l application inverse de la formule d Itô. Ceci conclut la démonstration. 52

57 2.5.4 Formules d Itô généralisées Les deux formules qui suivent sont des généralisations des théorèmes et 2.5.7, respectivement. Théorème Soit (M t ) une martingale continue de carré intégrable et f C 2 (R) telle que ( ) E (f (M s )) 2 d M s <, t >. Alors f(m t ) f(m ) = f (M s ) dm s + 1 f (M s ) d M s p.s. 2 Remarquer que seul le terme ds de la formule (5) a été remplacé par le terme d M s pour tenir compte de la variation quadratique de la martingale M. Théorème Soient (M t ) martingale continue de carré intégrable, (V t ) un processus continu à variation bornée et f C 1,2 (R R) telle que Alors pour tout t >, E f(v t, M t ) f(v, M ) = ( ) 2 f x (V s, M s ) d M s <, t > f t (V s, M s ) dv s + 2 f x 2 (V s, M s ) d M s f x (V s, M s ) dm s Remarquer que dans le cas particulier où f(t, x) = g(t + x), la formule ci-dessus se récrit p.s. g(v t + M t ) g(v + M ) = ou encore, en posant X t = M t + V t : g (V s + M s ) dv s + g (V s + M s ) d M s g (V s + M s ) dm s p.s. g(x t ) g(x ) = g (X s ) dx s g (X s ) d X s Il ne faut cependant pas oublier ici que la première intégrale est la somme de deux intégrales de natures différentes! p.s. 53

58 2.5.5 Formule d intégration par parties (IPP) Soient (X t ), (Y t ) deux processus d Itô. Alors pour tout t, on a X t Y t X Y = X s dy s + qu on écrit encore sous forme différentielle Y s dx s + X, Y t p.s., d(x t Y t ) = X t dy t + Y t dx t + d X, Y t. Démonstration. En utilisant la formule d Itô généralisée ci-dessus, on trouve (X t + Y t ) 2 (X + Y ) 2 = 2 (X s + Y s ) d(x s + Y s ) + X + Y t, (X t Y t ) 2 (X Y ) 2 = 2 En soustrayant les deux égalités ci-dessous, on obtient (X s Y s ) d(x s Y s ) + X Y t, ( ) 4(X t Y t X Y ) = 4 X s dy s + Y s dx s + X + Y t X Y t. Combiné avec la définition de covariation quadratique, ceci donne finalement le résultat. Remarque Si (X t ) ou (Y t ) est à variation bornée, alors par la remarque , X, Y t = et on retrouve la formule d intégration par parties classique. Exemple Soient X t = e Bt et Y t = e t 2. On a vu que dx t = 1 2 X t dt + X t db t ; d autre part, on a dy t = 1 2 Y t dt. Posons maintenant Z t = X t Y t = e Bt t 2. Par la formule d intégration par parties, on obtient : Z t 1 = X s dy s + car X, Y t = ((Y t ) est à variation bornée). On a donc Z t 1 = X s ( 1 2 Y s) ds + Y s ( 1 2 X s) ds + Y s dx s +, Y s X s db s = i.e. dz t = Z t db t et Z = 1, qui est l équation qu on avait trouvée plus haut. Exemple Soient X t = H s db s et Y t = K s db s. On a X t Y t = (H s Y s + K s X s ) db s + 54 H s K s ds. Z s db s,

59 2.6 Equations différentielles stochastiques (EDS) Cours Equations homogènes en temps On a vu que X t = e Bt (aussi appelé mouvement brownien géométrique ) est solution de l équation X t 1 = 1 X s ds + 2 qu on écrit encore sous forme différentielle : X s db s, dx t = 1 2 X t dt + X t db t et X = 1. σ2 (µ De la même façon, on peut voir que X t = e 2 ) t+σ Bt (avec µ R et σ > fixés) est solution de dx t = µx t dt + σx t db t et X = 1. (6) Cette équation est appelée l équation de Black & Scholes ; µ est appelé le coefficient de dérive (il traduit la tendance générale du processus) et σ le coefficient de diffusion (il traduit la variabilité ou encore la volatilité du processus). Cette équation, ou des généralisations de celle-ci, sont couramment utilisées en mathématiques financières pour décrire l évolution des prix des actifs. De manière plus générale, on considére le problème suivant. Etant donnés (B t ) un mouvement brownien standard, x R et f, g : R R, existe-t-il un processus (X t ) qui vérifie dx t = f(x t ) dt + g(x t ) db t et X = x? (dans l exemple précédent, f(x) = µx et g(x) = σx). Pour répondre à cette question, on a besoin de la définition suivante. Définition Une fonction f : R R est dite (globalement) lipschitzienne s il existe K tel que f(y) f(x) K y x, x, y R. Remarque Si f est lipschitzienne, alors f est uniformément continue (et donc continue) sur R. - Si f est continûment dérivable et f est bornée, alors f est lipschitzienne. En effet : f(y) f(x) = y x f (z)dz sup f (z) y x. z R 55

60 Théorème Soient (B t, t R + ) un mouvement brownien standard (p.r. à une filtration (F t, t R + )), x R et f, g lipschitziennes. Alors il existe un unique processus (X t, t R + ) continu et adapté à (F t, t R + ) tel que X t = x + f(x s ) ds + De plus, E(sup t T X 2 t ) < pour tout T >. g(x s ) db s p.s., t R +. (7) Remarque La solution (X t ) de l équation ci-dessus est également appelée une solution forte de l équation (par opposition au concept de solution faible présenté au paragraphe 2.6.4). - On appelle f(x t ) le terme de dérive de l équation et g(x t ) le terme de diffusion. Démonstration.(idée principale) On définit { X T = (X t, t [, T ]) continu et adapté à (F t ) tel que E( sup Xt 2 ) < t T Noter que l espace vectoriel X T muni de la norme X 2 T,2 = E(sup t T X 2 t ) est complet. Pour trouver le processus X X T solution de (7), on utilise la méthode classique dite méthode d itération de Picard, i.e. on définit une suite de processus (X (n) ) de manière récursive : X () t = x, X (n+1) t = x + f(x s (n) ) ds + g(x s (n) ) db s. Il se trouve que la suite (X (n) ) est une suite de Cauchy dans X T, donc elle converge car X T est complet, et on montre que la limite de la suite est solution de (7). De plus, on montre que si (X t ) et (Y t ) sont des solutions de (7), alors X t = Y t p.s. pour tout t R +. Pour chaque étape, on a recours à l estimation centrale suivante (qui se démontre en utilisant notamment l inégalité de Doob (b) et l isométrie d Itô) ; si on pose }. alors E ( φ(y ) t = x + f(y s ) ds + ) sup (φ(y ) t φ(z) t ) 2 K E t T g(y s ) db s, ( ) T (Y s Z s ) 2 ds. 56

61 Remarque Il est important de voir que le schéma d itération de Picard ci-dessus, même s il est explicite, se rapproche très lentement de la solution (X t ). Il est donc fortement déconseillé de l appliquer pour trouver une approximation numérique de la solution (pour un schéma numérique efficace, se référer à la section 2.1). Proposition Le processus (X t ) solution de l équation (7) est un processus d Itô. Démonstration. On peut décomposer la solution comme X t = M t + V t, où M t = x + g(x s ) db s et V t = f(x s ) ds. Du fait que X X T et que g est lipscihtzienne, l intégrale stochastique g(x s) db s est bien d efinie et (M t ) est une martingale continue de carré intégrable. D autre part, du fait que t (X t ) et f sont des fonctions continues, le processus (V t ) est continûment dérivable, donc continu et à variation bornée. Le processus (X t ) est donc un processus d Itô. Exemple L équation de Black & Scholes dx t = µx t dt + σx t db t et X = x, avec µ R et σ, x > fixés, est un exemple d équation admettant une unique solution (X t ), car f(x) = µx et g(x) = σx sont linéaires, donc lipschitziennes (pour la méthode de résolution, voir exercices). Exemple Soit a, x R et σ > fixés. On considère l EDS dx t = ax t dt + σ db t et X = x. (8) Les fonctions f(x) = ax et g(x) σ sont lipschitziennes, donc il existe un unique processus (X t ) solution de l équation ci-dessus. Ce processus est appelé le processus d Ornstein-Uhlenbeck. Proposition La solution de l EDS (8) est donnée par X t = e at x + e a(t s) db s. Démonstration. Plutôt que de vérifier que le processus ci-dessus est magiquement solution de (8) (noter que ceci a déjà été fait aux exercices!), on présente ici la méthode de résolution de l équation, qui est une adaptation de la méthode dite de variation de la constante au cas stochastique. Soit (Φ t ) le processus (déterministe) solution de l équation différentielle ordinaire (et homogène) : dφ t = aφ t dt et Φ = 1. 57

62 Il est connu que Φ t = e at. Ecrivons maintenant X t = Φ t Y t. On a alors par la formule d intégration par parties : dx t = Φ t dy t + (dφ t ) Y t + d Φ, Y t = Φ t dy t aφ t Y t dt + car le processus (Φ t ) est à variation bornée. D un autre côté, on a dx t = ax t dt + σ db t. En identifiant les deux équations (et en se rappelant que X t suivante pour (Y t ) : = Φ t Y t ), on trouve l EDS donc Ceci implique finalement que Φ t dy t = σ db t i.e. dy t = σ Φ t db t (et Y = x ), Y t = Y + σ t db s = x + σ e as db s. Φ s X t = e at x + σ e a(t s) db s. Remarquer encore que si x = et a >, alors E(X t ) = et E(X 2 t ) = σ 2 1 e 2at 2a t i.e. le processus d Ornstein-Uhlenbeck (avec a > ) est un processus qui ne grandit pas indéfiniment (comme c est le cas pour le mouvement brownien), mais se stabilise autour de la valeur avec une variance donnée ( σ2 2a ). Exemple Considérons l EDS σ 2 2a, dx t = sin(x t ) dt + cos(x t ) db t et X =. Ici, f(x) = sin(x) et g(x) = cos(x) sont lipschitziennes (car f et g sont bornées), donc il existe une unique solution à l équation, mais quelle est-elle? Il se trouve que même si la formulation de l équation est assez simple, il n existe pas de méthode de résolution analytique! On voit donc l intérêt de simuler numériquement la solution d une telle équation. Noter que d autre part, il existe des méthodes analytiques pour estimer le comportement asymptotique de la solution. 58

63 Exemple Soit a >. On considère l EDS dx t = a X t dt + db t et X = 1. La fonction f(x) = a n est pas lipschitzienne en (f () = ). Toutefois, il existe une x unique solution (forte) à l équation (appelée processus de Bessel). La raison intuitive pour laqelle ceci est vérifié est que sitôt que le processus X t se rapproche de (l endroit où f(x) n est pas lipschitzienne), il est fortement repoussé vers le haut par le terme de dérive a X t (noter toutefois que si a est petit, des choses étranges commencent à se produire). Exemple Soit a R. On considère l EDS dx t = ax t dt + X t db t et X =. La fonction g(x) = x n est pas lipschitzienne en (g () = ) et il n existe pas de solution forte, mais une solution dite faible (voir paragraphe 2.6.4), appelée processus de Feller. Exemple Considérons l EDS dx t = sgn(x t ) db t et X =. La fonction +1 si x >, g(x) = sgn(x) = si x =, 1 si x <, est discontinue en et donc n est pas lipschitzienne. L équation n admet pas de solution forte, mais seulement une solution faible (à nouveau, voir paragraphe 2.6.4) Equations inhomogènes en temps On considére le problème suivant. Etant donnés (B t ) un mouvement brownien standard, x R et f, g : R + R R, existe-t-il un processus (X t ) qui vérifie dx t = f(t, X t ) dt + g(t, X t ) db t et X = x? Pour répondre à cette question, on a besoin de la définition suivante. Définition Une fonction f : R + R R est dite lipschitzienne en x s il existe une constante K > telle que f(t, y) f(t, x) K y x, t R +, x, y R. Théorème Si f, g : R + R R sont continues (conjointement en t et en x) et lipschitziennes en x, alors il existe un unique processsus (X t ) solution de l équation X t = x + f(s, X s ) ds + g(s, X s ) db s p.s., t R +. A nouveau, le processus (X t ) est appelé une solution forte de l équation (et c est un processus d Itô). 59

64 2.6.3 Equations linéaires Soient x R et a, σ : R + R continues et bornées. On appelle linéaire une EDS de la forme dx t = a(t) X t dt + σ(t) db t et X = x. (9) Remarque On pourrait avoir envie plutôt d appeler équation linéaire une équation du type dx t = a(t) X t dt + σ(t) X t db t et X = x, qui constitue une généralisation de l équation de Black & Scholes (6). Il se trouve que le fait de multiplier X t et db t dans le terme de droite implique que la solution de léquation n est pas un processus gaussien et qu on préfère appeler linéaire une équation dont la solution est un processus gaussien (mais ceci est arbitraire). Définition Soit (Φ t, t R + ) la solution de l équation différentielle ordinaire ( ) Remarquer que Φ t = exp a(s) ds. dφ t = a(t) Φ t dt et Φ = 1. Proposition L équation (9) admet une unique solution forte (X t ) donnée par X t = Φ t x + Φ t Φ s σ(s) db s t R +. Démonstration. Il est clair que f(t, x) = a(t) x et g(t, x) = σ(t) sont continues en (t, x) et lipschitziennes en x, donc l équation (9) admet une uniqe solution. La méthode de résolution est du même type que celle utilisée pour l équation (8). On écrit tout d abord X t = Φ t Y t, d où on déduit que De là, on tire que dx t = Φ t dy t + a(t) Φ t Y t dt + = a(t) X t dt + σ(t) db t. Φ t dy t = σ(t) db t, i.e. Y t = x + σ(s) Φ s db s, et donc X t = Φ t x + Φ t Φ s σ(s) db s. 6

65 Exemple (pont brownien ; cf. exercices) Considérons l EDS dx t = X t 1 t dt + db t, < t < 1, et X =. Ici, la fonction a(t) = 1 n est pas continue en t = 1, mais l équation ci-dessus admet 1 t tout de même une unique solution forte jusqu en t = 1. Noter que X 1 = p.s. et que E(Xt 2 ) = t(1 t) Solution faible Soient x R et f, g : R R. On considère l EDS dx t = f(x t ) dt + g(x t ) db t et X = x. (1) On donne la définition suivante, qui peut paraître étrange au premier abord. Définition Une solution faible de l équation (1) est un processus continu (X t ) tel que les processus (M t ) et (N t ) définis respectivement par sont des martingales. M t = X t X f(x s ) ds et N t = M 2 t g(x s ) 2 ds Remarque Le mouvement brownien standard (B t ) a disparu de la définition de solution faible! Ainsi, une solution faible d une EDS est une solution en loi, mais plus du tout une solution trajectorielle de l équation (1). La justification de cette définition est donnée ci-dessous. Proposition Supposons f, g continues, g bornée et supposons encore que l équation (1) admette une solution forte (X t ). Alors (X t ) est une solution faible de (1). Démonstration. Vu que g est bornée, il est clair que M t = X t X f(x s ) ds = g(b s ) db s est une martingale continue de carré intégrable. De plus, la variation quadratique de (M t ) est donnée par M t = g(x s) 2 ds, donc le processus (N t ) défini par est également une martingale. N t = M 2 t 61 g(x s ) 2 ds (11)

66 Remarque Une EDS peut admettre une solution faible, mais pas de solution forte ; il existe donc plus souvent une solution faible qu une solution forte. - La question de l unicité de la solution faible est par contre plus délicate ; il faut préciser ce qu on entend par unique. Exemple La solution faible de l EDS dx t = ax t dt + X t db t et X = est un processus continu (X t ) tel que les processus (M t ) et (N t ) définis par sont des martingales. M t = X t a X s ds et N t = Mt 2 X s ds Exemple La solution faible de l EDS est un processus continu (X t ) tel que (X t = X t ) et (X 2 t dx t = sgn(x t ) db t et X =. 1 ds = X 2 t t) sont des martingales. Par le théorème de Lévy, la solution faible de l équation ci-dessus est donc un mouvement brownien standard! (mais qui n est pas le mouvement brownien standard (B t ) ; on ne peut pas remplacer X t par B t dans l équation ci-dessus...) Martingale exponentielle Cours 11 Définition Soit M une martingale continue de carré intégrable telle que M = et M t Kt pour tout t R +. On définit la martingale exponentielle Y associée à M par ( Y t = exp M t M ) t, t R +. 2 Remarque Noter que la condition M t Kt n impose pas forcément que la variation quadratique ( M t ) soit un processus déterministe. Proposition Le processus (Y t ) défini ci-dessus satisfait l EDS Y t = 1 + et (Y t ) est donc une martingale. Y s dm s (i.e. dy t = Y t dm t et Y = 1), 62

67 Démonstration. (idée principale) Remarquer que et f Y t = f( M t, M t ), où f(t, x) = exp(x t 2 ) = 1 = f. En appliquant le théorème (et en passant à dessein sous t 2 x 2 silence la condition d intégrablité énoncée dans le théorème en question!), on trouve donc : f f, = 2 f x Y t Y = ( 1 2 Y s) d M s + Y s dm s Y s d M s = Y s dm s. Remarque La condition M t Kt, même si elle n est pas utilisée explicitement ci-dessus, a toute son importance (elle permet de justifier l utilisation de la formule d Itô). Noter qu il est possible de montrer que le processus (Y t ) est une martingale sous une condition plus faible encore. 2.7 Théorème de Girsanov Comme vu précedemment, la solution de l équation dx t = f(t, X t ) dt + g(t, X t ) db t et X = x, n est en général pas une martingale (sous la probabilité P). La question que l on se pose ici est de savoir s il existe une autre mesure de probabilité P sous laquelle le processus (X t ) soit une martingale. L application en mathématiques financières est la suivante : pour évaluer le prix d une option sur un actif, on a besoin de la propriété de martingale. Pourtant, le prix d un actif donné n est en général pas une martingale, mais affiche une tendance à la hausse ou à la baisse. C est pourquoi on désire définir une nouvelle probabilité sous laquelle celui-ci soit une martingale, de manière à pouvoir effectuer des calculs. Première étape : définition du changement de probabilité Soit (M t ) une martingale par rapport à (F t ), continue, de carré intégrable telle que M = et M t Kt pour tout t R +. On pose (Y t ) la martingale exponentielle associée à (M t ) (voir paragraphe 2.6.5). On rappelle ici que Y t > pour tout t R +. On se place à horizon fini T > (ce qui simplifie considérablement les choses) et on définit P T (A) = E(1 A Y T ), A F. 63

68 Le triplet (Ω, F, P T ) forme un nouvel espace de probabilité. En effet : P T (A), A F, car Y T >, P T (Ω) = E(Y T ) = E(Y ) = 1, car (Y t ) est une martingale, et P T ( n=1a n ) = E( n=1 1 An Y T ) = n=1 PT (A n ), si (A n ) n=1 est une famille disjointe d événements dans F. On montre d autre part que si X est une v.a. telle que E( X Y T ) <, alors Ẽ T (X) = E(X Y T ). Finalement, noter que P(A) = si et seulement si P T (A) = (on dit que les deux mesures de probabilité P et P T sont équivalentes ). Deuxième étape : martingales sous P et martingales sous P T Lemme Si Z est F t -mesurable et telle que E( Z Y T ) <, alors ẼT (Z) = E(Z Y t ). Démonstration. Du fait que (Y t ) est une martingale et que Z est F t -mesurable, on a Ẽ T (Z) = E(Z Y T ) = E(Z Y t ). Lemme Le processus (X t ) est une martingale sous P T ssi (X t Y t ) est une martingale sous P. Démonstration. On montre seulement que si (X t Y t ) est une martingale sous P, alors (X t ) est une martingale sous P T (pour la réciproque, voir exercices). Supposons donc que (X t Y t ) est une martingale sous P, i.e. { (i) t [, T ], Xt Y t est F t mesurable et E X t Y t <, (ii) s t T, E(X t Y t Z) = E(X s Y s Z), Z F s -mesurable et bornée. De là, on déduit que (i) Pour tout t [, T ], X t = XtYt Y t est F t -mesurable et ẼT ( X t ) = E( X t Y T ) = E( X t Y t ) <. (ii) Soit s t T et Z F s -mesurable et bornée. Par le lemme et la condition (ii) ci-dessus, on a Ẽ T (X t Z) = E(X t ZY t ) = E(X s ZY s ) = ẼT (X s Z) i.e. ẼT (X t F s ) = X s, i.e. (X t ) est une martingale sous P T. 64

69 Théorème (Girsanov) Soit (Z t ) est une martingale continue de carré intégrable sous P. Alors (Z t M, Z t ) est une martingale sous P T. Démonstration. (idée principale) Posons A t = M, Z t. Pour montrer que (Z t A t ) est une martingale sous P T, il suffit de montrer par le lemme que ((Z t A t ) Y t ) est une martingale sous P. Par la formule d intégration par parties, on a : (Z t A t ) Y t (Z ) Y = (Z s A s ) dy s + Y s dz s Y s da s + Z A, Y t Du fait que Y et Z sont des martingales sous P, les deux premiers termes (Z s A s ) dy s et Y s dz s sont également des martingales sous P. On aura donc montré le résultat si on montre que les deux derniers termes s annulent, i.e. Or dy t = Y t dm t, donc dm t = 1 Y t dy t (noter que Y t > ) et Ceci implique que Y s da s + Z A, Y t =. (12) da t = d M, Z t = 1 Y t d Y, Z t. Y s da s = d Y, Z s = Y, Z t. De l autre côté, on sait que Z A, Y t = Z, Y t, car A est à variation bornée. L équation (12) est donc bien vérifiée et le théorème est démontré. Troisième étape : application aux EDS A) Soient (B t ) un mouvement brownien standard, x R et f : R + R R une fonction continue, lipschitzienne en x et bornée (i.e. f(t, x) K 1 pour tous t, x). On considère (X t ) la solution de l équation dx t = f(t, X t ) dt + db t et X = x. Sous quelle mesure de probabilité P T le processus (X t, t [, T ]) est-il une martingale? Soit M t = f(s, X s) db s ; (M t ) est une martingale continue de carré intégrable (sous P) et on vérifie que M t = f(s, X s ) 2 ds K 2 1 t 65

70 Soit (Y t ) la martingale exponentielle associée à (M t ) et P T la probabilité définie par P T (A) = E(1 A Y T ). Proposition (i) (X t ) est une martingale sous P T. (ii) (X t ) est même un mouvement brownien standard sous P T! Démonstration. (i) Du fait que (B t ) est une martingale sous P, le théorème de Girsanov dit que (B t M, B t ) est une martingale sous P T. Or B t M, B t = B t + donc le premier point est vérifié. (ii) D autre part, on a par définition : X t = B t = t, f(s, X s ) ds = X t X, car X est un processus d Itô dont la partie martingale est égale à B. Or on peut montrer que la variation quadratique de X est la même sous P et sous P T, donc par le théorème de Lévy, X est un mouvement brownien standard sous P T (remarquer que X est à trajcetoires continues). B) Soient (B t ) un mouvement brownien standard, x R et f, g : R + R R deux fonctions continues, lipschitziennes en x et telles que f(t, x) K 1 et g(t, x) K 2 pour tous t, x. On considère (X t ) la solution de l équation dx t = f(t, X t ) dt + g(t, X t ) db t et X = x. Remarque L hypothèse g(t, x) K 2 ci-dessus assure que le processus X est nondégénéré, autrement dit qu il a l allure d un mouvement brownien et pas celle d une fonction à variation bornée (ce qui serait le cas si g(t, x) = p.ex.). Sans cette hypothèse, il n est plus possible de transformer le processus X en martingale en changeant la probabilité de référence. Soit M t = f(s,x s) db g(s,x s) s. On vérifie que M t K2 1 t et on pose (Y K2 2 t ) la martingale exponentielle associée à (M t ) et P t la probabilité définie par P T (A) = E(1 A Y T ). Proposition (i) (X t ) est une martingale sous P T et (ii) X t = g(s, X s) 2 ds. Démonstration. (i) Soit C t = g(s, X s) db s ; (C t ) est une martingale sous P, donc C t M, C t = g(s, X s ) db s + 66 f(s, X s ) ds = X t X

71 est une martingale sous P T. (ii) A nouveau, l égalité découle de la définition de variation quadratique. En général, le processus (X t ) n est donc pas un mouvement brownien standard sous P T. Mais peut-on exhiber un proceessus qui soit un mouvement brownien standard sous P T? C est le cas en effet : soit B t = B t + f(s,x s) g(s,x s) ds. Proposition (i) ( B t ) est une martingale sous P t (ii) B t = t, donc ( B t ) est un mouvement brownien standard sous P T. Démonstration. (i) Du fait que (B t ) est une martingale sous P, B t M, B t = B t + est une martingale sous P t. (ii) clair (on utilise à nouveau le théorème de Lévy). f(s, X s ) g(s, X s ) ds = B t Remarque importante : de la définition de ( B t ), il découle que dx t = g(t, X t ) d B t. Ceci montre d une autre manière que le processus (X t ) est une martingale sous P T. Exemple (modèle de Black & Scholes) Soient µ R, σ, x > fixés. On considère l EDS dx t = µx t dt + σx t db t et X = x. La fonction g(x) = σx ne satisfait pas l hypothèse de non-dégénérescence mentionnée plus haut (car g() = ), cependant, si on définit M t = µx s σx s db s = µ σ B t, alors on voit que (M t ) est une martingale sous P et que M t = µ2 σ 2 t. Soit (Y t ) la martingale associée à (M t ) et P T (A) = E(1 A Y T ). Par le théorème de Girsanov, le processus (X t ) est une martingale sous P T. D autre part, le processus ( B t ) défini par B t = B t + µ σ t est un mouvement brownien standard sous P T et dx t = σx t d B t. 67

72 Application : formule de Black & Scholes Définition Une option d achat européenne est le droit d acheter un actif (X t ) à un temps T futur au prix K fixé à l avance. Au temps T (aussi appelé la maturité de l option), la valeur de l option est donc donnée par Z T = (X T K) +. Supposons maintenant que l actif (X t ) soit décrit par le modèle de Black & Scholes de l exemple (avec µ R, σ > fixés) : dx t = µx t dt + σx t db t et X = x > et soit (F t ) la filtration à laquelle X est adapté. Sous cette hypothèse, on peut montrer qu il existe z R + et une stratégie d investissement H sur le processus X (continue et adaptée à (F t )) tels que Z T = z + T H s dx s. (Ceci est une conséquence du théorème de représentation des martingales.) Question : A quel prix une banque doit-elle vendre l option d achat Z T t = de manière à être sûre de pouvoir payer Z T au temps T? au temps initial Réponse : Etant donné ce qui précède, elle doit vendre l option au prix z. Mais comment calculer ce prix? Calcul de z : a) On a vu que (X t ) est une martingale sous la probabilité P T définie dans l exemple Donc le processus (M t ) défini par M t = H s dx s t [, T ], est également une martingale sous P T, d où on tire que z = ẼT (Z T ) = ẼT ((X T K) + ) b) On sait d autre part que (cf. exemple 2.7.8) dx t = X t d B t i.e. X T = x e σ B T σ2 2 T, ce qui nous mène à la formule de Black & Scholes : z = ẼT ((x e σ B T σ2 2 T K) + σ2 σy ) = (x e 2 T K) + f T (y) dy, où f T est la densité de la loi N (, T ). Remarquer que de manière surprenante, le coefficient de dérive µ n entre pas en compte dans le calcul du prix z! 68 R

73 2.8 Liens EDS EDP Cours 12 Le but de cette section est de montrer qu on peut représenter les solutions d équations aux dérivées partielles (EDP) classiques à l aide de processus aléatoires. Attention! Les théorèmes d analyse cités ci-dessous sont légèrement inexacts et donc parsemés de guillemets : voir la remarque 2.8.1, qui s applique également aux résultats cités après Lien mouvement brownien équation(s) de la chaleur A) Soit (B t, t R + ) un mouvement brownien standard. On définit (B x t, t R + ), le mouvement brownien partant au temps t = du point x R par B x t = B t + x, t R +. Résultat d analyse (équation de la chaleur progressive) Soient T > et u C(R). Il existe alors une unique fonction u C 1,2 (R + R) qui vérifie u t (t, x) = 1 2 u 2 x (t, x), (t, x) R 2 + R, (13) u(, x) = u (x), x R. Remarque La solution de l équation de la chaleur (13) n est en réalité pas unique. Toutefois, si on impose une (très) faible condition supplémentaire sur la solution u, alors u est unique. - Si u n est pas C 2, alors la solution en t = ne peut être C 2 en x. Pour être tout à fait exact, on devrait remplacer la condition u(, x) = u (x) par lim t u(t, x) = u (x). Lemme Soit u la solution de l équation (13). Pour tout (T, x) R + R fixé, le processus (u(t t, B x t ), t [, T ]) est une martingale. Démonstration. Par la formule d Itô (et le fait que db x s = db s, d B x s = ds), on a u(t t, Bt x ) u(t, x) = u t (T s, Bx s ) ds + ( t = u t (T s, Bx s ) u = x (T s, Bx s ) db s, u x (T s, Bx s ) dbs x ) u t x (T s, 2 Bx s ) ds u x (T s, 2 Bx s ) d B x s u x (T s, Bx s ) db s

74 car u satisfait l équation (13) (on oublie ici de vérifier la condition technique permettant d appliquer la formule d Itô!). Le processus (u(t t, B x t ), t [, T ]) est donc une martingale. Proposition Soit u la solution de l équation (13). Pour tout (T, x) R + R, on a u(t, x) = E(u (B x T )). (14) Démonstration. Par le lemme précédent et la condition initiale dans (13), on trouve que u(t, x) = E(u(T, B x )) = E(u(, B x T )) = E(u (B x T )). Remarque Le résultat ci-dessus nous donne donc une représentation probabiliste de la solution de l équation de la chaleur (13). Noter qu on peut le reformuler de manière plus classique : u(t, x) = u (y) f T (y x) dy, R où f T est la densité de la loi N (, T ). La fonction K T (x, y) = f T (y x) est également appelée noyau de Green de l équation de la chaleur en analyse. - Remarquer qu il est possible de montrer dans l autre sens (mais c est beaucoup plus long) que la fonction u définie par (14) est solution de l équation (13). B) Soit (B t, t R + ) un mouvement brownien standard. On définit (B t,x t, t [t, [ ) le mouvement brownien partant au temps t du point x R par B t,x t = B t B t + x, t t. Résultat d analyse (équation de la chaleur rétrograde) Soient T > et h C(R). Il existe alors une unique fonction u C 1,2 ([, T ] R) qui vérifie u t (t, x) u (t, x) =, (t, x) [, T ] R, 2 x2 (15) u(t, x) = h(x), x R. Lemme Soit u la solution de l équation (15). Pour tout (t, x ) [, T ] R fixé, le processus (u(t, B t,x t ), t [t, T ]) est une martingale. Démonstration. Par la formule d Itô (utilisée sur l intervalle de temps [t, t]), on a u(t, B t,x t ) u(t, x ) = = u t t (s, Bt,x s ) ds + t u x (s, Bt,x s ) db s, 7 t u x (s, Bt,x s ) db t,x s u t x (s, 2 Bt,x s ) ds

75 car u satisfait l équation (15). Le processus (u(t, B t,x t ), t [t, T ]) est donc une martingale. Proposition Soit u la solution de l équation (15). Pour tout (t, x ) [, T ] R, on a u(t, x ) = E(h(B t,x T )). Démonstration. Par le lemme précédent et la condition terminale dans (15), on trouve que u(t, x ) = E(u(t, B t,x t )) = E(u(T, B t,x t )) = E(h(B t,x T )) Lien EDS EDP paraboliques (formule de Feynman-Kac) Soient t R +, x R, (B t, t R + ) un mouvement brownien standard et f, g : R + R R deux fonctions conjointement continues en (t, x) et lipschitziennes en x. On pose (X t,x t, t [t, [ ) la solution de l EDS dx t = f(t, X t ) dt + g(t, X t ) db t et X t = x. (16) On suppose de plus qu il existe une constante K > telle que g(t, x) K, (t, x) R + R. Cette dernière hypothèse est l hypothèse de diffusion non-dégénérée effectuée à la section 2.7. Résultat d analyse (EDP parabolique) Soient h C(R) et T >. Etant donné les hypothèses effectuées ci-dessus sur f et g, il existe une unique fonction u C 1,2 ([, T ] R) qui vérifie u u (t, x) + f(t, x) t x (t, x) g2 (t, x) 2 u (t, x) =, (t, x) [, T ] R, x2 (17) u(t, x) = h(x), x R. Lemme Soit u la solution de l équation (17). Pour tout (t, x ) [, T ] R fixé, le processus (u(t, X t,x t ), t [t, T ]) est une martingale. Démonstration. Par la formule d Itô (utilisée sur l intervalle de temps [t, t]), on a u(t, X t,x t ) u(t, x ) u = t (s, Xt,x s ) ds + u t (s, Xt,x s ) dx t,x s u 2 x (s, 2 Xt,x s )d X t,x. 71

76 En utilisant le fait que X est solution de (16), on trouve donc que u(t, X t,x t ) u(t, x ) ( t u = t (s, Xt,x s ) + u x (s, Xt,x s ) f(s, X t,x s ) u + x (s, Xt x s ) g(s, X t,x s ) db s u = x (s, Xt,x s ) g(s, X t,x s ) db s, 2 ) u x (s, 2 Xt,x s ) g(s, X t,x s ) 2 ds car u satisfait l équation (17). Le processus (u(t, X t,x t ), t [t, T ]) est donc une martingale. Proposition (formule de Feynman-Kac) Soit u la solution de l équation (17). Pour tout (t, x ) [, T ] R, on a u(t, x ) = E(h(X t,x T )). Démonstration. Par le lemme précédent et la condition terminale dans (17), on trouve que u(t, x ) = E(u(t, X t,x t )) = E(u(T, X t,x T )) = E(h(X t,x T )) Remarque La formule donnée ci-dessus est l une des nombreuses versions de la formule dite de Feynman-Kac (prononcer Kats ). Une autre version de cette formule est donnée en exercice, qui correspond plus à la formule de Feynman-Kac connue des physiciens. Propriété de Markov et processus de diffusion On donne ici une nouvelle version de la propriété de Markov énoncée au paragraphe A) Soit tout d abord (B t,x t ) un mouvement brownien partant du point x R au temps t R +. On vérifie que si t s, alors En effet, on a par définition : B s,b,x s t = B,x t, (18) B s,b,x s t = B t B s + Bs,x = B t B s + B s B + x = B t B + x = B,x t. La propriété (18) entraîne que E(h(B,x t ) Fs B,x ) = E(h(B,x t ) Bs,x ), h C b (R). 72

77 Noter que la propriété (18) traduit bien la même idée que la propriété de Markov ci-dessus : le mouvement brownien parti du point x au temps est le même que celui qu on sait être passé au point Bs,x au temps s. Ainsi, l évolution du mouvement brownien après le temps s ne dépend pas de l histoire du processus avant s (donc en particulier, pas de la valeur x), mais seulement de la valeur du processus au temps s. B) Soit maintenant (X t,x t ) la solution de l EDS (16). On peut vérifier que pour tout t s, on a également X s,x,x s t = X,x t, ce qui implique que E(h(X,x t ) Fs X,x ) = E(h(X,x t ) Xs,x ), h C b (R). La solution d une EDS est donc un processus de Markov. On l appelle également un processus de diffusion ou plus simplement une diffusion. Générateur d une diffusion A) Diffusion homogène en temps Soient x R, (B t, t R) un mouvement brownien standard et f, g : R R lipschitziennes. On pose X la solution de l EDS dx t = f(x t ) dt + g(x t ) db t et X = x. Soit A l opérateur linéaire différentiel de C 2 (R) dans C(R) défini par Av(x) = f(x) v (x) g(x)2 v (x), v C 2 (R). Alors les propriétés suivantes sont vérifiées (cf. exercices) : (i) si v est bornée, alors v(x t ) Av(X s ) ds est une martingale, ( 1 (ii) lim E t t (v(x t) v(x))) = Av(x), ( ( ) 1 1 (iii) lim E t t (X t x)) = f(x) et lim E t t (X t x) 2 = g(x) 2. B) Diffusion inhomogène en temps Soient x R, (B t, t R) un mouvement brownien standard et f, g : R + R R conjointement continues en (t, x) et lipschitziennes en x. On pose X la solution de l EDS dx t = f(t, X t ) dt + g(t, X t ) db t et X = x. 73

78 Pour t R + fixé, on pose A t l opérateur linéaire différentiel de C 2 (R) dans C(R) défini par A t v(x) = f(t, x) v (x) g(t, x)2 v (x), v C 2 (R). Pour u C 1,2 (R + R), on note encore A t u(t, x) = f(t, x) u x (t, x) g(t, 2 u x)2 (t, x). x2 De la même manière que ci-dessus, on montre que si u x u(t, X t ) ( u s (s, X s) + A s u(s, X s )) ds est bornée, alors est une martingale. En particulier, si u t + A tu =, alors le processus u(t, X t ) est une martingale. Application : évaluation d options européennes Soient x, (B t, t R) un mouvement brownien standard et f, g : R + R R conjointement continues en (t, x) et lipschitziennes en x. Supposons de plus qu il existe K 1, K 2 > telles que f(t, x) K 1 et g(t, x) K 2, (t, x) R + R. On modélise l évolution du prix d un actif X par l EDS dx t = f(t, X t ) dt + g(t, X t ) db t et X = x. Une option européenne d échéance T > sur l actif (X t ) est une v.a. donnée par Z T = h(x T ) pour une certaine fonction h C(R) (Z T représente la valeur de l option au temps T ). Soient (F t ) la filtration à laquelle le processus X est adapté et P T la probabilité sous laquelle le processus X est une martingale. Par ce qu on a vu précédemment, il existe également un m.b.s. ( B t ) sous P T tel que dx t = g(t, X t ) d B t. On suppose ici (pour simplifier) que Z T peut s écrire comme Z T = Z t + T t H s dx s, où H est une stratégie d investissement continue et adaptée à (F t ) et Z t est une v.a. positive F t -mesurable. De là, on déduit que ( T ) Ẽ T (Z T F t ) = Z t + ẼT H s dx s H s dx s F t = Z t, car (X t ) est une martingale sour P T. Par la propriété de Markov, on a donc Z t = ẼT (h(x T ) F t ) = ẼT (h(x T ) X t ) = z(t, X t ), 74

79 où z(t, x) = ẼT (h(x T ) X t = x) = ẼT (h(x t,x T )). (19) Par ce qu on vient de voir plus haut sur le lien entre EDS et EDP, ceci signifie que la fonction z(t, x) est solution de l équation : z t (t, x) g(t, 2 z x)2 (t, x) =. et z(t, x) = h(x) (2) x2 Au temps t < T, la valeur de l option Z t est donc donnée par z(t, X t ), où z est solution de l équation ci-dessus. Remarque Le terme de dérive f est absent de l équation pour z (de la même façon que µ est absent de la formule de Black & Scholes plus classique donnée à la section précédente). - Dans le cas particulier où f(t, x) = µx, g(t, x) = σx (attention : g(t, ) =, mais ça ne pose pas de problème ici), on a z t (t, x) σ2 x 2 2 z (t, x) = et z(t, x) = h(x). x2 En résolvant cette équation (ou en repartant directement de la formule (19) et en utilisant l expression trouvée pour la solution X t,x T de l EDS), on trouve donc que σ2 σy z(t, x) = h(x e 2 (T t) ) f T t (y) dy, où f T t est la densité de la loi N (, T t). R On peut finalement déterminer quelle est la stratégie (H t ) de couverture de l option, en utilisant la formule d Itô pour Z T = z(t, X T ) : Z T Z t = z(t, X T ) z(t, X t ) T z T = t t (s, X z s) ds + t x (s, X s) dx s T z = t x (s, X s) dx s, T t 2 z x 2 (s, X s) d X s car d X s = g(s, X s ) 2 ds et z satisfait l équation (2). D autre part, on sait que Z T Z t = T t H s dx s. En comparant les deux expressions, on trouve finalement que H s = z x (s, X s). 75

80 2.9 Processus multidimensionnels Cours 13 Donnons tout d abord une liste de définitions. Définition Un mouvement brownien standard à n dimensions est une famille (B (1),..., B (n) ) de n mouvements browniens standard par rapport à une même filtration (F t ), supposés de plus indépendants les uns des autres. - Une martingale à n dimensions est une famille (M (1),..., M (n) ) de n martingales par rapport à la même filtration (F t ). - Un processus d Itô à n dimensions est une famille (X (1),..., X (n) ) de n processus d Itô adaptés à la même filtration (F t ). Notation : On pose B t = (B (1) t,..., B (n) t ), M t = (M (1) t,..., M (n) t ) et X t = (X (1) t,..., X (n) t ). Intégrale stochastique multidimensionnelle Soit B = (B (1),..., B (m) ) un mouvement brownien standard à m dimensions, adapté à (F t ), et H = (H (i,j) ) n,m i,j=1 une famille de processus continus et adaptés à (F t ) telle que On définit ( ) E (H s (i,j) ) 2 ds <, t R +, i {1,..., n}, j {1,..., m}. M (i) t = m j=1 H s (i,j) db s (j), i = 1,..., n. et M t = (M (1) t,..., M (n) t ). Le processus (M t ) est une martingale continue de carré intégrable à n dimensions. On note encore de manière plus concise : M t = H sdb s. Le processus M modélise (par exemple) les fluctuations de n actifs M (1),..., M (n) dues à m sources aléatoires indépendantes B (1),..., B (m). Ceci permet de rendre compte des corrélations des actifs : M (i), M (k) t = = m (H (i,j) B (j) ), (H (k,l) B (l) ) t j,l=1 m m H s (i,j) H s (k,l) d B (j), B (l) s = j,l=1 j=1 H (i,j) s H s (k,j) ds, car B (j), B (l) s = { s, si i = k,, si i k, (B (i) B (k) si i k). 76

81 Formule d Itô multidimensionnelle Soit X = (X (1),..., X (n) ) un processus d Itô à n dimensions et f C 2 (R n ) telle que ( ) t 2 E f (X x s ) d X (i) s <, t R +, i {1,..., n}. i Alors f(x t ) f(x ) = f (X x s ) dx s (i) + 1 i 2 i,k=1 2 f x i x k (X s ) d X (i), X (k) s. Exemple Considérons le cas n = 2 : on a déjà vu cette formule avec X (1) t = t, X (2) t = B t ou X (1) t = V t, X (2) t = M t avec V à variation bornée et M martingale. { t, si i = k, Exemple Pour n quelconque et X = B, on a B (i), B (k) t = donc, si i k, où f(x) = f(b t ) f(b ) = f (B x s ) db s (i) + 1 f(b i 2 s ) ds, 2 f (x). De la formule ci-dessus, on déduit que le processus x 2 i f(b t ) f(b ) 1 2 est une martingale (du moment que la condition E f(b s ) ds ( ) 2 f (B x s ) ds < est vérifiée i). i Donc en particulier, si f est harmonique (i.e. f(x) = ), alors f(b t ) est une martingale. D autre part, si f est sous-harmonique (i.e. f(x) ), alors f(b t ) est une sous-martingale (d où l origine de l expression contre-intuitive sous-martingale pour un processus qui a tendance à monter). EDS multidimensionnelles Soient x R n, B un mouvement brownien standard à m dimensions, f : R + R n R n une fonction continue en (t, x) et lipschitzienne en x, i.e. f(t, x) f(t, y) K x y, t R +, x, y R n, et g (1),..., g (m) : R + R n R n continues en (t, x) et lipschitziennes en x. Alors il existe une unique solution forte (X t ) à l équation dx t = f(t, X t ) dt + m j=1 g (j) (t, X t ) db (j) t, X = x. (21) 77

82 Rappelons qu une solution forte est par définition un processus continu et adapté à la même filtration que le mouvement brownien B, qui vérifie de plus l équation intégrale correspondant à l équation ci-dessus. Exemple Dans le cas où n = 2 et m = 1, nous avons déjà vu un exemple d EDS multidimensionnelle (ex. 3, série 1) : dx t = 1 2 X t dt Y t db t, X = 1, dy t = 1 2 Y t dt + X t db t, Y =. Ici f(t, x, y) = ( 1 2 x, 1 2 y) et g(1) (t, x, y) = ( y, x) sont des fonctions linéaires, donc lipschitziennes ; il existe donc une unique solution forte (X t, Y t ) à l équation ci-dessus (analysée dans l exercice 3 de la série 1). Exemple Considérons encore le cas n = 2 et m = 1 : dx t = Y t dt, X = 1, dy t = X t dt + X t db t, Y =. Cette équation, qui paraît simple à resoudre au premier abord, ne l est pas tant que ça en réalité! Exemple Le modèle de Black & Scholes à plusieurs dimensions est le suivant : dx (i) t = µ i X (i) t dt + m σ ij X (i) t db (j) t, X (i) = x (i), i {1,..., n}. Remarquer que les n équations ci-dessus sont découplées (contrairement aux deux exemples précédents), ce qui rend nettement plus facile la recherche de la solution. EDS multidimensionnelles linéaires Soient x R n, B un mouvement brownien standard à m dimensions, A = (a ik ) une matrice n n et Σ = (σ ij ) une matrice n m. On consière l équation dx t = AX t dt + Σ db t, X = x. Ici, f (i) (t, x) = n k=1 a ik x k et g (i,j) (t, x) = σ ij (NB : g (i,j) est la i e composante du vecteur g (j) ). Pour expliciter la solution de cette équation, on a besoin de la solution de l équation homogène. Soit donc (Φ t ) le processus (déterministe) à valeurs dans l espace des matrices n n, solution de dφ t = AΦ t dt, Φ = Id, 78

83 où Id est la matrice identité. Suivant la matrice A considérée, le processus Φ peut être difficile à déterminer. Il s écrit toutefois sous la forme synthétique Φ t = exp(ta) = (ta) l. l l! Remarquer d autre part que Φ t+s = Φ t Φ s et Φ t = Φ 1 t. Proposition La solution X de l EDS linéaire ci-dessus est donnée par X t = Φ t x + Φ t s Σ db s Démonstration. Ecrivons X t = Φ t Y t ; on a alors, du fait que Φ est un processus à variation bornée (i.e. chacune des entrées de la matrice est un processus à variation bornée) : dx t = (dφ t ) Y t + Φ t dy t + = AΦ t Y t dt + Φ t dy t = AX t dt + Σ db t. On en déduit donc que d où X t = Φ t (x + dy t = Φ 1 t Σ db t, Y = x, ) Φ 1 s Σ db s = Φ t x + Φ t s Σ db s. Exemple Lorsque n = m = 1, l équation ci-dessus devient : dx t = ax t dt + σ db t, dont la solution est le processus d Ornstein-Uhlenbeck vu précédemment. Exemple Considérons le cas n = 2 et m = 1 : dx t = Y t dt, X = 1, dy t = X t dt + σ db t, Y =. ( ) ( ) 1 Ici, A = et Σ =. Formellement, ce système des deux équations du premier 1 σ ordre peut se récrire comme une seule équation du second ordre : d 2 X t dt 2 = X t + σ db t dt, qui décrit le mouvement d un ressort perturbé par un bruit blanc. 79

84 Vecteur de dérive, matrice de diffusion et solution faible Revenons au cas général. Le processus X solution forte de l EDS (21) est appelé une diffusion (c est aussi un processus de Markov). On vérifie que : (i) Le processus M (i) t = X (i) t le vecteur f(t, x) est appelé vecteur de dérive du processus X. (ii) Du fait que f (i) (s, X s ) ds est une martingale pour tout i {1,..., n} ; m X (i), X (k) t = M (i), M (k) t = g (i,j) (s, X s ) g (k,l) (s, X s ) d B (j), B (l) s j,l=1 m = g (i,j) (s, X s ) g (k,j) (s, X s ) ds, j=1 on trouve que le processus N (i,k) t = M (i) t M (k) t m g (i,j) (s, X s ) g (k,j) (s, X s ) ds j=1 est une martingale pour tout i, k {1,..., n}. La matrice G(t, x) définie par m G (i,k) (t, x) = g (i,j) (t, x) g (k,j) (t, x) j=1 est appelé la matrice de diffusion du processus X (noter que G(t, x) = g(t, x) g(t, x) T ). Finalement, un processus X tel que les processus M (i) et N (i,k) définis ci-dessus sont des martingales pour tout i, k {1,..., n} est appelé une solution faible de l EDS (21). Existence d une messure martingale Ci-dessous, on recherche ici des conditions suffisantes sur f et G garantissant l existence d une mesure de probabilité P T sous laquelle les processus X (1),..., X (n) soient simultanément des martingales sur l intervalle [, T ]. Remarque Comme on l a vu plus haut, l existence d une mesure martingale permet de fixer un prix et une stratégie de couverture à des options en mathématiques financières. Cette dernière affirmation n est toutefois pas tout à fait exacte. Pour que cela soit possible, il faut encore que la mesure martingale soit unique (sinon, on voit bien que le prix et la stratégie de couverture dépendront de la mesure martingale choisie). Nous n entrerons cependant pas plus loin dans les détails dans ce cours. 8

85 Voici donc les hypothèses supplémentaires à effectuer sur f et G ; il existe K 1, K 2 > telles que (i) f(t, x) K 1, t R +, x R n, (ii) G (i,k) (t, x) ξ i ξ k K 2 ξ 2, t R +, x, ξ R n. i,k=1 Si l hypothèse (ii) est satisfaite, on dit que la diffusion X est non-dégénérée. Remarque Du fait que G(t, x) = g(t, x) g(t, x) T, il est toujours vrai que G (i,k) (t, x) ξ i ξ k, t, x, ξ. (22) i,k=1 L hypothèse (ii) assure que pour un point (t, x) donné, on a de plus l inégalité stricte : G (i,k) (t, x) ξ i ξ k >, ξ. (23) i,k=1 Etant donné que (22) est vérifié, la condition (23) peut se reformuler de plusieurs manières équivalentes : (a) toutes les valeurs propres de G(t, x) sont positives, (b) det G(t, x) >, (c) G(t, x) est inversible, (d) rang G(t, x) = n. Ceci nous amène à la remarque suivante : du fait que G(t, x) = g(t, x) g(t, x) T et que g(t, x) est une matrice n m, on sait que rang G(t, x) m n, donc que si m < n, alors rang G(t, x) < n, (t, x), (24) auquel cas l hypothèse (ii) ci-dessus ne peut être satisfaite. Proposition Sous les hypothèses (i) et (ii) effectuées ci-dessus, il existe une mesure martingale P T (i.e. une mesure de probabilité sous laquelle tous les processus X (1),..., X (n) sont simultanément des martingales). Démonstration. On définit les processus et fonctions suivants : m Z (i) t = g (i,j) (s, X s ) db s (j), i {1,..., n}, h (i) (t, x) = j=1 M t = f (k) (x) (G 1 ) (k,i) (t, x), k=1 h (i) (s, X s ) dz (i) s. 81 i {1,..., n},

86 Remarquer que Z (i) est une martingale sous P pour tout i {1,..., n}, de même que M. On peut vérifier que M t Kt, et on définit Y et P T comme à la section 2.7. Par le théorème de Girsanov, on sait donc que pour tout l {1,..., n}, Z (l) t M, Z (l) t est une martingale sous P T. Calculons ce processus : Donc M t = M, Z (l) t = = = m i,k=1 j=1 m i,k=1 j=1 i,k=1 k=1 Z (l) t M, Z (l) t = f (k) (s, X s ) (G 1 ) (k,i) (s, X s ) g (i,j) (s, X s ) db (j) s f (k) (s, X s ) (G 1 ) (k,i) (s, X s ) g (i,j) (s, X s ) g (l,j) (s, X s ) ds f (k) (s, X s ) (G 1 ) (k,i) (s, X s ) G (i,l) (s, X s ) ds f (k) (s, X s ) δ kl ds = f (l) (s, X s ) ds m j=1 g (i,j) (s, X s ) db s (j) + f (l) (s, X s ) ds = X (l) t X (l) est une martingale sous P T pour tout l {1,..., n} et la proposition est démontrée. Exemple Appliquons le résultat ci-dessus au modèle de Black & Scholes multimensionnel (cf. exemple 2.9.6). Dans ce cas, la matrice de diffusion G ne dépend que de x et est donnée par m G (i,k) (x) = σ ij σ kj x i x k, j=1 La diffusion X est donc non-dégénérée du moment que la matrice G donnée par G (i,k) = mj=1 σ ij σ kj est de rang n (le fait que rang G(x) soit strictement plus petit que n lorsque l une des composantes de x est nulle ne pose pas de problème ici, car on peut montrer facilement qu aucune des composantes de la diffusion X ne touche le point au cours du temps). Etant donné la remarque (24), on voit que rang G = n n est possible que si m n. On peut en fait montrer que la condition m n est nécessaire pour l existence d une mesure martingale (et que rang G = n est une condition nécessaire et suffisante). 82

87 Exemple de lien EDS-EDP dans le cas multidimensionnel Cours 14 Il est possible de généraliser tous les résultats de la section 2.8 au cas multidimensionnel. Toutefois, notre but ici est de considérer un autre type d équation aux dérivées partielles, dite elliptique (pour le cas unidimensionnel, se référer à l exercice 3, série 9). Résultat d analyse (EDP elliptique) Soient D un domaine ouvert borné dans R n, D sa frontière, D = D D et h C( D). Alors il existe une unique fonction u C 2 (D) C(D) telle que { u(x) =, x D, u(x) = h(x), x D. (25) Noter que la solution u est une fonction à valeurs dans R (et non dans R n ). Soit (B x t ) un mouvement brownien à n dimensions partant au temps t = du point x D. Soit également τ = inf{t > : B x t D}, le premier temps de sortie du domaine D (remarquer que τ est un temps d arrêt et que B x τ D). Proposition La solution de l équation (25) s écrit : u(x) = E(h(B x τ )), x D. Démonstration. On montre tout d abord que le processus (u(b x t ), t ) est une martingale (unidimensionnelle). En utilisant la formule d Itô multidimensionnelle, on a pour tout t < τ (condition qui assure que B x s D pour tout s t) : u(b x t ) u(b x ) = = u (B x x s) db x,(i) s + 1 u(b x i 2 s) ds u x i (B x s) db x,(i) s, étant donné que u satisfait (25). Le processus (u(b x t )) est bien une martingale, donc en appliquant le théorème d arrêt (et en laissant passer quelques détails), on obtient : u(x) = E(u(B x )) = E(u(B x τ )) = E(h(B x τ )), où on a utilisé la condition de bord de l équation (25) (ce qui est rendu possible par le fait que B x τ D). 83

88 2.1 Analyse et simulation numériques des EDS Considérons l EDS (unidimensionnelle) dx t = f(t, X t ) dt + g(t, X t ) db t, X = x. Sous des hypothèses générales (p. ex. f, g continues en (t, x) et lipschitziennes en x), on sait qu il existe une unique solution forte (X t ) à une telle équation. Pourtant, dès que f et g sont un peu compliquées, on ne connaît pas d expression analytique pour la solution. On comprend donc l intérêt de développer des méthodes pour simuler numériquement la solution de telles équations. Schéma d Euler Le schéma présenté ici est l adaptation au cas aléatoire du schéma d Euler classique pour les équations différentielles ordinaires (EDO). Son analyse diffère toutefois en plusieurs aspects (voir plus loin). Supposons donc qu il existe une unique solution forte à l équation ci-dessus (sans quoi la méthode numérique décrite ci-dessous est vouée à l échec). Pour t > r, on a donc l égalité X t = X r + r f(s, X s ) ds + r g(s, X s ) db s. En supposant que t est proche de r, on peut utiliser la continuité des fonctions s f(s, X s ) et g g(s, X s ) pour approximer la relation ci-dessus par X t X r + f(r, X r ) (t r) + g(r, X r ) (B t B r ). (Noter qu on a choisi à dessein le point à gauche de l intervalle de façon à approximer l intégrale d Itô). Soient maintenant T R + et N N fixés ; en posant t = T, t = (n+1) t N et r = n t, on trouve donc X (n+1) t X n t + f(n t, X n t ) t + g(n t, X n t ) (B (n+1) t B n t ), (26) où B (n+1) t B n t est une v.a. N (, t) indépendante de F n t (rappel : (F t ) est la filtration à laquelle sont adaptés les processus (B t ) et (X t )). De là, on déduit le schéma numérique suivant : X (N) = x, X (N) (n+1) t = X(N) n t + f(n t, X (N) n t) t + g(n t, X (N) n t) ξ n+1 t, n < N, où (ξ n ) N n=1 est une suite de v.a. i.i.d. N(, 1) (de telle sorte à ce que les v.a. ξ n+1 t et (B (n+1) t B n t ) soient identiquement distribuées). Ceci définit le schéma numérique X (N) 84

89 aux instants n t. Pour définir le schéma sur l intevalle [, T ] tout entier, on relie les points entre eux, i.e. on définit pour t ]n t, (n + 1) t[ : X (N) t = X (N) n t + (t n t) (X (N) (n+1) t X(N) n t). Ainsi, (X (N) t, t [, T ]) définit une suite de processus stochastiques. Noter que la démarche ci-dessus est équivalente à celle décrite au paragraphe concernant l approximation du mouvement brownien par une marche aléatoire (qui correspond au cas particulier f et g 1). Remarque Attention : une erreur courante en analyse numérique consiste à confondre l approximation (26) avec le schéma numérique défini une ligne plus bas. Convergences Une fois défini le schéma numérique X (N), on peut se demander combien celui-ci est proche de la solution X. Du fait qu on a affaire à des processus aléatoires, on a le choix entre plusieurs notions de convergence. A) Convergence en loi De la même manière que dans le cas f et g 1 étudié au paragraphe 2.1.2, on peut montrer que sous les hypothèses effectuées, P(X (N) t 1 x 1,..., X (N) t m x m ) N P(X t1 x 1,..., X tm x m ), pour tout m 1, t 1,..., t m [, T ], x 1,..., x m R. Ainsi, la suite de processus (X (N) ) converge en loi vers X. Remarque Pour obtenir la convergence en loi, on peut aussi considérer dans le schéma numérique une suite de v.a. (ξ n ) N n=1 i.i.d. telles que P(ξ n = +1) = P(ξ m = 1) = 1 2, ou n importe quelle autre suite de v.a. i.i.d. de moyenne nulle et de variance unité. Ça n est par contre pas vrai pour ce qui va suivre. Remarque S il existe une unique solution faible à l équation, alors la suite X (N) définie ci-dessus converge également en loi vers la solution faible. B) Convergence en moyenne La convergence en loi ne dit rien sur la distance entre les trajectoires du schéma numérique et celles de la solution. Pour estimer cette distance, on a besoin de propositions comme celle qui suit. 85

90 Proposition Sous les hypothèses effectuées (et quelques hypothèses techniques additionnelles), il existe une constante C T > telle que E( sup X (N) t X t ) C T. t T N Cette proposition est donnée sans démonstration. La technique de démonstration est similaire à celle utilisée pour montrer l existence et l unicité de la solution de l équation originale (noter toutefois que les processus approximant la solution sont complètement différents dans les deux cas ; le schéma d itération de Picard ne permet en aucun cas d obtenir une estimation aussi précise que celle donnée ci-dessus). Remarque A cause du facteur 1 N, on dit que le schéma d Euler est d ordre 1 2 pour les EDS. Remarquer que pour les EDO, le schéma d Euler est par contre d ordre 1, i.e. sup X (N) t X t C T t T N. La perte de précision dans le cas aléatoire vient essentiellement du facteur t présent dans le terme intégrale d Itô du schéma. Nous verrons plus loin comment remédier à ce problème (cf. schéma de Milstein). - La constante C T dépend des constantes de Lipschitz de f et g et augmente exponentiellement avec T (ce qui est également vrai pour les EDO). Généralisations et intérêt pratique - Pour p 1, on a E( sup X (N) t X t p ) C T t T N. p/2 (NB : Ceci ne veut pas dire que l ordre de convergence est meilleur!) - Pour des diffusions multidimensionnelles, l ordre de convergence reste le même (i.e. est indépendant de la dimension de la diffusion). L intérêt pratique de la simulation des EDS est le suivant : on a vu qu il est possible de représenter la solution d une EDP classique à l aide de la solution d une EDS, au moyen d une formule du type : u(t, x) = E(h(X t,x T )). Pour simuler numériquement la solution d une EDP dont on ne connaît pas l expression analytique, on a donc deux possibilités : soit utiliser des méthodes classiques sans passer par la formule de représentation ci-dessus ; soit simuler numériquement le processus X t,x jusqu au temps T, puis approximer l espérance ci-dessus. Pour ce faire, une solution simple est d utiliser la loi des grands nombres, i.e. d approximer l espérance par la moyenne de M 86

91 réalisations indépendantes de la variable aléatoire (avec M grand) ; ceci implique de répéter M fois la simulation du processus X sur l intervalle [t, T ]! Il faut également noter que l approximation de l espérance ci-dessus par une moyenne pose des problèmes car la moyenne possède elle-même une variance non-négligeable. Pour remédier à ce problème, des techniques dites de réduction de variance sont utilisées, mais toujours de manière ad hoc. Malgré tout, cette méthode de simulation des EDP par des processus aléatoires présente un certain intérêt, surtout lorsque la dimension de la diffusion (i.e. du vecteur x) est grande, ce qui arrive fréquemment en mathématiques financières (où la dimension du vecteur x est égale au nombre d actifs à prendre en considération, qui est généralement de l ordre d une dizaine en pratique). Donnons deux raisons pour justifier cet intérêt : - Les méthodes classiques (déterministes) de résolution des EDP deviennent de plus en plus difficiles à mettre en pratique lorsque la dimension spatiale augmente. On peut penser par exemple à la méthode des éléments finis qui fonctionne parfaitement en dimension 2 et 3 (étant donné qu elle a été développée principalement pour la mécanique des fluides), mais qui devient quasiment impossible à implémenter au-delà de la dimension 3. Par contre, les schémas de simulation des EDS sont faciles à implémenter en dimension supérieure à 3. - L ordre de convergence des méthodes déterministes diminue fortement lorsque la dimension augmente, alors que celui obtenu avec les méthodes stochastiques ne dépend pas de la dimension, comme déjà mentionné plus haut. Schéma de Milstein Ce schéma est un raffinement du schéma d Euler ; sa convergence est d ordre 1. Repartons de l équation de base. Pour t > r, on a : X t = X r + r f(s, X s ) ds + r g(s, X s ) db s Si on suppose maintenant que g C 1,2 (R + R), alors on peut développer g(s, X s ) en utilisant la formule d Itô : g(s, X s ) = g(r, X r ) + = g(r, X r ) + s r s r g r (u, X u) du + g t (u, X u) du + s r s s g + r x (u, X u) g(u, X u ) db u r 87 s g x (u, X u) dx u r g x (u, X u) f(u, X u ) du s 2 g r x (u, X u) g(u, X 2 u ) 2 du. 2 g x 2 (u, X u) d X u

92 Ainsi on trouve que g(s, X s ) = g(r, X r ) + s r g s x (u, X u) g(u, X u ) db u + H u du, r où H est un certain processus continu. On peut donc approximer g(s, X s ) par g(s, X s ) g(r, X r ) + g x (r, X r) g(r, X r ) (B s B r ) + H r (s r). En introduisant cette approximation dans l équation pour X, on trouve : X t X r + f(r, X r ) (t r) + g(r, X r ) (B t B r ) + g x (r, X r) g(r, X r ) +H r (s r) db r. Or un calcul rapide montre que et que r r r (B s B r ) db s = (B t B r ) 2 (t r). 2 (s r) db s N (, r (s r) 2 ds = ) (t r)3. 3 r (B s B r ) db s Ainsi, le premier terme est d ordre t r tandis que le second est d ordre (t r) 3/2. Si donc t = (n + 1) t et r = n t, le second terme sera négligeable par rapport au premier. C est pourquoi on ne garde que le premier terme dans l approximation, qui devient : X t X r + f(r, X r ) (t r) + g(r, X r ) (B t B r ) + g x (r, X r) g(r, X r ) (B t B r ) 2 (t r). 2 Ceci nous amène à définir le schéma numérique suivant : X (N) = x, X (N) (n+1) t = X(N) n t + f(n t, X (N) n t) t + g(n t, X (N) n t) ξ n+1 t où (ξ n ) N n=1 est une suite de v.a. i.i.d. N(, 1). + g (n t, X(N) x n t) g(n t, X n t) (N) ( ξ2 n+1 1 ) t, 2 Proposition Sous beaucoup d hypothèses (principalement f, g et les dérivées de g continues en (t, x) et lipschitziennes en x), on a E( sup X (N) t X t ) C T t T N. Le schéma de Milstein est donc un schéma d ordre 1 (mais qui nécessite un développement de second ordre faisant intervenir la formule d Itô!). 88

93 2.11 Pour conclure Cours 15 Dans cette section, nous passons en revue un certain nombre de points laissés de côté dans le cours. Convergence des martingales Soit M une martingale continue. On peut se poser la question de savoir sous quelles conditions M t converge losque t tend vers l infini. Il y a plusieurs réponses possibles à cette question. Voici un exemple de réponse. Proposition Si alors il existe une v.a. M telle que E(sup M t 2 ) <, (27) t E( M t M 2 ) t, et M t = E(M F t ). (28) Remarque Le mouvement brownien standard B ne satisfait pas la condition (27). - La condition plus faible E(sup t M t ) < ne suffit pas à garantir l existence d une v.a. M telle que E( M t M ) t et M t = E(M F t ). Seconde version du théorème d arrêt Soient M une martingale continue vérifiant (27) et τ 1 τ 2 deux temps d arrêt. Alors E(M τ2 F τ1 ) = M τ1. (29) (Pour la démonstration, on utilise le fait que M τ = E(M F τ ) pour tout temps d arrêt τ, ce qu il faut bien sûr démontrer!) Remarque Pour que l égalité (29) soit vérifiée, on voit donc qu il est nécessaire d effectuer une hypothèse soit sur les temps d arrêt τ 1 et τ 2, soit sur la martingale elle-même (sans quoi on arrive à une contradiction avec des martingales du type quitte ou double évoquées au chapitre 1). Martingale arrêtée Proposition Soient M une martingale continue et τ un temps d arrêt. Alors le processus N défini par N t = M t τ est également une martingale continue. Ceci se démontre aisément (remarquer qu après le temps d arrêt τ, le processus N est constant). En particulier, posons τ a = inf{t > : M t a}, avec a > fixé. On voit que E(sup M t τa 2 ) a 2 <. t 89

94 Par la proposition , on obtient donc que E(M τ2 τ a F τ1 ) = M τ1 τ a. pour tout τ 1 τ 2. En choisissant τ 1 = et τ 2 =, on trouve donc que E(M τa ) = E(M ), i.e. le théorème d arrêt s applique ici même si le temps d arrêt τ a n est pas borné et qu on ne fait aucune hypothèse sur M. Cette propriété a été utilisée en particulier dans l exercice 3 de la série 9. Martingale locale Définition Une martingale locale est un processus M tel qu il existe une suite croissante de temps d arrêt τ 1... τ n... avec τ n n et (M t τn ) martingale pour tout n 1. Donc si M est une martingale locale, on ne sait pas a priori que E( M t ) <, ni que E(M t F s ) = M s. Il faut arrêter le processus M au temps d arrêt τ n pour retrouver la propriété de martingale (remarquer qu on peut toujours se restreindre à la suite de temps d arrêt τ n = inf{t > : M t n}). Remarque Par la proposition , toute martingale est une martingale locale. - Réciproquement, si M est une martingale locale et E(sup s t M s ) < pour tout t >, alors M est une martingale (par contre, la condition E( M t ) < pour tout t > ne suffit pas). Même si la définition de martingale locale paraît un peu plus compliquée à saisir au premier abord, nous allons voir que cette notion permet de simplifier grandement les énoncés des théorèmes, car on n a plus beosin d aucune hypothèse d intégrabilité sur M. Dans ce qui va suivre, on considère toujours des martingales locales continues. Variation quadratique d une martingale locale continue Définition La variation quadratique d une martingale locale continue M est l unique processus A croissant, continu et adapté tel que A = et (Mt 2 A t ) est une martingale locale continue. On note A t = M t. Troisième version du théorème de Lévy Soit M une martingale locale continue telle que M t = t pour tout t >. Alors M est un mouvement brownien standard. 9

95 Intégrale stochastique Soient M une martingale locale continue et H un processus continu adapté. Moyennant quelques précautions, il est possible de définir l intégrale stochastique N t = H s dm s. Le processus N ainsi défini est également une martingale locale continue. Ceci se démontre en considérant la suite de temps d arrêt τ n = inf{t > : M t n ou H 2 s d M s n}. et en remarquant que le processus (N t τn ) est une martingale pour tout n 1. Remarque On n a plus besoin d une condition supplémentaire sur H pour s assurer que l intégrale stochastique est bien définie! Semi-martingale continue Une semi-martingale continue est un processus X qui s écrit X = M + V, où M est une martingale locale continue et V est un processus continu adapté à variation bornée tel que V =. Remarque Attention : le terme semi-martingale continue a déjà été utilisé (abusivement) dans ce cours pour désigner un processus d Itô. Formules d Itô Voyons ici deux cas particuliers de la formule d Itô, où l avantage de considérer des martingales locales apparaît clairement. a) Soient M une martingale locale continue et f C 2 (R). Alors f(m t ) f(m ) = f (M s ) dm s f (M s ) d M s. Remarquer que f(m) est une semi-martingale continue, étant la somme d une martingale locale continue et d un processus continu adapté à variation bornée. b) Soient B un m.b.s. à n dimensions et f C 2 (R n ). Alors f(b t ) f(b ) = f (B x s ) db s (i) + 1 f(b i 2 s ) ds. Remarquer que les deux formules ci-dessus sont valides sans aucune condition d intégrabilité supplémentaire! 91

96 Martingale exponentielle Proposition Soit M une martingale locale continue telle que M =. Alors le processus Y défini par Y t = exp(m t M t ) est une martingale locale continue. Si de plus 2 M t Kt pour tout t >, alors Y est une martingale. Démonstration. La première affirmation découle de la formule d Itô (a) ci-dessus. Pour démontrer la seconde, posons Z t = e 2(Mt M t). Par la formule d Itô, on voit que Z est une martingale locale continue. De plus, Y 2 t = e 2Mt M t = Z t e M t Soit maintenant (τ n ) une suite de temps d arrêt telle que (Y t τn ) est une martingale pour tout n 1 (cette suite existe car Y est une martingale locale). Alors par l inégalité de Doob, on a E( sup Y s τn 2 ) 4 E(Yt τ 2 n ) 4 E(Z t τn e Kt ) 4 e Kt, s t par l hypothèse et le fait que E(Z t τn ) = 1 pour tout n 1. Donc par l inégalité de Cauchy- Schwarz, E( sup Y s ) 2 E( sup Y s 2 ) = lim s t s t n E( sup Y s τn 2 ) 4e Kt, s t d où Y est une martingale par la remarque Remarque On peut montrer que Y est une martingale sous une condition plus faible, dite de Novikov : ( ) E e M t 2 <, t >. Martingales associée au mouvement brownien standard en dimension n - Pour n 2, on a B t B = B s (i) B s db(i) s + 1 n 1 2 B s ds, où l intégrale stochastique du membre de droite est une martingale (on peut même montrer que c est un mouvement brownien standard en utilisant la troisième version du théorème de Lévy citée plus haut). - Pour n = 3, on a 1 B t 1 B = n B (i) s B s 3 db(i) s +, 92

97 (car ( 1 ) = pour x ). Dans ce cas cependant, l intégrale stochastique à droite n est x pas une martingale ; c est seulement une martingale locale. Noter qu on a de manière plus générale : M t = log( B t ) est une martingale locale lorsque n = 2 et M t = 1 B t n 2 est une martingale locale lorsque n 3 (malgré le fait que E( M t ) < pour tout t > dans ces deux cas). Remarque Dans les deux derniers exemples, f n est pas dérivable en, mais ça n est pas grave car P( t > : B t = ) = lorsque n 2. Pour la dimension n = 1, les choses changent, comme le montre le paragraphe suivant. Formule de Tanaka Soit B un m.b.s. de dimension 1. Par une application naïve de la formule d Itô, on devrait alors avoir, au vu de ce qui précède : B t B = sgn(b s ) db s +? Ça n est cependant pas possible, car le théorème de Lévy implique que l intégrale stochastique dans le membre de droite est un m.b.s., tandis que B t n est clairement pas un m.b.s. (en particulier parce que ce processus est toujours positif). Le problème ici est que f(x) = x n est pas dérivable en et que le m.b.s. B t repasse régulièrement en (alors que ça n est pas le cas en dimension supérieure). Posons donc 1 L t = lim ε 4ε {s [, t] : B s < ε}, où A est la mesure (de Lesbesgue) de l ensemble de A. L t représente en quelque sorte le temps passé par le m.b.s. B au point x = pendant l intervalle de temps [, t] (même si on pourrait penser a priori que ce temps est nul, ça n est pas le cas!). On peut démontrer alors la formule étrange suivante : B t B = sgn(b s ) db s L t. Une justification à la main de cette formule est que si f(x) = x, alors f (x) = sgn(x) et f (x) = δ (x), ainsi le terme d Itô devient 1 2 δ (B s ) ds, qui représente bien la moitié du temps passé par B en x = sur l intervalle [, t]. 93

98 Bibliographie 1) Rappels de probabilités * N. Bouleau, Probabilités de l ingénieur, Hermann, * R. Durrett, The essentials of probability, The Duxbury Press, * S. M. Ross, Initiation aux probabilités, PPUR, * Virtual laboratories in probability and statistics : http :// 2) Théorie des probabilités * P. Billingsley, Probability and measure, Wiley, * R. Durrett, Probability : theory and examples, The Duxbury Press, ) Introduction au calcul stochastique et aux mathématiques financières * D. Lamberton, B. Lapeyre, Introduction au calcul stochastique appliqué à la finance, Ellipses, (existe aussi en anglais) * Th. Mikosch, Elementary stochastic calculus with finance in view, World Scientific, * B. Øksendal, Stochastic differential equations. An introduction with applications (corrected 5th ed.), Springer Verlag, 2. Ces trois ouvrages sont recommandés pour leur côté clair et introductif! 4) Calcul stochastique avancé * R. Durrett, Stochastic calculus. A practical introduction, CRC Press * I. Karatzas, S. E. Shreve, Brownian motion and stochastic calculus, Springer Verlag, * Ph. Protter, Stochastic integration and differential equations. A new approach, Springer Verlag, 199. * D. Revuz, M. Yor, Continuous martingales and Brownian motion, Springer Verlag, ) Simulation numérique des EDS * P. Kloeden, E. Platen, Numerical solution of stochastic differential equations, Springer Verlag, (un second tome existe aussi avec exercices corrigés) Remarque. La présente liste n est bien sûr de loin pas exhaustive! 94

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Calcul Stochastique pour la finance. Romuald ELIE

Calcul Stochastique pour la finance. Romuald ELIE Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Ecole Nationale de la Statistique et de l Administration Economique Théorie de la Mesure et Intégration Xavier MARY 2 Table des matières I Théorie de la mesure 11 1 Algèbres et tribus de parties d un ensemble

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc Cours de Calcul stochastique Master 2IF EVRY Monique Jeanblanc Septembre 26 2 Contents 1 Généralités 7 1.1 Tribu............................................... 7 1.1.1 Définition d une tribu.................................

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Intégration sur des espaces produits

Intégration sur des espaces produits Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

Commun à tous les candidats

Commun à tous les candidats EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

Produits d espaces mesurés

Produits d espaces mesurés Chapitre 7 Produits d espaces mesurés 7.1 Motivation Au chapitre 2, on a introduit la mesure de Lebesgue sur la tribu des boréliens de R (notée B(R)), ce qui nous a permis d exprimer la notion de longueur

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

Optimisation des fonctions de plusieurs variables

Optimisation des fonctions de plusieurs variables Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables

Plus en détail

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours MSUR T INTÉGRATION N UN DIMNSION Notes de cours André Giroux Département de Mathématiques et Statistique Université de Montréal Mai 2004 Table des matières 1 INTRODUCTION 2 1.1 xercices.............................

Plus en détail

Intégrale de Lebesgue

Intégrale de Lebesgue Intégrale de Lebesgue L3 Mathématiques Jean-Christophe Breton Université de Rennes 1 Septembre Décembre 2014 version du 2/12/14 Table des matières 1 Tribus (σ-algèbres) et mesures 1 1.1 Rappels ensemblistes..............................

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

MARTINGALES POUR LA FINANCE

MARTINGALES POUR LA FINANCE MARTINGALES POUR LA FINANCE une introduction aux mathématiques financières Christophe Giraud Cours et Exercices corrigés. Table des matières I Le Cours 7 0 Introduction 8 0.1 Les produits dérivés...............................

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1 Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Équation de Langevin avec petites perturbations browniennes ou

Équation de Langevin avec petites perturbations browniennes ou Équation de Langevin avec petites perturbations browniennes ou alpha-stables Richard Eon sous la direction de Mihai Gradinaru Institut de Recherche Mathématique de Rennes Journées de probabilités 215,

Plus en détail

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Les mathématiques de la finance Université d été de Sourdun Olivier Bardou [email protected] 28 août 2012 De quoi allons nous parler? des principales hypothèses de modélisation des marchés, des

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Université Pierre & Marie Curie (Paris 6) Licence de Mathématiques L3 UE LM364 Intégration 1 & UE LM365 Intégration 2 Année 2010 11 Théorie de la Mesure et Intégration Responsable des cours : Amaury LAMBERT

Plus en détail

Mesures gaussiennes et espaces de Fock

Mesures gaussiennes et espaces de Fock Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Cours Fonctions de deux variables

Cours Fonctions de deux variables Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté

Plus en détail

La mesure de Lebesgue sur la droite réelle

La mesure de Lebesgue sur la droite réelle Chapitre 1 La mesure de Lebesgue sur la droite réelle 1.1 Ensemble mesurable au sens de Lebesgue 1.1.1 Mesure extérieure Définition 1.1.1. Un intervalle est une partie convexe de R. L ensemble vide et

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

Probabilités et statistique. Benjamin JOURDAIN

Probabilités et statistique. Benjamin JOURDAIN Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Suites numériques 3. 1 Convergence et limite d une suite

Suites numériques 3. 1 Convergence et limite d une suite Suites numériques 3 1 Convergence et limite d une suite Nous savons que les termes de certaines suites s approchent de plus en plus d une certaine valeur quand n augmente : par exemple, les nombres u n

Plus en détail

Théorie de la mesure. S. Nicolay

Théorie de la mesure. S. Nicolay Théorie de la mesure S. Nicolay Année académique 2011 2012 ii Table des matières Introduction v 1 Mesures 1 1.1 Sigma-algèbres................................. 1 1.2 Mesures.....................................

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Problème 1 : applications du plan affine

Problème 1 : applications du plan affine Problème 1 : applications du plan affine Notations On désigne par GL 2 (R) l ensemble des matrices 2 2 inversibles à coefficients réels. Soit un plan affine P muni d un repère (O, I, J). Les coordonnées

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : [email protected] Mots-clés : équation fonctionnelle, série

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Logique. Plan du chapitre

Logique. Plan du chapitre Logique Ce chapitre est assez abstrait en première lecture, mais est (avec le chapitre suivant «Ensembles») probablement le plus important de l année car il est à la base de tous les raisonnements usuels

Plus en détail

MATHS FINANCIERES. [email protected]. Projet OMEGA

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA MATHS FINANCIERES [email protected] Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

PRIME D UNE OPTION D ACHAT OU DE VENTE

PRIME D UNE OPTION D ACHAT OU DE VENTE Université Paris VII - Agrégation de Mathématiques François Delarue) PRIME D UNE OPTION D ACHAT OU DE VENTE Ce texte vise à modéliser de façon simple l évolution d un actif financier à risque, et à introduire,

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

6 Equations du première ordre

6 Equations du première ordre 6 Equations u première orre 6.1 Equations linéaires Consiérons l équation a k (x) k u = b(x), (6.1) où a 1,...,a n,b sont es fonctions continûment ifférentiables sur R. Soit D un ouvert e R et u : D R

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

Chapitre 2. Eléments pour comprendre un énoncé

Chapitre 2. Eléments pour comprendre un énoncé Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

Finance, Navier-Stokes, et la calibration

Finance, Navier-Stokes, et la calibration Finance, Navier-Stokes, et la calibration non linéarités en finance 1 1 www.crimere.com/blog Avril 2013 Lignes directrices Non-linéarités en Finance 1 Non-linéarités en Finance Les équations de Fokker-Planck

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Calculs de probabilités conditionelles

Calculs de probabilités conditionelles Calculs de probabilités conditionelles Mathématiques Générales B Université de Genève Sylvain Sardy 20 mars 2008 1. Indépendance 1 Exemple : On lance deux pièces. Soit A l évènement la première est Pile

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Calculs de probabilités

Calculs de probabilités Calculs de probabilités Mathématiques Générales B Université de Genève Sylvain Sardy 13 mars 2008 1. Définitions et notations 1 L origine des probabilités est l analyse de jeux de hasard, tels que pile

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail