Processus de Lévy et calcul stochastique. Rhodes Rémi

Dimension: px
Commencer à balayer dès la page:

Download "Processus de Lévy et calcul stochastique. Rhodes Rémi"

Transcription

1 Processus de Lévy et calcul stochastique Rhodes Rémi 18 novembre 21

2 2

3 Table des matières 1 Quelques rappels sur les processus de Poisson Processus de Poisson Processus de Poisson composés Processus de Lévy Lois infiniment divisibles La formule de Lévy-Khintchine Processus de Lévy Modifications des processus de Lévy Propriété de Markov forte Subordinateurs Décomposition d Itô-Lévy Sauts des processus de Lévy Mesures aléatoires de Poisson Intégration de Poisson Décomposition d Itô-Lévy Intégration stochastique Classe d intégrands Théorie L Extension de la théorie Formules d Itô Changement de mesures et martingales exponentielles Exponentielle de Doleans-Dade Martingales exponentielles

4 4 TBLE DES MTIÈRES 5.3 Changement de mesures-théorème de Girsanov Théorème de représentation des martingales Equations différentielles stochastiques Existence et unicité Propriété de Markov Formule de Feynman-Kac Quelques applications en finance Probas risque neutre Exemples Modèle de Merton Processus variance-gamma Modèle NIG Normal Inverse Gaussian) Problèmes de couverture Méthodes de transformées de Fourier pour le pricing d options

5 Chapitre 1 Quelques rappels sur les processus de Poisson 1.1 Processus de Poisson Ces processus sont très utilisés pour modéliser des temps d arrivée aléatoires de clients, sinistres,... Définition 1. Un processus de Poisson N de paramètre λ > est un processus de comptage t, N t = n 1 1I {Tn t} 1.1) associé à une famille T n ; n N) avec T = ) de va représentant les temps d arrivées, telle que les va T n+1 T n ; n N) sont iid de loi exponentielle de paramètre λ. Proposition 1. Si N est un processus de Poisson alors 1) la somme 1.1) est presque sûrement finie pour tout t. 2) les trajectoires de N sont constantes par morceaux, avec des sauts de taille 1 seulement, 3) les trajectoires sont càdlàg, 4) t >, IPN t = N t ) = 1, 5) t >, N t suit une loi de Poisson de paramètre λt : En particulier on a : n N, λt λt)n IPN t = n) = e. n! E[N t ] = λt = Var[N t ], E[e iunt ] = exp λte iu 1) ), 6) n 1, T n une loi gamma de paramètre n, λ) de densité : f Tn x) = λt)n 1 n 1)! λe λt 1I {t>}. 7) N est à accroissements indépendants et stationnaires. 5

6 6 CHPITRE 1. QUELQUES RPPELS SUR LES PROCESSUS DE POISSON FIGURE 1.1 Simulation d un processus de Poisson Une définition équivalente des processus de Poisson est : Définition 2. Soit N un processus stochastique issu de ) à valeurs réelles et càdlàg. N est un processus de Poisson ssi : 1) N est un processus croissant, constant par morceaux, ne faisant que des sauts de taille 1, 2) t, s, la va N t+s N t est indépendant de la tribu engendrée par les N u ; u t), 3) t, s, la va N t+s N t a même loi que N s. On retrouve alors les va T n en les définissant comme les sauts du processus N : T =, T n = inf{t > T n 1 ; N t N Tn 1 > } pour n 1. Ce sont des temps d arrêt par rapport à la filtration naturelle du processus N. Théorème 1. Comportement asymptotique Si N est un processus de Poisson d intensité λ > alors, lorsque t tend vers + : N t t Nt ) p.s. λ et t λ t λ loi N, 1). Exercice 1. Montrer que la somme de 2 processus de Poisson indépendants est encore un processus de Poisson. Quelle est son intensité? Exercice 2. Montrer que, sachant N t = k k 1), la loi du k-uplet T 1,..., T k ) est celle d un k-échantillon de v.a. iid de loi uniforme sur [, t]. Exercice 3. Proposer un algorithme de simulation de processus de Poisson basé sur l exercice 2.

7 1.2. PROCESSUS DE POISSON COMPOSÉS 7 Exercice 4. Si N est un processus de Poisson d intensité λ, montrer que les lois marginales du processus P t = 1 Nt ) λ t λ convergent vers celle d un mouvement brownien standard. 1.2 Processus de Poisson composés Définition 3. Un processus de Poisson avec intensité λ > et loi de sauts ν Z est un processus stochastique défini par N t X t = Z k, k=1 où Z n ) n est une suite de va iid à valeurs dans R d de loi ν Z et N est un processus de Poisson de paramètre λ indépendant de la suite Z n ) n. En d autres mots, un processus de Poisson composé est un processus constant par morceaux qui saute aux instants de sauts d un processus de Poisson standard, et dont les tailles de sauts sont des variables i.i.d. d une loi donnée. Citons quelques exemples de phénomènes susceptibles d être décrits par des processus de Poisson composés : arrivées d avion dans un aéroport : chaque avion transporte un certain nombre de passagers, arrivées de clients aux caisses d un supermarché : chaque client dépense une certaine somme d argent, trafic routier : à chaque accident correspond un certain nombre de personnes blessées, ssurance-sinistre : à chaque sinistre est associé un coût de réparation des dégâts. Un processus de Poisson composé est clairement un processus càdlàg et constant par morceaux. Sa fonction caractéristique est donnée par : ) φ Xt u) = exp t e iu,y) 1)λν Z dy). 1.2) R d Proposition 2. Soit X un processus de Poisson composé. lors X est à accroissements indépendants et stationnaires. Exercice 5. Montrer la formule 1.2). Exercice 6. Donner une CNS pour qu un processus de Poisson composé admette un moment d ordre 1 resp. 2) et calculer ce moment. Exercice 7. Proposer un algorithme de simulation de processus de Poisson composé basé sur l exercice 2.

8 8 CHPITRE 1. QUELQUES RPPELS SUR LES PROCESSUS DE POISSON FIGURE 1.2 Simulation de processus de Poisson composés

9 1.2. PROCESSUS DE POISSON COMPOSÉS 9 FIGURE 1.3 Un processus de Poisson composé correctement renormalisé vu en "temps grand") converge en loi vers un mouvement brownien

10 1 CHPITRE 1. QUELQUES RPPELS SUR LES PROCESSUS DE POISSON

11 Chapitre 2 Processus de Lévy 2.1 Lois infiniment divisibles Soit X une variable aléatoire à valeurs dans R d de loi µ X. On dit que X est infiniment divisible si, pour tout n N, il existe des va iid Y n) 1,..., Y n n) telles que X loi = Y n) Y n) n. Soit φ X u) = E[e iu,x) ] la fonction caractéristique de X. Proposition 3. Se valent : 1. X est infiniment divisible, 2. pour tout n, φ X a une racine n-ième qui est la fonction caractéristique d une variable aléatoire. Preuve. 1) implique 2). Il suffit de prendre la fonction caractéristique de Y n) 1. 2) implique 1). Soit Y n) 1,..., Y n) n des copies indépendantes de loi associée à φ Y telle que φ X u) = φ Y u)) n. lors il est facile de voir que à l aide des fonctions caractéristiques. X loi = Y n) Y n) n Exemple 1. Variables gaussiennes Les lois gaussiennes sont infiniment divisibles. Exemple 2. Loi de Poisson On prend d = 1. On définit une variable X par n N, On note X P λ). On a E[X] = VarX) = λ et IPX = n) = λn n! e λ. φ X u) = e λeiu 1). On en déduit que X est infiniment divisible car φ X u) = φ Y u)) n avec Y P λ/n). 11

12 12 CHPITRE 2. PROCESSUS DE LÉVY Exemple 3. Loi de Poisson composée On considère une suite Z n ) n de va iid à valeurs dans R d de loi µ Z. Soit N une loi de Poisson de paramètre λ indépendante de la suite Z n ) n. On définit une variable X par N X = Z k. On a k=1 ) φ X u) = exp e iu,y) 1)λµ Z dy). R d On en déduit que X est infiniment divisible car φ X u) = φ Y u)) n avec Y P λ/n). On notera X P Cλ, µ Z ) et on remarque que φ X u) = φ Y u)) n où Y P λ/n, µ Z ). Donc X est infiniment divisible. 2.2 La formule de Lévy-Khintchine Soit ν une mesure de Borel sur R d \ {}. On dira que ν est une mesure de Lévy si 1 z 2 )νdz) < +. R d \{} C est une mesure σ-finie. C est équivalent de dire que R d \{} z 2 νdz) < z2 Théorème 2. Formule de Lévy-Khintchine Soit X une va à valeurs dans R d. lors X est infiniment divisible s il existe b R d, une matrice R d d et une mesure de Lévy ν tels que u R d, φ X u) = exp ib, u) 1 2 u, u) + ) ) e iu,z) 1 iu, z)1i { z 1} νdy). R d \{} 2.1) Réciproquement, toute application de la forme ci-dessus est la fonction caractéristique d une va infiniment divisible sur R d. Preuve. On ne démontre que la deuxième partie du théorème. La partie la plus difficile résultera de la décomposition d Itô-Lévy. Tout d abord, on montre que le membre de droite est une fonction caractéristique. Pour simplifier les notations, on suppose d = 1. Soit α n ) n une suite décroissante vers et on définit pour tout n N : φ n u) = exp ib zνdz), u) 1 u, u) + e iu,z) 1 ) ) νdy) n 2 [ α n,α n] c où l ensemble n est défini par n = [ 1, 1] [ α n, α n ] c. Dans ce cas, φ n est la fonction caractéristique d une loi X qui est la somme d une constante, d une loi normale N, ) et d une loi de Poisson composée P λ, µ Z ) avec λ = ν[ α n, α n ] c ) et µ Z = 1 λ ν.

13 2.2. L FORMULE DE LÉVY-KHINTCHINE 13 On vérifie ensuite que φ n u) φ X u) quand n où φ X est la fonction donnée par 2.2). Pour appliquer le théorème de continuité de Lévy, il suffit de montrer que φ X est continue en. Pour cela, le seul terme nécessitant vérification est l intégrale que l on décompose en : ) e iu,z) 1 iu, z)1i { z 1} νdy) R d \{} = z 1 e iu,z) 1 iu, z) ) νdy) + z >1 e iu,z) 1 ) νdy) En utilisant les majorations e iu,z) 1 iu, z) u 2 z 2 pour z 1 et e iu,z) 1 2 pour z > 1 et les propriétés d intégrabilité de la mesure de Lévy, on peut facilement appliquer le théorème de convergence dominée et en déduire ) e iu,z) 1 iu, z)1i { z 1} νdy) R d \{} quand u. Donc φ X est bien la fonction caractéristique d une va X. On peut directement vérifier qu elle est infiniment divisible à l aide des fonctions caractéristiques. On remarque que la loi de X a été obtenue comme limite en loi d une suite de va qui sont la somme d une gaussienne et d une loi de Poisson composée indépendantes. z Le "cut-off" z1i { z 1} peut-être changé. Par exemple on peut choisir pourvu que l on 1+ z 2 modifie b en conséquence. Une fois que le choix du cut-off a été fait, le triplet correspondant b,, ν) est appelé la caractéristique de la loi X. Si X est une loi infiniment divisible, on peut donc écrire où η est de la forme ηu) = ib, u) 1 2 u, u) + φ X u) = e ηu) R d \{} La fonction η est appelé le symbole de Lévy de X. Exercice 8. Montrer que le symbole de Lévy de X vérifie où C >. u R d, ηu) C1 + u 2 ) e iu,z) 1 iu, z)1i { z 1} ) νdy). Exemple 4. Lois α-stables Une classe importante de lois infiniment divisibles est donnée par les lois ayant pour triplet caractéristique,, ν α ) où ν α dz) = C dz z d+α avec < α < 2. La loi correspondante est dite α-stable.

14 14 CHPITRE 2. PROCESSUS DE LÉVY 2.3 Processus de Lévy Soit X = X t ; t ) un processus stochastique défini sur un espace de probabilité Ω, F, IP). On dit que X est à accroissements indépendants si, pour tout n N et pour tous t 1 t n <, les variables aléatoires {X tj+1 X tj ; 1 j n 1} sont indépendantes. On dit que X est à accroissements stationnaires si, pour tous t, s >, la va X t+s X s a même loi que X t X. Définition 4. On dit que X est un processus de Lévy issu de ) si : 1) X = preque sûrement, 2) X est à accroissements indépendants et stationnaires, 3) X est stochastiquement continu : pour tout ɛ > et t : ) lim IP X t+h X t > ɛ =. h On peut remarquer que 1) et 2) implique qu il suffit de vérifier 3) pour t =. Proposition 4. Si X est un processus de Lévy, alors X t est une loi infiniment divisible pour tout t. Preuve. Pour tout n N, on peut écrire X t = n X k n t X k 1 t). k=1 n Pour conclure, on remarque ensuite que les variables {X k n t X k 1 t; 1 k n} sont iid par n indépendance et stationnarité des accroissements. Théorème 3. Si X est un processus de Lévy, alors u R d, φ Xt u) = e tηu) où η est le symbole de Lévy de X 1. Preuve. Pour u R d et t, on définit φ u t) = φ Xt u). Comme X est stochastiquement continu, l application t φ u t) est continue. De plus, comme X est un PIS, on a pour t, s : φ u t + s) = E[e iu,x t+s) ] = E[e iu,x t+s X t) ]E[e iu,xt) ] = E[e iu,xs X ) ]E[e iu,xt) ] = φ u t)φ u s). Comme φ u est continue, elle est nécessairement de la forme φ u t) = Ce ta. Or φ u ) = 1, donc C = 1, et φ u 1) = E[e iu,x 1) ] = e ηu), donc = ηu). Le résultat suit. Théorème 4. Formule de Lévy-Khintchine pour les processus de Lévy Soit X un processus de Lévy. lors il existe b R d, une matrice R d d et une mesure de Lévy ν tels que u R d, t E[e iu,xt) ] = exp t ib, u) 1 2 u, u) + ) ) ) e iu,z) 1 iu, z)1i { z 1} νdy). 2.2) R d \{}

15 2.3. PROCESSUS DE LÉVY 15 Exercice 9. Montrer que la somme de 2 processus de Lévy indépendants est encore un processus de Lévy. Proposition 5. Si X = X t ; t ) est un processus stochastique et s il existe une suite X n = Xt n ; t ) ) de processus de Lévy telle que : n 1) X n t converge en probabilité vers X t pour tout t, 2) pour tout ɛ >, lim n lim sup t IP X n t X t > ɛ ) =, alors X est un processus de Lévy. Preuve. On a X = ps car on peut trouver une sous-suite de X n ) n qui converge presque sûrement vers X. Pour s, t, on a : E[e iu,x t+s X t) ] = lim n E[e iu,xn t+s Xn t ) ] = lim n E[e iu,xn s X n ) ] = E[e iu,xs X ) ]. On prouve de la même façon l indépendance des accroissements. d où Il reste à montrer que X est stochastiquement continu. Soit ɛ >. On a pour t lim sup t IP X t > ɛ) IP X t X n t > ɛ 2 ) + IP Xn t > ɛ 2 ) IP X t > ɛ) lim sup IP X t Xt n > ɛ t 2 lim sup IP X t Xt n > ɛ t 2 ) Pour conclure, il suffit de prendre la limite en n et d utiliser le 2. ) + lim sup IP X t n > ɛ t 2 ) Exemple 5. Mouvement brownien. Tout mouvement brownien B = B t ; t ) est un processus de Lévy. On a : E[e iu,bt) ] = e tib,u) t 2 u,u). Exemple 6. Processus de Poisson Le processus de Poisson N d intensité λ est un processus de Lévy. Pour tout t, la loi de N t est donnée par : λt λt)k IPN t = k) = e. k! Exemple 7. Processus de Poisson composé. Soit Z n ) n une suite de va iid à valeurs dans R d de loi µ Z. Soit N un processus de Poisson d intensité λ, indépendant de la suite Z n ) n. Le processus de Poisson composé Y est défini par : N t Y t = Z k. k=1 Pour tout t, on a Y P Cλt, µ Z ). C est un processus de Lévy. Son symbole de Lévy est donnée par : ηu) = e iu,z) 1)λµ Z dz). R d /{} C est un processus dont les trajectoires sont constantes par morceaux. Les discontinuités sont données par les instants de sauts du processus de Poisson N, tandis que la loi des sauts est µ Z. C est un processus très utilisé dans les risques d assurances.

16 16 CHPITRE 2. PROCESSUS DE LÉVY Exemple 8. Processus de Lévy stables rotationnellement invariants. Ce sont les processus de Lévy ayant pour symbole ηu) = σ α u α pour un < α 2 appelé indice de stabilité et σ >. Une des raisons de leur importance est qu ils présentent des propriétés d auto-similarité : les processus Y ct) ; t ) et c 1/α Y t ; t ) ont même loi Modifications des processus de Lévy Dans ce qui suit, on dira qu une filtration F t ) t satisfait les hypothèses usuelles si elle est complète ie F contient tous les évènements de probabilité nulle) et si elle est continue à droite, ie F t = F t+ où F t+ = s>t F s. Dans la suite, si X est un processus de Lévy alors F X désigne la filtration naturelle complète engendrée par le processus X. Proposition 6. Si X est un processus de Lévy avec symbole η, alors pour tout u R d, M u = M u t); t ) est une martingale complexe) par rapport à F X, où M u t) = exp iu, X t ) tηu) ). Théorème 5. Tout processus de Lévy admet une modification càdlàg, qui est encore un processus de Lévy avec les mêmes caractéristiques. On ne considèrera maintenant que des processus de Lévy càdlàg. Leur filtration naturelle satisfait alors les hypothèses usuelles Propriété de Markov forte Théorème 6. Propriété de Markov forte. Si X est un processus de Lévy et si τ est un temps d arrêt adapté à la filtration F X, alors, sur {τ < + } 1) le processus X τ = X t+τ X τ ; t ) est un processus de Lévy indépendant de la tribu F X τ, 2) pour tout t, X τ t a même loi que X t, 3) X τ est à trajectoires càdlàg et est F τ+t adapté. Preuve. On fait la preuve dans le cas où τ est borné. Soit F τ et n N. Pour 1 j n, on considère u j R d et = t t 1 t n et les martingales M uj t) = exp iu j, X t ) tηu j ) ). On a : [ E 1I exp i n )] u j, Xt τ j Xt τ j 1 ) j=1 [ = E 1I exp i n )] u j, X τ+tj X τ+tj 1 ) j=1 n M uj τ + t j ) = E [1I M uj τ + t j 1 ) j=1 n j=1 ] φ tj t j 1 u j )

17 2.4. SUBORDINTEURS 17 où φ u t) = E[e iu,xt) ]. On remarque que pour < a < b < + M uj τ + b) ] E [1I M uj τ + a) [ 1 ] = E 1I M uj τ + a) E[M u j τ + b) F τ+a ] = IP). En répétant cet argument dans la première égalité, on obtient : [ E 1I exp i n )] u j, Xt τ j Xt τ j 1 ) = IP) j=1 En particulier, pour n = 1 et u 1 = u et t 1 = t, on obtient d où 2. E[e iu,xτ t ] = E[e iu,x t) ] n φ tj t j 1 u j ). 2.3) La formule 2.3) permet facilement de vérifier que X τ est un processus de Lévy. Pour la continuité stochastique, ça résulte de E[e iu,xτ t ] = E[e iu,x t) ] en faisant tendre t vers. 2.3) permet aussi de voir que X τ est indépendant de F τ. l aide de la propriété de Markov forte, on peut montrer exercice) Théorème 7. Si X est un processus de Lévy à valeurs réelles, croissant presque sûrement) et ne faisant que des sauts de taille 1, alors X est un processus de Poisson. Théorème 8. Si X est un processus de Lévy càdlàg à valeurs réelles, presque sûrement à trajectoires constantes par morceaux, alors X est un processus de Poisson composé. La réciproque est trivialement vraie. Preuve. Soit N t = #{ s t; X s X s }. Comme X est à trajectoires constantes par morceaux, N est fini pour tout t fini. C est donc un processus de comptage. De plus N t N s = #{s < r t; X r X r } = #{s < r t; X r X s X r X s }. On en déduit que N a des accroissements indépendants et stationnaires. C est donc un processus de Poisson. Soit T n ) n la suite de ses temps d arrivées. On définit Z n = X Tn X Tn. Il ne reste plus qu à montrer que les Z n ) n sont iid. Comme X est à trajectoires constantes par morceaux, on a Z n = X Tn X Tn 1. Or si l on applique la propriété de Markov forte, il est facile de voir que les Z n ) n sont iid. Par exemple, on montre qu ils ont même loi. Soit n N. D après la propriété de Markov forte, le processus X t+tn 1 X ttn 1 : t } est un processus de Lévy ayant même loi que le processus X, et est indépendant de F Tn 1. On en déduit IPZ n ) = IPX Tn X Tn 1 ) = IPX T1 X ) = IPZ 1 ). L indépendance se montre de la même façon. j=1 2.4 Subordinateurs Un subordinateur est un processus de Lévy 1-dimensionnel qui est presque sûrement croissant. Ils sont utilisés, entr autres, pour modéliser des évolutions aléatoires du temps.

18 18 CHPITRE 2. PROCESSUS DE LÉVY Théorème 9. Si le processus de Lévy T est un subordinateur, alors son symbole de Lévy est de la forme : ηu) = ibu + où b et la mesure de Lévy ν satisfait : ν], [) = et + e iuz 1)νdz), 1 z)νdz) < +. Réciproquement, toute application de la forme ci-dessus est le symbole de Lévy d un subordinateur. La paire b, ν) est appelée la caractéristique du subordinateur T. Remarque : pour tout t, l application z E[e ztt ] est analytique sur la région {z; Rz) }. On obtient donc l expression suivante pour la transformée de Laplace d un subordinateur : où E[e utt ] = e tψu) ψu) = ηiu) = bu + 1 e uz )νdz). Exemple 9. Processus de Poisson. Le processus de Poisson est clairement un subordinateur. Plus généralement, un processus de Poisson composé est un subordinateur si et seulement si la suite Z n ) n est constituée de va à valeurs dans R +. Exemple 1. Subordinateurs α-stables. Pour < α < 1 et u, en utilisant la relation u α = α Γ1 α) 1 e uz ) dz z 1+α, on voit qu il existe un subordinateur, appelé α-stable avec exposant de Laplace donné par ψu) = u α. Les caractéristiques de T sont, ν) avec νdz) = α dz. Γ1 α) z 1+α Exemple 11. Subordinateurs inverses gaussiens. Pour tout t, on définit C t = γt + B t où γ R et B est un mouvement brownien. Le subordinateur inverse gaussien est défini par δ > ) : T t = {s > ; C s = δt}. On l appelle ainsi car t T t est l inverse généralisé d un processus gaussien. On peut montrer que E[e utt ] = exp tδ 2u + γ2 γ )). En inversant, cette formule on peut montrer que T t a une densité donnée par : pour tous s, t. f Tt s) = δt e δtγ s 3/2 exp 1 2π 2 t2 δ 2 s 1 + γ 2 s) )

19 2.4. SUBORDINTEURS 19 Exemple 12. Gamma subordinateur. Soit T un subordinateur ayant pour transformée de Laplace a, b > ) E[e utt ] = 1 + u ) at u = exp ta ln1 + b b )). Il admet pour densité f Tt x) = bat Γat) xat 1 e bx 1I x et est appelé gamma subordinateur. Pour voir que c est un subordinateur, il suffit d établir ψu) = a ln1 + u b ) = 1 e uz )az 1 e bz dz. Soit X un processus de Lévy et T un subordinateur définis sur le même espace de probabilité. On suppose que X et Z sont indépendants. On définit un nouveau processus Z par la formule Z t = X Tt pour t. Théorème 1. Z est un processus de Lévy ayant pour symbole η Z = ψ T η X ). Preuve. Il est clair que Z = presque sûrement. Commençons par montrer que Z est à accroissements stationaires. Soit t 1 < t 2 et écrivons P t1,t 2 pour désigner la loi jointe de T t1, T t2 ) : IPZ t2 Z t1 ) =IPX Tt2 X Tt1 ) = IPX s2 X s2 ) P t1,t 2 ds 1, ds 2 ) = = =IPZ t2 t 1 ). IPX s2 s 1 ) P t1,t 2 ds 1, ds 2 ) IPX u ) P,t2 t 1 u) L indépendance des accroissements s obtient par un raisonnement similaire, c est à dire en conditionnant par rapport à la loi de T. Pour montrer la continuité stochastique, on fixe a > et ɛ >. On peut trouver δ > tel que et δ > tel que On a donc pour < h < δ : < h < δ IP X h > a) ɛ/2 < h < δ IP T h > δ) ɛ/2. IP Zh) > a) =IP X Th > a) = IP X u > a)p Th du) δ = IP X u > a)p Th du) + IP X u > a)p Th du) δ sup IP X u > a) + IP T h > δ) u δ ɛ/2 + ɛ/2 = ɛ.

20 2 CHPITRE 2. PROCESSUS DE LÉVY Finalement : E[e iu,zt) ] =E[e iu,x T t ) ] = = E[e iu,xs) ]P Tt ds) e sη Xu) P Tt ds) = E[e Tt η Xu)) ] =e tψ T η X u)).

21 Chapitre 3 Décomposition d Itô-Lévy 3.1 Sauts des processus de Lévy Si X est un processus de Lévy, on définit le processus de sauts associé X = X t ; t ) avec X t = X t X t. C est clairement un processus adapté mais ce n est pas, en général, un processus de Lévy. Proposition 7. Si X est un processus de Lévy alors, pour chaque t on a X t = presque sûrement. Preuve. Soit t n ) n une suite croissante de nombres réels positifs tels que t n t lorsque n. Comme X est càdlàg, on a lim n X tn = X t presque sûrement. Comme X est stochastiquement continu, on a lim n X tn = X t en probabilité, donc X t = X t presque sûrement. Remarque : par contre et en général, presque sûrement le processus X n est pas nul. De plus, le résultat précédent n est en aucun cas valide si l on remplace t par un temps d arrêt. La difficulté quand on manipule des processus de Lévy est qu il est tout à fait possible d avoir simultanément X s = presque sûrement et s t s t X s 2 < presque sûrement. Exercice 1. Montrer que l on a s t X s < si X est un processus de Poisson composé. Une façon d aborder les sauts d un processus de Lévy est de compter les sauts d une taille prescrite. Définition 5. Soit t et BR d /{}). On définit la quantité aléatoire Nt, ) = #{ s t; X s } = 21 s t 1I X s ).

22 22 CHPITRE 3. DÉCOMPOSITION D ITÔ-LÉVY Pour tout ω, la fonction d ensembles Nt, )ω) est une mesure de comptage sur BR d /{}). insi E[Nt, )] est une mesure borélienne sur BR d /{}). n notera µ ) = E[N1, )] appelé mesure d intensité du processus X. On dira également que l ensemble est borné inférieurement si Ā. Lemme 1. Si est borné inférieurement et borélien, alors Nt, ) < presque sûrement. Preuve. On définit une suite de temps d arrêt τ n ) n par τ = et τ n = inf{t > τ n 1; X t }. Comme X est càdlàg, on a τ 1 > presque sûrement et lim n τ n = presque sûrement. En effet, dans le cas contraire, la suite τ n ) n aurait un point d accumulation. Ceci est incompatible avec le fait que X soit càdlàg exo). insi pour tout t Nt, ) = n 1 1I τ n t <. Théorème 11. Si est borné inférieurement, alors le processus Nt, ); t ) est un processus de Poisson d intensité µ). De plus si 1,..., m BR d /{}) sont disjoints alors les variables aléatoires Nt, 1 ),..., Nt, m ) sont indépendantes. Preuve. t Nt, ) est clairement un processus croissant ne faisant que des sauts de taille 1. Si l on montre que c est un processus de Lévy, alors le théorème 7 permettra de conclure que c est un processus de Poisson. La stationnarité et l indépendance des acroissements résulte du fait que, pour tout n, l ensemble {Nt, ) Ns, ) = n} appartient à la tribu engendrée par σx r X u ; s u < r t). Montrons que Nt, ) est stochastiquement continu. Pour tout t, on a IPNt, ) 1) = IPτ t) où τ est le premier instant de saut de taille du processus X. Comme X est càdlàg, on a τ > presque sûrement donc lim t IPτ t) =. D où lim IPNt, ) = ) = 1. t On va montrer que si et B sont disjoints et bornés inférieurement, alors les processus Nt, )) t et Nt, B)) t sont indépendants. La démonstration se généralise à un nombre fini quelconque d ensembles disjoints. Soit u, v R. D où Si u = v, alors t Nt, B) est un processus de Poisson d intensité µ B) = E[Nt, B)] = E[Nt, )] + E[Nt, B)] = µ) + µb). E[e iunt,)+ivnt,b) ] = E[e iunt, B) ] = e tµ B)eiu 1) = E[e iunt,) ]E[e ivnt,b) ].

23 3.2. MESURES LÉTOIRES DE POISSON 23 Si u v. On pose X t = unt, ) + vnt, B). Comme précédemment, on montre que c est un processus de Lévy. De plus il est à trajectoires constantes par morceaux. D après le théorème8, c est un processus de Poisson composé : N t X t = Z k. k=1 Les temps de sauts de X sont ceux du processus Nt, B). N est donc un processus de Poisson d intensité µ) + µb). La loi Z des sauts ne peut prendre que 2 valeurs u ou v. De plus N t Nt, ) = k=1 1I {Zk =u}. En prenant l espérance, on en déduit tµ) = µ) + µb))ipz k = u). De même tµb) = µ) + µb))ipz k = v). E[e iunt,)+ivnt,b) ] = exp tµ) + µb)) e iu,z) 1)µ Z dz) ) = E[e iunt,) ]E[e ivnt,b) ]. On en déduit facilement l indépendance annoncée à l aide des fonctions caractéristiques. Le même argument s applique aux cas de plusieurs ensembles disjoints. En fait, les arguments de la preuve permettent également de montrer que les processus de Poisson N, ) et N, B) sont indépendants. 3.2 Mesures aléatoires de Poisson Soit S, ) un espace mesurable et Ω, F, IP) un espace probabilisé. Définition 6. Soit µ une mesure σ finie sur S, ). Une mesure aléatoire de Poisson N sur S, ) est est une collection de variables aléatoires MB); B ) telle que : 1) pour tout B tel que µb) < +, NB) suit une loi de Poisson de paramètre µb), 2) si 1,..., m sont des ensembles disjoints de, les variables aléatoires N 1 ),..., N m ) sont indépendantes, 3) pour tout ω Ω, l application N, ω) est une mesure de comptage sur S, ). Nous avons vu que si X est un processus de Lévy alors la quantité N[, t] ) = #{ s t; X s } est une mesure aléatoire de Poisson sur R + R d /{}) d intensité dt dµ avec µ ) = E[N[, 1], )]. Pour t et borné inférieurement, on définit la mesure aléatoire de Poisson compensée Ñ par : Ñt, ) = Nt, ) tµ). Remarque : Il est clair que Nt, ) est un raccourci de notation pour écrire N[, t] ).

24 24 CHPITRE 3. DÉCOMPOSITION D ITÔ-LÉVY 3.3 Intégration de Poisson Soit N une mesure aléatoire de Poisson d intensité dt µ sur R + R d /{}). Si f : R d R n est une fonction Borel-mesurable et si BR d /{}) vérifie µ) < +, on définit pour tout t et ω Ω l intégrale de Poisson de f par fz) Nt, dz) = fz)nt, {z}). z On remarque que la définition ci-dessus ne pose pas de problème car la somme est une somme aléatoire finie. Si N est associée à un processus de Lévy, cette intégrale coïncide avec fz) Nt, dz) = f X s )1I X s ) s t car Nt, {z}) = #{ s t; X s = {z}}. De plus, le processus t fz) Nt, dz) est un processus stochastique adapté et càdlàg. On remarque aussi que si µ est une mesure de Lévy alors Ā µ) < + de sorte que fz) Nt, dz) est bien défini dès lors que est borné inférieurement. On supposera désormais que N est associée à un processus de Lévy. Théorème 12. Soit un ensemble borélien borné inférieurement. lors : 1) pour tout t, fz) Nt, dz) suit une loi de Poisson composée caractérisée par : [ )] ) E exp iu, fz) Nt, dz)) = exp t e iu,fz)) 1)µdz). 2) si f L 1, µ) on a : 3) si f L 2, µ) on a : Var [ ] E fz) Nt, dz) = t fz)µdz). fz) Nt, dz) ) = t fz) 2 µdz). Preuve. Si f est une fonction étagée de la forme fz) = n j=1 c j1i j avec c j R n pour tout j et les j boréliens et disjoints. On a [ E exp iu, )] fz) Nt, dz)) [ = E exp iu, j = j )] c j Nt, j )) [ )] E exp iu, c j )Nt, j ) = exp t exp iu,cj) 1 ) ) µ j ) j = exp t exp iu,fz)) 1 ) µdz)).

25 3.4. DÉCOMPOSITION D ITÔ-LÉVY 25 Le résultat général suit par approximation par des fonctions étagées. 2) et 3) résulte de 1) par différentiation. Corollaire 1. Soit un ensemble borélien borné inférieurement. Le processus t fz) Nt, dz) est un processus de Poisson composé. Preuve. en exercice. Il faut calculer [ ] E exp iu, fz) Nt, dz)) ) F s en utilisant le théorème précédent pour en déduire que c est un processus à accroissements indépendants et stationnaires. La continuité stochastique se déduit de celle de N. Pour tout f L 1, µ) on définit l intégrale de Poisson compensée fz)ñt, dz) = fz)nt, dz) t fz)µdz). Le processus t fz)ñt, dz) est une martingale càdlàg. Daprès le théorème 12, on a : [ )] E exp iu, fz) Ñt, dz)) = exp t e iu,fz)) 1 iu, fz)) ) µdz)). De plus, si f L 2, µ) on a : E fz) Ñt, dz) 2) = t fz) 2 µdz). Proposition 8. Si, B sont bornés inférieurement et si f L 2, µ), g L 2 B, µ), on a : fz) Ñt, dz), gz) Ñt, dz) = t fz)gz)µdz). 3.4 Décomposition d Itô-Lévy B Théorème 13. Décomposition d Itô-Lévy. Si X est un processus de Lévy alors il existe b R d, un mouvement brownien B, une matrice de covariance R d d et une mesure aléatoire de Poisson indépendante N on R + R d /{}), dont l intensité est une mesure de Lévy ν, tels que, pour tous t : X t = bt + 1/2 B t + z Ñt, dz) + znt, dz). 3.1) Preuve. admis. z <1 Le processus t z Ñt, dz) est la somme compensée des petits sauts. C est une martingale càdlàg de carré intégrable. Le processus t znt, dz) représente les grands sauts du z <1 z 1 processus de Lévy. C est un processus de Poisson composé. B z 1 En fait, la preuve de la décomposition d Itô-Lévy permet eussi de montrer

26 26 CHPITRE 3. DÉCOMPOSITION D ITÔ-LÉVY Proposition 9. Si le "cutoff" est fixé, le triplet caractéristique b,, ν) d un processus de Lévy est unique. Exercice 11. En déduire qu un processus de Lévy X satisfait s 2 < + presque sûrement. s t

27 Chapitre 4 Intégration stochastique 4.1 Classe d intégrands Soit Ω, F, IP) un espace probabilisé muni d une filtration F t ) t satisfaisant les hypothèses usuelles. Définition 7. Soit S, ) un espace mesuré et µ une mesure σ finie sur R + S, BR + ) ). Une F t -mesure aléatoire de Poisson N sur R + S, BR + ) ) est une collection de variables aléatoires MB); B BR + ) ) telle que : 1) pour tout B BR + ) tel que µb) < +, NB) suit une loi de Poisson de paramètre µb), 2) si 1,..., m sont des ensembles disjoints de, les variables aléatoires N 1 ),..., N m ) sont indépendantes, 3) pour tout ω Ω, l application N, ω) est une mesure sur S, ). 4) Pour tout s < t et, la variable Ns, t], ) est indépendante de la tribu F s. En particulier, toute mesure de Poisson sur R + S, BR + ) ) est adaptée par rapport à sa filtration naurelle complétée. Dans la suite, nous considérons N une F t -mesure aléatoire de Poisson sur R + BR d /{}) d intensité dt dν, où ν est une mesure de Lévy. Soit Ñ sa mesure aléatoire de Poisson compensée. Soit E un borélien de R d et < T < +. Soit P la plus petite tribu engendrée par toutes les applications F : [, T ] E Ω R satisfaisant les conditions suivantes : 1) pour tout t T, l application z, ω) F t, z, ω) est BR d /{}) F t -mesurable, 2) pour tout z R s /{} et ω Ω, l application t F t, z, ω) est continue à gauche. P est appelée la tribu prévisible et tout processus P mesurable est dit prévisible. On peut étendre la notion ci-dessus à R + au lieu de [, T ]. On définit H 2 T, ν) comme l espace vectoriel de toutes les classes d équivalence d applications F : [, T ] E Ω R qui coïncident dt dµ dip presque sûrement, et qui satisfont : 1) F est prévisible, 27

28 28 CHPITRE 4. INTÉGRTION STOCHSTIQUE 2) T R s /{} E[ F t, z) 2 ] dt dνz) < + L espace H 2 T, ν) et naturellement muni du produit scalaire, T,ν T F, G T,ν = E[F t, z)gt, z)] dt dνz). On notera T,ν la norme associée. R s /{} Lemme 2. L espace H 2 T, ν) est un espace de Hilbert. Preuve. Il suffit de voir que c est un sous-espace fermé de L 2 [, T ] E Ω, dt dν dip). Ceci résulte simplement du fait que toute limite en mesure de processus prévisibles est prévisible. On définit ST, ν) comme le sous-ensemble de H 2 T, ν) formé de tous les processus simples. Un processus F est dit simple s il existe n, m N, des temps t 1 t 2 t m+1 = T, des boréliens disjoints 1,..., n de R s /{} tels que ν i ) < + pour tout i = 1,..., n, et des va F i t j ) F tj -mesurable 1 j m et 1 i n) tels que F = m n F i t j )1I tj,t j+1 ]1I i. j=1 i=1 Tout processus simple est continu à gauche et prévisible. Lemme 3. ST, ν) est dense dans H 2 T, ν). Preuve. en exercice. Il faut adapter les arguments utilisés pour le mouvement brownien. 4.2 Théorie L 2 Soit F un processus simple de la forme On définit alors I T F ) = T R d /{} F = m j=1 n F i t j )1I tj,t j+1 ]1I i. i=1 n,m F r, z) dñdr, dz) = i,j=1 F i t j )Ñt j, t j+1, j ) Il est direct de vérifier que l intégrale définie ci-dessus est linéaire sur ST, ν). De plus Proposition 1. Pour tout T > et F ST, ν), on a [ T ] E F r, z) dñdr, dz) = R d /{} et [ T ) 2 ] T E F r, z) dñdr, dz) = E [ F t, z) 2] dt dνz). R d /{} R d /{}

29 4.2. THÉORIE L 2 29 Preuve. Soit F un processus simple de la forme F = m n F i t j )1I tj,t j+1 ]1I i j=1 i=1 Comme t Ñt, i) est une F t -martingale centrée et que F i t j ) est F tj -mesurable, on a E[F i t j )Ñt j, t j+1, i )] = E [ E[F i t j )Ñt j, t j+1, i ) F tj ] ] = E [ F i t j )E[Ñt j, t j+1, i ) F tj ] ] = E [ F i t j )E[Ñt j, t j+1, i )] ] =. [ ] T Par linéarité on en déduit que E R F r, z) dñdr, dz) =. d /{} De même, on a pour j < j et i, i et pour j = j : E[F i t j )Ñt j, t j+1, i )F i t j )Ñt j, t j +1, i )] = E [ F i t j )Ñt j, t j+1, i )F i t j )E[Ñt j, t j +1, i ) F tj ] ] = E[F i t j )Ñt j, t j+1, i )F i t j )Ñt j, t j+1, i )] = E [ F i t j )F i t j )E[Ñt j, t j+1, i )Ñt j, t j+1, i ) F tj ] ] = E [ F i t j )F i t j )E[Ñt j, t j+1, i )Ñt j, t j+1, i )] ] = E [ F i t j ) 2] t j+1 t j )ν i )δ i,i, où δ i,i désigne le symbole de Kroenecker. En sommant sur les valeurs de i, i et j, j et en utlisant les deux égalités ci-dessus on obtient : [ T E ) 2 ] F r, z) dñdr, dz) R d /{} n = m E[F i t j )Ñt j, t j+1, i )F i t )Ñt j j, t j +1, i )] = = i,i =1 j,j =1 n i=1 j=1 T m E [ F i t j ) 2] t j+1 t j )ν i ) R d /{} E [ F t, z) 2] dt dνz). On en déduit que l application I T : ST, ν) H 2 T, ν) est une isométrie linéaire, qui se prolonge donc à H 2 T, ν) tout entier. Ce prolongement sera encore noté I T. Par densité de ST, ν) dans H 2 T, ν), il vérifie :

30 3 CHPITRE 4. INTÉGRTION STOCHSTIQUE Théorème 14. L intégrale stochastique I T satisfait les propriétés suivantes : 1) F, G H 2 T, ν) et α, β R, I T αf + βg) = αi T F ) + βi T G), 2) F H 2 T, ν), E[I T F )] = et E [ I T F )) 2] = F T,ν, 3) F, G H 2 T, ν), E[I T F )I T G)] = F, G T,ν 4) F H 2 T, ν), le processus I t F ); t T ) est une càdlàg F t -martingale de carré intégrable. Lemme 4. Si F H 2 T, ν) et si n ) n est une suite croissante de sous-ensembles boréliens de R d /{} telle que n n = E R d /{} alors [ lim E sup n t T F r, z) Ñdr, dz) n E F r, z) Ñdr, dz) 2] =. Preuve. C est une conséquence directe de l inégalité de Doob pour les martingales et du théorème de convergence dominée. 4.3 Extension de la théorie Comme dans le cas du mouvement brownien, on peut étendre cette intégrale aux classes d équivalence de fonctions F : [, T ] R d /{}) Ω R qui sont égales dt dν dip presque sûrement qui vérifient : 1) F est prévisible, T ) 2) IP F t, R d /{} z) 2 dt νdz) < + = 1. Comme cette extension repose sur les mêmes arguments que dans le cas du mouvement brownien, nous ne détaillons pas plus ce point. 4.4 Formules d Itô Commençons par un exemple simple. On considère une intégrale stochastique de Poisson de la forme X t = X + Kr, z) Ndr, dz), 4.1) où est borné inférieurement et K est un processus prévisible à valeurs réelles. Proposition 11. Si X est une intégrale stochastique de Poisson du type 4.1) alors, pour toute fonction f CR) et tout t, on a presque sûrement : fx t ) = fx ) + [ fxr + Kr, z)) fx r ) ] Ndr, dz).

31 4.4. FORMULES D ITÔ 31 Preuve. On définit le processus de Poisson composé L t = znt, dz). Remarquons tout d abord que Nt, B) est la mesure de saut associée au processus L car L t = z zn{t} {z}) = z z1i z)n{t} {z}), donc pour z, on a 1I { Ls=z } = 1I z )N{t} {z }). On en déduit #{ s t; L s B} = = s t s t z B = s t z B 1I { Ls B} 1I { Ls=z} 1I z)n{t} {z}) = Nt, B). Une conséquence directe est que pour tout processus F H 2 T, ν), on a : F r, z) Ndr, dz) = 1I L s )F s, L s ). s t D où fx t ) fx ) = fx s ) fx s ) s t = fx s + 1I L s )Ks, L s )) fx s ) = s t fxs + Ks, z)) fx s ) ) Nds, dz). Montrons maintenant la formule d Itô-Lévy dans le cas général. Soit Ω, F, IP) un espace probabilisé muni d une filtration F t ) t satisfaisant les hypothèses usuelles. Soit B = B t ; t ) un F t -mouvement brownien standard d-dimensionnel. Soit N une F t -mesure aléatoire de Poisson sur R + BR d /{}) d intensité dt dν, où ν est une mesure de Lévy. Soit Ñ sa mesure aléatoire de Poisson compensée. Soit b : [, T ] Ω R d et σ : b : [, T ] Ω R d d des processus F t -adapté prévisible tels que T E br) 2 + σr) 2 dr < +, et H, K : [, T ] R d /{}) Ω R d des processus prévisibles tels que H H 2 T, ν). On considère le processus, pour t T X t = X + br) dr+ σr) db r + Hr, z) Ñdr, dz)+ Kr, z) Ndr, dz). z <1 z 1

32 32 CHPITRE 4. INTÉGRTION STOCHSTIQUE Théorème 15. Si X est une intégrale stochastique de type Lévy comme ci-dessus, alors, pour toute fonction f C 2 R d ) et t, on a avec probabilité 1 : fx t ) fx ) = x fx r ), br) dr + x fx r ), σr) db r Tr xxfx 2 r )σr)σr) ) dr [ f Xr + Kr, z) ) fx r ) ] Ndr, dz) z 1 z <1 z <1 [ f Xr + Hr, z) ) fx r ) ] Ñdr, dz) [ f Xr + Hr, z) ) fx r ) Hr, z), x fx r ) ] dr νdz). Preuve. On suppose, pour simplifier, que d = 1, f Cb 2 R) et H est bornée, de sorte que chaque terme est bien défini. Soit n = {z R d /{}; 1/n < z < 1} et X n t = X n + br) dr+ D après le lemme ci-dessous, σr) db r + Hr, z) Ñdr, dz)+ n x 1 Kr, z) Ndr, dz). fx n t ) fx n ) = x fx n r ), br) dr + x fx n r ), σr) db r Tr xxfx 2 r )σr)σr) n ) dr [ f X n r + Kr, z) ) fxr ) ] n Ndr, dz) z 1 [ f X n r + Hr, z) ) fxr ) ] n Ñdr, dz) n n [ f X n r + Hr, z) ) fx n r ) Hr, z), x fx n r ) ] dr νdz). Or, vu le lemme 4, on a Xt n X t en probabilité quand n. D après le lemme 4 et le théorème de convergence dominée, on en déduit que chacun des termes ci-dessus converge vers le terme voulu. Lemme 5. On considère X de la forme X t = X + br) dr + σr) db r + z a Kr, z) Ndr, dz).

33 4.4. FORMULES D ITÔ 33 lors fx t ) fx ) = x fx r ), br) dr + x fx r ), σr) db r Tr xxfx 2 r )σr)σr) ) dr [ f Xr + Kr, z) ) fx r ) ] Ndr, dz) z a Preuve. Soit L le processus de Poisson composé défini par L t = zndr, dz). On considère ses temps de sauts ou d arrivées) T n ) n. lors z a : Pour T n < t < T n+1, on a : fx t ) fx ) = = X t = X Tn + + n= + n= + + [ fxt Tn+1) fx t Tn ) ] [ fxt Tn+1) fx t Tn+1 ) ] n= [ fxt Tn+1 ) fx t Tn ) ] T n br) dr + T n σr) db r. On peut donc appliquer la formule d Itô pour le mouvement brownien, ce qui permet de traiter le cas de la deuxième somme. De plus d où + fx t Tn+1 ) fx t Tn+1 ) =fx t Tn+1 + KT n+1, L Tn+1 )) fx t Tn+1 ), [ fxt Tn+1) fx ] + [ t Tn+1 ) = fxt Tn+1 + Kt T n+1, L t Tn+1)) fx ] t Tn+1 ) n= n= = = s t [ fxs + Ks, L s )) fx s ) ] [ fxs + Ks, z)) fx s ) ] Nds, dz). Le résultat est démontré. Corollaire 2. Si X est une intégrale stochastique de type Lévy comme ci-dessus, alors presque sûrement : X t 2 < +. s T

34 34 CHPITRE 4. INTÉGRTION STOCHSTIQUE Corollaire 3. Si X est une intégrale stochastique de type Lévy comme ci-dessus, alors, pour toute fonction f C 2 R d ) et t, on a avec probabilité 1 : fx t ) fx ) = x fx r ), dx r + 1 Tr 2 xxfx 2 r )σr)σr) ) dr + ) fx r ) fx r ) X r, x fx r ) s t Théorème 16. Inégalité de Burkholder-Davies-Gundy. Soient H H 2 T, ν) à valeurs dans R d et σ : [, T ] Ω R d d tel que Soit M la martingale définie par M t = T E σr) 2 dr < +. σr) db r + R d /{} lors, pour tout p >, il existe une constante C p > telle que et 1 T E σr) 2 dr + C p t T [ E sup t T Mt ) p ] Hr, z) Ñdr, dz). M t 2 ) p/2 E [ sup t T Mt ) p ] T C p E σr) 2 dr + ) p/2. M t 2 t T

35 Chapitre 5 Changement de mesures et martingales exponentielles Soit b : [, T ] Ω R et σ : b : [, T ] Ω R des processus F t -adapté prévisible tels que T E br) 2 + σr) 2 dr < +, et H, K : [, T ] R/{}) Ω R des processus prévisibles tels que H H 2 T, ν). On considère le processus, pour t T X t = X + br) dr+ σr) db r + Hr, z) Ñdr, dz)+ Kr, z) Ndr, dz). z <1 z Exponentielle de Doleans-Dade La question est de trouver un processus adapté tel que dz t = Z t dx t. On définit l exponentielle de Doleans-Dade, pour t : On fait l hypothèse que Z t = exp X t 1 2 ) σr) 2 dr s t 1 + X s )e Xs. inf{ X t ; t > } > 1 presque sûrement. 5.1) Proposition 12. Sous l hypothèse 5.1), alors Z t < + presque sûrement. Preuve. On doit prouver que le produit infini converge. On pose 1 + X s )e Xs = t) Bt) s t 35

36 36 CHPITRE 5. CHNGEMENT DE MESURES ET MRTINGLES EXPONENTIELLES où et t) = Bt) = s t; X s 1/2 s t; X s <1/2 1 + X s )e Xs 1 + X s )e Xs. Comme X est càdlàg, #{ s t; X s 1/2} est fini presque sûrement de sorte que t) est fini presque sûrement. De plus : Bt) = exp s t ln1 + Xs ) X s ) 1I{ Xs <1/2}). Or pour y < 1/2, on a ln1 + y) y Ky 2, d où ) Bt) exp K X s 2 1I { Xs <1/2} < +. s t Théorème 17. On a dz t = Z t dx t. Preuve. Tout d abord, on remarque que Z t peut se réécrire sous la forme Z t = e St avec ds t =bt) 1 2 σ2 t))dt + σt)db t + ln1 + Kt, z))ndt, dz) z 1 + ln1 + Ht, z))ñdt, dz) + ) ln1 + Ht, z)) Ht, z) dtνdz). z <1 Pour voir cela, il suffit de voir que ln1 + X s ) X s s t = z <1 + z <1 ln1 + Hr, z)) Hr, z) Ñdr, dz) + z <1 ln1 + Hr, z)) Hr, z) νdz)dr z <1 ln1 + Kr, z)) Kr, z) Ndr, dz) Remarque : le troisième terme dans le membre de droite ci-dessus peut s expliquer de la façon suivante. Si on regarde les sauts de X, il ne sont dûs qu à la mesure de Poisson N. Donc, dans le premier terme ln1 + Hr, z)) Hr, z) Ñdr, dz), la partie qui "saute" correspond z <1 formellement à ln1 + Hr, z)) Hr, z) Ndr, dz). Pour obtenir la mesure de Poisson z <1 compensée, on a enlevé artificiellement le terme ln1 + Hr, z)) Hr, z) νdz)dr. Il est z <1 donc normal de le rajouter ensuite. Bien sûr, ceci peut se démontrer rigoureusement. Il suffit alors d appliquer la formule d Itô pour obtenir le résultat.

37 5.2. MRTINGLES EXPONENTIELLES Martingales exponentielles Le but de cette section est de déterminer des conditions qui assurent que e X est une martingale, où X a été défini en début de chapitre. Théorème 18. On suppose, de plus, que [ E z 1 ] Kr, z) νdz)dr < +. Le processus X est une martingale si et seulement si bt) + Kt, z) νdz) =, z 1 presque sûrement pour Lebesgue presque tout t. Preuve. Un sens est trivial. Montrons la réciproque et supposons que X soit une martingale. On a E[X t X s F s ] =. On en déduit d où E[ 1 h s s+h s br) dr + s E[br) + z 1 z 1 Kt, z) νdz)dr F s ] =, Kt, z) νdz) F s ] dr =. Le résultat suit en passant à la limite quand h et en utilisant le théorème de dérivation de Lebesgue. Corollaire 4. e X est une martingale si et seulement si : bt) σ2 t) + e Ht,z) 1 Ht, z) ) νdz) + z <1 presque sûrement pour Lebesgue) presque tout t. z 1 Preuve. Il suffit d appliquer la formule d Itô à e X et utiliser le théorème 4. Exemple 13. Cas brownien. On suppose que X est de la forme X t = br) dr + σr) db r. Pour que e X soit une martingale, il faut que bt) = 1 2 σ2 t), d où e Xt = exp σr) db r 1 2 ) σ 2 r) dr. e Kt,z) 1 ) νdz) =

38 38 CHPITRE 5. CHNGEMENT DE MESURES ET MRTINGLES EXPONENTIELLES Exemple 14. Cas poissonnien. On suppose que X est de la forme X t = br) dr + Kr) Ndr) où N est un processus de Poisson d intensité λ. Pour que e X soit une martingale, il faut que bt) = λe Kt) 1), d où e Xt = exp Kr) Ndr) + λ ) e Kr) 1) dr. Exercice 12. Montrer que e Y coïncide avec l exponentielle de Doleans-Dade si et seulement si Y est une intégrale brownienne. 5.3 Changement de mesures-théorème de Girsanov Si Q est une mesure de probabilité sur Ω, F, IP) muni d une filtration F t ) t satisfaisant les hypothèses habituelles), on note Q t la restriction de Q à F t. On rappelle que si Q << IP alors la famille dq t dp t est une IP-martingale. Soit e )t X une martingale exponentielle. Comme E P [e Xt ] = 1, on peut définir une mesure de probabilité Q t sur Ω, F t ) par dq t = e Xt dp t pour tout t. On fixe T >. Lemme 6. Le processus M = M t ; t T ) est une martingale sous Q si et seulement si Me X = M t e Xt ; t T ) est une martingale sous P. Preuve. Soit F s. lors E P [M t e Xt 1I ] = E Pt [M t e Xt 1I ] = E Qt [M t 1I ] = E Q [M t 1I ] = E Q [M s 1I ] = E P [M s e Xs 1I ]. L autre sens se montre de la même manière. Théorème 19. Girsanov. Soit X une intégrale de type Lévy telle que e X soit une martingale, ie X est de la forme X t = br) dr + avec la condition bt) σ2 t) + σr) db r + z <1 z <1 Hr, z) Ñdr, dz) + e Ht,z) 1 Ht, z) ) νdz) + z 1 z 1 Kr, z) Ndr, dz), e Kt,z) 1 ) νdz) = presque sûrement pour Lebesgue) presque tout t. On suppose pour simplifier que K est borné.

39 5.3. CHNGEMENT DE MESURES-THÉORÈME DE GIRSNOV 39 Pour L H 2 T, ν), on définit On définit et on suppose Finalement, on pose et pour t T. Mt) = z Lr, z) Ñdr, dz). Ur, z) = e Hr,z) 1)1I z <1 + e Kr,z) 1)1I z 1 T z 1 N t = M t e Hr,z) 1) 2 νdz)dr < +. W t = B t z σr) dr Soit Q la mesure de probabilité sur Ω, F T ) définie par Lr, z)ur, z) νdz)dr dq dip T = e X T. lors sous Q, W = W t ; t T ) est un mouvement brownien et N = N t ; t T ) est une Q-martingale. Preuve. En appliquant la formule d Itô et en utilisant le fait que e X est une martingale, on a e Xt =1 + + e X r σr) db r + z 1 z <1 e X r e Kr,z) 1) Ñdr, dz) On calcule alors le produit W t e Xt par la formule d Itô et on obtient : W t e Xt = = W r e X r σr) db r + e X r σr) dr σr)w r )e X r db r + donc W t e Xt est une martingale sous IP. z <1 z 1 e X r e Hr,z) 1) Ñdr, dz) W r e X r e Hr,z) 1) Ñdr, dz) + e X r db r W r e X r e Kr,z) 1) Ñdr, dz) + e X r σr) dr z <1 W r e X r e Hr,z) 1) Ñdr, dz) De même on pose Z t = W t ) 2 t et on montre en calculant le produit Z t e Xt que c est une martingale sous IP. Comme, W est à trajectoires continues, le théorème de Lévy et le lemme 6 assurent que W est un mouvement brownien.

40 4 CHPITRE 5. CHNGEMENT DE MESURES ET MRTINGLES EXPONENTIELLES La méthode est similaire pour N. On a : N t e Xt = = + + N r e X r σr) db r + z z 1 z <1 e X r Lr, z)ñdr, dz) N r e X r e Hr,z) 1) Ñdr, dz) z e X r Lr, z)ur, z)νdz)dr N r e X r e Kr,z) 1) Ñdr, dz) + e X r Ur, z)lr, z)νdz) dr N r e X r σr) db r + z = e X r N r Ur, z) + Lr, z)) Ñdr, dz). 5.4 Théorème de représentation des martingales Soit Ω, F, IP) un espace probabilisé, X un processus de Lévy sur Ω, F, IP) et F t ) t sa filtration naturelle complétée. Théorème 2. Représentation des martingales. Soit T > fixé. Si M = M t ; t T ) est une martingale de carré-intégrable par rapport à la filtration F t ) t alors il existe a R, un processus prévisible F : [, T ] Ω R tel que et H H 2 T, ν) tel que pour tout t T : M t = a + T E F r) 2 dr < + F r) db r + R d /{} Hr, z) Ñdr, dz). Le triplet a, F, H) est uniquement déterminé par M aux ensembles de mesure nulle près.

41 Chapitre 6 Equations différentielles stochastiques 6.1 Existence et unicité Soit Ω, F, IP) un espace probabilisé equippé d une filtration F t ) t satisfaisant les hypothèses usuelles. Soit B = B t ; t ) un mouvement brownien standard d-dimensionnel et une mesure aléatoire de Poisson N sur R + R d /{}). On suppose que B et N sont indépendants et tous deux sont F t ) t -adaptés. On note ν l intensité de N et Ñ la mesure de Poisson compensée associée. On cherche à résoudre l EDS X t =X + + bx r ) dr + z 1 σx r ) db r + GX r, z) Ndr, dz), z <1 F X r, z) Ñdr, dz) où les coefficients b : R d R d, σ : R d R d d, F, G : R d R d R d sont supposés mesurables. La condition initiale X est une variable aléatoire F -mesurable finie presque sûrement. Définition 8. Une solution à 6.1) est un processus stochastique càdlàg à valeurs dans R d, adapté et presque sûrement solution de 6.1). On dira que la solution de 6.1) est unique si, pour toutes solutions X 1 et X 2, on a IPX 1 t = X 2 t, t ) = 1. On fera les hypothèses suivantes sur les coefficients : Condition de lipschitz CL). Il existe une constante K > telle que pour tout x, x R d : bx) bx ) 2 + σx) σx ) 2 + F x, z) F x, z) 2 νdz) K x x 2. z <1 Condition de croissance CC). Il existe une constante M > telle que pour tout x R d : bx) 2 + σx) 2 + F x, z) 2 νdz) K1 + x 2 ). z <1 Condition de continuité CCO). L application x Gx, z) est continue pour tout z )

42 42 CHPITRE 6. EQUTIONS DIFFÉRENTIELLES STOCHSTIQUES Théorème 21. Sous les hypothèses CL) et CC), il existe une unique solution à l EDS 6.1). Idée de preuve. 1) on considère d abord le cas où G = et E[X 2 ] < +. Il suffit alors d utiliser la méthode du point fixe de Picard. La méthode est similaire au cas du mouvement brownien. Dans ce cas on montre que la solution vérifie E [ sup X s 2] Ct)1 + E[ X 2 ]). s t 2) si G = et E[X 2 ] = +. On définit une suite X n ) n par X n = X 1I X n. On applique le 1) pour chaque n, ce qui permet de construire une suite de processus X n solution de 6.1) avec condition initiale X n. Il est facile de voir que la suite X n ) n vérifie IPsup Xt m Xt n > δ) t quand n, m. En particulier, elle converge vers un processus adapté càdlàg X solution de 6.1). 3) Soit P le processus de Poisson composé défini pour t par P t = z 1 xndr, dz). Soit T n ) n les temps d arrivées de P. L idée est de construire, à l aide du 2), une solution X à 6.1), sur l intervalle de temps [, T 1 [, intervalle sur lequel on peut considérer que G =. Ensuite on pose X T1 = X T1 + GT 1, P T1 ) et on résoud 6.1) sur [T 1, T 2 [ avec condition initiale X T1...et ainsi de suite. Le processus X ainsi construit est une solution de 6.1). L unicité se montre de la même façon. 6.2 Propriété de Markov Théorème 22. La solution de 6.1) est un processus de Markov homogène. Preuve. Soit f une fonction bornée sur R d. Il faut montrer que E[fX t+s ) F s ] = E[fX t ) X = X s ]. Pour cela, on note X s,x t t s) la solution de 6.1) partant de x à l instant s. C est un processus σb s+u B s, N]s, s + u], ); u, BR d /))-mesurable, donc indépendant de F s, qui a même loi que X,x t s par stationnarité des accroissements du brownien et de la mesure de Poisson). Par unicité de la solution, on a presque sûrement : X s,x,x s t+s = Xt+s.,x Donc E[fX t+s ) F s ] = E[fX s,x,x s t+s ) F s ] = E[fX,X t ) X = X,x s ]

Équation de Langevin avec petites perturbations browniennes ou

Équation de Langevin avec petites perturbations browniennes ou Équation de Langevin avec petites perturbations browniennes ou alpha-stables Richard Eon sous la direction de Mihai Gradinaru Institut de Recherche Mathématique de Rennes Journées de probabilités 215,

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Ecole Nationale de la Statistique et de l Administration Economique Théorie de la Mesure et Intégration Xavier MARY 2 Table des matières I Théorie de la mesure 11 1 Algèbres et tribus de parties d un ensemble

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Commun à tous les candidats

Commun à tous les candidats EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

La mesure de Lebesgue sur la droite réelle

La mesure de Lebesgue sur la droite réelle Chapitre 1 La mesure de Lebesgue sur la droite réelle 1.1 Ensemble mesurable au sens de Lebesgue 1.1.1 Mesure extérieure Définition 1.1.1. Un intervalle est une partie convexe de R. L ensemble vide et

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Théorie de la mesure. S. Nicolay

Théorie de la mesure. S. Nicolay Théorie de la mesure S. Nicolay Année académique 2011 2012 ii Table des matières Introduction v 1 Mesures 1 1.1 Sigma-algèbres................................. 1 1.2 Mesures.....................................

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Les mathématiques de la finance Université d été de Sourdun Olivier Bardou olivier.bardou@gdfsuez.com 28 août 2012 De quoi allons nous parler? des principales hypothèses de modélisation des marchés, des

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Chapitre 7 : Intégration sur un intervalle quelconque

Chapitre 7 : Intégration sur un intervalle quelconque Universités Paris 6 et Paris 7 M1 MEEF Analyse (UE 3) 2013-2014 Chapitre 7 : Intégration sur un intervalle quelconque 1 Fonctions intégrables Définition 1 Soit I R un intervalle et soit f : I R + une fonction

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

Mesures gaussiennes et espaces de Fock

Mesures gaussiennes et espaces de Fock Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Suites numériques 3. 1 Convergence et limite d une suite

Suites numériques 3. 1 Convergence et limite d une suite Suites numériques 3 1 Convergence et limite d une suite Nous savons que les termes de certaines suites s approchent de plus en plus d une certaine valeur quand n augmente : par exemple, les nombres u n

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option

Plus en détail

Intégrale de Lebesgue

Intégrale de Lebesgue Intégrale de Lebesgue L3 Mathématiques Jean-Christophe Breton Université de Rennes 1 Septembre Décembre 2014 version du 2/12/14 Table des matières 1 Tribus (σ-algèbres) et mesures 1 1.1 Rappels ensemblistes..............................

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Université Pierre & Marie Curie (Paris 6) Licence de Mathématiques L3 UE LM364 Intégration 1 & UE LM365 Intégration 2 Année 2010 11 Théorie de la Mesure et Intégration Responsable des cours : Amaury LAMBERT

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

Approximations variationelles des EDP Notes du Cours de M2

Approximations variationelles des EDP Notes du Cours de M2 Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers

Plus en détail

Modélisation de séries financières par un modèle multifractal. Céline Azizieh

Modélisation de séries financières par un modèle multifractal. Céline Azizieh Modélisation de séries financières par un modèle multifractal Céline Azizieh Mémoire présenté à l Université Libre de Bruxelles en vue d obtenir le diplôme d actuaire Supervision: W. Breymann (RiskLab,

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v 1 1 2 t

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v 1 1 2 t 3.La méthode de Dirichlet 99 11 Le théorème de Dirichlet 3.La méthode de Dirichlet Lorsque Dirichlet, au début des années 180, découvre les travaux de Fourier, il cherche à les justifier par des méthodes

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

Calcul Stochastique pour la finance. Romuald ELIE

Calcul Stochastique pour la finance. Romuald ELIE Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis

Plus en détail

aux différences est appelé équation aux différences d ordre n en forme normale.

aux différences est appelé équation aux différences d ordre n en forme normale. MODÉLISATION ET SIMULATION EQUATIONS AUX DIFFÉRENCES (I/II) 1. Rappels théoriques : résolution d équations aux différences 1.1. Équations aux différences. Définition. Soit x k = x(k) X l état scalaire

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel Cours de gestion des risques d assurances et de théorie de la ruine Stéphane Loisel ISFA, 2005-2006 Table des matières I Modélisation de la charge sinistre : du modèle individuel au modèle collectif 5

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc Cours de Calcul stochastique Master 2IF EVRY Monique Jeanblanc Septembre 26 2 Contents 1 Généralités 7 1.1 Tribu............................................... 7 1.1.1 Définition d une tribu.................................

Plus en détail

Exercices Corrigés Premières notions sur les espaces vectoriels

Exercices Corrigés Premières notions sur les espaces vectoriels Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

Construction de l'intégrale de Lebesgue

Construction de l'intégrale de Lebesgue Université d'artois Faculté des ciences Jean Perrin Mesure et Intégration (Licence 3 Mathématiques-Informatique) Daniel Li Construction de l'intégrale de Lebesgue 10 février 2011 La construction de l'intégrale

Plus en détail

Intégration sur des espaces produits

Intégration sur des espaces produits Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2. Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2. Techniques de correction pour les options barrières 25 janvier 2007 Exercice à rendre individuellement lors

Plus en détail

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor Paramètre de longue mémoire d une série temporelle : le cas non linéaire Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor Notion de longue mémoire Les valeurs d une série temporelle X = (X l )

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10.

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. A1 Trouvez l entier positif n qui satisfait l équation suivante: Solution 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. En additionnant les termes du côté gauche de l équation en les mettant sur le même dénominateur

Plus en détail

EXERCICE 4 (7 points ) (Commun à tous les candidats)

EXERCICE 4 (7 points ) (Commun à tous les candidats) EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat

Plus en détail

MODELES DE DUREE DE VIE

MODELES DE DUREE DE VIE MODELES DE DUREE DE VIE Cours 1 : Introduction I- Contexte et définitions II- Les données III- Caractéristiques d intérêt IV- Evènements non renouvelables/renouvelables (unique/répété) I- Contexte et définitions

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

THÉORIE DE LA MESURE ET DE L INTÉGRATION.

THÉORIE DE LA MESURE ET DE L INTÉGRATION. THÉORIE DE LA MESURE ET DE L INTÉGRATION. THIERRY GALLAY Transcrit par Tancrède LEPOINT 29 UNIVERSITÉ JOSEPH FOURIER, GRENOBLE TABLE DES MATIÈRES Avant-propos Biographie sommaire...........................................

Plus en détail

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

Le produit semi-direct

Le produit semi-direct Le produit semi-direct Préparation à l agrégation de mathématiques Université de Nice - Sophia Antipolis Antoine Ducros Octobre 2007 Ce texte est consacré, comme son titre l indique, au produit semi-direct.

Plus en détail

Groupe symétrique. Chapitre II. 1 Définitions et généralités

Groupe symétrique. Chapitre II. 1 Définitions et généralités Chapitre II Groupe symétrique 1 Définitions et généralités Définition. Soient n et X l ensemble 1,..., n. On appelle permutation de X toute application bijective f : X X. On note S n l ensemble des permutations

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet

Plus en détail

Calcul intégral élémentaire en plusieurs variables

Calcul intégral élémentaire en plusieurs variables Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

Mesure et Intégration (Notes de cours de L3)

Mesure et Intégration (Notes de cours de L3) Mesure et Intégration (Notes de cours de L3) Ahmed Zeriahi Version préliminaire-octobre 2011 Avertissement : Ceci est une version préliminaire des notes du cours que l auteur a dispensé en troisème année

Plus en détail

Mesures et Intégration

Mesures et Intégration Mesures et Intégration Marc Troyanov - EPFL - Octobre 2005 30 avril 2008 Ce document contient les notes du cours de Mesure et Intégration enseigné à l EPFL par Marc Troyanov, version 2005-2006. Table des

Plus en détail

PRIME D UNE OPTION D ACHAT OU DE VENTE

PRIME D UNE OPTION D ACHAT OU DE VENTE Université Paris VII - Agrégation de Mathématiques François Delarue) PRIME D UNE OPTION D ACHAT OU DE VENTE Ce texte vise à modéliser de façon simple l évolution d un actif financier à risque, et à introduire,

Plus en détail