Processus de Lévy et calcul stochastique. Rhodes Rémi



Documents pareils
Équation de Langevin avec petites perturbations browniennes ou

3. Conditionnement P (B)

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Le modèle de Black et Scholes

Intégration et probabilités TD1 Espaces mesurés Corrigé

Calcul fonctionnel holomorphe dans les algèbres de Banach

4. Martingales à temps discret

Image d un intervalle par une fonction continue

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

3 Approximation de solutions d équations

Intégration et probabilités TD1 Espaces mesurés

Chapitre 2 Le problème de l unicité des solutions

Théorie de la Mesure et Intégration

Simulation de variables aléatoires

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Espérance conditionnelle

I. Polynômes de Tchebychev

Limites finies en un point

Processus aléatoires avec application en finance

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Commun à tous les candidats

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Texte Agrégation limitée par diffusion interne

La mesure de Lebesgue sur la droite réelle

Théorème du point fixe - Théorème de l inversion locale

Théorie de la mesure. S. Nicolay

Moments des variables aléatoires réelles

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)


Correction de l examen de la première session

Chapitre 7 : Intégration sur un intervalle quelconque

Continuité en un point

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Mesures gaussiennes et espaces de Fock

Probabilités III Introduction à l évaluation d options

Suites numériques 3. 1 Convergence et limite d une suite

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Capes Première épreuve

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

MATHS FINANCIERES. Projet OMEGA

Intégrale de Lebesgue

La fonction exponentielle

Théorie de la Mesure et Intégration

Programmes des classes préparatoires aux Grandes Ecoles

Probabilités sur un univers fini

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Calcul différentiel. Chapitre Différentiabilité

Approximations variationelles des EDP Notes du Cours de M2

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Modélisation de séries financières par un modèle multifractal. Céline Azizieh

Fonctions de plusieurs variables

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v t

Cours d Analyse. Fonctions de plusieurs variables

Continuité et dérivabilité d une fonction

Calcul Stochastique pour la finance. Romuald ELIE

aux différences est appelé équation aux différences d ordre n en forme normale.

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Développement décimal d un réel

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc

Exercices Corrigés Premières notions sur les espaces vectoriels

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

CCP PSI Mathématiques 1 : un corrigé

Méthodes de Simulation

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

MA6.06 : Mesure et Probabilités

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Résolution d équations non linéaires

Correction du Baccalauréat S Amérique du Nord mai 2007

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Continuité d une fonction de plusieurs variables

Construction de l'intégrale de Lebesgue

Intégration sur des espaces produits

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

DOCM Solutions officielles = n 2 10.

EXERCICE 4 (7 points ) (Commun à tous les candidats)

MODELES DE DUREE DE VIE

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Calcul différentiel sur R n Première partie

THÉORIE DE LA MESURE ET DE L INTÉGRATION.

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

4 Distributions particulières de probabilités

Le produit semi-direct

Groupe symétrique. Chapitre II. 1 Définitions et généralités

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Calcul intégral élémentaire en plusieurs variables

Chp. 4. Minimisation d une fonction d une variable

Mesure et Intégration (Notes de cours de L3)

Mesures et Intégration

PRIME D UNE OPTION D ACHAT OU DE VENTE

Transcription:

Processus de Lévy et calcul stochastique Rhodes Rémi 18 novembre 21

2

Table des matières 1 Quelques rappels sur les processus de Poisson 5 1.1 Processus de Poisson................................ 5 1.2 Processus de Poisson composés........................... 7 2 Processus de Lévy 11 2.1 Lois infiniment divisibles.............................. 11 2.2 La formule de Lévy-Khintchine.......................... 12 2.3 Processus de Lévy.................................. 14 2.3.1 Modifications des processus de Lévy................... 16 2.3.2 Propriété de Markov forte......................... 16 2.4 Subordinateurs................................... 17 3 Décomposition d Itô-Lévy 21 3.1 Sauts des processus de Lévy............................ 21 3.2 Mesures aléatoires de Poisson........................... 23 3.3 Intégration de Poisson................................ 24 3.4 Décomposition d Itô-Lévy............................. 25 4 Intégration stochastique 27 4.1 Classe d intégrands................................. 27 4.2 Théorie L 2...................................... 28 4.3 Extension de la théorie............................... 3 4.4 Formules d Itô................................... 3 5 Changement de mesures et martingales exponentielles 35 5.1 Exponentielle de Doleans-Dade.......................... 35 5.2 Martingales exponentielles............................. 37 3

4 TBLE DES MTIÈRES 5.3 Changement de mesures-théorème de Girsanov.................. 38 5.4 Théorème de représentation des martingales.................... 4 6 Equations différentielles stochastiques 41 6.1 Existence et unicité................................. 41 6.2 Propriété de Markov................................ 42 6.3 Formule de Feynman-Kac............................. 43 7 Quelques applications en finance 45 7.1 Probas risque neutre................................. 45 7.2 Exemples...................................... 48 7.2.1 Modèle de Merton............................. 48 7.2.2 Processus variance-gamma......................... 49 7.2.3 Modèle NIG Normal Inverse Gaussian).................. 49 7.3 Problèmes de couverture.............................. 5 7.4 Méthodes de transformées de Fourier pour le pricing d options.......... 51

Chapitre 1 Quelques rappels sur les processus de Poisson 1.1 Processus de Poisson Ces processus sont très utilisés pour modéliser des temps d arrivée aléatoires de clients, sinistres,... Définition 1. Un processus de Poisson N de paramètre λ > est un processus de comptage t, N t = n 1 1I {Tn t} 1.1) associé à une famille T n ; n N) avec T = ) de va représentant les temps d arrivées, telle que les va T n+1 T n ; n N) sont iid de loi exponentielle de paramètre λ. Proposition 1. Si N est un processus de Poisson alors 1) la somme 1.1) est presque sûrement finie pour tout t. 2) les trajectoires de N sont constantes par morceaux, avec des sauts de taille 1 seulement, 3) les trajectoires sont càdlàg, 4) t >, IPN t = N t ) = 1, 5) t >, N t suit une loi de Poisson de paramètre λt : En particulier on a : n N, λt λt)n IPN t = n) = e. n! E[N t ] = λt = Var[N t ], E[e iunt ] = exp λte iu 1) ), 6) n 1, T n une loi gamma de paramètre n, λ) de densité : f Tn x) = λt)n 1 n 1)! λe λt 1I {t>}. 7) N est à accroissements indépendants et stationnaires. 5

6 CHPITRE 1. QUELQUES RPPELS SUR LES PROCESSUS DE POISSON FIGURE 1.1 Simulation d un processus de Poisson Une définition équivalente des processus de Poisson est : Définition 2. Soit N un processus stochastique issu de ) à valeurs réelles et càdlàg. N est un processus de Poisson ssi : 1) N est un processus croissant, constant par morceaux, ne faisant que des sauts de taille 1, 2) t, s, la va N t+s N t est indépendant de la tribu engendrée par les N u ; u t), 3) t, s, la va N t+s N t a même loi que N s. On retrouve alors les va T n en les définissant comme les sauts du processus N : T =, T n = inf{t > T n 1 ; N t N Tn 1 > } pour n 1. Ce sont des temps d arrêt par rapport à la filtration naturelle du processus N. Théorème 1. Comportement asymptotique Si N est un processus de Poisson d intensité λ > alors, lorsque t tend vers + : N t t Nt ) p.s. λ et t λ t λ loi N, 1). Exercice 1. Montrer que la somme de 2 processus de Poisson indépendants est encore un processus de Poisson. Quelle est son intensité? Exercice 2. Montrer que, sachant N t = k k 1), la loi du k-uplet T 1,..., T k ) est celle d un k-échantillon de v.a. iid de loi uniforme sur [, t]. Exercice 3. Proposer un algorithme de simulation de processus de Poisson basé sur l exercice 2.

1.2. PROCESSUS DE POISSON COMPOSÉS 7 Exercice 4. Si N est un processus de Poisson d intensité λ, montrer que les lois marginales du processus P t = 1 Nt ) λ t λ convergent vers celle d un mouvement brownien standard. 1.2 Processus de Poisson composés Définition 3. Un processus de Poisson avec intensité λ > et loi de sauts ν Z est un processus stochastique défini par N t X t = Z k, k=1 où Z n ) n est une suite de va iid à valeurs dans R d de loi ν Z et N est un processus de Poisson de paramètre λ indépendant de la suite Z n ) n. En d autres mots, un processus de Poisson composé est un processus constant par morceaux qui saute aux instants de sauts d un processus de Poisson standard, et dont les tailles de sauts sont des variables i.i.d. d une loi donnée. Citons quelques exemples de phénomènes susceptibles d être décrits par des processus de Poisson composés : arrivées d avion dans un aéroport : chaque avion transporte un certain nombre de passagers, arrivées de clients aux caisses d un supermarché : chaque client dépense une certaine somme d argent, trafic routier : à chaque accident correspond un certain nombre de personnes blessées, ssurance-sinistre : à chaque sinistre est associé un coût de réparation des dégâts. Un processus de Poisson composé est clairement un processus càdlàg et constant par morceaux. Sa fonction caractéristique est donnée par : ) φ Xt u) = exp t e iu,y) 1)λν Z dy). 1.2) R d Proposition 2. Soit X un processus de Poisson composé. lors X est à accroissements indépendants et stationnaires. Exercice 5. Montrer la formule 1.2). Exercice 6. Donner une CNS pour qu un processus de Poisson composé admette un moment d ordre 1 resp. 2) et calculer ce moment. Exercice 7. Proposer un algorithme de simulation de processus de Poisson composé basé sur l exercice 2.

8 CHPITRE 1. QUELQUES RPPELS SUR LES PROCESSUS DE POISSON FIGURE 1.2 Simulation de processus de Poisson composés

1.2. PROCESSUS DE POISSON COMPOSÉS 9 FIGURE 1.3 Un processus de Poisson composé correctement renormalisé vu en "temps grand") converge en loi vers un mouvement brownien

1 CHPITRE 1. QUELQUES RPPELS SUR LES PROCESSUS DE POISSON

Chapitre 2 Processus de Lévy 2.1 Lois infiniment divisibles Soit X une variable aléatoire à valeurs dans R d de loi µ X. On dit que X est infiniment divisible si, pour tout n N, il existe des va iid Y n) 1,..., Y n n) telles que X loi = Y n) 1 + + Y n) n. Soit φ X u) = E[e iu,x) ] la fonction caractéristique de X. Proposition 3. Se valent : 1. X est infiniment divisible, 2. pour tout n, φ X a une racine n-ième qui est la fonction caractéristique d une variable aléatoire. Preuve. 1) implique 2). Il suffit de prendre la fonction caractéristique de Y n) 1. 2) implique 1). Soit Y n) 1,..., Y n) n des copies indépendantes de loi associée à φ Y telle que φ X u) = φ Y u)) n. lors il est facile de voir que à l aide des fonctions caractéristiques. X loi = Y n) 1 + + Y n) n Exemple 1. Variables gaussiennes Les lois gaussiennes sont infiniment divisibles. Exemple 2. Loi de Poisson On prend d = 1. On définit une variable X par n N, On note X P λ). On a E[X] = VarX) = λ et IPX = n) = λn n! e λ. φ X u) = e λeiu 1). On en déduit que X est infiniment divisible car φ X u) = φ Y u)) n avec Y P λ/n). 11

12 CHPITRE 2. PROCESSUS DE LÉVY Exemple 3. Loi de Poisson composée On considère une suite Z n ) n de va iid à valeurs dans R d de loi µ Z. Soit N une loi de Poisson de paramètre λ indépendante de la suite Z n ) n. On définit une variable X par N X = Z k. On a k=1 ) φ X u) = exp e iu,y) 1)λµ Z dy). R d On en déduit que X est infiniment divisible car φ X u) = φ Y u)) n avec Y P λ/n). On notera X P Cλ, µ Z ) et on remarque que φ X u) = φ Y u)) n où Y P λ/n, µ Z ). Donc X est infiniment divisible. 2.2 La formule de Lévy-Khintchine Soit ν une mesure de Borel sur R d \ {}. On dira que ν est une mesure de Lévy si 1 z 2 )νdz) < +. R d \{} C est une mesure σ-finie. C est équivalent de dire que R d \{} z 2 νdz) < +. 1 + z2 Théorème 2. Formule de Lévy-Khintchine Soit X une va à valeurs dans R d. lors X est infiniment divisible s il existe b R d, une matrice R d d et une mesure de Lévy ν tels que u R d, φ X u) = exp ib, u) 1 2 u, u) + ) ) e iu,z) 1 iu, z)1i { z 1} νdy). R d \{} 2.1) Réciproquement, toute application de la forme ci-dessus est la fonction caractéristique d une va infiniment divisible sur R d. Preuve. On ne démontre que la deuxième partie du théorème. La partie la plus difficile résultera de la décomposition d Itô-Lévy. Tout d abord, on montre que le membre de droite est une fonction caractéristique. Pour simplifier les notations, on suppose d = 1. Soit α n ) n une suite décroissante vers et on définit pour tout n N : φ n u) = exp ib zνdz), u) 1 u, u) + e iu,z) 1 ) ) νdy) n 2 [ α n,α n] c où l ensemble n est défini par n = [ 1, 1] [ α n, α n ] c. Dans ce cas, φ n est la fonction caractéristique d une loi X qui est la somme d une constante, d une loi normale N, ) et d une loi de Poisson composée P λ, µ Z ) avec λ = ν[ α n, α n ] c ) et µ Z = 1 λ ν.

2.2. L FORMULE DE LÉVY-KHINTCHINE 13 On vérifie ensuite que φ n u) φ X u) quand n où φ X est la fonction donnée par 2.2). Pour appliquer le théorème de continuité de Lévy, il suffit de montrer que φ X est continue en. Pour cela, le seul terme nécessitant vérification est l intégrale que l on décompose en : ) e iu,z) 1 iu, z)1i { z 1} νdy) R d \{} = z 1 e iu,z) 1 iu, z) ) νdy) + z >1 e iu,z) 1 ) νdy) En utilisant les majorations e iu,z) 1 iu, z) u 2 z 2 pour z 1 et e iu,z) 1 2 pour z > 1 et les propriétés d intégrabilité de la mesure de Lévy, on peut facilement appliquer le théorème de convergence dominée et en déduire ) e iu,z) 1 iu, z)1i { z 1} νdy) R d \{} quand u. Donc φ X est bien la fonction caractéristique d une va X. On peut directement vérifier qu elle est infiniment divisible à l aide des fonctions caractéristiques. On remarque que la loi de X a été obtenue comme limite en loi d une suite de va qui sont la somme d une gaussienne et d une loi de Poisson composée indépendantes. z Le "cut-off" z1i { z 1} peut-être changé. Par exemple on peut choisir pourvu que l on 1+ z 2 modifie b en conséquence. Une fois que le choix du cut-off a été fait, le triplet correspondant b,, ν) est appelé la caractéristique de la loi X. Si X est une loi infiniment divisible, on peut donc écrire où η est de la forme ηu) = ib, u) 1 2 u, u) + φ X u) = e ηu) R d \{} La fonction η est appelé le symbole de Lévy de X. Exercice 8. Montrer que le symbole de Lévy de X vérifie où C >. u R d, ηu) C1 + u 2 ) e iu,z) 1 iu, z)1i { z 1} ) νdy). Exemple 4. Lois α-stables Une classe importante de lois infiniment divisibles est donnée par les lois ayant pour triplet caractéristique,, ν α ) où ν α dz) = C dz z d+α avec < α < 2. La loi correspondante est dite α-stable.

14 CHPITRE 2. PROCESSUS DE LÉVY 2.3 Processus de Lévy Soit X = X t ; t ) un processus stochastique défini sur un espace de probabilité Ω, F, IP). On dit que X est à accroissements indépendants si, pour tout n N et pour tous t 1 t n <, les variables aléatoires {X tj+1 X tj ; 1 j n 1} sont indépendantes. On dit que X est à accroissements stationnaires si, pour tous t, s >, la va X t+s X s a même loi que X t X. Définition 4. On dit que X est un processus de Lévy issu de ) si : 1) X = preque sûrement, 2) X est à accroissements indépendants et stationnaires, 3) X est stochastiquement continu : pour tout ɛ > et t : ) lim IP X t+h X t > ɛ =. h On peut remarquer que 1) et 2) implique qu il suffit de vérifier 3) pour t =. Proposition 4. Si X est un processus de Lévy, alors X t est une loi infiniment divisible pour tout t. Preuve. Pour tout n N, on peut écrire X t = n X k n t X k 1 t). k=1 n Pour conclure, on remarque ensuite que les variables {X k n t X k 1 t; 1 k n} sont iid par n indépendance et stationnarité des accroissements. Théorème 3. Si X est un processus de Lévy, alors u R d, φ Xt u) = e tηu) où η est le symbole de Lévy de X 1. Preuve. Pour u R d et t, on définit φ u t) = φ Xt u). Comme X est stochastiquement continu, l application t φ u t) est continue. De plus, comme X est un PIS, on a pour t, s : φ u t + s) = E[e iu,x t+s) ] = E[e iu,x t+s X t) ]E[e iu,xt) ] = E[e iu,xs X ) ]E[e iu,xt) ] = φ u t)φ u s). Comme φ u est continue, elle est nécessairement de la forme φ u t) = Ce ta. Or φ u ) = 1, donc C = 1, et φ u 1) = E[e iu,x 1) ] = e ηu), donc = ηu). Le résultat suit. Théorème 4. Formule de Lévy-Khintchine pour les processus de Lévy Soit X un processus de Lévy. lors il existe b R d, une matrice R d d et une mesure de Lévy ν tels que u R d, t E[e iu,xt) ] = exp t ib, u) 1 2 u, u) + ) ) ) e iu,z) 1 iu, z)1i { z 1} νdy). 2.2) R d \{}

2.3. PROCESSUS DE LÉVY 15 Exercice 9. Montrer que la somme de 2 processus de Lévy indépendants est encore un processus de Lévy. Proposition 5. Si X = X t ; t ) est un processus stochastique et s il existe une suite X n = Xt n ; t ) ) de processus de Lévy telle que : n 1) X n t converge en probabilité vers X t pour tout t, 2) pour tout ɛ >, lim n lim sup t IP X n t X t > ɛ ) =, alors X est un processus de Lévy. Preuve. On a X = ps car on peut trouver une sous-suite de X n ) n qui converge presque sûrement vers X. Pour s, t, on a : E[e iu,x t+s X t) ] = lim n E[e iu,xn t+s Xn t ) ] = lim n E[e iu,xn s X n ) ] = E[e iu,xs X ) ]. On prouve de la même façon l indépendance des accroissements. d où Il reste à montrer que X est stochastiquement continu. Soit ɛ >. On a pour t lim sup t IP X t > ɛ) IP X t X n t > ɛ 2 ) + IP Xn t > ɛ 2 ) IP X t > ɛ) lim sup IP X t Xt n > ɛ t 2 lim sup IP X t Xt n > ɛ t 2 ) Pour conclure, il suffit de prendre la limite en n et d utiliser le 2. ) + lim sup IP X t n > ɛ t 2 ) Exemple 5. Mouvement brownien. Tout mouvement brownien B = B t ; t ) est un processus de Lévy. On a : E[e iu,bt) ] = e tib,u) t 2 u,u). Exemple 6. Processus de Poisson Le processus de Poisson N d intensité λ est un processus de Lévy. Pour tout t, la loi de N t est donnée par : λt λt)k IPN t = k) = e. k! Exemple 7. Processus de Poisson composé. Soit Z n ) n une suite de va iid à valeurs dans R d de loi µ Z. Soit N un processus de Poisson d intensité λ, indépendant de la suite Z n ) n. Le processus de Poisson composé Y est défini par : N t Y t = Z k. k=1 Pour tout t, on a Y P Cλt, µ Z ). C est un processus de Lévy. Son symbole de Lévy est donnée par : ηu) = e iu,z) 1)λµ Z dz). R d /{} C est un processus dont les trajectoires sont constantes par morceaux. Les discontinuités sont données par les instants de sauts du processus de Poisson N, tandis que la loi des sauts est µ Z. C est un processus très utilisé dans les risques d assurances.

16 CHPITRE 2. PROCESSUS DE LÉVY Exemple 8. Processus de Lévy stables rotationnellement invariants. Ce sont les processus de Lévy ayant pour symbole ηu) = σ α u α pour un < α 2 appelé indice de stabilité et σ >. Une des raisons de leur importance est qu ils présentent des propriétés d auto-similarité : les processus Y ct) ; t ) et c 1/α Y t ; t ) ont même loi. 2.3.1 Modifications des processus de Lévy Dans ce qui suit, on dira qu une filtration F t ) t satisfait les hypothèses usuelles si elle est complète ie F contient tous les évènements de probabilité nulle) et si elle est continue à droite, ie F t = F t+ où F t+ = s>t F s. Dans la suite, si X est un processus de Lévy alors F X désigne la filtration naturelle complète engendrée par le processus X. Proposition 6. Si X est un processus de Lévy avec symbole η, alors pour tout u R d, M u = M u t); t ) est une martingale complexe) par rapport à F X, où M u t) = exp iu, X t ) tηu) ). Théorème 5. Tout processus de Lévy admet une modification càdlàg, qui est encore un processus de Lévy avec les mêmes caractéristiques. On ne considèrera maintenant que des processus de Lévy càdlàg. Leur filtration naturelle satisfait alors les hypothèses usuelles. 2.3.2 Propriété de Markov forte Théorème 6. Propriété de Markov forte. Si X est un processus de Lévy et si τ est un temps d arrêt adapté à la filtration F X, alors, sur {τ < + } 1) le processus X τ = X t+τ X τ ; t ) est un processus de Lévy indépendant de la tribu F X τ, 2) pour tout t, X τ t a même loi que X t, 3) X τ est à trajectoires càdlàg et est F τ+t adapté. Preuve. On fait la preuve dans le cas où τ est borné. Soit F τ et n N. Pour 1 j n, on considère u j R d et = t t 1 t n et les martingales M uj t) = exp iu j, X t ) tηu j ) ). On a : [ E 1I exp i n )] u j, Xt τ j Xt τ j 1 ) j=1 [ = E 1I exp i n )] u j, X τ+tj X τ+tj 1 ) j=1 n M uj τ + t j ) = E [1I M uj τ + t j 1 ) j=1 n j=1 ] φ tj t j 1 u j )

2.4. SUBORDINTEURS 17 où φ u t) = E[e iu,xt) ]. On remarque que pour < a < b < + M uj τ + b) ] E [1I M uj τ + a) [ 1 ] = E 1I M uj τ + a) E[M u j τ + b) F τ+a ] = IP). En répétant cet argument dans la première égalité, on obtient : [ E 1I exp i n )] u j, Xt τ j Xt τ j 1 ) = IP) j=1 En particulier, pour n = 1 et u 1 = u et t 1 = t, on obtient d où 2. E[e iu,xτ t ] = E[e iu,x t) ] n φ tj t j 1 u j ). 2.3) La formule 2.3) permet facilement de vérifier que X τ est un processus de Lévy. Pour la continuité stochastique, ça résulte de E[e iu,xτ t ] = E[e iu,x t) ] en faisant tendre t vers. 2.3) permet aussi de voir que X τ est indépendant de F τ. l aide de la propriété de Markov forte, on peut montrer exercice) Théorème 7. Si X est un processus de Lévy à valeurs réelles, croissant presque sûrement) et ne faisant que des sauts de taille 1, alors X est un processus de Poisson. Théorème 8. Si X est un processus de Lévy càdlàg à valeurs réelles, presque sûrement à trajectoires constantes par morceaux, alors X est un processus de Poisson composé. La réciproque est trivialement vraie. Preuve. Soit N t = #{ s t; X s X s }. Comme X est à trajectoires constantes par morceaux, N est fini pour tout t fini. C est donc un processus de comptage. De plus N t N s = #{s < r t; X r X r } = #{s < r t; X r X s X r X s }. On en déduit que N a des accroissements indépendants et stationnaires. C est donc un processus de Poisson. Soit T n ) n la suite de ses temps d arrivées. On définit Z n = X Tn X Tn. Il ne reste plus qu à montrer que les Z n ) n sont iid. Comme X est à trajectoires constantes par morceaux, on a Z n = X Tn X Tn 1. Or si l on applique la propriété de Markov forte, il est facile de voir que les Z n ) n sont iid. Par exemple, on montre qu ils ont même loi. Soit n N. D après la propriété de Markov forte, le processus X t+tn 1 X ttn 1 : t } est un processus de Lévy ayant même loi que le processus X, et est indépendant de F Tn 1. On en déduit IPZ n ) = IPX Tn X Tn 1 ) = IPX T1 X ) = IPZ 1 ). L indépendance se montre de la même façon. j=1 2.4 Subordinateurs Un subordinateur est un processus de Lévy 1-dimensionnel qui est presque sûrement croissant. Ils sont utilisés, entr autres, pour modéliser des évolutions aléatoires du temps.

18 CHPITRE 2. PROCESSUS DE LÉVY Théorème 9. Si le processus de Lévy T est un subordinateur, alors son symbole de Lévy est de la forme : ηu) = ibu + où b et la mesure de Lévy ν satisfait : ν], [) = et + e iuz 1)νdz), 1 z)νdz) < +. Réciproquement, toute application de la forme ci-dessus est le symbole de Lévy d un subordinateur. La paire b, ν) est appelée la caractéristique du subordinateur T. Remarque : pour tout t, l application z E[e ztt ] est analytique sur la région {z; Rz) }. On obtient donc l expression suivante pour la transformée de Laplace d un subordinateur : où E[e utt ] = e tψu) ψu) = ηiu) = bu + 1 e uz )νdz). Exemple 9. Processus de Poisson. Le processus de Poisson est clairement un subordinateur. Plus généralement, un processus de Poisson composé est un subordinateur si et seulement si la suite Z n ) n est constituée de va à valeurs dans R +. Exemple 1. Subordinateurs α-stables. Pour < α < 1 et u, en utilisant la relation u α = α Γ1 α) 1 e uz ) dz z 1+α, on voit qu il existe un subordinateur, appelé α-stable avec exposant de Laplace donné par ψu) = u α. Les caractéristiques de T sont, ν) avec νdz) = α dz. Γ1 α) z 1+α Exemple 11. Subordinateurs inverses gaussiens. Pour tout t, on définit C t = γt + B t où γ R et B est un mouvement brownien. Le subordinateur inverse gaussien est défini par δ > ) : T t = {s > ; C s = δt}. On l appelle ainsi car t T t est l inverse généralisé d un processus gaussien. On peut montrer que E[e utt ] = exp tδ 2u + γ2 γ )). En inversant, cette formule on peut montrer que T t a une densité donnée par : pour tous s, t. f Tt s) = δt e δtγ s 3/2 exp 1 2π 2 t2 δ 2 s 1 + γ 2 s) )

2.4. SUBORDINTEURS 19 Exemple 12. Gamma subordinateur. Soit T un subordinateur ayant pour transformée de Laplace a, b > ) E[e utt ] = 1 + u ) at u = exp ta ln1 + b b )). Il admet pour densité f Tt x) = bat Γat) xat 1 e bx 1I x et est appelé gamma subordinateur. Pour voir que c est un subordinateur, il suffit d établir ψu) = a ln1 + u b ) = 1 e uz )az 1 e bz dz. Soit X un processus de Lévy et T un subordinateur définis sur le même espace de probabilité. On suppose que X et Z sont indépendants. On définit un nouveau processus Z par la formule Z t = X Tt pour t. Théorème 1. Z est un processus de Lévy ayant pour symbole η Z = ψ T η X ). Preuve. Il est clair que Z = presque sûrement. Commençons par montrer que Z est à accroissements stationaires. Soit t 1 < t 2 et écrivons P t1,t 2 pour désigner la loi jointe de T t1, T t2 ) : IPZ t2 Z t1 ) =IPX Tt2 X Tt1 ) = IPX s2 X s2 ) P t1,t 2 ds 1, ds 2 ) = = =IPZ t2 t 1 ). IPX s2 s 1 ) P t1,t 2 ds 1, ds 2 ) IPX u ) P,t2 t 1 u) L indépendance des accroissements s obtient par un raisonnement similaire, c est à dire en conditionnant par rapport à la loi de T. Pour montrer la continuité stochastique, on fixe a > et ɛ >. On peut trouver δ > tel que et δ > tel que On a donc pour < h < δ : < h < δ IP X h > a) ɛ/2 < h < δ IP T h > δ) ɛ/2. IP Zh) > a) =IP X Th > a) = IP X u > a)p Th du) δ = IP X u > a)p Th du) + IP X u > a)p Th du) δ sup IP X u > a) + IP T h > δ) u δ ɛ/2 + ɛ/2 = ɛ.

2 CHPITRE 2. PROCESSUS DE LÉVY Finalement : E[e iu,zt) ] =E[e iu,x T t ) ] = = E[e iu,xs) ]P Tt ds) e sη Xu) P Tt ds) = E[e Tt η Xu)) ] =e tψ T η X u)).

Chapitre 3 Décomposition d Itô-Lévy 3.1 Sauts des processus de Lévy Si X est un processus de Lévy, on définit le processus de sauts associé X = X t ; t ) avec X t = X t X t. C est clairement un processus adapté mais ce n est pas, en général, un processus de Lévy. Proposition 7. Si X est un processus de Lévy alors, pour chaque t on a X t = presque sûrement. Preuve. Soit t n ) n une suite croissante de nombres réels positifs tels que t n t lorsque n. Comme X est càdlàg, on a lim n X tn = X t presque sûrement. Comme X est stochastiquement continu, on a lim n X tn = X t en probabilité, donc X t = X t presque sûrement. Remarque : par contre et en général, presque sûrement le processus X n est pas nul. De plus, le résultat précédent n est en aucun cas valide si l on remplace t par un temps d arrêt. La difficulté quand on manipule des processus de Lévy est qu il est tout à fait possible d avoir simultanément X s = presque sûrement et s t s t X s 2 < presque sûrement. Exercice 1. Montrer que l on a s t X s < si X est un processus de Poisson composé. Une façon d aborder les sauts d un processus de Lévy est de compter les sauts d une taille prescrite. Définition 5. Soit t et BR d /{}). On définit la quantité aléatoire Nt, ) = #{ s t; X s } = 21 s t 1I X s ).

22 CHPITRE 3. DÉCOMPOSITION D ITÔ-LÉVY Pour tout ω, la fonction d ensembles Nt, )ω) est une mesure de comptage sur BR d /{}). insi E[Nt, )] est une mesure borélienne sur BR d /{}). n notera µ ) = E[N1, )] appelé mesure d intensité du processus X. On dira également que l ensemble est borné inférieurement si Ā. Lemme 1. Si est borné inférieurement et borélien, alors Nt, ) < presque sûrement. Preuve. On définit une suite de temps d arrêt τ n ) n par τ = et τ n = inf{t > τ n 1; X t }. Comme X est càdlàg, on a τ 1 > presque sûrement et lim n τ n = presque sûrement. En effet, dans le cas contraire, la suite τ n ) n aurait un point d accumulation. Ceci est incompatible avec le fait que X soit càdlàg exo). insi pour tout t Nt, ) = n 1 1I τ n t <. Théorème 11. Si est borné inférieurement, alors le processus Nt, ); t ) est un processus de Poisson d intensité µ). De plus si 1,..., m BR d /{}) sont disjoints alors les variables aléatoires Nt, 1 ),..., Nt, m ) sont indépendantes. Preuve. t Nt, ) est clairement un processus croissant ne faisant que des sauts de taille 1. Si l on montre que c est un processus de Lévy, alors le théorème 7 permettra de conclure que c est un processus de Poisson. La stationnarité et l indépendance des acroissements résulte du fait que, pour tout n, l ensemble {Nt, ) Ns, ) = n} appartient à la tribu engendrée par σx r X u ; s u < r t). Montrons que Nt, ) est stochastiquement continu. Pour tout t, on a IPNt, ) 1) = IPτ t) où τ est le premier instant de saut de taille du processus X. Comme X est càdlàg, on a τ > presque sûrement donc lim t IPτ t) =. D où lim IPNt, ) = ) = 1. t On va montrer que si et B sont disjoints et bornés inférieurement, alors les processus Nt, )) t et Nt, B)) t sont indépendants. La démonstration se généralise à un nombre fini quelconque d ensembles disjoints. Soit u, v R. D où Si u = v, alors t Nt, B) est un processus de Poisson d intensité µ B) = E[Nt, B)] = E[Nt, )] + E[Nt, B)] = µ) + µb). E[e iunt,)+ivnt,b) ] = E[e iunt, B) ] = e tµ B)eiu 1) = E[e iunt,) ]E[e ivnt,b) ].

3.2. MESURES LÉTOIRES DE POISSON 23 Si u v. On pose X t = unt, ) + vnt, B). Comme précédemment, on montre que c est un processus de Lévy. De plus il est à trajectoires constantes par morceaux. D après le théorème8, c est un processus de Poisson composé : N t X t = Z k. k=1 Les temps de sauts de X sont ceux du processus Nt, B). N est donc un processus de Poisson d intensité µ) + µb). La loi Z des sauts ne peut prendre que 2 valeurs u ou v. De plus N t Nt, ) = k=1 1I {Zk =u}. En prenant l espérance, on en déduit tµ) = µ) + µb))ipz k = u). De même tµb) = µ) + µb))ipz k = v). E[e iunt,)+ivnt,b) ] = exp tµ) + µb)) e iu,z) 1)µ Z dz) ) = E[e iunt,) ]E[e ivnt,b) ]. On en déduit facilement l indépendance annoncée à l aide des fonctions caractéristiques. Le même argument s applique aux cas de plusieurs ensembles disjoints. En fait, les arguments de la preuve permettent également de montrer que les processus de Poisson N, ) et N, B) sont indépendants. 3.2 Mesures aléatoires de Poisson Soit S, ) un espace mesurable et Ω, F, IP) un espace probabilisé. Définition 6. Soit µ une mesure σ finie sur S, ). Une mesure aléatoire de Poisson N sur S, ) est est une collection de variables aléatoires MB); B ) telle que : 1) pour tout B tel que µb) < +, NB) suit une loi de Poisson de paramètre µb), 2) si 1,..., m sont des ensembles disjoints de, les variables aléatoires N 1 ),..., N m ) sont indépendantes, 3) pour tout ω Ω, l application N, ω) est une mesure de comptage sur S, ). Nous avons vu que si X est un processus de Lévy alors la quantité N[, t] ) = #{ s t; X s } est une mesure aléatoire de Poisson sur R + R d /{}) d intensité dt dµ avec µ ) = E[N[, 1], )]. Pour t et borné inférieurement, on définit la mesure aléatoire de Poisson compensée Ñ par : Ñt, ) = Nt, ) tµ). Remarque : Il est clair que Nt, ) est un raccourci de notation pour écrire N[, t] ).

24 CHPITRE 3. DÉCOMPOSITION D ITÔ-LÉVY 3.3 Intégration de Poisson Soit N une mesure aléatoire de Poisson d intensité dt µ sur R + R d /{}). Si f : R d R n est une fonction Borel-mesurable et si BR d /{}) vérifie µ) < +, on définit pour tout t et ω Ω l intégrale de Poisson de f par fz) Nt, dz) = fz)nt, {z}). z On remarque que la définition ci-dessus ne pose pas de problème car la somme est une somme aléatoire finie. Si N est associée à un processus de Lévy, cette intégrale coïncide avec fz) Nt, dz) = f X s )1I X s ) s t car Nt, {z}) = #{ s t; X s = {z}}. De plus, le processus t fz) Nt, dz) est un processus stochastique adapté et càdlàg. On remarque aussi que si µ est une mesure de Lévy alors Ā µ) < + de sorte que fz) Nt, dz) est bien défini dès lors que est borné inférieurement. On supposera désormais que N est associée à un processus de Lévy. Théorème 12. Soit un ensemble borélien borné inférieurement. lors : 1) pour tout t, fz) Nt, dz) suit une loi de Poisson composée caractérisée par : [ )] ) E exp iu, fz) Nt, dz)) = exp t e iu,fz)) 1)µdz). 2) si f L 1, µ) on a : 3) si f L 2, µ) on a : Var [ ] E fz) Nt, dz) = t fz)µdz). fz) Nt, dz) ) = t fz) 2 µdz). Preuve. Si f est une fonction étagée de la forme fz) = n j=1 c j1i j avec c j R n pour tout j et les j boréliens et disjoints. On a [ E exp iu, )] fz) Nt, dz)) [ = E exp iu, j = j )] c j Nt, j )) [ )] E exp iu, c j )Nt, j ) = exp t exp iu,cj) 1 ) ) µ j ) j = exp t exp iu,fz)) 1 ) µdz)).

3.4. DÉCOMPOSITION D ITÔ-LÉVY 25 Le résultat général suit par approximation par des fonctions étagées. 2) et 3) résulte de 1) par différentiation. Corollaire 1. Soit un ensemble borélien borné inférieurement. Le processus t fz) Nt, dz) est un processus de Poisson composé. Preuve. en exercice. Il faut calculer [ ] E exp iu, fz) Nt, dz)) ) F s en utilisant le théorème précédent pour en déduire que c est un processus à accroissements indépendants et stationnaires. La continuité stochastique se déduit de celle de N. Pour tout f L 1, µ) on définit l intégrale de Poisson compensée fz)ñt, dz) = fz)nt, dz) t fz)µdz). Le processus t fz)ñt, dz) est une martingale càdlàg. Daprès le théorème 12, on a : [ )] E exp iu, fz) Ñt, dz)) = exp t e iu,fz)) 1 iu, fz)) ) µdz)). De plus, si f L 2, µ) on a : E fz) Ñt, dz) 2) = t fz) 2 µdz). Proposition 8. Si, B sont bornés inférieurement et si f L 2, µ), g L 2 B, µ), on a : fz) Ñt, dz), gz) Ñt, dz) = t fz)gz)µdz). 3.4 Décomposition d Itô-Lévy B Théorème 13. Décomposition d Itô-Lévy. Si X est un processus de Lévy alors il existe b R d, un mouvement brownien B, une matrice de covariance R d d et une mesure aléatoire de Poisson indépendante N on R + R d /{}), dont l intensité est une mesure de Lévy ν, tels que, pour tous t : X t = bt + 1/2 B t + z Ñt, dz) + znt, dz). 3.1) Preuve. admis. z <1 Le processus t z Ñt, dz) est la somme compensée des petits sauts. C est une martingale càdlàg de carré intégrable. Le processus t znt, dz) représente les grands sauts du z <1 z 1 processus de Lévy. C est un processus de Poisson composé. B z 1 En fait, la preuve de la décomposition d Itô-Lévy permet eussi de montrer

26 CHPITRE 3. DÉCOMPOSITION D ITÔ-LÉVY Proposition 9. Si le "cutoff" est fixé, le triplet caractéristique b,, ν) d un processus de Lévy est unique. Exercice 11. En déduire qu un processus de Lévy X satisfait s 2 < + presque sûrement. s t

Chapitre 4 Intégration stochastique 4.1 Classe d intégrands Soit Ω, F, IP) un espace probabilisé muni d une filtration F t ) t satisfaisant les hypothèses usuelles. Définition 7. Soit S, ) un espace mesuré et µ une mesure σ finie sur R + S, BR + ) ). Une F t -mesure aléatoire de Poisson N sur R + S, BR + ) ) est une collection de variables aléatoires MB); B BR + ) ) telle que : 1) pour tout B BR + ) tel que µb) < +, NB) suit une loi de Poisson de paramètre µb), 2) si 1,..., m sont des ensembles disjoints de, les variables aléatoires N 1 ),..., N m ) sont indépendantes, 3) pour tout ω Ω, l application N, ω) est une mesure sur S, ). 4) Pour tout s < t et, la variable Ns, t], ) est indépendante de la tribu F s. En particulier, toute mesure de Poisson sur R + S, BR + ) ) est adaptée par rapport à sa filtration naurelle complétée. Dans la suite, nous considérons N une F t -mesure aléatoire de Poisson sur R + BR d /{}) d intensité dt dν, où ν est une mesure de Lévy. Soit Ñ sa mesure aléatoire de Poisson compensée. Soit E un borélien de R d et < T < +. Soit P la plus petite tribu engendrée par toutes les applications F : [, T ] E Ω R satisfaisant les conditions suivantes : 1) pour tout t T, l application z, ω) F t, z, ω) est BR d /{}) F t -mesurable, 2) pour tout z R s /{} et ω Ω, l application t F t, z, ω) est continue à gauche. P est appelée la tribu prévisible et tout processus P mesurable est dit prévisible. On peut étendre la notion ci-dessus à R + au lieu de [, T ]. On définit H 2 T, ν) comme l espace vectoriel de toutes les classes d équivalence d applications F : [, T ] E Ω R qui coïncident dt dµ dip presque sûrement, et qui satisfont : 1) F est prévisible, 27

28 CHPITRE 4. INTÉGRTION STOCHSTIQUE 2) T R s /{} E[ F t, z) 2 ] dt dνz) < + L espace H 2 T, ν) et naturellement muni du produit scalaire, T,ν T F, G T,ν = E[F t, z)gt, z)] dt dνz). On notera T,ν la norme associée. R s /{} Lemme 2. L espace H 2 T, ν) est un espace de Hilbert. Preuve. Il suffit de voir que c est un sous-espace fermé de L 2 [, T ] E Ω, dt dν dip). Ceci résulte simplement du fait que toute limite en mesure de processus prévisibles est prévisible. On définit ST, ν) comme le sous-ensemble de H 2 T, ν) formé de tous les processus simples. Un processus F est dit simple s il existe n, m N, des temps t 1 t 2 t m+1 = T, des boréliens disjoints 1,..., n de R s /{} tels que ν i ) < + pour tout i = 1,..., n, et des va F i t j ) F tj -mesurable 1 j m et 1 i n) tels que F = m n F i t j )1I tj,t j+1 ]1I i. j=1 i=1 Tout processus simple est continu à gauche et prévisible. Lemme 3. ST, ν) est dense dans H 2 T, ν). Preuve. en exercice. Il faut adapter les arguments utilisés pour le mouvement brownien. 4.2 Théorie L 2 Soit F un processus simple de la forme On définit alors I T F ) = T R d /{} F = m j=1 n F i t j )1I tj,t j+1 ]1I i. i=1 n,m F r, z) dñdr, dz) = i,j=1 F i t j )Ñt j, t j+1, j ) Il est direct de vérifier que l intégrale définie ci-dessus est linéaire sur ST, ν). De plus Proposition 1. Pour tout T > et F ST, ν), on a [ T ] E F r, z) dñdr, dz) = R d /{} et [ T ) 2 ] T E F r, z) dñdr, dz) = E [ F t, z) 2] dt dνz). R d /{} R d /{}

4.2. THÉORIE L 2 29 Preuve. Soit F un processus simple de la forme F = m n F i t j )1I tj,t j+1 ]1I i j=1 i=1 Comme t Ñt, i) est une F t -martingale centrée et que F i t j ) est F tj -mesurable, on a E[F i t j )Ñt j, t j+1, i )] = E [ E[F i t j )Ñt j, t j+1, i ) F tj ] ] = E [ F i t j )E[Ñt j, t j+1, i ) F tj ] ] = E [ F i t j )E[Ñt j, t j+1, i )] ] =. [ ] T Par linéarité on en déduit que E R F r, z) dñdr, dz) =. d /{} De même, on a pour j < j et i, i et pour j = j : E[F i t j )Ñt j, t j+1, i )F i t j )Ñt j, t j +1, i )] = E [ F i t j )Ñt j, t j+1, i )F i t j )E[Ñt j, t j +1, i ) F tj ] ] = E[F i t j )Ñt j, t j+1, i )F i t j )Ñt j, t j+1, i )] = E [ F i t j )F i t j )E[Ñt j, t j+1, i )Ñt j, t j+1, i ) F tj ] ] = E [ F i t j )F i t j )E[Ñt j, t j+1, i )Ñt j, t j+1, i )] ] = E [ F i t j ) 2] t j+1 t j )ν i )δ i,i, où δ i,i désigne le symbole de Kroenecker. En sommant sur les valeurs de i, i et j, j et en utlisant les deux égalités ci-dessus on obtient : [ T E ) 2 ] F r, z) dñdr, dz) R d /{} n = m E[F i t j )Ñt j, t j+1, i )F i t )Ñt j j, t j +1, i )] = = i,i =1 j,j =1 n i=1 j=1 T m E [ F i t j ) 2] t j+1 t j )ν i ) R d /{} E [ F t, z) 2] dt dνz). On en déduit que l application I T : ST, ν) H 2 T, ν) est une isométrie linéaire, qui se prolonge donc à H 2 T, ν) tout entier. Ce prolongement sera encore noté I T. Par densité de ST, ν) dans H 2 T, ν), il vérifie :

3 CHPITRE 4. INTÉGRTION STOCHSTIQUE Théorème 14. L intégrale stochastique I T satisfait les propriétés suivantes : 1) F, G H 2 T, ν) et α, β R, I T αf + βg) = αi T F ) + βi T G), 2) F H 2 T, ν), E[I T F )] = et E [ I T F )) 2] = F T,ν, 3) F, G H 2 T, ν), E[I T F )I T G)] = F, G T,ν 4) F H 2 T, ν), le processus I t F ); t T ) est une càdlàg F t -martingale de carré intégrable. Lemme 4. Si F H 2 T, ν) et si n ) n est une suite croissante de sous-ensembles boréliens de R d /{} telle que n n = E R d /{} alors [ lim E sup n t T F r, z) Ñdr, dz) n E F r, z) Ñdr, dz) 2] =. Preuve. C est une conséquence directe de l inégalité de Doob pour les martingales et du théorème de convergence dominée. 4.3 Extension de la théorie Comme dans le cas du mouvement brownien, on peut étendre cette intégrale aux classes d équivalence de fonctions F : [, T ] R d /{}) Ω R qui sont égales dt dν dip presque sûrement qui vérifient : 1) F est prévisible, T ) 2) IP F t, R d /{} z) 2 dt νdz) < + = 1. Comme cette extension repose sur les mêmes arguments que dans le cas du mouvement brownien, nous ne détaillons pas plus ce point. 4.4 Formules d Itô Commençons par un exemple simple. On considère une intégrale stochastique de Poisson de la forme X t = X + Kr, z) Ndr, dz), 4.1) où est borné inférieurement et K est un processus prévisible à valeurs réelles. Proposition 11. Si X est une intégrale stochastique de Poisson du type 4.1) alors, pour toute fonction f CR) et tout t, on a presque sûrement : fx t ) = fx ) + [ fxr + Kr, z)) fx r ) ] Ndr, dz).

4.4. FORMULES D ITÔ 31 Preuve. On définit le processus de Poisson composé L t = znt, dz). Remarquons tout d abord que Nt, B) est la mesure de saut associée au processus L car L t = z zn{t} {z}) = z z1i z)n{t} {z}), donc pour z, on a 1I { Ls=z } = 1I z )N{t} {z }). On en déduit #{ s t; L s B} = = s t s t z B = s t z B 1I { Ls B} 1I { Ls=z} 1I z)n{t} {z}) = Nt, B). Une conséquence directe est que pour tout processus F H 2 T, ν), on a : F r, z) Ndr, dz) = 1I L s )F s, L s ). s t D où fx t ) fx ) = fx s ) fx s ) s t = fx s + 1I L s )Ks, L s )) fx s ) = s t fxs + Ks, z)) fx s ) ) Nds, dz). Montrons maintenant la formule d Itô-Lévy dans le cas général. Soit Ω, F, IP) un espace probabilisé muni d une filtration F t ) t satisfaisant les hypothèses usuelles. Soit B = B t ; t ) un F t -mouvement brownien standard d-dimensionnel. Soit N une F t -mesure aléatoire de Poisson sur R + BR d /{}) d intensité dt dν, où ν est une mesure de Lévy. Soit Ñ sa mesure aléatoire de Poisson compensée. Soit b : [, T ] Ω R d et σ : b : [, T ] Ω R d d des processus F t -adapté prévisible tels que T E br) 2 + σr) 2 dr < +, et H, K : [, T ] R d /{}) Ω R d des processus prévisibles tels que H H 2 T, ν). On considère le processus, pour t T X t = X + br) dr+ σr) db r + Hr, z) Ñdr, dz)+ Kr, z) Ndr, dz). z <1 z 1

32 CHPITRE 4. INTÉGRTION STOCHSTIQUE Théorème 15. Si X est une intégrale stochastique de type Lévy comme ci-dessus, alors, pour toute fonction f C 2 R d ) et t, on a avec probabilité 1 : fx t ) fx ) = + 1 2 + + + x fx r ), br) dr + x fx r ), σr) db r Tr xxfx 2 r )σr)σr) ) dr [ f Xr + Kr, z) ) fx r ) ] Ndr, dz) z 1 z <1 z <1 [ f Xr + Hr, z) ) fx r ) ] Ñdr, dz) [ f Xr + Hr, z) ) fx r ) Hr, z), x fx r ) ] dr νdz). Preuve. On suppose, pour simplifier, que d = 1, f Cb 2 R) et H est bornée, de sorte que chaque terme est bien défini. Soit n = {z R d /{}; 1/n < z < 1} et X n t = X n + br) dr+ D après le lemme ci-dessous, σr) db r + Hr, z) Ñdr, dz)+ n x 1 Kr, z) Ndr, dz). fx n t ) fx n ) = + 1 2 + + + x fx n r ), br) dr + x fx n r ), σr) db r Tr xxfx 2 r )σr)σr) n ) dr [ f X n r + Kr, z) ) fxr ) ] n Ndr, dz) z 1 [ f X n r + Hr, z) ) fxr ) ] n Ñdr, dz) n n [ f X n r + Hr, z) ) fx n r ) Hr, z), x fx n r ) ] dr νdz). Or, vu le lemme 4, on a Xt n X t en probabilité quand n. D après le lemme 4 et le théorème de convergence dominée, on en déduit que chacun des termes ci-dessus converge vers le terme voulu. Lemme 5. On considère X de la forme X t = X + br) dr + σr) db r + z a Kr, z) Ndr, dz).

4.4. FORMULES D ITÔ 33 lors fx t ) fx ) = + 1 2 + x fx r ), br) dr + x fx r ), σr) db r Tr xxfx 2 r )σr)σr) ) dr [ f Xr + Kr, z) ) fx r ) ] Ndr, dz) z a Preuve. Soit L le processus de Poisson composé défini par L t = zndr, dz). On considère ses temps de sauts ou d arrivées) T n ) n. lors z a : Pour T n < t < T n+1, on a : fx t ) fx ) = = X t = X Tn + + n= + n= + + [ fxt Tn+1) fx t Tn ) ] [ fxt Tn+1) fx t Tn+1 ) ] n= [ fxt Tn+1 ) fx t Tn ) ] T n br) dr + T n σr) db r. On peut donc appliquer la formule d Itô pour le mouvement brownien, ce qui permet de traiter le cas de la deuxième somme. De plus d où + fx t Tn+1 ) fx t Tn+1 ) =fx t Tn+1 + KT n+1, L Tn+1 )) fx t Tn+1 ), [ fxt Tn+1) fx ] + [ t Tn+1 ) = fxt Tn+1 + Kt T n+1, L t Tn+1)) fx ] t Tn+1 ) n= n= = = s t [ fxs + Ks, L s )) fx s ) ] [ fxs + Ks, z)) fx s ) ] Nds, dz). Le résultat est démontré. Corollaire 2. Si X est une intégrale stochastique de type Lévy comme ci-dessus, alors presque sûrement : X t 2 < +. s T

34 CHPITRE 4. INTÉGRTION STOCHSTIQUE Corollaire 3. Si X est une intégrale stochastique de type Lévy comme ci-dessus, alors, pour toute fonction f C 2 R d ) et t, on a avec probabilité 1 : fx t ) fx ) = x fx r ), dx r + 1 Tr 2 xxfx 2 r )σr)σr) ) dr + ) fx r ) fx r ) X r, x fx r ) s t Théorème 16. Inégalité de Burkholder-Davies-Gundy. Soient H H 2 T, ν) à valeurs dans R d et σ : [, T ] Ω R d d tel que Soit M la martingale définie par M t = T E σr) 2 dr < +. σr) db r + R d /{} lors, pour tout p >, il existe une constante C p > telle que et 1 T E σr) 2 dr + C p t T [ E sup t T Mt ) p ] Hr, z) Ñdr, dz). M t 2 ) p/2 E [ sup t T Mt ) p ] T C p E σr) 2 dr + ) p/2. M t 2 t T

Chapitre 5 Changement de mesures et martingales exponentielles Soit b : [, T ] Ω R et σ : b : [, T ] Ω R des processus F t -adapté prévisible tels que T E br) 2 + σr) 2 dr < +, et H, K : [, T ] R/{}) Ω R des processus prévisibles tels que H H 2 T, ν). On considère le processus, pour t T X t = X + br) dr+ σr) db r + Hr, z) Ñdr, dz)+ Kr, z) Ndr, dz). z <1 z 1 5.1 Exponentielle de Doleans-Dade La question est de trouver un processus adapté tel que dz t = Z t dx t. On définit l exponentielle de Doleans-Dade, pour t : On fait l hypothèse que Z t = exp X t 1 2 ) σr) 2 dr s t 1 + X s )e Xs. inf{ X t ; t > } > 1 presque sûrement. 5.1) Proposition 12. Sous l hypothèse 5.1), alors Z t < + presque sûrement. Preuve. On doit prouver que le produit infini converge. On pose 1 + X s )e Xs = t) Bt) s t 35

36 CHPITRE 5. CHNGEMENT DE MESURES ET MRTINGLES EXPONENTIELLES où et t) = Bt) = s t; X s 1/2 s t; X s <1/2 1 + X s )e Xs 1 + X s )e Xs. Comme X est càdlàg, #{ s t; X s 1/2} est fini presque sûrement de sorte que t) est fini presque sûrement. De plus : Bt) = exp s t ln1 + Xs ) X s ) 1I{ Xs <1/2}). Or pour y < 1/2, on a ln1 + y) y Ky 2, d où ) Bt) exp K X s 2 1I { Xs <1/2} < +. s t Théorème 17. On a dz t = Z t dx t. Preuve. Tout d abord, on remarque que Z t peut se réécrire sous la forme Z t = e St avec ds t =bt) 1 2 σ2 t))dt + σt)db t + ln1 + Kt, z))ndt, dz) z 1 + ln1 + Ht, z))ñdt, dz) + ) ln1 + Ht, z)) Ht, z) dtνdz). z <1 Pour voir cela, il suffit de voir que ln1 + X s ) X s s t = z <1 + z <1 ln1 + Hr, z)) Hr, z) Ñdr, dz) + z <1 ln1 + Hr, z)) Hr, z) νdz)dr z <1 ln1 + Kr, z)) Kr, z) Ndr, dz) Remarque : le troisième terme dans le membre de droite ci-dessus peut s expliquer de la façon suivante. Si on regarde les sauts de X, il ne sont dûs qu à la mesure de Poisson N. Donc, dans le premier terme ln1 + Hr, z)) Hr, z) Ñdr, dz), la partie qui "saute" correspond z <1 formellement à ln1 + Hr, z)) Hr, z) Ndr, dz). Pour obtenir la mesure de Poisson z <1 compensée, on a enlevé artificiellement le terme ln1 + Hr, z)) Hr, z) νdz)dr. Il est z <1 donc normal de le rajouter ensuite. Bien sûr, ceci peut se démontrer rigoureusement. Il suffit alors d appliquer la formule d Itô pour obtenir le résultat.

5.2. MRTINGLES EXPONENTIELLES 37 5.2 Martingales exponentielles Le but de cette section est de déterminer des conditions qui assurent que e X est une martingale, où X a été défini en début de chapitre. Théorème 18. On suppose, de plus, que [ E z 1 ] Kr, z) νdz)dr < +. Le processus X est une martingale si et seulement si bt) + Kt, z) νdz) =, z 1 presque sûrement pour Lebesgue presque tout t. Preuve. Un sens est trivial. Montrons la réciproque et supposons que X soit une martingale. On a E[X t X s F s ] =. On en déduit d où E[ 1 h s s+h s br) dr + s E[br) + z 1 z 1 Kt, z) νdz)dr F s ] =, Kt, z) νdz) F s ] dr =. Le résultat suit en passant à la limite quand h et en utilisant le théorème de dérivation de Lebesgue. Corollaire 4. e X est une martingale si et seulement si : bt) + 1 2 σ2 t) + e Ht,z) 1 Ht, z) ) νdz) + z <1 presque sûrement pour Lebesgue) presque tout t. z 1 Preuve. Il suffit d appliquer la formule d Itô à e X et utiliser le théorème 4. Exemple 13. Cas brownien. On suppose que X est de la forme X t = br) dr + σr) db r. Pour que e X soit une martingale, il faut que bt) = 1 2 σ2 t), d où e Xt = exp σr) db r 1 2 ) σ 2 r) dr. e Kt,z) 1 ) νdz) =

38 CHPITRE 5. CHNGEMENT DE MESURES ET MRTINGLES EXPONENTIELLES Exemple 14. Cas poissonnien. On suppose que X est de la forme X t = br) dr + Kr) Ndr) où N est un processus de Poisson d intensité λ. Pour que e X soit une martingale, il faut que bt) = λe Kt) 1), d où e Xt = exp Kr) Ndr) + λ ) e Kr) 1) dr. Exercice 12. Montrer que e Y coïncide avec l exponentielle de Doleans-Dade si et seulement si Y est une intégrale brownienne. 5.3 Changement de mesures-théorème de Girsanov Si Q est une mesure de probabilité sur Ω, F, IP) muni d une filtration F t ) t satisfaisant les hypothèses habituelles), on note Q t la restriction de Q à F t. On rappelle que si Q << IP alors la famille dq t dp t est une IP-martingale. Soit e )t X une martingale exponentielle. Comme E P [e Xt ] = 1, on peut définir une mesure de probabilité Q t sur Ω, F t ) par dq t = e Xt dp t pour tout t. On fixe T >. Lemme 6. Le processus M = M t ; t T ) est une martingale sous Q si et seulement si Me X = M t e Xt ; t T ) est une martingale sous P. Preuve. Soit F s. lors E P [M t e Xt 1I ] = E Pt [M t e Xt 1I ] = E Qt [M t 1I ] = E Q [M t 1I ] = E Q [M s 1I ] = E P [M s e Xs 1I ]. L autre sens se montre de la même manière. Théorème 19. Girsanov. Soit X une intégrale de type Lévy telle que e X soit une martingale, ie X est de la forme X t = br) dr + avec la condition bt) + 1 2 σ2 t) + σr) db r + z <1 z <1 Hr, z) Ñdr, dz) + e Ht,z) 1 Ht, z) ) νdz) + z 1 z 1 Kr, z) Ndr, dz), e Kt,z) 1 ) νdz) = presque sûrement pour Lebesgue) presque tout t. On suppose pour simplifier que K est borné.

5.3. CHNGEMENT DE MESURES-THÉORÈME DE GIRSNOV 39 Pour L H 2 T, ν), on définit On définit et on suppose Finalement, on pose et pour t T. Mt) = z Lr, z) Ñdr, dz). Ur, z) = e Hr,z) 1)1I z <1 + e Kr,z) 1)1I z 1 T z 1 N t = M t e Hr,z) 1) 2 νdz)dr < +. W t = B t z σr) dr Soit Q la mesure de probabilité sur Ω, F T ) définie par Lr, z)ur, z) νdz)dr dq dip T = e X T. lors sous Q, W = W t ; t T ) est un mouvement brownien et N = N t ; t T ) est une Q-martingale. Preuve. En appliquant la formule d Itô et en utilisant le fait que e X est une martingale, on a e Xt =1 + + e X r σr) db r + z 1 z <1 e X r e Kr,z) 1) Ñdr, dz) On calcule alors le produit W t e Xt par la formule d Itô et on obtient : W t e Xt = = W r e X r σr) db r + e X r σr) dr + 1 + σr)w r )e X r db r + donc W t e Xt est une martingale sous IP. z <1 z 1 e X r e Hr,z) 1) Ñdr, dz) W r e X r e Hr,z) 1) Ñdr, dz) + e X r db r W r e X r e Kr,z) 1) Ñdr, dz) + e X r σr) dr z <1 W r e X r e Hr,z) 1) Ñdr, dz) De même on pose Z t = W t ) 2 t et on montre en calculant le produit Z t e Xt que c est une martingale sous IP. Comme, W est à trajectoires continues, le théorème de Lévy et le lemme 6 assurent que W est un mouvement brownien.

4 CHPITRE 5. CHNGEMENT DE MESURES ET MRTINGLES EXPONENTIELLES La méthode est similaire pour N. On a : N t e Xt = = + + N r e X r σr) db r + z z 1 z <1 e X r Lr, z)ñdr, dz) N r e X r e Hr,z) 1) Ñdr, dz) z e X r Lr, z)ur, z)νdz)dr N r e X r e Kr,z) 1) Ñdr, dz) + e X r Ur, z)lr, z)νdz) dr N r e X r σr) db r + z = e X r N r Ur, z) + Lr, z)) Ñdr, dz). 5.4 Théorème de représentation des martingales Soit Ω, F, IP) un espace probabilisé, X un processus de Lévy sur Ω, F, IP) et F t ) t sa filtration naturelle complétée. Théorème 2. Représentation des martingales. Soit T > fixé. Si M = M t ; t T ) est une martingale de carré-intégrable par rapport à la filtration F t ) t alors il existe a R, un processus prévisible F : [, T ] Ω R tel que et H H 2 T, ν) tel que pour tout t T : M t = a + T E F r) 2 dr < + F r) db r + R d /{} Hr, z) Ñdr, dz). Le triplet a, F, H) est uniquement déterminé par M aux ensembles de mesure nulle près.

Chapitre 6 Equations différentielles stochastiques 6.1 Existence et unicité Soit Ω, F, IP) un espace probabilisé equippé d une filtration F t ) t satisfaisant les hypothèses usuelles. Soit B = B t ; t ) un mouvement brownien standard d-dimensionnel et une mesure aléatoire de Poisson N sur R + R d /{}). On suppose que B et N sont indépendants et tous deux sont F t ) t -adaptés. On note ν l intensité de N et Ñ la mesure de Poisson compensée associée. On cherche à résoudre l EDS X t =X + + bx r ) dr + z 1 σx r ) db r + GX r, z) Ndr, dz), z <1 F X r, z) Ñdr, dz) où les coefficients b : R d R d, σ : R d R d d, F, G : R d R d R d sont supposés mesurables. La condition initiale X est une variable aléatoire F -mesurable finie presque sûrement. Définition 8. Une solution à 6.1) est un processus stochastique càdlàg à valeurs dans R d, adapté et presque sûrement solution de 6.1). On dira que la solution de 6.1) est unique si, pour toutes solutions X 1 et X 2, on a IPX 1 t = X 2 t, t ) = 1. On fera les hypothèses suivantes sur les coefficients : Condition de lipschitz CL). Il existe une constante K > telle que pour tout x, x R d : bx) bx ) 2 + σx) σx ) 2 + F x, z) F x, z) 2 νdz) K x x 2. z <1 Condition de croissance CC). Il existe une constante M > telle que pour tout x R d : bx) 2 + σx) 2 + F x, z) 2 νdz) K1 + x 2 ). z <1 Condition de continuité CCO). L application x Gx, z) est continue pour tout z 1. 41 6.1)

42 CHPITRE 6. EQUTIONS DIFFÉRENTIELLES STOCHSTIQUES Théorème 21. Sous les hypothèses CL) et CC), il existe une unique solution à l EDS 6.1). Idée de preuve. 1) on considère d abord le cas où G = et E[X 2 ] < +. Il suffit alors d utiliser la méthode du point fixe de Picard. La méthode est similaire au cas du mouvement brownien. Dans ce cas on montre que la solution vérifie E [ sup X s 2] Ct)1 + E[ X 2 ]). s t 2) si G = et E[X 2 ] = +. On définit une suite X n ) n par X n = X 1I X n. On applique le 1) pour chaque n, ce qui permet de construire une suite de processus X n solution de 6.1) avec condition initiale X n. Il est facile de voir que la suite X n ) n vérifie IPsup Xt m Xt n > δ) t quand n, m. En particulier, elle converge vers un processus adapté càdlàg X solution de 6.1). 3) Soit P le processus de Poisson composé défini pour t par P t = z 1 xndr, dz). Soit T n ) n les temps d arrivées de P. L idée est de construire, à l aide du 2), une solution X à 6.1), sur l intervalle de temps [, T 1 [, intervalle sur lequel on peut considérer que G =. Ensuite on pose X T1 = X T1 + GT 1, P T1 ) et on résoud 6.1) sur [T 1, T 2 [ avec condition initiale X T1...et ainsi de suite. Le processus X ainsi construit est une solution de 6.1). L unicité se montre de la même façon. 6.2 Propriété de Markov Théorème 22. La solution de 6.1) est un processus de Markov homogène. Preuve. Soit f une fonction bornée sur R d. Il faut montrer que E[fX t+s ) F s ] = E[fX t ) X = X s ]. Pour cela, on note X s,x t t s) la solution de 6.1) partant de x à l instant s. C est un processus σb s+u B s, N]s, s + u], ); u, BR d /))-mesurable, donc indépendant de F s, qui a même loi que X,x t s par stationnarité des accroissements du brownien et de la mesure de Poisson). Par unicité de la solution, on a presque sûrement : X s,x,x s t+s = Xt+s.,x Donc E[fX t+s ) F s ] = E[fX s,x,x s t+s ) F s ] = E[fX,X t ) X = X,x s ]