Méthodes numériques pour la finance. Cours MAE51



Documents pareils
Probabilités III Introduction à l évaluation d options

Le modèle de Black et Scholes

Simulation de variables aléatoires

3. Conditionnement P (B)

Théorème du point fixe - Théorème de l inversion locale


Moments des variables aléatoires réelles

3 Approximation de solutions d équations

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

MÉTHODE DE MONTE CARLO.

Texte Agrégation limitée par diffusion interne

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Espérance conditionnelle

Cours d Analyse. Fonctions de plusieurs variables

TRAVAIL D ETUDE ET DE RECHERCHE. Utilisation des arbres binomiaux pour le pricing des options américaines

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Correction de l examen de la première session

Chapitre 2 Le problème de l unicité des solutions

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

La fonction exponentielle

Introduction au pricing d option en finance

4. Martingales à temps discret

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Commun à tous les candidats

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Programmes des classes préparatoires aux Grandes Ecoles

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

MATHS FINANCIERES. Projet OMEGA

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Correction du Baccalauréat S Amérique du Nord mai 2007

Modélisation et simulation

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

de calibration Master 2: Calibration de modèles: présentation et simulation d

I. Polynômes de Tchebychev

Probabilités sur un univers fini

Continuité d une fonction de plusieurs variables

Méthodes de Simulation

Image d un intervalle par une fonction continue

Continuité en un point

Résolution d équations non linéaires

3. Caractéristiques et fonctions d une v.a.

Calcul Stochastique pour la finance. Romuald ELIE

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Continuité et dérivabilité d une fonction

Fonctions de plusieurs variables

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Calcul différentiel sur R n Première partie

Chp. 4. Minimisation d une fonction d une variable

Calcul fonctionnel holomorphe dans les algèbres de Banach

Modèles et Méthodes de Réservation

MARTINGALES POUR LA FINANCE

Quantification Scalaire et Prédictive

F411 - Courbes Paramétrées, Polaires

Sur certaines séries entières particulières

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Processus aléatoires avec application en finance

PRIME D UNE OPTION D ACHAT OU DE VENTE

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

MA6.06 : Mesure et Probabilités

Méthode de Monte Carlo pour le calcul d'options

Finance, Navier-Stokes, et la calibration

TSTI 2D CH X : Exemples de lois à densité 1

Correction du baccalauréat ES/L Métropole 20 juin 2014

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Limites finies en un point

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Capes Première épreuve

M2 IAD UE MODE Notes de cours (3)

Travaux dirigés d introduction aux Probabilités

Amphi 3: Espaces complets - Applications linéaires continues

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Probabilités sur un univers fini

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Chapitre 7 : Intégration sur un intervalle quelconque

4 Distributions particulières de probabilités

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Calcul différentiel. Chapitre Différentiabilité

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITES ET STATISTIQUE I&II

Leçon 01 Exercices d'entraînement

La mesure de Lebesgue sur la droite réelle

Chaînes de Markov au lycée

Fonctions de plusieurs variables. Sébastien Tordeux

Probabilités et statistique. Benjamin JOURDAIN

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v t

BTS Groupement A. Mathématiques Session Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

Transcription:

Méthodes numériques pour la finance Cours MAE51 LELONG Jérôme 5 avril 27

Table des matières 1 Calcul d espérances et méthode de Monte Carlo 5 1.1 Principe de la méthode.......................... 5 1.2 Générateur aléatoire........................... 9 1.3 Simulation de variables aléatoires.................... 9 1.3.1 Méthode d inversion de la fonction de répartition....... 9 1.3.2 Méthode du rejet......................... 11 1.3.3 Méthode par changement de variables.............. 12 1.4 Méthodes de réduction de variance................... 15 1.4.1 Variables antithétiques...................... 15 1.4.2 Variables de contrôle....................... 17 1.4.3 Conditionnement......................... 18 1.4.4 Fonctions d importance...................... 2 1.5 Suites à discrépance faible........................ 22 2 Méthodes d arbre 25 2.1 Cox-Ross-Rubinstein : une approximation du modèle de Black-Scholes 25 2.1.1 Détermination du modèle.................... 25 2.1.2 Convergence faible........................ 26 2.2 Résultats de convergence généraux................... 27 2.3 L arbre trinomial de Kamrad-Ritchken................. 28 2.4 Application au pricing d options..................... 29 2.4.1 Principe général.......................... 29 2.4.2 Options barrières......................... 3 2.4.3 Options sur maximum...................... 31 3 Simulation de processus et discrétisation d EDS 33 3.1 Simulation d une trajectoire Brownienne................ 33 3.1.1 Simulation récursive....................... 33 3.1.2 Simulation rétrograde....................... 34 3.2 Discrétisation d EDS........................... 36 3.2.1 Rappels.............................. 36 3

4 TABLE DES MATIÈRES 3.2.2 Schéma d Euler.......................... 38 3.2.3 Schéma de Milshtein....................... 43 3.3 Lien EDP et espérance conditionnelle.................. 44 3.3.1 Modèle de Black Scholes..................... 44 3.3.2 Cas général............................ 47 3.3.3 Résolution numérique dans le modèle de Black-Scholes.... 49

Chapitre 1 Calcul d espérances et méthode de Monte Carlo Les problèmes probabilistes qui se posent dans les applications fiancières se ramènent généralement au calcul d espérances. Par exemple, en finance les prix des produits dérivés s écrivent comme des espérances. C est donc tout naturellement que l on s intéresse à des méthodes numériques pour calculer ces espérances, sachant que dans la majorité des cas on ne dispose pas de formules exactes. 1.1 Principe de la méthode Les méthodes de Monte Carlo permettent de calculer numériquement des espérances. Ces méthodes sont basées sur le résultat bien connu de la Loi Forte des Grands Nombres. Théorème 1 (Loi Forte des Grands Nombres). Soit (X n ) n une suite de v.a. i.i.d de même loi que X. Si E( X ) <, alors X n = 1 n n i=1 X i p.s E(X). n La convergence a également lieu dans L 1. Remarque 1. L hypothèse d intégrabilité est indispensable, en effet on peut montrer que si l on considère une suite i.i.d de v.a. selon la loi de Cauchy, alors la moyenne empirique ne converge pas. Démonstration. Nous allons faire la preuve sous des hypothèses plus fortes. On suppose que E( X 4 ) <. On peut toujours considérer que E(X) =, en considérant Y = 5

6 1. Calcul d espérances et méthode de Monte Carlo X E(x). E ( X4 n ) ( n ) 4 = 1 n 4 E X k, k=1 = 1 n n 4 E(Xk 4 ) + 6 E(Xi 2 )E(X2 j ), k=1 i<j car les X i sont centrés et indépendants, = 1 n 4 (ne(x 4 ) + 3n(n 1)E(X 2 ) 2), 3E(X4 ) n 2. Comme E( X 4 ) <, on déduit par convergence monotone que E( implique que X n 4 < p.s.. n=1 n=1 X 4 n ) <. Cela Et donc les termes de la série tendent p.s. vers, i.e. lim n X n = p.s.. Comme lim n E( X 4 n) =, on a grâce à l inégalité de Jensen 1 lim n E( X n ) =. Dans la mesure où l estimateur de E(X) est une variable aléatoire, il est important de pouvoir fournir un intervalle de confiance. En effet, deux simulations distinctes peuvent conduire à deux estimations très différentes. Le théorème suivant donne un résultat sur la vitesse de convergence de l estimateur et permet par la suite de fournir un intervalle de confiance. Dans la pratique, il faudra toujours mettre en perspective la valeur obtenue avec la largeur de l intervalle de confiance pour justifier la pertinence du résultat annoncé. Théorème 2 (Théorème Central Limite). Soit (X n ) n une suite de v.a. i.i.d de même loi que X. Si E( X 2 ) <, alors ) (1 n L n X i E(X) n N(, n σ2 ), où σ 2 = Var(X). i=1 Démonstration. De nouveau, on peut supposer que E(X) =, ainsi E(X 2 ) = σ 2. On note X n = 1 n n i=1 X i. On calcule la fonction caractéristique de n X n. [ ( )] ψ n X n (u) = ψ n 1 P u n n i=1 X (u) = ψ i X n. 1 Soit X une v.a. intégrable et φ une fonction convexe, alors on a φ(e(x)) E(φ(X)).

1.1. Principe de la méthode 7 En utilisant la formule de Taylor reste intégral à l ordre 2, puis 3, on peut facilement montrer l inégalité suivante ( ) eiy 1 iy + y2 2 min y 3 6,y2. Ainsi, e iux n = 1 + i u n X u2 2n X2 + h n (X) (1.1) ( avec h n (X) u2 n min u X 3 ). 6 n,x2 Grâce à la majoration précédente, h n (X) est intégrable. En prenant l espérance dans (1.1), on obtient ( ) u ψ X n = 1 u2 σ 2 2n + E(h n(x)). La v.a. n h n (X) est uniformément dominée par u 2 X 2, qui est intégrable. Par le théorème de convergence dominée, on a lim n E(n h n (X)) E (lim n nh n (X)). Or lim n nh n (X) lim n u 3 6 n X 3 = p.s.. Ainsi on obtient, On en déduit donc que lim E(nh n(x)) =. n ( ) u ψ X n = 1 u2 σ 2 2n + o(n 1 ). Le o(n 1 ) est à priori complexe, on a donc recours au lemme suivant pour l étude de ( 1 u2 σ 2 2n + o(n 1 )) n. Lemme 1. Soit (a k ) et (b k ) deux suites complexes de module inférieur à 1. On a n n n a k b k a k b k. k=1 k=1 k=1 (1 u2 σ 2 ) n 2n + o(n 1 ) (1 u2 σ 2 ) n 2n ( 1 u2 σ 2 ) n Par ailleurs 2n ) n termine de prouver que n o(n 1 ) = o(1). k=1 e u 2 σ 2 2. En combinant ces deux derniers résultats, on lim n ψ n X n (u) = e u 2 σ 2 2. Néanmoins, la loi limite fait intervenir Var(X) qui est souvent une quantité inconnue. On est alors tenté de remplacer σ 2 par un estimateur. Une question se pose alors : le théorème précédent reste-t-il valide? La réponse est oui, comme le montre la proposition suivante.

8 1. Calcul d espérances et méthode de Monte Carlo Proposition 1. Soit (X n ) n une suite de v.a. i.i.d de même loi que X, telle que E( X 2 ) < et σ 2 >. On note ( ) ε n = 1 n X i E(X), σ n 2 = n 1 2 n X 2 1 n i X i. n n 1 n n Alors, i=1 n ε n σ n i=1 L N(, 1) n Démonstration. Cette proposition est une conséquence directe des Théorèmes 2 et 3. En effet, σ 2 n est un estimateur convergent (et sans biais) de σ2 grâce à la Loi Forte des Grands Nombres. On rappelle le Théorème de Slutsky Théorème 3 (Théorème de Slutsky). Soit (X n ) n une suite de v.a. qui converge en loi vers X. Soit (Y n ) n une suite de v.a. qui converge en loi vers une constante a, alors la suite (X n,y n ) n converge en loi vers le couple (X,a). i=1 Utilisation du TCL pour les méthodes de Monte Carlo. Soit X une v.a. et f une fonction mesurable telle que E( f(x) 2 ) <. On cherche à calculer E(f(X)) par une méthode Monte Carlo. On simule un n échantillon (X 1,..., X n ) selon la loi de X, puis on calcule S n = 1 n n i=1 f(x i ), V 2 n = n n 1 1 n n f(x i ) 2 i=1 ( 1 n ) 2 n f(x i ). Grâce à la Loi Forte des Grands Nombres, S n converge p.s. vers E(f(X)) et grâce à la proposition 1, n S n E(f(X)) V n L N(, 1). n Ce dernier résultat nous permet alors de donner un intervalle de confiance sur l estimateur S n. En effet la convergence en loi implique (grâce à la continuité p.s. de 1 { a} ) que ( ) S n E(f(X)) P n a P ( G a) V n n où G N(, 1). Ainsi [S n ± avn n ] est un intervalle de confiance de niveau asymptotique α pour E(f(X)) si a est le quantile d ordre 1 α de la loi N(, 1), i.e. P( G a) = 1 α si G N(, 1). En général, on prend α =.5 et dans ce cas a 1.96. i=1

1.2. Générateur aléatoire 9 1.2 Générateur aléatoire Les méthodes de Monte Carlo reposent sur la capacitié de simuler des variables aléatoires. Pour ce faire, on a recours à des générateurs de nombres aléatoires. Un ordinateur n est en pratique capable que de générer des suites déterministes. Il existe néanmoins des procédés permettant de construire des suites de nombres qui se comportent statistiquement comme des suites aléatoires. En général, ces suites sont à valeurs dans une partie de N, par exemple {,...,M 1}. On peut alors facilement se ramener à une suite à valeurs dans [, 1[, en divisant par M. Ces suites sont construites par récurrence u n+1 = h(u n ) n N où h est une fonction de {,..., M 1} dans lui-même. La valeur de u (la graine) doit alors être choisie par l utilisateur sous peine de toujours obtenir la même suite de nombres. Souvent, on utilise l horloge de l ordinateur pour initialiser la graine. L exemple le plus simple est celui du générateur congruentiel linéaire h(x) = (Ax + C) mod M. Il faut alors prêter une attention particulière au choix des réels positifs A et C. En particulier, on veillera toujours à s assurer que la période du générateur, au plus M, est assez grande pour l utilisation que l on veut en faire. Remarque 2. En C, la fonction srand permet d initialiser la graine du générateur rand. On peut par exemple écrire srand(time(null));. Pour ce générateur, M vaut RAND_MAX. Attention, rand peut renvoyer la valeur. Bien évidemment si U U [,1] alors a + (b a)u U [a,b]. Nous allons maintenant étudier les différentes méthodes qui permettent de simuler des variables aléatoires suivant d autres lois que la loi uniforme. 1.3 Simulation de variables aléatoires 1.3.1 Méthode d inversion de la fonction de répartition Cette technique repose sur le résultat suivant Proposition 2. Soit Y une variable aléatoire réelle de fonction de répartition F Y. On définit pour tout x [, 1] F 1 Y (x) = inf{y R : F Y (y) x}. Si U U [,1], alors F 1 Y (U) suit la loi de Y.

1 1. Calcul d espérances et méthode de Monte Carlo Remarque 3. Si F est une bijection, alors la définition de F 1 Y coïncide avec l inverse classique. Cette définition est connue sous le nom d inverse généralisée et existe toujours pour une fonction croissante. Démonstration. Remarquons que Ainsi, on a l égalité F 1 (u) x u F(x). P(F 1 (U) y) = P(U F Y (y)) = F Y (y). Simulation d une loi à support discret. Soit Y une variable aléatoire de support (y k ) k N, telle que P(Y = y k ) = p k. Si U U [,1], alors X = y 1 {U p } + k 1 y k 1 { P k 1 i= p i<u P k i= p i} a même loi que Y. En effet, on vérifie que pour k >, on a P(X = y k ) = P ( k 1 p i < U i= ) k p i = p k. i= Par exemple, si on considère une v.a. U U [,1] alors la v.a. 1 {U p} suit une loi de Bernouilli de paramètre p. Exercice 1. Proposer une méthode pour simuler une variable aléatoire de loi exponentielle de paramètre λ > à partir de la loi uniforme. Solution. On utilise la méthode d inversion de la fonction de répartition pour montrer que si U U ],1[, la v.a. 1 λ log(u) suit une loi exponentielle de paramètre λ. Exercice 2. En vous basant sur l interprétation physique de la loi Binomiale de paramètres (n, p), proposer une méthode pour simuler une variable aléatoire de loi Binomiale à partir de la loi uniforme. Solution. Soit (X 1,...,X n ) un schéma de Bernouilli de paramètre p. La v.a. n i=1 X i suit une loi Binomiale de paramètre (n,p). Or on sait que si (U 1,...,U n ) sont n variables i.i.d selon la loi U ],1[, les vecteurs aléatoires (X 1,...,X n ) et (1 {U1 p},...,1 {Un p}) sont égaux en loi. On conclut alors que la v.a. n i=1 1 {U i p} suit une loi Binomiale de paramètres (n,p).

1.3. Simulation de variables aléatoires 11 1.3.2 Méthode du rejet Proposition 3. Soit (X n ) n une suite de v.a i.i.d à valeurs dans R d et D R d, tels que P(X 1 D) >. On définit τ 1 τ n+1 := inf{i 1 : X i D}, := inf{i > τ n : X i D}, Y n := X τn pour n 1. (Y n ) n 1 est une suite de variables aléatoires i.i.d de loi µ sur D, définie par Démonstration. On note α = P(X 1 D). par indépendance des (X i ). On calcule la loi de Y 1. µ(a) = P(X 1 A X 1 D), A D. P(τ 1 = k) = P(X 1 / D,...,X k 1 / D,X k D) = (1 α) k 1 α (1.2) P(Y 1 A) = P(X τ1 A) = P(τ 1 = k,x k A D). Par l équation (1.2) et l indépendance des (X k,k ), on obtient P(Y 1 A) = k=1 (1 α) k 1 P(X k A D) = P(X 1 A D)/P(X 1 D). k=1 On va maintenant montrer par récurrence que n P(X τi A i ;i = 1,...,n) = P(X 1 A i D)/P(X 1 D). (1.3) i=1 La preuve de la récurrence se fait en décomposant sur les valeurs possibles de τ n 1 et τ n et grâce à l indépendance des X i, (1.3) est démontrée. Remarque 4. On remarque que plus la probablité P(X 1 D) est petite, plus il y a de rejets et donc plus la simulation est coûteuse. De cette proposition, on peut facilement déduire le corollaire suivant. Corollaire 1. Soit (X n ) n une suite de v.a i.i.d de loi uniforme sur [, 1] d et D [, 1] d. On définit τ 1 τ n+1 := inf{i 1 : X i D}, := inf{i > τ n : X i D}, Y n := X τn pour n 1. (Y n ) n 1 est une suite de variables aléatoires i.i.d de loi uniforme sur D.

12 1. Calcul d espérances et méthode de Monte Carlo La méthode proposée maintenant ne s applique que pour les v.a. possédant une densité par rapport à la mesure de Lebesgue. Soit X une v.a. de densité f et Y une v.a. de densité g. X et Y sont à valeurs dans R d. On suppose que l on sait simuler selon la densité g. De plus on suppose que x R d, f(x) kg(x). Soit (Y 1,...,Y n ) une suite de v.a. i.i.d selon la loi de Y et (U 1,..., U n ) une suite de v.a. i.i.d de loi uniforme sur [, 1]. On pose τ = inf{n 1 : kg(y n )U n f(y n )}. Proposition 4. Y τ suit la loi de X et le nombre d essais nécessaires pour simuler un tirage de la loi de X avec cette méthode suit une loi géométrique de paramètre 1 k. Démonstration. Dans un souci de simplicité, la preuve est faite pour d = 1. τ peut être vu comme le premier instant de succès d un schéma de Bernouilli de paramètre p = P(kg(Y )U f(y )). τ suit donc une loi géométrique de paramètre p. P(kg(Y )U f(y )) = R dy 1 Soit φ une fonction mesurable bornée E(φ(Y τ )) = = = = E(φ(Y n )1 {τ=n} ), n=1 n=1 n=1 n=1 dug(y)1 {kug(y) f(y)} = ( 1 1 k) n 1 E(φ(Y n )1 {kg(yn)u n f(y n)}), ( 1 1 ) n 1 dyφ(y)g(y) k R ( 1 1 k = E(φ(X)). ) n 1 1 k R 1 dyφ(y)f(y), R dyg(y) f(y) kg(y) = 1 k. du1 {kug(y) f(y)}, 1.3.3 Méthode par changement de variables On peut également chercher à établir des égalités en loi entre la loi que l on cherche à simuler et une fonction de variables aléatoires facilement simulables (en pratique des v.a. de loi uniforme). Lemme 2 (Changement de variables). Soit φ un C 1 difféomorphisme d un ouvert O R d sur un ouvert O R d et g une fonction intégrable de O dans R, alors g(v)dv = g φ 1 (u) det( φ 1 (u)) du. O O

1.3. Simulation de variables aléatoires 13 En s appuyant sur ce lemme, on peut énoncer la proposition suivante qui propose une méthode de simulation d un couple de gaussiennes indépendantes. Proposition 5 (Box-Müller). Soit U et V deux v.a. indépendantes de loi U ],1[. On pose X = 2 ln(u) cos(2πv ), Y = 2 ln(u) sin(2πv ). Alors (X, Y ) N(, I 2 ). Démonstration. Soit f une fonction mesurable bornée. On calcule E(f(X,Y )). E(f(X,Y )) = f( 2ln(u) cos(2πv), 2ln(u) sin(2πv))dudv. ],1[ 2 On pose alors le changement de variables x = 2ln(u) cos(2πv), y = 2ln(u) sin(2πv). On vérifie que (x,y) = φ(u,v) définit bien un changement de variables de ],1[ 2 dans R 2. (i.e. φ est bien une application de classe C 1 et son Jacobien ne s annule jamais). On trouve que det(j(φ 1 (u,v))) = u 2π et on obtient le résultat annoncé. Une autre méthode, ne faisant pas appel aux fonctions trigonométriques mais s appuyant sur la méthode du rejet permet de simuler des v.a. gaussiennes. Proposition 6 (Algorithme polaire). Soit (U, V ) de loi uniforme sur {(u, v); < u 2 + v 2 < 1}. On pose R = U 2 + V 2 et Alors (X, Y ) N(, I 2 ). X = U 2 ln(r 2 )/R 2, Y = V 2 ln(r 2 )/R 2. Démonstration. La densité du couple (U,V ) s écrit f (U,V ) (u,v) = 1 π 1 {u 2 +v 2 <1}. On prend φ une fonction mesurable bornée et on calcule E(φ(X,Y )). E(φ(X,Y )) = ] 1,1[ 2 φ ( u ) 2ln((u 2 + v 2 )), v 2ln((u 2 + v 2 )) dudv. (u 2 + v 2 ) (u 2 + v 2 ) On définit le changement de variables r = u 2 + v 2, θ [,2π[ tel que u = r cos(θ) et v = r sin(θ). On vérifie que c est effectivement un C 1 difféomorphisme de ] 1,1[ 2 dans ],1[ [,2π[. On obtient ainsi ( ( )) E(φ(X,Y )) = E φ 2ln(U) cos(2πv ), 2ln(U) sin(2πv ) où U et V deux v.a. indépendantes de loi U ],1[. La proposition 5 permet alors de conclure.

14 1. Calcul d espérances et méthode de Monte Carlo En pratique, on a souvent besoin de pouvoir simuler des vecteurs gaussiens faisant intervenir des corrélations entre les différentes dimensions. Proposition 7 (Simulation de vecteurs gaussiens). Soit µ R d et Γ M d une matrice symmétrique définie positive. Alors il existe A M d, telle que Γ = AA (par exemple en utilisant l algorithme de Cholesky), si G N(, I d ), alors µ + AG N(µ, Γ). Démonstration. La fonction caractéristique de G est ψ(u) = e (u,u) 2. Calculons ψ µ+ag (u). ( ψ µ+ag (u) = E e i(u,µ+ag)), ( = e i(u,µ) E e i(u,ag)), ( ) = e i(u,µ) E e i(a u,g), = e i(u,µ) ψ(a u) = e i(u,µ) (A u,a u) 2, = e i(u,µ) (u,γu) 2. Exercice 3. Soit (T i ) i une suite i.i.d de loi exponentielle de paramètre λ. Montrer que X = i=1 i1 { P i k=1 T k 1< P i+1 k=1 T k} suit une loi de Poisson de paramètre λ. En déduire une méthode pour simuler une loi de Poisson à partir d une suite de v.a. de loi U [,1]. Solution. On calcule P(X = n). ( n ) n+1 P(X = n) = P T k 1 < T k. k=1 On calcule la loi de Y n = n k=1 T k. Soit u R. k=1 E ( e iuyn) = ( E(e iut 1 ) ) ( ) n λ n =. λ iu On reconnaît là la fonction caractéristique d une loi Gamma de paramètres (λ, n).on peut

1.4. Méthodes de réduction de variance 15 alors écrire P(X = n) = = = 1 1 dt dy = λn n! e λ. 1 y dy λn Γ(n) yn 1 e λy λe λt 1 {y 1} 1 {1 y<t}, dt λn Γ(n) yn 1 e λy λe λt 1 {y 1} 1 {1 y<t}, dy λn Γ(n) yn 1 e λ, X suit donc bien une loi de Poisson. Ensuite il suffit de se rappeler que (T 1,...,T n ) = L ( 1 λ log(u 1),..., 1 λ log(u n)) si (U 1,...,U n ) est un n échantillon qui suit une loi uniforme sur ],1[. Au vu des résultats du paragraphe 1.1 sur la vitesse de convergence des méthodes de Monte Carlo, il est important de chercher à réduire la variance de la somme Monte Carlo (i.e. Vn 2 ). Nous allons maintenant étudier plusieurs méthodes permettant de réduire la variance de la somme Monte Carlo. 1.4 Méthodes de réduction de variance Il est important de noter qu avec les notations du paragraphe 1.1, Vn 2 /n est un estimateur de la variance de S n. On cherche alors à trouver une somme Monte Carlo (i.e. une somme de termes i.i.d) S n qui converge toujours vers E(f(X)) mais de variance V n2 Vn 2. 1.4.1 Variables antithétiques Supposons que l on cherche à calculer E(g(U)) où U U [,1] par une méthode de Monte Carlo. Si l on dispose d un n échantillon (U 1,..., U n ) de v.a. i.i.d selon la loi de U, la méthode classique nous invite à considérer S n = 1 n n g(u i ). i=1 Néanmoins on peut remarquer que si U U [,1] alors 1 U suit également une loi U [,1]. On peut alors être tenté de considérer S n = 1 n n g(1 U i ) i=1

16 1. Calcul d espérances et méthode de Monte Carlo ou même Calculons la variance de S n. S n = 1 n n/2 i=1 g(u i ) + g(1 U i ). Var ( ) 1 Sn = (2 Var(g(U)) + 2 Cov(g(U), g(1 U))) 2n = Var(S n ) + 1 Cov(g(U), g(1 U)) n Si Cov(g(U), g(1 U)) est négatif, alors la vitesse de convergence de S n est meilleure que celle de S n. Le lemme suivant donne une condition suffisante qui assure la positivité de la covariance de deux fonctions. Lemme 3 (inégalité de corrélation). Soit X une v.a. réelle et f et g deux fonctions croissantes, alors Cov(f(X), g(x)). Démonstration. Soit x et y deux réels. Ainsi pour tout couple de v.a. (X,Y ), on a d où (f(x) f(y))(g(x) g(y)). E ((f(x) f(y ))(g(x) g(y ))) E ((f(x)g(x)) + E ((f(y )g(y )) E (f(y )g(x) + f(y )g(x))). Si on choisit X et Y de même loi et indépendantes, on obtient bien le résultat annoncé. Corollaire 2. Si U U [,1] et si f est croissante alors, Cov(f(U), f(1 U)). Le lemme 3 se généralise en dimension quelconque en considérant des fonctions croissantes de chacune de leurs composantes. Exercice 4. Soit ψ(x) = (λe σx K) +. Soit G N(, 1). On cherche à calculer E(ψ(G)). Proposer une méthode de variables antithétiques et justifier que cela réduit la variance de la méthode de Monte Carlo. Solution. G et G on même loi. ψ est une fonction croissante, donc ψ( ) est une fonction décroissante. Par conséquent, l inégalité de corrélation assure que Cov(ψ(G),ψ( G)). De plus ψ étant strictement croissante sur un domaine de mesure non nulle pour la loi de G, l inégalité précédente est en fait stricte. Ainsi la variance est strictement inférieure.

1.4. Méthodes de réduction de variance 17 Cette technique de variables antithétiques s applique aussi pour des espérances d une fonctionnelle de toute la trajectoire d un mouvement Brownien. Par exemple, si on cherche à calculer numériquement E(f(W s, s [, T])) on peut aussi utiliser ( W s, s T) comme variable antithétique. Ceci n est possible que parce que les processus W et W ont même loi. Le fait que les lois instantanées soient les mêmes n est pas suffisant. 1.4.2 Variables de contrôle Une autre méthode pour réduire la variance de la méthode de Monte Carlo pour le calcul de E(X) consiste à trouver une v.a. Y, telle que l on sache calculer explicitement son espérance et telle que Var(X Y ) Var(X). On considère alors (X 1,...,X n ) un n échantillon selon la loi de X et (Y 1,...,Y n ) un n échantillon selon la loi de Y. On calcule ensuite S n = 1 n n X i Y i. i=1 Ainsi S n + E(Y ) converge bien vers E(X). Le calcul de E(Y ) se faisant de manière exacte, l erreur de l estimation ne vient que de S n. En particulier un intervalle de confiance pour E(X) est donné par [S n +E(Y )±a Var(S n )] où est a est le quantile d ordre 1 α de la loi N(, 1). Exercice 5 (Parité Call Put). De manière quelque peu simplifiée, le payoff d une option d achat (un Call) peut s écrire (e σg K) + où G N(, 1). En remarquant que (e σg K) + (K e σg ) + = e σg K, proposer une variable de contrôle pour le calcul de E((e σg K) + ). Solution. Voir la figure 1.1 pour la comparaison des variances des sommes Monte Carlo pour le calcul du prix du Put et du Call avec σ =.3, pour K variant entre.1 et 4. On remarque que la variance du Put est bornée. Lorsque K < 1, il vaut mieux calculer le prix du Call en utilisant la relation de parité, c est-à-dire que l on calcule le prix du Put par une méthode de Monte Carlo et ensuite on utilise la relation de parité (en réalité, le frontière ne se situe pas tout à fait à 1). Attention toutefois, si K 1 alors numériquement on n observe que des tirages de G pour lesquelles (K e σk ) + =, la variance observée vaut mais la moyenne Monte Carlo également. Il faut donc toujours se méfier lors de la simulation d un évènement rare. En effet plus que la valeur réelle de la variance, c est le rapport entre la variance et la somme Monte Carlo qui permet d apprécier l efficacité de la méthode.

18 1. Calcul d espérances et méthode de Monte Carlo.1.8.6.4.2 Variance MC Call Variance MC P ut.1.5.9 1.3 1.7 2.1 2.5 2.9 3.3 3.7 K Fig. 1.1 Variance de la somme MC en fonction du strike 1.4.3 Conditionnement On veut calculer E(g(X, Y )) où le couple (X, Y ) a pour densité f (X,Y ) (x, y). On a évidemment l égalité E(g(X, Y )) = E(E(g(X, Y ) X)) avec g(x, y)fx,y (X, y) E(g(X, Y ) X) = dy = h(x). f X (X) On va maintenant montrer que E(h(X) 2 ) E(g(X, Y ) 2 ). E(h(X) 2 ) = h(x) 2 f X (x)dx, ( 2 g(x, y)fx,y (x, y) = f X (x) dy) dx, f X (x) ( 2 1 = g(x, y)f X,Y (x, y)dy) dx, f X (x) ( )( 1 g(x, y) 2 f X,Y (x, y)dy f X (x) ( )( 1 g(x, y) 2 f X,Y (x, y)dy f X (x) E(g(X, Y ) 2 ). ) f X,Y (x, y)dy dx, ) f X,Y (x, y)dy dx, } {{ } =1 Ainsi si l on est capable de calculer l espérance conditionnelle par rapport à l une ou l autre des variables, il vaut toujours mieux le faire et seulement ensuite utiliser une technique de type Monte Carlo.

1.4. Méthodes de réduction de variance 19 Exemple : modèle à volatilité stochastique. Soit (W t, t ) un mouvement Brownien, on définit la diffusion (S t, t ) par ds t = S t (rdt + σ t dw t ), S = x. On suppose de plus que le processus (σ t, t ) est continu et indépendant de (W t, t ). On cherche à calculer par Monte Carlo (E(f(S T ))) pour une fonction f donnée. On peut réécrire S t ( t σ 2 t ) s S t = S exp rt 2 ds + σ s dw s. Puisque le processus (σ t, t ) est indépendant du processus (W t, t ), on va montrer que la v.a. T σ 1 T tdw t est égale en loi à T σ2 t dt W T. En effet, soit h une fonction mesurable bornée ( ( T )) ( ( ( T ) )) E h σ t dw t = E E h σ t dw t (σ t, t T), T = E E h σt 2 dt G (σ t, t T), grâce à la proposition 8 avec G N(, 1), T = E h σt 2 dt G. Proposition 8. Soit g une fonction mesurable telle que T g(s)2 ds < et soit (W t, t T) un mouvement Brownien standard, alors on a l égalité T g(s)dws L = N ( T ), g(s) 2 ds. Démonstration. On pose Y t = t g(s)dws. On sait qu on a lim n n g(it/n) ( ) W (i+1)t/n W it/n = YT i=1 en probabilité. En effet, si on pose g n (t) = g(it/n) pour it/n t < (i + 1)T/N alors ( T T 2 ) E g n (t)dw t g(t)dw t T sup g n (t) g(t) 2. t T

2 1. Calcul d espérances et méthode de Monte Carlo Si on introduit (G i ) i une suite de v.a. i.i.d. selon la loi N(,1), on a l égalité n g(it/n) ( ) L= n T W (i+1)t/n W it/n g(it/n) n G i. i=1 Cette dernière somme suit en fait une loi gaussienne (combinaison linéaire de gaussiennes indépendantes) centrée de variance n i=1 g(it/n)2 T n. Or n i=1 g(it/n)2 T n converge quand n tend vers l infini vers T g(s)2 ds. Ainsi, n g(it/n) ( ) T ) L W (i+1)t/n W it/n N (, g(s) 2 ds. i=1 Puisque le membre de gauche converge également en probabilité 2 vers Y T, on obtient alors l égalité en loi annoncée dans la proposition. On peut alors conditionner par rapport au processus (σ t, t ) dans le calcul de l espérance qui se réécrit alors où i=1 E(f(S T )) = E(ψ(v t ; t T)) ( ( ψ(v) = E f x e rt R T v(t) 2 q )) R 1 dt+ T 2 T v(t)2 dtw T si v est une fonction continue définie sur [, T] à valeurs réelles. Il ne reste plus alors qu à calculer, par une méthode Monte Carlo, une espérance de la forme E f 1 T σt 2 dt. T 1.4.4 Fonctions d importance On souhaite calculer E(g(X)) où X est une v.a. de densité f. L idée de cette méthode est d introduire une nouvelle densité de probabilité f >. On peut alors écrire ( ) g(x)f(x) f(x) g(y )f(y ) E(g(X)) = dx = E f(x) f(y ) où Y une v.a. de densité f. Calculons alors la variance de ( ) ( ) g(y )f(y ) g(y ) 2 f(y ) 2 Var = E E(g(X)) f(y ) f(y 2, ) 2 g(x) 2 f(x) 2 = dx E(g(X)) f(x) 2. g(y )f(y ). f(y ) 2 Si une suite de v.a. converge en loi vers une limite X et en probabilité vers une limite X, alors X = X p.s..

1.4. Méthodes de réduction de variance 21 Pour annuler la variance, il faudrait prendre f(x) = g(x)f(x) E(g(X)). En somme, il faudrait connaître ce que l on cherche à calculer. Néanmoins, dans certains cas, en particulier lorsque X est une gaussienne, on sait exhiber une famille de densités f facilement simulables. La méthode décrite ci-dessous est propre aux vecteurs gaussiens, même s il existe des techniques analogues pour d autres lois (loi de Poisson, loi exponentielle c.f. exercice 7). Soit à Calculer par une méthode Monte Carlo E(f(G)) où G N(, I d ). 1 1 P d E(f(G)) = f(x) R (2π) d d/2e 2 i=1 x2 i dx, 1 1 P d = f(x + µ) R (2π) d d/2e 2 i=1 (x i+µ i ) 2 dx, 1 1 P d = f(x + µ) R (2π) d d/2e 2 i=1 x2 i +µ2 i +2x iµ i dx, = On obtient alors l égalité suivante R d f(x + µ)e E(f(G)) = E On propose donc d utiliser la densité f définie par µ 2 2 µ x 1 1 (2π) d/2e 2 P d i=1 x2 i dx. ( f(g + µ)e µ 2 2 µ G ). (1.4) f(x) = e µ 2 2 µ x e x 2 1 2 (2π) d/2, x Rd. Le problème est alors de déterminer µ de sorte à minimiser E ( ) f(g + µ) 2 e µ 2 2µ G. Pour ce faire, il est possible d utiliser des algorithmes stochastiques (voir Duflo [3] pour une présentation de ces algorithmes). Au passage, on notera qu en utilisant de nouveau la relation (1.4), on a l égalité ( ) E f(g + µ) 2 e µ 2 2µ G = E ( f(g) 2 e µ 2 2 µ G ). Cette méthode opère en fait une translation de la gaussienne et permet de calculer numériquement et avec une bonne précision des espérances telles que E((e σg K) + ) où K 1. Ainsi, on peut équilibrer les probabilités P((e σg K) + = ) et P((e σg K) + > ).

22 1. Calcul d espérances et méthode de Monte Carlo Exercice 6. Soit λ et K deux réels positifs tels que λ < K et X m la v.a. X m = ( λe σ(g+m) K ) m2 e mg 2 +. On note σm 2 sa variance. Donner une expression de la dérivée de σ2 m par rapport à m sous forme d une espérance. En déduire que σm 2 est une fonction décroissante de m quand m m = log(k/λ)/σ. L égalité (1.4) peut en fait se généraliser au cas du mouvement Brownien et est alors connue sous le nom de Théorème de Girsanov (voir Karatzas and Shreve [6] pour une démonstration du théorème). Exercice 7. Soit X une v.a. de loi exponentielle de paramètre 1. Montrer que pour tout fonction f telle E( f(x) ) < et pour tout β > on a ( ( ) ( )) X X E(f(X)) = E f g β, β β où la fonction g β est définie par g β (x) = e(β 1) x. β ( ( ) X X Calculer la variance de f )g β β et déterminer sur quel intervalle il faut optimiser le paramètre β pour réduire la β variance. 1.5 Suites à discrépance faible On cherche des suites (x i ) à valeurs dans [, 1] telles que 1 n n f(x i ) E(f(U)) i=1 où U U [,1] et telles que la convergence soit plus rapide que celle donnée par le TCL. Dans ce qui suit, on définit une relation d ordre sur R d. Si x et y sont deux points de R d, on dit que x y si et seulement si x i y i pour tout 1 i d. Cette relation d ordre n est pas totale. Définition 1. Une suite (x i ) i à valeurs dans [, 1] d est equirépartie sur [, 1] d si elle vérifie l une des propriétés suivantes : f intégrable, 1 n n i=1 f(x i) [,1] d f(x)dx.

1.5. Suites à discrépance faible 23 y [, 1] d 1, n n i=1 1 {x i [,y]} Vol([, y]), où [, y] = {z [, 1] d ; z y}. Dn (x) = sup y [,1] 1 n d n i=1 1 {x i [,y]} Vol([, y]). D n (x) est appelé discrépance à l origine de la suite. Remarque 5. Les suites de v.a. de loi uniforme sur [, 1] d sont équiréparties. Elles vérifient le premier critère grâce à la loi Forte des Grands Nombres. Il existe des suites équiréparties (x n ) n telles que pour une certaine classe de fonctions f, on ait le résultat suivant 1 n f(x i ) f(x)dx n [,1] c(f)log(n)d. (1.5) n d i=1 La vitesse de convergence est donc de l ordre de log(n)d, ce qui est bien meilleure n que pour les méthodes de Monte Carlo classiques qui ne peuvent faire mieux que 1 n (vitesse donnée par le TCL). Le résultat donné par l équation (1.5) est vrai en particulier si la fonction f est à variations finies et dans ce cas la constante c(f) vaut la variation de f, V (f) = 1 f (x) dx. Les suites permettant d obtenir de telles vitesses sont appelées suites à discrépance faible. Exemple de suite à discrépance faible. Nous allons tout d abord donner un exemple en dimension 1. Soit p un nombre premier. Pour tout entier n, on s intéresse à son écriture en base p. r n = a i p i où a i {,..., p 1}. Ensuite, on pose i= x n = r i= a i p i+1. La suite (x n ) n ainsi définie, connue sous le nom de suite de Van Der Corput, est une suite équirépartie sur [, 1] à discrépance faible. Si l on considère (p 1,...,p d ) d nombres premiers, alors la suite (x 1 n,...,xp n ) n est une suite équirépartie sur [, 1] d et à discrépance faible. Lorsque d > 1, cette suite s appelle suite de Halton. Les 1 premières valeurs de la suite pour p = 2 sont.5.25.75.125.625.375.875.625.5625.3125 Le code suivant permet de calculer le n ième terme de la suite

24 1. Calcul d espérances et méthode de Monte Carlo // n-th element of the Van Der Corput sequence in basis base double Phi_b_n( int n, int base ) { int a; double sum = ; double p = 1.; while( n> ) { a = (div(n, base)).rem; p /= base; sum += a * p; n = (n-a) / base; } return(sum); } Attention : Ces suites ne sont pas aléatoires, il n est donc plus possible de parler d intervalles de confiance en invoquant le TCL qui, dans un contexte déterministe, perd tout son sens.

Chapitre 2 Méthodes d arbre Dans ce chapitre, on s intéresse à l approximation de processus stochastiques continus (S t, t T) par un processus discret (S N n, n N) qui sera souvent une chaîne de Markov à valeurs dans un espace d états discret. Les approximations que l on va considérer permettent d approcher la loi du processus S, il ne s agit en aucun cas d une approximation trajectorielle. On cherche sous quelles conditions E(f(S N n, n N)) n E(f(S t, t T)) pour une classe de fonctions f suffisamment grande, typiquement les fonctions continues et bornées. 2.1 Cox-Ross-Rubinstein : une approximation du modèle de Black-Scholes 2.1.1 Détermination du modèle Le but de Cox Ross et Rubinstein était de proposer un modèle discret pour la dynamique du sous-jacent dans les produits dérivés en finance qui permette d approcher les prix d options calculés dans le modèle de Black-Scholes ds t = S t (rdt + σdw t ), S = x. Soit T l horizon de temps dans le modèle de Black-Scholes et N > le nombre de pas de discrétisation considérés. Le modèle CRR est défini par S N n+1 = U n+1s N n pour n 1, SN = x. où la suite (U n, n 1) est à valeurs dans {1 + d, 1 + u} avec d > 1. Soit F n la filtration engendrée par (U 1,...,U n ). On a aussi F n = σ(s N 1,...,SN n ). 25

26 2. Méthodes d arbre On pose h = T. Dans un tel modèle, on considère également un actif non risqué N B n = (1 +R) n. Il reste à spécifier les paramètres pour obtenir un modèle de marché complet (i.e il existe une et une seule probabilité sous laquelle les prix actualisés soient des martingales). On veut E((1 + R) (n+1) S N n+1 F n) = (1 + R) n S N n (2.1) En raisonnant par équivalence, on obtient que (2.1) est équivalent à Or S N n est F n mesurable. (2.2) est équivalent à E((1 + R) 1 S N n U n+1 F n ) = S N n. (2.2) P(U n+1 = 1 + u F n )(1 + u) + P(U n+1 = 1 + d F n )(1 + d) = 1 + R (2.3) Ainsi, le modèle CRR est un modèle de marché complet si et seulement si (U n, n 1) est i.i.d. telle que P(U n+1 = 1 + u) = 1 P(U n+1 = 1 + d) = d R d u = p en effet si on pose q n = P(U n+1 = 1 + u F n ), on a l équivalence q n (1 + u) + (1 q n )(1 + d) = 1 + R q n = p n 1. Ensuite, le caractère indépendant de la suite (U n, n 1) se montre par récurrence. 2.1.2 Convergence faible Théorème 4. En choisissant 1 + u = e σ h, 1 + d = e σ h et 1 + R = e rh, on a le résultat de convergence faible suivant Pour tout t T S N [tn/t] L N S t. Démonstration. Pour étudier la convergence en loi, on calcule la fonction caractéristique de S[tN/T] N ou plutôt de son log. Soit λ R ( E e iλ log(sn )) [tn/t] = E exp iλ log x [tn/t] 1 i= ( ) [tn/t] = e iλ log(x) E(e iλu 1 ) S N i+1 S N i = e iλ log(x) ( p e iλσ h +(1 p )e iλσ h ) [tn/t]. (2.4)

2.2. Résultats de convergence généraux 27 Un développement limité de p donne p = 1 2 r σ2 /2 h + O(h h). 2σ En combinant (2.4) et (2.1.2), on obtient ( E e iλ log(sn )) [tn/t] = e iλ log(x) ( 1 + (iλ(r σ 2 /2) λ 2 σ 2 /2)T/N ) [tn/t] En faisant tendre N vers l infini, on obtient ( lim E e iλ log(sn )) [tn/t] = e iλ log(x) e (iλ(r σ2 /2) λ 2 σ 2 /2)t = E(e iλst ). N 2.2 Résultats de convergence généraux Dans cette partie, nous nous intéressons à l approximation d une diffusion par une suite de chaînes de Markov sur l intervalle de temps [, T], T >. On considère (W t, t ) un mouvement Brownien standard réel. Soit (S t, t ) l unique solution de ds t = b(s t )dt + σ(s t )dw t, S = x où les fonctions b et σ vérifient K >, x, y R, b(x) b(y) + σ(x) σ(y) K x y. Considérons une suite de chaîne de Markov (Xn N, n ) de matrice de transition P N (x, y) telle que X N = x. On associe à ces chaînes de Markov une interpolation en temps continu S N définie par S N t = X N [t/h], où h = T/N. Nous allons maintenant donner des conditions qui assurent que pour tout t T, S N t converge en loi vers S t. (H1) i. P N (x, y) = sauf pour un nombre fini de valeurs, et P N (x, y) = si x y > A où A est une constante fixée indépendante de N. ii. Si on pose alors R >, b N (x) = E(S N h SN SN = x), lim sup b N (x) b(x) =. N x <R

28 2. Méthodes d arbre iii. Si on pose iv. alors R >, ε >, R > Théorème 5. Sous l hypothèse (H1), (S N t, t T) a N (x) = E((S N h S N ) 2 S N = x), lim sup a N (x) σ(x) 2 =. N x <R lim sup 1 N x <R h P( S N h S N L (S t, t T). N ε) =. Pour une démonstration des résultats relatifs à la convergence de méthodes d arbres, on pourra consulter Ethier and Kurtz [4], Kushner [7] or Kushner and Dupuis [8]. Remarque 6. Les hypothèses (H1-ii) et (H1-iii) assurent qu asymptotiquement le processus S N t a les mêmes espérance et variance que S t. L hypothèse (H1-iv) permet d assurer que le processus limite est continu. Corollaire 3. Le Théorème 5 implique que pour tout t T, St N loi vers S t. converge en 2.3 L arbre trinomial de Kamrad-Ritchken Kamrad et Ritchken ont proposé un arbre trinomial recombinant c est à dire symétrique pour l approximation de X h = log(s h /S ) dans le modèle de Black Scholes. v avec probabilité p 1 Sh N = avec probabilité p 2 v avec probabilité p 3 où v = λσ h avec λ > 1. Les paramètres sont choisis de telle sorte que les hypothèses (H1-ii) et (H1-iii) sur les moments d ordre 1 et 2 soient satisfaites ) v(p 1 p 3 ) = (r σ2 h (2.5) 2 et v 2 (p 1 + p 3 ) v 2 (p 1 p 3 ) 2 = σ 2 h. (2.6)

2.4. Application au pricing d options 29 En fait, le terme v 2 (p 1 p 3 ) 2 tend vers comme h 2 d après (2.5), on peut donc simplifier l équation (2.6) v 2 (p 1 + p 3 ) = σ 2 h. (2.7) En combinant ces équations avec p 1 + p 2 + p 3 = 1, on trouve p 1 = 1 2λ + σ2 2 h (2.8) 2 2λs p 2 = 1 1 (2.9) 2λ 2 p 1 = 1 2λ σ2 2 h 2 2λs Par ailleurs, il faut s assurer que p i pour i = 1, 2, 3, ce qui impose 1 λ σ h r σ 2 2 (2.1). (2.11) Le choix du paramètre λ est donc laissé à l appréciation de l utilisateur sous réserve de vérifier (2.11). Kamrad et Ritchken suggèrent que choisir λ tel que p 2 = 1/3 permet d améliorer la performance de l algorithme. Au passage, on remarque que le choix λ = 1 correspond à l arbre binomial de Cox Ros et Rubinstein présenté au paragraphe 2.1. 2.4 Application au pricing d options 2.4.1 Principe général Considérons le modèle d arbre de Cox-Ross-Rubinsteinde pas T/N pour approcher le modèle de Black Scholes sur l interval de temps [, T]. On cherche à calculer le prix à l instant d une option de payoff φ dans le modèle de Black Scholes, c est-à-dire E(e rt φ(s T )). Pour ce faire, on va calculer E((1 + R)φ(S N N )) où (Sn N ; n N) suit le modèle de Cox-Ross-Rubinstein. On rappelle que le prix à l instant t d une telle option est donnée par P(t, S t ) = E(e r(t t) φ(s T ) F t ). On s intéresse donc à la quantité équivalente calculée dans le modèle d arbre P(n, y) = E((1 + R) n N φ(sn N ) SN n = y). Le prix à l instant est donc donné par P(, x) où x est la valeur initiale de l arbre.

3 2. Méthodes d arbre P(n, y) = E((1 + R) n N φ(s N N) S N n = y) = E((1 + R) n N E(φ(S N N ) F n+1 ) S N n = y) = (1 + R) n N (E(φ(SN N ) SN n+1 = y(1 + u))p + E(φ(SN N ) SN n+1 = y(1 + d))(1 p)) = (1 + R) 1 ( P(n + 1, Sn N (1 + u))p + P(n + 1, Sn N (1 + d))(1 p)). Le prix recherché se calcule donc de manière rétrograde. A chaque étape i de l algorithme, il faut calculer P(i, y) pour toutes les valeurs y atteignables par le sous-jacent discrétisé S N i à l instant i. 2.4.2 Options barrières Intéressons-nous au problème du pricing des options barrières dans le modèle de Black Scholes. Le payoff de telles options peut s écrire (S t K) + 1 {Su L, u [,T]} + H 1 { u [,T], Su<L} où H >. Une idée pour pricer une telle option est d utiliser le modèle de Cox-Ross- Rubinstein. Malheureusement, la convergence du prix de telles options est plus lente que pour les options classiques. En voici la raison : soit n L tel que S (1 + d) n L L > S (1 + d) n L+1. L algorithme calcule le même prix pour toutes les valeurs de L entre S (1+d) n L et S (1 + d) n L+1. Appelons C(L) le prix de l option barrière. L erreur commise est de l ordre de C L S ((1 + d) n L (1 + d) n L+1 ) K N. Nous allons maintenant présenter deux méthodes qui convergent à la même vitesse que pour les options classiques. La méthode de Bardhan, Derman, Ergener et Kani Soit L + = S (1 + d) n L et L = S (1 + d) n L+1. Ainsi L < L L +. Appelons C(n, x) le prix de l option à l instant n et au noeud de valeur x. On connaît C(n, L ) = H et on calcule C(n, L + ) par la formule classique C(n, L + ) = p uc(n + 1, L + (1 + u)) + p d H 1 + R

2.4. Application au pricing d options 31 Ensuite pour calculer C(n, L), on interpole linéairement entre L et L + C(n, L) = L L L + L H + L+ L L + L C(n, L+ ). A l itération suivante, on pose C(n, L + ) = C(n, L). Cet algorithme modifié converge à la même vitesse que le schéma proposé par Cox-Ross-Rubinstein. La méthode de Ritchken L idée de Richtken est d utiliser l arbre trinomial étudié au paragraphe 2.3 et de choisir le paramètre λ de manière à ce que la barrière soit exactement atteinte à un des noeuds de l arbre. Soit ( log S ) n L = L σ. h On en déduit λ = 1 ( log S ) L n L σ h. La vitesse de convergence est comparable à celle de l algorithme de Cox-Ross- Rubinstein. 2.4.3 Options sur maximum Considérons une option de payoff donné par f(s T, S T ) où S T = sup s T S s. Nous devons alors approcher le processus de Markov bidimensionnel (S t, S t ) à l instant T. Une méthode standard pour ce faire est d utiliser le schéma de Cox-Ross-Rubinstein { S n+1 = S n U n+1, S n+1 = max(s n, S n+1 ), où (U n, n 1) est une suite i.i.d à valeurs dans {1+d, 1+u} avec P(U 1 = 1+u) = p u et P(U 1 = 1 + d) = p d = 1 p u. Le prix d une telle option à l instant n sachant S n = x et Sn = y est donné par l équation backward suivante C(n, x, y) = p u C(n + 1, x(1 + u), max(y, x(1 + u))) + p d C(n + 1, x(1 + d), y). En général, la simulation de chaînes de Markov bidimensionnelles par modèle d arbres binaires conduit à une complexité exponentielle, puisque le nombre de noeuds de l arbre augmente à la vitesse 2 N. Néanmoins, dans le cas particulier des options sur maximum le nombre de noeud n augmente que comme N 2 puisque sachant U n+1 = 1 + d, max(s n+1, S n) = S n, on obtient donc une complexité de l ordre de N 3. Le demi-arbre inférieur n est en réalité qu un arbre unidimensionnel.

Chapitre 3 Simulation de processus et discrétisation d EDS Jusqu à présent, nous avons étudié des méthodes de simulation permettant de calculer des espérances de variables aléatoires par méthodes de Monte Carlo. Ceci n est possible que lorsque l on est capable de simuler selon la loi des dites variables aléatoires. En finance, il s agit souvent de calculer des espérances de la forme E(f(X T )) ou E(f(X t, t T)) où (X t, t ) est solution d une EDS du type dx t = σ(t, X t )dw t + b(t, X t )dt, X = x. Dans un premier temps, nous allons nous intéresser à la simulation d une trajectoire de mouvement Brownien sur un intervalle de temps [, T] pour T fixé. 3.1 Simulation d une trajectoire Brownienne 3.1.1 Simulation récursive On considère (W t, t 1) un mouvement Brownien défini sur [, 1]. Soit = t < t 1 < < t n = 1 une subdivision de l intervalle [, 1]. On cherche à simuler une trajectoire du mouvement Brownien en les points de la subdivision, c est-à-dire que l on cherche la loi du processus discret (W ti, i =...n). Proposition 9. Soit (G i ) i=1...n une suite i.i.d selon la loi N(, 1). On définit X =, X i = i tj t j 1 G j pour i >. j=1 Les vecteurs (W t,...,w tn ) et (X,...,X n ) sont égaux en loi. 33

34 3. Simulation de processus et discrétisation d EDS Démonstration. Il suffit de montrer que (X 1,...,X n ) est un vecteur Gaussien centré tel que Cov(X i,x l ) = t i t l. Le vecteur (X 1,...,X n ) est une transformation linéaire du vecteur (G 1,...,G n ) qui est un vecteur gaussien car ses composantes sont des gaussiennes indépendantes. De plus, les G i sont centrées donc (X 1,...,X n ) est un vecteur gaussien centré. Calculons la covariance. i l Cov(X i,x l ) = Cov tj t j 1 G j, tj t j 1 G j, = j=1 par indépendance des G i i l j=1 = t i t l. (t j t j 1 )Cov(G j,g j ), j=1 Notons bien que cette méthode de simulation n engendre pas d erreur de discrétisation sur le processus discret, contrairement à ce que l on observe sur d autres processus. Imaginons maintenant que l on veuille ajouter un point à notre subdivision entre les instants t i et t i+1, comment faire pour simuler cette nouvelle valeur sans devoir simuler à nouveau toute la trajectoire après l instant t i? 3.1.2 Simulation rétrograde Pour un couple (s, t) donné, on cherche alors à identifier la loi de B t+s conditionnellement à (B s, B t ) pour s < t, notée L B t+s (B s, B t ). ( ) 2 2 ( ) Proposition 1. Pour tout s < t, L (B s, B t ) = N ( B s+b t ), t s 2 4. ( Démonstration. Remarquons que B s,b t+s 2 Z α,β = B t+s 2 B t+s 2 ),B t est un vecteur gaussien. On définit αb s βb t. On cherche (α,β) tel que Z α,β soit indépendante du couple (B s,b t ). Le vecteur (B s,z α,β,b t ) est encore un vecteur gaussien. Ainsi Z α,β est indépendante du couple (B s,b t ) si et seulement si Cov(Z α,β,b s ) = et Cov(Z α,β,b t ) =. La covariance vaut ( ) Cov(Z α,β,b s ) = E B s αe(bs) 2 βe(b t B s ). B t+s 2 Or pour tout (s,t), E(B t B s ) = t s. Ainsi, on obtient Cov(Z α,β,b s ) = s αs βs.

3.1. Simulation d une trajectoire Brownienne 35 De même, on montre facilement que Cov(Z α,β,b t ) = t + s 2 αs βt. D où Cov(Z α,β,b s ) = Cov(Z α,β,b t ) = si et seulement si α = β = 1 2. La v.a. Z = B t+s 1 2 2 (B s + B t ) est indépendante du couple (B s,b t ). Z est évidemment une gaussienne centrée, il ne reste donc plus qu à calculer sa variance pour déterminer entièrement sa loi. E(Z 2 ) = E [ ( B t+s 2 1 ) ] 2 2 (B s + B t ), = t + s + s 2 4 + t 4 + s 2 s t + s + s 2 2 = t s 4. Donc Z N (, t s ) 4. Ainsi on peut écrire Z = 1 2 t sgs,t où G s,t est une gaussienne centrée réduite indépendante de (B s,b t ). Remarque 7. En fait on peut montrer, grâce à la propriété de Markov que G s,t est indépendante de (B u,u s) et (B u,u t). Ainsi on a l égalité en loi suivante B t+s 2 = 1 2 (B s + B t ) + 1 2 t s Gs,t, où G s,t est une gaussienne centrée réduite indépendante de (B u ;u s) et (B u ;u t). On obtient donc bien le résultat annoncé et en plus la preuve fournit une méthode pour simuler cette valeur intermédiaire connaissant toute la trajectoire en dehors de l intervalle ]s,t[. Cette méthode peut également servir à simuler toute une trajectoire brownienne mais est nettement plus complexe à mettre en œuvre d un point de vue informatique. Exercice 8. Soit W un mouvement Brownien sur l intervalle [, 1], on définit la diffusion S par σ2 (r S t = x e 2 )t+σwt où r et σ sont deux réels positifs. Proposez une méthode pour simuler une trajectoire de la diffusion S sur la subdivision régulière de pas 1 n. Nous venons d étudier une méthode permettant de simuler une trajectoire d une diffusion s écrivant comme une fonction connue du mouvement Brownien. Malheureusement, les diffusions ne sont souvent définies que par des équations différentielles stochastiques que l on ne sait pas résoudre. Nous allons donc naturellement étudier des méthodes permettant de discrétiser de telles équations.

36 3. Simulation de processus et discrétisation d EDS 3.2 Discrétisation d EDS 3.2.1 Rappels Dans cette section, (W t, t ) désigne un mouvement Brownien standard à valeurs dans R d sur (Ω, (F t ) t, P)(i.e. chaque composante est un mouvement Brownien standard réel et ces mouvements Browniens réels sont indépendants). Soit Y une v.a. F mesurable de carré intégrable. On fixe T >. On considère deux fonctions σ : [, T] R n M n d, b : [, T] R n R n. On appelle solution de l équation différentielle stochastique { dxt = σ(t, X t )dw t + b(t, X t )dt X = Y (3.1) un processus (X t ; t T) F t adapté à valeurs dans R n tel que T b(s, X s) + σ(s, X s ) 2 ds < p.s., X t = Y + t b(s, X s)ds + t σ(s, X s)dw s p.s. pour tout t [, T]. Pour énoncer un résultat d unicité de la solution de telles équations, il nous faut une hypothèse supplémentaire. (H2) i. K >, t [, T], x, y R n on ait les 2 propriétés suivantes σ(t, x) σ(t, y) + b(t, x) b(t, y) K x y, σ(t, x) + b(t, x) K(1 + x ). ii. E(Y 2 ) <. Théorème 6. Sous l Hypothèse (H2), l équation (3.1) admet une unique solution (X s ) s T. De plus, elle vérifie ( ) E sup X s 2 <. s T L unicité est à comprendre au sens suivant : si (X s ) s T et (Y s ) s T sont deux solutions alors s T, X s = Y s dt dp p.p.. Pour une preuve de ce théorème, on pourra se référer à Lamberton and Lapeyre [9, Théorème 5.3]. Exemples.

3.2. Discrétisation d EDS 37 1. Modèle de Black-Scholes : diffusion log-normale (avec n = d = 1) { dxt = rx t dt + σx t dw t, où r > et σ >. X = x R + (3.2) Solution. La linéarité des coefficients permet d appliquer le Théorème 6 qui assure que l équation précédente admet une unique solution. Supposons que cette solution ne s annule pas, alors on peut écrire t dx t X t = rdt + σdw t, dx u X u = rt + σw t. A ce stade, il faut être extrêmement vigilant, en effet d(ln(x t )) n est pas égale à dxt X t comme nous allons le voir en utilisant la formule d Itô Ainsi Finalement, on obtient t d(ln(x t )) = dx t X t σ2 2 dt. dx u X u = ln(x t ) ln(x) + σ2 2 t. d où ln(x t ) ln(x) + σ2 2 t = rt + σw t, X t = xe r σ2 2 t+σw t. (3.3) On vérifie donc bien que S t ne s annule pas et par unicité de la solution, on est sûr que le processus défini par (3.3) est bien l unique solution de (3.2). 2. Ornstein-Ulhenbeck (avec n = d = 1) { dxt = cx t dt + σdw t, = x R où c > et σ >. X (3.4) Solution. De nouveau la linéarité des coefficients assure l unicité de la solution. On pose Y t = X t e ct. On trouve dy t = cx t e ct dt+dx t e ct. En utilisant l expression de dx t, on obtient dy t = σ e ct dw t. Ainsi Y t = x + σ t e cu dw u. Finalement, X t = xe ct +σ t e c(t u) dw u. Grâce à l unicité de la solution, on est sûr que (X t ) t ainsi défini est bien la seule solution de (3.4).

38 3. Simulation de processus et discrétisation d EDS Remarque 8. X t suit une loi normale de moyenne xe ct et de variance σ 2 t e2cu du. 3. Modèle à volatilité locale { dxt = rx t dt + σ(t, X t )X t dw t, X = x R où r > et la fonction σ vérifie σ(t, x) < K et x σ(t, x) < K. x En utilisant le même principe que pour l exemple 1, on peut montrer que ( t X t = x exp σ(s, X s )dw s + rt 1 t ) σ(s, X s ) 2 ds. 2 Dès que l on ne considère plus le modèle de Black-Scholes, on ne sait plus simuler directement suivant la loi de X T. On a donc besoin de discrétiser l équation différentielle stochastique, de manière à construire un processus X T N facilement simulable et qui approche X T en un sens convenable. Nous allons maintenant étudier plusieurs schémas de discrétisation possibles pour l équation (3.1) en supposant que les conditions du Théorème 6 sont vérifiées. 3.2.2 Schéma d Euler Soit N N, on pose t k = kt N pour k N. On définit la suite de v.a. XN tk pour k N 1 par { XN = x, X N t k+1 = X N t k + σ(t k, X N t k )(W tk+1 W tk ) + b(t k, X N t k ) T N. (3.5) On introduit alors une version en temps continu de ce schéma discret X N t = X N t k + σ(t k, X N t k )(W t W tk ) + b(t k, X N t k )(t t k ) pour t [t k, t k+1 ]. (3.6) (H3) α >, s t T, x R n, σ(t, x) σ(s, x) + b(t, x) b(s, x) c(1 + x )(t s) α. Théorème 7 (Convergence forte). Supposons que b et σ vérifient les Hypothèses (H2) et (H3), alors ( ) p 1, E X t 2p sup t T XN t C N 2pβ où β = min(α, 1 ). De plus, nous avons aussi 2 γ < β, N γ sup XN t t T X t p.s. N.

3.2. Discrétisation d EDS 39 Corollaire 4. On suppose que les fonctions b et σ ne dépendent pas du temps et vérifient l Hypothèse (H2), alors p 1, ( E sup t T XN t ) X t 2p C N p et γ < 1 2, Nγ sup XN t t T X t p.s. N. En pratique, nous nous intéressons à la convergence de l espérance d une fonctionnelle de X N T vers la même espérance calculée en X T plutôt qu à la vitesse forte du schéma. Dans un premier temps, on peut déduire le corollaire suivant du Théorème 7 qui donne un premier résultat sur la convergence faible du schéma d Euler. Corollaire 5 (Convergence faible). Sous les Hypothèses (H2) et (H3), avec α 1 2 et si f est une fonction lipschitzienne on a E(f(XT )) E(f(X N T )) K N. En renforçant les hypothèses sur les coefficients σ et b, on peut relaxer l hypothèse sur f. (H4) b et σ sont de classe C b ([, T] Rn ) (i.e. de classe C et à dérivées à tout ordre bornées). On introduit l ensemble C pol (Rn ) défini par { } f C α N n, C α >, k α N; α f(x) C α (1 + x kα ). Le théorème suivant dû à Talay and Tubaro [1] donne un développement limité de l erreur faible du schéma d Euler. Théorème 8. Sous l Hypothèse (H4) et si f C pol (Rn ), on a pour tout l N, E(f(X T )) E(f( X T N )) = c 1 N + c 2 N + + c ( ) l 1 2 N + O. l N l+1 Les constantes c 1,..., c l ne dépendent que de f. Si on se contente d un développement à l ordre 2, alors on peut encore relaxer les hypothèses sur f à condition d ajouter une condition de non dégénérescence sur σ (voir Bally and Talay [1, 2]).

4 3. Simulation de processus et discrétisation d EDS (H5) uniforme ellipticité ε >, x, ξ R n, ξ σσ (x)ξ ε ξ 2. Théorème 9. Si f est mesurable bornée et b et σ vérifient les Hypothèses (H4) et (H5), alors il existe une constante c 1 ne dépendant que de f telle que E(f(X T )) E(f( X T N )) = c ( ) 1 1 N + O. N 2 Il est en fait possible d améliorer la convergence, en considérant deux subdivisions, l une de pas T T et l autre. On obtient alors N 2N ( ) 2N E(2f( X T ) f( X 1 T N )) E(f(X T)) = O. N 2 Cette méthode est connue sous le nom d extrapolation de Romberg. Remarque 9. On considère une fonction g : R p R qui soit lipschitzienne et (s 1,...,s q ) q instants de [, T]. On suppose b et σ ne dépendent pas du temps. Alors sous l Hypothèse (H2), on a le résultat de convergence suivant p 1, g( X s N 1,..., X s N q ) g( X s1,..., X sq ) p C N. Cette remarque est une conséquence directe du corollaire 4. Par conséquent, on peut très bien approcher un maximum discret par le maximum du schéma d Euler ou une moyenne discrète par la moyenne du schéma d Euler. Exemples. 1. On se place dans le modèle de Black-Scholes : { dxt = rx t dt + σx t dw t, X = x R où r > et σ >. Si on considère une subdivision de pas h = T, le schéma N d Euler de la diffusion X t s écrit X N =, XN (k+1)h = X N kh { 1 + rh + σ(w(k+1)h W kh ) }. Pour cette diffusion, on préférera en fait résoudre l EDS et simuler directement (X t1,...,x tn ). En effet cette dernière simulation n engendre pas d erreur de discrétisation contrairement à l utilisation des schémas.

3.2. Discrétisation d EDS 41 2. On considère une diffusion { dxt = σ(x t )dw t + b(x t )dt, X = x. Proposer un schéma d approximation ĀN de A T = T X tdt et justifier la convergence de E((ĀN T X T N) +) vers E((A T X T ) + ). Cette espérance correspond au prix d une option asiatique. Solution. ( dxt da t ) = ( σ(xt )dw t + b(x t )dt X t dt Le processus (S T,A T ) est donc un processus de diffusion et son schéma d Euler sur la subdivision de pas h = T N s écrit X N (k+1)h = X N kh + σ( X N kh )(W t k+1 W kh ) + b( X N kh ) T N, Ā N (k+1)h = ĀN kh + X kh N T N. ) N 1 i= Ainsi le schéma d Euler suggère d approcher T S tdt par T N X kh N. la fonction (x,y) (x y) + étant lipschitzienne, on a le résultat de convergence suivant sous l Hypothèse (H2) E((ĀN T X N T ) +) E((A T X T ) + ) C N. Remarque 1. Cette approximation revient à utiliser une méthode de rectangles pour approcher l intégrale, malheureusement cette méthode se montre fort peu efficace numériquement. Il est de loin préférable d utiliser une méthode de trapèzes et d approcher A T par T 2N ( X N + 2 X N h + + 2 X N (N 1)h + X N Nh ). Remarque 11. En fait dans le modèle de Black Scholes, on sait simuler X t en un nombre fini de dates de manière exacte, on préférera donc considérer ÃN T = T N 1 N i= X kh. Dans ce cas on peut montrer que la convergence est plus rapide E((ÃN T X T ) + ) E((A T X T ) + ) C N. Exercice 9. On considère un processus d Ornstein Uhlenbeck { dxt = cx t dt + σdw t, = x R X (3.7) où c > et σ >. Ecrire le schéma d Euler en temps continu X t N de X t sur une discrétisation de pas h = T. Calculer la loi de X N N t X t pour t fixé et montrer que E XN t X t 2 = O(h 2 ).

42 3. Simulation de processus et discrétisation d EDS Solution. Le schéma d Euler X N kh du processus X t s écrit X N (k+1)h = X N kh (1 + ch) + σ(w (k+1)h W kh ). Ainsi k X kh N = (1 + ch)k x + σ (1 + ch) k i (W ih W (i 1)h ). i=1 Pour t [kh,(k + 1)h], la version en temps continu du schéma d Euler s écrit X t N = (1 + c(t kh))(1 + ch) k x + σ(w t W kh ) k + σ (1 + c(t kh))(1 + ch) k i (W ih W (i 1)h ). i=1 Par ailleurs d après l Exemple 2, on sait que X t s écrit X t = xe ct + σ t e c(t u) dw u. On peut donc calculer la différence XN t X t pour t [kh,(k + 1)h]. XN t X t (1 x + c(t kh))(1 + ch) k e ct t + σ (1 + c(t kh))(1 + ch) (k i) 1 {i u<i+1 k} e c(t u) dw u d où en prenant l espérance du carré E XN t X t 2 2x 2 (1 + c(t kh))(1 + ch) k e ct 2 + 2σ 2 t ( (1 + c(t kh))(1 + ch) (k i) 1 {i u<i+1 k} e c(t u)) 2 du Remarquons que (1+c(t kh))(1+ch) (k i) 1 {i u<i+1 k} peut se réécrire (1+c(t t h h))(1+ ch) t u h. De plus t u h = t u h + ε où ε < 1. Un développement limité au premier ordre permet de trouver ( ( 1 + c t )) t h (1 + c(t kh)) t u h h On montre ainsi que E XN t X t 2 = O(h 2 ). t u = (1 + O(h))e c( h +ε)(ch+o(h2 )) = e c(t u) (1 + O(h)).

3.2. Discrétisation d EDS 43 3.2.3 Schéma de Milshtein Dans cette partie, nous supposerons que les coefficients b et σ sont indépendants du temps. On considère l équation { dxt = σ(x t )dw t + b(x t )dt, (3.8) X = Y. De nouveau, on choisit N N et on pose t k = kt N restreignons au cas n = d = 1. Pour t [t k, t k+1 ], X t X tk = t t k σ(x s )dw s + t pour k N. Nous nous t k b(x s )ds. (3.9) On cherche à construire un nouveau schéma sur le même principe que précédemment mais en essayant de mieux approcher σ(x t ). En effet, en première approximation on peut considérer que la qualité de l approximation de l intégrale stochastique détermine la vitesse de convergence du schéma (son ordre). On suppose que σ est de classe C 1. En utilisant une formule de Taylor, on peut écrire σ(x t ) σ(x tk ) σ (X tk )(X t X tk ) σ (X tk )σ(x tk )(W t W tk ). On définit alors le schéma X t N k pour k N en reportant l approximation précédente dans l équation (3.9). Pour t [t k, t k+1 ], t X t N X t N k = σ( X t N k ) + σσ ( X t N k )(W s W tk )dw s + b( X t N k )(t t k ), t k ( X t N k+1 = X t N k + h b( X t N k ) 1 ) 2 σσ ( X t N k ) + σ( X t N k )(W tk+1 W tk ) + 1 2 σσ ( X N t k )(W tk+1 W tk ) 2. (3.1) Le schéma défini par (3.1) est connu sous le nom de schéma de Milshtein. Avec quelques hypothèses sur la régularité des coefficients σ et b, ont peut annoncer des résultats quant à la convergence forte du schéma. Théorème 1 (Convergence forte). Supposons que σ et b sont deux fonctions continûment dérivables de dérivées 1ère et 2 nde bornées, alors ( ) 2p p 1, XN t k X tk et α 1, max E k N N α max k N X t n p.s. k X tk C N 2p N.

44 3. Simulation de processus et discrétisation d EDS Théorème 11 (Convergence faible). Si on suppose que f,σ et b sont des fonctions C 4 à dérivées bornées jusqu à l ordre 4 et si de plus f est à croissance polynomiale, alors E(f( X T N )) E(f(X T )) C T(f) N où C T (f) est une constante dépendant de T et de f. Exercice 1. Ecrire le schéma de Milshtein du modèle de Black Scholes. Pour une comparaison de erreurs fortes des schémas de Milshtein et d Euler, on pourra se référer aux Figures 3.1 et 3.2. 3.3 Lien EDP et espérance conditionnelle Dans cette partie, on va s attacher à montrer le lien qui existe entre le calcul d espérances conditionnelles et la résolution d équations aux dérivées partielles. Cette relation fournit une alternative aux méthodes de Monte ( Carlo pour calculer des prix d options i.e. des espérances de la forme E e R T t r(s,x s) f(x T ) F t ). Avant d énoncer le résultat général, nous allons en donner un premier aperçu dans le modèle de Black Scholes. 3.3.1 Modèle de Black Scholes On considère la diffusion { dxt = rx t dt + σx t dw t, X = x R où r > et σ >. On cherche à calculer V t = E(e r(t t) f(x T ) F t ). Tout d abord on remarque que pour s < t, on peut écrire σ2 (r X t = X s e 2 )(t s)+σ(wt Ws). Cette écriture montre que le processus X t satisfait la propriété de Markov, c est à dire que conditionnellement à X s, X t est indépendant de F s. V t = E(e r(t t) σ2 (r f(x t e 2 )(T t)+σ(w T W t) ) F t ). (3.11) Remarquons que X t est F t mesurable et (W T W t ) indépendant de F t. Pour poursuivre les calculs nous avons besoin d un résultat supplémentaire sur les espérances conditionnelles et la mesurabilité.

3.3. Lien EDP et espérance conditionnelle 45 Proposition 11. Soit X une v.a. B mesurable à valeurs dans (E, E) et Y une v.a. indépendante de B à valeurs dans (F, F). Considérons une fonction ψ mesurable positive (ou bornée) sur (E F, E F). On pose φ(x) = E(ψ(x, Y )). On a alors le résultat suivant E(ψ(X, Y ) B) = φ(x). Démonstration. Notons P Y la loi de Y. φ(x) = ψ(x,y)dp Y (y). L espérance conditionnelle E(ψ(X,Y ) B) est l unique v.a. Z B mesurable telle que pour toute v.a. U B mesurable on ait E(ψ(X,Y )U) = E(ZU). E(ψ(X,Y )U) = ψ(x,y)u dp (X,Y,U) (x,y,u). Or Y est indépendante de (X,U), donc dp (X,Y,U) (x,y,u) = dp Y (y) dp (X,U) (x,u). Ainsi, ( ) E(ψ(X,Y )U) = ψ(x,y)dp Y (y) u dp (X,U) (x,u) = E(φ(X)U). Donc E(ψ(X, Y ) B) = φ(x). En appliquant cette proposition à l équation (3.11), on peut écrire V t = F(t, X t ) où la fonction F est définie par F(t, x) = E(e r(t t) σ2 (r f(x e 2 )(T t)+σ(w T W t) )). e rt V t est une martingale, en effet e rt V t = E(f(X T ) F t ). Calculons d(e rt V t ) = d(e rt F(t, X t )). d(e rt F(t, X t )) = e rt { rf(t, X t )dt + t F(t, X t )dt + x F(t, X t )rx t dt + 1 2 xxf(t, X t )σ 2 X 2 t dt + σ xf(t, X t )X t dw t }. (3.12) Puisque l on sait que (e rt V t, t ) est une martingale, on sait que les termes en dt de l équation précédente doivent être nuls. On est alors tenté de définir l opérateur à par Ãu(t, x) = x u(t, x)rx + 1 2 xxu(t, x)σ 2 x 2. De plus F(T, x) = f(x), il est alors naturel de s intéresser à l EDP suivante { ( t u + Ãu ru ) (t, x) = (t, x) [, T] R +, u(t, x) = f(x) x R + dont F(t, x) est solution. Il existe des résultats d existence et d unicité de solutions de classe C 1,2 pour ce genre d équation sous des conditions d ellipticité de l opérateur Ã.

46 3. Simulation de processus et discrétisation d EDS Définition 2. Un opérateur A t = a(t, x) xx + b(t, x) x est dit elliptique si C >, (t, x) [, T] R, a(t, x) > C. Malheureusement ici, l opérateur à n est pas elliptique, on cherche alors à en construire un qui le soit. On pose F(t, x) = F(t, e x ) et X t = ln(x t ). On a donc F(t, X t ) = F(t, X t ). Calculons les dérivées partielles de F et x F(t, x) = x F(t, e x ) e x xx F(t, x) = xx F(t, e x ) e 2x + x F(t, e x ) e x. V t = F(t, X t ) et l équation (3.12) se réécrit d(e rt V t ) = e {[ r rt F(t, X t ) + t F(t, Xt ) + (r 12 ) σ2 x F(t, Xt ) + 1 ] } 2 σ2 xx F(t, Xt ) dt + σ x F(t, Xt )dw t. (3.13) Cette fois, l opérateur A = ( r 1 2 σ2) x + 1 2 σ2 xx est elliptique. Proposition 12. Soit u est une fonction de classe C 1,2 à dérivée première en espace bornée vérifiant { ( t u + Au ru)(t, x) = (t, x) [, T] R, u(t, x) = f(e x ) x R alors (t, x) [, T] R + u(t, ln(x)) = F(t, x). Démonstration. On pose M t = e rt u(t, X t ). Puisque u est de classe C 1,2, on peut appliquer la formule d Itô, dm t = e rt σ x u(t, X t )dw t. Or sup t [,T] x u(t,x t ) est borné donc E T e 2rt σ 2 x u(t, X t ) 2 <, donc M t est une martingale. Ainsi l égalité E(M T ) = E(M ) permet de déduire que u(,ln(x)) = E(e rt u(t, X T )) = E(e rt f(x T )) puisque f(e x ) = u(t,x). Puisque E(e rt f(x T )) = F(,x), on trouve bien l égalité annoncée pour t =. Pour t >, on suit exactement le même principe. Les résultats précédents peuvent être étendus à d autres diffusions beaucoup plus générales sous certaines hypothèses.

3.3. Lien EDP et espérance conditionnelle 47 3.3.2 Cas général Quelques résultats préliminaires On considère une diffusion { dxt = σ(t, X t )dw t + b(t, X t )dt, X = Y (3.14) où Y est une v.a. F mesurable et de carré intégrable. On suppose de plus que les coefficients b et σ vérifient l Hypothèse (H2). Ainsi grâce au Théorème 6, l équation (3.14) admet une unique solution notée (X t, t ). Proposition 13. Soit u une fonction de classe C 1,2 ([, T] R) de dérivée première en espace bornée. On définit l opérateur (A s u)(s, x) = σ2 (s, x) xx u(s, x) + b(s, x) x u(s, x). 2 Le processus est une martingale. M t = u(t, X t ) t ( t u + A s u)(s, X s )ds Démonstration. Cette proposition repose sur l utilisation de la formule d Itô d une part et sur le fait que t xu(s,x s )σ(s,x s )dw s est une martingale d autre part. En effet, x u est bornée et σ est à croissance au plus linéaire et sup s [,t] Xs 2 <. En fait, on peut étendre légèrement le résultat précédent. Proposition 14. Sous les hypothèses de la Proposition 13 et si r est une fonction continue bornée sur [, T] R, le processus M t = e R t r(s,xs)ds u(t, X t ) est une martingale. t e R s r(v,xv)dv ( t u + A s u) (s, X s )ds Calcul d espérances et EDP Soit (X t ) t l unique solution de l équation (3.14). On considère f une fonction de R dans R et r une fonction continue bornée sur [, T] R. On cherche à calculer V t = E (e R ) T r(s,x s)ds t f(x T ) F t.

48 3. Simulation de processus et discrétisation d EDS Grâce à la propriété de Markov des solutions d EDS (voir Friedman [5] pour une démonstration de ce résultat), V t peut s écrire, comme on l a démontré dans le cas du modèle de Black-Scholes V t = F(t, X t ) où F est défini par F(t, x) = E (e R T t ) r(s,xs t,x )ds f(x t,x T ) si l on note X t,x la solution de (3.14) partant de x à l instant t. Le résultat suivant permet alors de renvoyer la détermination de F à la résolution d une EDP parabolique. Théorème 12. Soit u une fonction de classe C 1,2 ([, T) R) de dérivée première en espace bornée vérifiant u(t, x) = f(x) x R, et ( t u + A t u ru)(t, x) = (t, x) [, T) R. Alors (t, x) [, T] u(t, x) = F(t, x) = E (e R T t ) r(s,xs t,x )ds f(x t,x T ). Ainsi pour calculer V t, le Théorème 12 suggère de résoudre le problème { t u + A t u ru = dans [, T) R, u(t, x) = f(x) x R. (3.15) Le problème (3.15) est une équation de type parabolique avec condition terminale. Il faut alors se placer dans un cadre fonctionnel adéquat, dans lequel il existe des théorèmes d existence et d unicité de la solution u. On peut montrer que u = F dès que u est suffisamment régulière pour pouvoir appliquer la Proposition 14. Cette régularité s obtient en général sous des hypothèses d ellipticité de l opérateur A (i.e σ est uniformément minoré sur [, T] R). En pratique, pour résoudre un tel problème on va utiliser une méthode de discrétisation (différences finies par exemple) et on va se restreindre à un ouvert O l =] l, l[ avec l >. On peut montrer que dans le modèle de Black-Scholes, la solution du problème restreint à O l converge uniformément en t et en x si x reste dans un compact de R vers la solution du problème posé sur R tout entier. Pour que le problème restreint à O l soit bien posé, il faut ajouter des conditions aux limites en l et l. On peut par exemple imposer u(t, l) = u(t, l) = pour tout t ou toute autre valeur pertinente pour le problème considéré.

3.3. Lien EDP et espérance conditionnelle 49 3.3.3 Calcul numérique du prix du Call dans le modèle de Black-Scholes On se place sur un intervalle de temps [, T] et on pose f(x) = (x K) + le payoff de l option. Après changement de variable logarithmique ln(x t /X ), on obtient Au(x) = (r 12 ) σ2 x u(x) + 1 2 σ2 xx u(x) ru(x) et on considère le problème ( t u + Au) (t, x) = (t, x) [, T] O l, u(t, x) = f(e x ) x O l, u(t, l) = u(t, l) = t [, T]. Il faut évidemment choisir l de telle manière qu il soit raisonnable de poser u(t, l) = u(t, l) =. On se rappelle que u(t, ln(x)) = E ( e r(t t) f(x t,x T )). On choisit O l de telle sorte que P ( t, ln(x t /X ) O l ) soit très proche de 1. On regarde ln(x t /X ) = (r σ2 2 )t + σw t. On peut montrer que P ( sup s [,T] W s a ) = 2P (W T a). On vérifie facilement que P ( G > 4) à 1 4 près. Ainsi on peut écrire 4σ T ln(x t /X ) (r σ2)t +4σ T à 1 4 près. Si on prend r =.45 2 et σ =.3, alors on peut choisir l = 1.2 par exemple pour T = 1. A ce stade, on discrétise l opérateur A sur O l. On pose x i = l + i 2l pour N+1 i N + 1 et h = 2l. On définit N+1 fi h = f(ex i ). On approche alors les conditions aux limites en posant f = f N+1 =. De même, on définit (u i h ) 1 i N la fonction de la variable t qui correspond à la discrétisation en espace de la fonction u. On discrétise alors logiquement l opérateur A en lui substituant l opérateur A h défini sur R N ( (A h u h ) i = σ2 2h 2(ui+1 h 2u i h + u i 1 h ) + r σ2 2 A h se présente donc sous la forme d une matrice tridiagonale β γ... α β γ... α β γ... A h =.............. α β γ... α β avec ( ) α = σ2 1 r σ2, 2h 2 2h 2 β = σ2 r, 2h 2 ( ) γ = σ2 + 1 r σ2. 2h 2 2h 2 ) 1 2h (ui+1 h u i 1 h ) rui h. (E)

5 3. Simulation de processus et discrétisation d EDS Une fois cette discrétisation en espace effectuée, on se ramène à une équation différentielle ordinaire ne portant que sur le temps { duh dt (t) + A hu h (t) = t [, T], (E h ) u h (T) = f h où f h = (fh i) 1 i N. Il ne reste plus alors qu à discrétiser cette nouvelle équation grâce à des θ schémas. On note k = T le pas de discrétisation en temps. On approche alors la M solution u h de (E h ) à l instant nk par u n h,k défini par u M h,k = f h, u n+1 h,k un h,k k + θa h u n h,k + (1 θ)a hu n+1 h,k = si n M 1. (E h,k ) Remarque 12. Pour θ =, le schéma précédent s appelle schéma explicite, en effet u n h,k se calcule en un+1 h,k. En revanche lorsque θ >, il faut à chaque étape résoudre un système Tu n h,k = b où T = IθkA h et b = (I + (1 θ)ka h )u n+1 h,k. La matrice T est tridiagonale. La résolution est beaucoup plus coûteuse d un point de vue informatique. Néanmoins ces schémas sont très appréciés pour leur bonne convergence. Pour θ = 1/2, le schéma précédent s appelle schéma de Crank et Nicholson. C est le schéma le plus utilisé en pratique grâce à ses bonne propriétés de convergence. Pour θ = 1, le schéma précédent s appelle schéma totalement implicite. Remarque 13. Convergence des schémas : Pour θ < 1/2, les schémas sont dits conditionnellement convergents, la convergence n ayant lieu que si h, k et k/h 2 tendent tous trois vers sauf lorsque θ =. Ces schémas sont numériquement difficiles à exploiter. Lorsque 1/2 θ 1, les schémas convergent sans condition particulière liant k et h. Evidemment l utilisation de ces techniques d EDP n est pas nécessaire pour calculer le prix des Call et Put européens dans le modèle de Black-Scholes puisque nous disposons de formules fermées pour calculer ces prix. Par contre dans des modèles de diffusion plus complexes, nous n avons bien souvent plus de formules fermées, il faut alors recourir à des techniques d approximation numériques. Les méthodes de Monte Carlo présentent le grand avantage par rapport aux techniques d EDP de n être que très peu sensibles à la dimension du modèle. En effet on imagine assez mal discrétiser une EDP avec un paramètre x dans R 3 par exemple. La taille de la grille de discrétisation explose alors très rapidement. On retiendra donc qu en grande dimension (supérieure à 2 ou 3) on préfère utiliser des méthodes de Monte Carlo.

3.3. Lien EDP et espérance conditionnelle 51 Erreur forte du schma d Euler 112e 4 11e 4 18e 4 16e 4 14e 4 12e 4 1e 4 1e3 2e3 3e3 4e3 5e3 6e3 7e3 8e3 9e3 1e3 N Fig. 3.1 Erreur forte du schéma d Euler Erreur forte du schma de Mihlstein 71e 6 67e 6 63e 6 59e 6 55e 6 51e 6 47e 6 43e 6 1e3 2e3 3e3 4e3 5e3 6e3 7e3 8e3 9e3 1e3 N Fig. 3.2 Erreur forte du schéma de Milshtein

Bibliographie [1] V. Bally and D. Talay. The law of the Euler scheme for stochastic differential equations. I. Convergence rate of the distribution function. Probab. Theory Related Fields, 14(1) :43 6, 1996. ISSN 178-851. [2] V. Bally and D. Talay. The law of the Euler scheme for stochastic differential equations. II. Convergence rate of the density. Monte Carlo Methods Appl., 2 (2) :93 128, 1996. ISSN 929-9629. [3] M. Duflo. Random Iterative Models. Springer-Verlag Berlin and New York, 1997. [4] S. N. Ethier and T. G. Kurtz. Markov processes. Wiley Series in Probability and Mathematical Statistics : Probability and Mathematical Statistics. John Wiley & Sons Inc., New York, 1986. ISBN -471-8186-8. Characterization and convergence. [5] A. Friedman. Stochastic differential equations and applications. Vol. 2. Academic Press [Harcourt Brace Jovanovich Publishers], New York, 1976. Probability and Mathematical Statistics, Vol. 28. [6] I. Karatzas and S. E. Shreve. Brownian motion and stochastic calculus, volume 113 of Graduate Texts in Mathematics. Springer-Verlag, New York, second edition, 1991. ISBN -387-97655-8. [7] H. J. Kushner. Approximation and weak convergence methods for random processes, with applications to stochastic systems theory. MIT Press Series in Signal Processing, Optimization, and Control, 6. MIT Press, Cambridge, MA, 1984. ISBN -262-119-3. [8] H. J. Kushner and P. G. Dupuis. Numerical methods for stochastic control problems in continuous time, volume 24 of Applications of Mathematics (New York). Springer-Verlag, New York, 1992. ISBN -387-97834-8. 53

54 BIBLIOGRAPHIE [9] D. Lamberton and B. Lapeyre. Introduction au calcul stochastique appliqué à la finance. Ellipses Édition Marketing, Paris, second edition, 1997. ISBN 2-7298-4782-. [1] D. Talay and L. Tubaro. Expansion of the global error for numerical schemes solving stochastic differential equations. Stochastic Anal. Appl., 8(4) :483 59 (1991), 199. ISSN 736-2994.