Méthodes numériques pour les options Américaines



Documents pareils
Probabilités III Introduction à l évaluation d options

MATHS FINANCIERES. Projet OMEGA

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Le modèle de Black et Scholes


TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Introduction au pricing d option en finance

Simulation de variables aléatoires

de calibration Master 2: Calibration de modèles: présentation et simulation d

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Théorie Financière 8 P. rod i u t its dé dérivés

TRAVAIL D ETUDE ET DE RECHERCHE. Utilisation des arbres binomiaux pour le pricing des options américaines

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Texte Agrégation limitée par diffusion interne

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Calcul Stochastique pour la finance. Romuald ELIE

Cours d analyse numérique SMI-S4

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

3. Conditionnement P (B)

I. Polynômes de Tchebychev

3 Approximation de solutions d équations

Résolution de systèmes linéaires par des méthodes directes

Hedging delta et gamma neutre d un option digitale

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Finance, Navier-Stokes, et la calibration

Espérance conditionnelle

MÉTHODE DE MONTE CARLO.

Modèles et Méthodes de Réservation

PROJET MODELE DE TAUX

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Propriétés des options sur actions

Produits de crédit en portefeuille

Options et Volatilité (introduction)

Options exotiques. April 18, 2000

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Moments des variables aléatoires réelles

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

4. Martingales à temps discret

Calibration de Modèles et Couverture de Produits Dérivés

NON-LINEARITE ET RESEAUX NEURONAUX

Capital économique en assurance vie : utilisation des «replicating portfolios»

Calculating Greeks by Monte Carlo simulation

Génération de scénarios économiques

Manuel d Utilisateur - Logiciel ModAFi. Jonathan ANJOU - Maud EYZAT - Kévin NAVARRO

Prix et couverture d une option d achat

Programmation linéaire

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Mesure et gestion des risques d assurance

Introduction à l approche bootstrap

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Dérivés Financiers Options

La classification automatique de données quantitatives

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

MCMC et approximations en champ moyen pour les modèles de Markov

QUESTIONS D ENTRETIENS EN FINANCE DE MARCHE

Résumé des communications des Intervenants

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

CAPTEURS - CHAINES DE MESURES

Valorisation d es des options Novembre 2007

Liste des notes techniques... xxi Liste des encadrés... xxiii Préface à l édition internationale... xxv Préface à l édition francophone...

Value at Risk. CNAM GFN 206 Gestion d actifs et des risques. Grégory Taillard. 27 février & 13 mars 20061

Mesures gaussiennes et espaces de Fock

Processus aléatoires avec application en finance

Quantification Scalaire et Prédictive

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

FIMA, 7 juillet 2005

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

ERRATA ET AJOUTS. ( t) 2 s2 dt (4.7) Chapitre 2, p. 64, l équation se lit comme suit : Taux effectif = 1+

Théorie des sondages : cours 5

Principe de symétrisation pour la construction d un test adaptatif

Probabilités sur un univers fini

Image d un intervalle par une fonction continue

Programmes des classes préparatoires aux Grandes Ecoles

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Résolution d équations non linéaires

Méthodes de Simulation

1 Introduction et modèle mathématique

CCP PSI Mathématiques 1 : un corrigé

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Théorème du point fixe - Théorème de l inversion locale

Introduction à l étude des Corps Finis

Intégration et probabilités TD1 Espaces mesurés

Optimisation Discrète

Apprentissage non paramétrique en régression

Module 7: Chaînes de Markov à temps continu

Raisonnement probabiliste

Pratique des options Grecs et stratégies de trading. F. Wellers

Équation de Langevin avec petites perturbations browniennes ou

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Calibration de modèles et couverture de produits dérivés

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

TSTI 2D CH X : Exemples de lois à densité 1

Probabilités sur un univers fini

Équations non linéaires

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Transcription:

Méthodes numériques pour les options Américaines Jérôme Lelong Année 2009-2010 J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 1 / 43

1 Introduction Le modèle de marché Options Bermuda Définition et valorisation Options Américaines 2 Les algorithmes Monte Carlo Algorithme de Longstaff Schwartz Méthode duale Théorie Implémentation J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 2 / 43

Le modèle de marché On considère un modèle de Black Scholes d dimensionnel. Soit S t := ( St 1 ),...,Sd t le vecteur des cours des actifs. ( W 1 t,...,wt d ) t 0 d M.B. standard de matrice de corrélation Γ, on note L sa racine carrée (obtenue par factorisation de Cholesky par exemple). r > 0 le taux d intérêt sans risque (supposé constant). δ 1,...,δ d > 0 les taux de dividende des actifs S 1 t,...,sd t, supposés déterministes et constants. σ := (σ 1,...,σ d ) le vecteur des volatilités des actifs. S 0 := ( S 1 0,...,Sd 0 ) le vecteur des valeurs initiales des actifs (supposées déterministes). J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 3 / 43

Le modèle de marché (cont.) Sous la probabilité risque neutre la dynamique du court de l actif i est donnée par ( ) dst i = Si t (r δ i )dt + σ i dwt i. Soit de manière équivalente ds i t = Si t( (r δi )dt + σ i L i db t ), avec B un M.B d dimensionnel et L i la i eme ligne de la matrice L. S i t = Si 0 exp ((r δ i 1 2 σ2 i )t + σ i L i B t ), J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 4 / 43

Options Bermudas I Considérons une grille de temps 0 = t 0 < t 1 < < t N = T de pas δt. Une option Bermuda peut être exercée à tout instant t 0,...,t N, et paye φ(s tk ) si elle est exercée à l instant t k. Son prix à l instant t est donné par { VtN = φ(s tn ) V tk = max ( φ(s tk ),E[e rδt V tk+1 F tk ] ) pour k=n 1,...,0 De manière équivalente en posant Ṽ t := e rt V t {ṼtN = e rt N φ(s tn ) Ṽ tk = max ( e rt k φ(s tk ), E[Ṽ tk+1 F tk ] ), 0 k N 1. T k,n = { t.a. à valeurs dans {t k,...,t N } }. (Ṽ tk ) tk est l enveloppe de Snell de la suite (e rt k φ(s tk )) tk. Ṽ tk = esssup τ T k,n E[e rτ φ(s τ ) F tk ]. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 5 / 43

Options Bermudas I (cont.) τ k := min{t {t k,...,t N }, φ(s t )e rt = Ṽ t } est le t.a. optimal après t k sur l intervalle de temps discret [t k,t N ]. Ṽ tk = E[e rτ k φ(s τ k ) F t k ]. (Ṽ tk ) k est le prix actualisé à l instant t k. Remarque : S est un processus de Markov, on peut remplacer F t par S t. V tk = E[e r(τ k t k) φ(s τ k ) S t k ] V tk = esssupe[e r(τ tk) φ(s τ ) S tk ] (1) τ T k,n J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 6 / 43

Essentiel sup Soit (X i ) i I une famille de v.a. réelles. On peut définir la notion de sup i I X i ω par ω mais est-ce une variable aléatoire? Oui si I est dénombrable. Contre exemple : Soit I [0,1], on définit X i = 1 {U=i} pour i I avec U U [0,1]. sup i I X i (ω) = 1 {U(ω) I}. C est une variable aléatoire ssi I est un ensemble mesurable. On définit X = esssup i X i par X est une v.a. (X X i p.s) i si (X X i p.s.) i alors X Xp.s. C est la plus petite v.a. majorant les X i, i I. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 7 / 43

Options Américaines Une option américaine de maturité T est un contrat qui peut être exercé, à la discrétisation de son détenteur, à tout instant entre [0,T]. Une option américaine peut donc être vue comme une option Bermuda limite avec N =. Ainsi, le prix est à l instant d une option américaine de maturité T et de payoff φ est donné par P(t,S t ) := esssup τ T t,t E[e r(τ t) φ(s τ ) S t ], avec T t,t = { t.a. à valeurs dans [t,t] }. En pratique, on considère toujours des options Bermuda. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 8 / 43

1 Introduction Le modèle de marché Options Bermuda Définition et valorisation Options Américaines 2 Les algorithmes Monte Carlo Algorithme de Longstaff Schwartz Méthode duale Théorie Implémentation J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 9 / 43

Les algorithmes 3 types d algorithmes : 1. Itération sur les politiques d arrêt : Longstaff & Schwartz (a) approximation du temps d arrêt optimal τ, (b) calcul de E(e rτ φ(s τ )) par une méthode de Monte Carlo. 2. Itération sur les valeurs : quantification, Tsitsiklis VanRoy,... (a) utilisation de l équation de programmation dynamique, (b) approximation de l espérance conditionnelle E[e rδt P(t k,s tk ) S tk 1 ], (c) P(t 0,S t0 ) donne le prix à l instant 0. 3. Méthodes duales J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 10 / 43

Rappel du problème Une option de payoff φ que l on peut exercer en N dates 0 = t 0 < t 1 < < t N = T (subvision supposée régulière de pas δt). Le prix à l instant t d une telle option est donné par P(t,S t ) = esssup τ T t,t E [ e r(τ t) φ(s τ ) S t ] { } où T t,t = t.a. à valeurs dans[t,t] {t 0,,t N }. P satisfait { P(T,ST ) = φ(s T ) P(t,S t ) = max ( φ(s t ),E[e rδt P(t + δt,s t+δt ) S t ] ) pour t=t 0,...,t N 1 [ ] P(t k,s tk ) = E e rτ k φ(s τ ) S t avec k τ k = inf{ t {t k,...,t N },φ(s t ) = P(t,S t ) } τ k = inf{ t {t k,...,t N },φ(s t ) e rδt E[P(t + δt,s t+δt ) S t ] } J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 11 / 43

1 Introduction Le modèle de marché Options Bermuda Définition et valorisation Options Américaines 2 Les algorithmes Monte Carlo Algorithme de Longstaff Schwartz Méthode duale Théorie Implémentation J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 12 / 43

Algorithme de Longstaff Schwartz Principe : Tirer M trajectoires du modèle de Black Scholes (ω i ) 1 i M. Sur chaque trajectoire, calculer la quantité τ (ω i ). P 0 = P(t 0,S t0 ) est ensuite calculé par une méthode de Monte Carlo P M 0 = 1 M M e rτ (ω i ) φ(s τ (ω i )(ω i )) (2) i=1 Construction de τ : équation de programmation dynamique sur les politiques d arrêt. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 13 / 43

Programmation dynamique pour τ On cherche à construire une suite (τ i ) 0 i N de manière rétrograde t.q. pour i fixé, τ i soit le t.a. optimal après l instant t i. τ i := min { t {t i,...,t N }, φ(s t ) P(t,S t ) }. La suite (τ i ) 0 i N peut se réécrire de manière récursive { τ N = T τ i = t i 1 {φ(sti ) P(t i,s ti )} + τ i+1 1 {φ(s ti )<P(t i,s ti )} 0 i N 1. On peut supprimer la dépendance en P grâce à l équivalence ( ) φ(s ti ) < P(t,S ti ) max φ(s ti ),E[e rδt P(t i+1,s ti+1 ) S t ] = E[e rδt P(t i+1,s ti+1 ) S t ] [ φ(s ti )e rδt < E E [ e rτ i+1 φ(sτ ) S ] ] t Sti i+1 i+1. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 14 / 43

Programmation dynamique pour τ On cherche à construire une suite (τ i ) 0 i N de manière rétrograde t.q. pour i fixé, τ i soit le t.a. optimal après l instant t i. τ i := min { t {t i,...,t N }, φ(s t ) P(t,S t ) }. La suite (τ i ) 0 i N peut se réécrire de manière récursive { τ N = T τ i = t i 1 {φ(sti ) P(t i,s ti )} + τ i+1 1 {φ(s ti )<P(t i,s ti )} 0 i N 1. On peut supprimer la dépendance en P grâce à l équivalence ( ) φ(s ti ) < P(t,S ti ) max φ(s ti ),E[e rδt P(t i+1,s ti+1 ) S t ] = E[e rδt P(t i+1,s ti+1 ) S t ] [ ] φ(s ti )e rδt < E e rτ i+1 φ(sτ ) S t i+1 i. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 14 / 43

Programmation dynamique pour τ (cont.) On pose { } A i := φ(s ti )e rδt E[e rτ i+1 φ(sτ ) S t i+1 i ]. (3) τ i { τ N = T = t i 1 Ai + τ i+1 1 A c i 0 i N 1. (4) Il n y a plus de dépendance en P, seulement en (τ,j N). j Principale difficulté : approcher ψ i (S ti ) := E[e rτ i+1 φ(s τ ) S t i+1 i ]. Idée : Utiliser le fait que l espérance conditionnelle est une projection L 2 et minimiser E[ e rτ i+1 φ(s τ ) ψ i(s ti ) 2 ] pour ψ i dans un ensemble de i+1 fonctions bien choisies. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 15 / 43

LS : étape de régression Dans la suite, on pose f (t,x) = e rt φ(x). [ On cherche à minimiser E (f (τ i+1,s τ ) ψ i(s ti )) 2]. i+1 Soit (g l,l 1) une famille totale de fonctions R d R t.q. E(g l (S ti )g l (S ti ) T ) < pour tout (i,l). g L 2 (L (S ti )) pour tout i. ψ i = l 1 α i l g l := α i g. Le calcul de E[f (τ i+1,s τ i+1 ) S t i ] est remplacé par la détermination de α i qui minimise [ ( ) ] 2 α E f (τ i+1,s τ ) (α g)(s t i+1 i ). J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 16 / 43

algorithme d arrêt optimal Ensure: Initialisation : τ N = t N for i = N 1 to 0 do détermination de α i = (α i,l 1) qui minimise l [ ( ) ] 2 α E f (τ i+1,s τ ) (α g)(s t i+1 i ). (5) On définit end for Remarque : τ i = t i 1 {f (ti,s ti )e rδt (α i g)(s ti )} + τ i+1 1 {f (t i,s ti )e rδt <(α i g)(s ti )}. α i est un vecteur de taille infinie. L espérance n est pas connue explicitement. Besoin de 2 approximations : tronquer α i : revient à prendre une famille libre finie plutôt qu une famille totale, calculer l espérance dans (5) grâce à une méthode de Monte Carlo. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 17 / 43

troncature de la famille de régression On projette sur une famille à k éléments. Ensure: Initialisation : ˆτ k N = t N for i = N 1 to 1 do Détermination de ˆα i,k = ( ˆα i,k,1 l k) qui minimise l [ ( ) ] 2 α E f ( ˆτ k i+1,sˆτ k (α g)(s ti ) i+1) On définit ˆτ k i = t i 1 {f (ti,s ti )e rδt ( ˆα i,k g)(s ti )} + ˆτk i+1 1 {f (t i,s ti )e rδt <( ˆα i,k g)(s ti )}. end for [ P0 (φ(s k = max t0 ), E f ( ˆτ k ) ]) 1,Sˆτ k. 1 J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 18 / 43

somme Monte Carlo au lieu de E Ensure: (S (m),m = 1,...,M) M copies indépendantes de (S t1,...,s tn ) Ensure: ˆτ (m),m,k N = t N, m = 1,...,M for i = N 1 to 1 do Détermination de ˆα i,m,k = ( ˆα i,m,k,1 l k) qui minimise l α 1 [ ( ) M 2 f ˆτ (m),m,k,s (m) (α g)(s (m) M i+1 ˆτ (m),m,k t i )]. for m = 1 to M do m=1 i+1 ˆτ (m),m,k i = t i 1 { f (t i,s (m) t )e rδt ( ˆα i,k g)(s } (m) + ˆτ (m),m,k i t ) i i+1 1 { f (t i,s (m) t i )e rδt (m) <( ˆα i,k g)(s }. t ) i end for end for ( P M,k 1 0 = max φ(s t0 ), M M m=1 f ( ˆτ (m),m,k 1,S (m) ) ). ˆτ (m),m,k 1 J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 19 / 43

Quelques commentaires Algorithme robuste car une erreur sur l estimation de E( ) (i.e. sur le calcul des ˆα i,k ) n engendre pas forcément une erreur sur le calcul de la stratégie optimale. Il peut être intéressant de travailler avec S tj = Σ 1 j (S tj m j ) m j = E(S tj ) = (S0 i e(r δ i)t j ) i [ ( ) ] Σ 2 j = Var(S t j ) = m p j mq exp t j j σ p σ q L pk L qk 1. Besoin de garder toutes les trajectoires pour pouvoir calculer 1 M M f m=1 empreinte mémoire : M N d. ( ) τ (m),m,k 1,S (m). τ (m),m,k 1 k J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 20 / 43

Améliorations On utilise la simulation rétrograde du Brownien pour ne pas conserver toutes les trajectoires. On ne garde à chaque étape j de l algorithme que les vecteurs du Brownien (S (m) t,m = 1,...,M), j du sous-jacent arrêté (S (m) τ (m),m,k j,m = 1,...,M). On utilise la simulation rétrograde de S tj sachant S tj+1. Taille : M d au lieu de M d N. Mise en œuvre de variables antithétiques dans la simulation des trajectoires des actifs. Si à l instant t j, φ(s tj ) = 0, on n exerce pas l option. Pas besoin de calculer E[f (τ i+1,s τ i+1 ) S t i ] sur l ensemble {φ(s tj ) = 0}. = On ne garde que les trajectoires à la monnaie. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 21 / 43

Simulation rétrograde du Brownien On cherche S tj connaissant S tj+1 (et aussi S 0 ). On utilise la simulation rétrograde du Brownien. Sachant B tj+1 = b, la loi de B tj est une loi gaussienne ( N b t ) j t j, (t j+1 t j ). t j+1 t j+1 Preuve : Il suffit de considérer la v.a. Y j = B tj βb tj+1 et de chercher β pour que Y j B tj+1. = β = t j t j+1. Y j est une gaussienne centrée indépendante de B tj+1, reste à calculer sa variance. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 22 / 43

Résolution du problème des moindres carrés ( On cherche α = argmin M R k i=1 [Z i (α g)(x i )] 2). Soit en dérivant par rapport à α j ( ( ) M k Z i α l g l )(X i ) g j (X i ) = 0, l=0 ( ) k M M g j (X i )g l (X i ) α l = Z i g j (X i ). i=1 i=1 i=1 l=0 ( ) M M Z i g(x i ) = Dα avec D = g j (X i )g l (X i ) i=1 i=1 D est symétrique définie positive. Grâce à l algorithme de Cholesky, D = T T (T triangulaire inférieure). Reste 2 systèmes triangulaires à résoudre. En pratique, D est mal conditionnée. L algorithme de Cholesky trouve des valeurs propres nulles ou légèrement négatives ( 10 6 ). j,l. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 23 / 43

Résolution du problème des moindres carrés (cont.) Alternatives : factorisation QR : D = QR où Q est une matrice orthogonale et R une matrice triangulaire supérieure. On peut ajouter une permutation P, DP = QR ( D = QRP T ) factorisation PD = LU, la permutation P permet d améliorer la stabilité numérique. Utilisation d une bibliothèque externe pour résoudre un système linéaire mal conditionné. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 24 / 43

Convergence du problème de minimisation On cherche à approcher E[Y X] par λ g(x) où λ = argmin λ E [ Y k l=1 λ lg l (X) 2 ]. Comme on ne sait pas calculer l espérance dans le problème de minimisation, on considère plutôt λ M, 1 = argmin λ M M k Y i λ l g l (X i ) i=1 l=1 2 Résultats sur la convergence des M estimateurs (c.f. les travaux de Shapiro) : λ M λ p.s. où λ = argmin λ R k E [ Y k l=1 λ lg l (X) 2 ] et il existe un TCL M(λ M, λ ) N (0,...) M convergence de λ M, quand M,k? L Dans Longstaff & Schwartz, il y a imbrication des régressions : Y = ψ M (X i+1 ) où ψ M a été calculée par simulation sur (X i+1,x i+2,...). J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 25 / 43

Choix de la base de régression On peut ajouter le payoff à la base au moins pour les temps proches de la maturité. La base peut changer au cours du temps. Souvent une famille de polynômes Attention à ne pas avoir une famille trop riche = risque d over-fitting, mauvaise stabilité numérique Glasserman et Yu (2004) : Number of paths vs number of basis functions in American option pricing. Cas log-normal : k = O( logm). Exemple :M = 100,000, k 4. Pour d = 3, polynômes d ordre 2. Cas normal : k = O(logM). Exemple :M = 100,000, k 12. Pour d = 3, polynômes d ordre 3. En dimension > 1, produit tensoriel de functions de 1 variable. Pour réduire le mauvais conditionnement du problème, considérer S t /S 0 comme variable (ou mieux S t /Var(S t )) + passage en variable log éventuellement. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 26 / 43

Choix de la base de régression (cont.) (C l ) l ensemble 2 à 2 disjoints. On considère g l = 1 {Cl }. On cherche à approcher m(x) = E[Y X] en minimisant λ E [ Y k l=1 λ lg l (X) 2 ]. λ l = E[ Y 1 {Cl }(X) ] P(X C l ) m:x m C l Y m #{m : X m C l }. La matrice de régression est diagonale. Choix du pavage : λ M l Cellules de Voronoï : coût de la recherche du plus proche voisin, il existe des algorithmes en log(k ) pavage régulier : savoir si x C l est immédiat. En dimension 1, il suffit de calculer une partie fractionnaire. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 27 / 43

Choix de la base de régression (cont.) Si m est Lipschitzienne, C = sup l diam(c l ). k k E[(m(X) λ l g l (X)) 2 ] E[(m(X) m(x k )) 2 1 {X Ck }] + E[m(X) 2 1 {X Ck }] l=1 l=1 lip C 2 k l=1 P(X C k ) + m 2 P(X C k). C doit être petit P(X C k ) doit être petite : estimation des queues de distribution de X. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 28 / 43

complexité A chacune des N étapes : M d pour la simulation du sous-jacent, k(k + 1)/2 M pour calculer D où k est le nombre de régresseurs. En réalité, seulement k(k + 1)/2 #{m : φ(s (m) t j ) > 0}. Algorithme de Cholesky : k 3 /6. Algorithme QR : 2k 3 /3 Cholesky Résolution du système triangulaire : k 2. = O(N M k 2 ). J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 29 / 43

convergence Résultats rigoureux de convergence dus à E. Clément, D. Lamberton et P. Protter An Analysis of a least square regression method for American option pricing, Finance and Stochastics, 2002. P k 0 P 0 dans L 2 quand k. A k fixé, P k,m 0 P0 k p.s. quand N. Un TCL existe également pour cette convergence mais d expression de la variance limite apparaissant dans le TCL. = pas d intervalle de confiance. α i,k,m α j,m p.s. pour tout i = 1,...,N. ) 1 [ ] M M j=1 (S φ (m) E φ(s τ (m),m,k τ k ) p.s. pour tout i = 1,...,N. i i J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 30 / 43

Exemples numériques Modèle de Black Scholes en dimension 3. Spot 100 100 100 Volatility 0.2 0.2 0.2 Interest rate 0.0488 0.0488 0.0488 Dividend rate 0 Correlation 0.3 Strike 100 Maturity 1 J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 31 / 43

LS : Influence du nombre de régresseurs (put) 2.9 2.8 2.7 2.6 2.5 2.4 2.3 sans payoff avec payoff 1 2 3 4 5 6 7 8 9 10 FIG.: Influence du nombre de régresseurs J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 32 / 43

LS : Influence du nombre de régresseurs (put min) 13.1 13.0 12.9 12.8 12.7 12.6 12.5 12.4 12.3 sans payoff avec payoff 1 2 3 4 5 6 7 8 9 10 FIG.: Influence du nombre de régresseurs J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 33 / 43

LS : variables antithétiques (Call) 8.57 standard antithetique 8.53 8.49 prix 8.45 8.41 8.37 1e4 2e4 3e4 4e4 5e4 nb tirages FIG.: Réduction de variance J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 34 / 43

LS : nombre de dates d exercice (Call) 8381e 3 8379e 3 8377e 3 8375e 3 8373e 3 8371e 3 8369e 3 10 20 30 40 50 60 70 80 90 100 FIG.: Cv en fonction du nbre de dates d exercice (50000 tirages) J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 35 / 43

LS : nombre de dates d exercice (Put) 4.06 4.05 4.04 prix 4.03 4.02 4.01 4.00 10 20 30 40 50 60 70 80 90 100 nb dates exercice FIG.: Cv en fonction du nbre de dates d exercice (50000 tirages) J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 36 / 43

1 Introduction Le modèle de marché Options Bermuda Définition et valorisation Options Américaines 2 Les algorithmes Monte Carlo Algorithme de Longstaff Schwartz Méthode duale Théorie Implémentation J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 37 / 43

Méthodes duales I U t = esssup τ T t,t E[e rτ φ(s τ )] (U t ) t est une sur-martingale. Décomposition de Doob-Meyer : U t = U 0 + M t A t où M est une martingale nulle en zéro et A un processus croissant prévisible nul en zéro. Rogers (2002) et Haugh & Kogan (2001) ont montré que Théorème 1 [ ] U 0 = inf M H0 1 E sup(e φ(s t ) M t ) t T avec H 1 0 l ensemble des martingales nulles en zéro et t.q. sup t T M t est intégrable. De plus, M réalise l infimum. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 38 / 43

Méthodes duales II Idées de la preuve. 1 U 0 = sup τ T E[e rτ φ(s τ )] = supe[e rτ φ(s τ ) M τ ] τ T 2 D autre part, e rt φ(s t ) U t = U 0 + M t A t. E[sup(e rt φ(s t ) M t )] t T inf M H 1 0 E[sup t T (e rt φ(s t ) M t )] E[sup(e rt φ(s t ) Mt )] t T E[sup(U t Mt t T = U 0. )] = E[sup(U 0 A t )] t T J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 39 / 43

Approche de Rogers pour le Put (dimension 1) I 1 Approcher le prix par inf λ E[sup t T (e rt φ(s t ) λm t )]. 2 Un bon choix de M dm t = 1 {t t}d C(t,S t ), avec t = inf{t 0 : S t K } et C(t,S t ) le prix actualisé de l option européenne correspondante à l instant t. 3 Calculer inf λ E[sup t T (e rt φ(s t ) λm t )] avec le M précédent. λ E[sup t T (e rt φ(s t ) λm t )] est une fonction convexe. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 40 / 43

Approche de Rogers pour le Put (dimension 1) II 1. (S (m),m = 1,...,M) M copies indépendantes de (S t1,...,s tn ). 2. Pour chaque (t i,s (m) t i ) calculer le prix actualisé C(t i,s (m) t i ) de l option européenne en ce point grâce à la formule de Balck & Scholes. 3. Calculer (M (m) t i ) pour m = 1,...,M et i = 0,...,N. M (m) = 0 et { } I (m) = min i 0 : S (m) K M (m) t i t i t i+1 = M (m) + 1 {i I (m) }( C(t i+1,s (m) t i+1 ) C(t i,s (m) t i ) 4. On cherche λ [λ, λ]. Soit λ 0 = 0, λ 0 = λ et λ 0 = λ. { λn+1 = λ n +λ n 2, λn = λ n si le taux accroissement en λ n > 0 λ n+1 = λ n +λ n 2, λ n = λ n si le taux accroissement en λ n 0 Arrêt : taux d accroissement < seuil J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 41 / 43

Autre approche I Belomestny, Bender, Schoenmakers (2007), True upper bounds for Bermudan products via non-nested Monte Carlo. (Y tj ) j approximation du processus de prix U t aux dates {t 0,,t N } Y tj = Y 0 + M tj + A tj où A est prévisible, A 0 = 0 et M martingale nulle en 0. A ti+1 A tj = E tj (Y tj+1 ) Y tj, M ti+1 M tj = Y tj+1 E tj (Y tj+1 ). Si E( M t 2 ) < t, Z = (Z 1,,Z d ) tel que M tj = t j 0 Z tdw t. On considère une partition π = {s 1,,s L } {t 0,,t N }. Y tj+1 Y tj Z si (W si+1 W si ) + A tj+1 A tj s i π:t j s i <t j+1 Z d s i 1 [ E si (Ws d s i+1 s i+1 Ws d i )Y tj+1 ], t j s i < t j+1 i J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 42 / 43

Autre approche II Calcul de E si [ (W d s i+1 W d s i )Y tj+1 ], Si on a une stratégie d exercice (τ 1,,τ n ), on sait que Y tj = E tj [e rτ j φ(s τj )], puis Z d s i 1 [ ] E si (Ws d s i+1 s i+1 Ws d i )e rτ j φ(s τj ), t j s i < t j+1 i = pas d espérances conditionnelles imbriquées. ] E si [(W s d i+1 Ws d i )e rτ j φ(s τj ) = g(s si ). g est approchée par une technique de moindres carrés comme dans LS. [ lim π 0 E max 0 j N M tj Mt j 2] = 0. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 43 / 43

Algorithme de Cholesky Factorisation de Cholesky d une matrice carrée symétrique positive A de taille n Pour k = 1,...,n faire T k,k = A k,k T 2 k,j, j<k pour i = k + 1,...,n faire A i,k T k,j T i,j j<k T i,k = T k,k. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 1 / 1