Méthodes numériques pour les options Américaines Jérôme Lelong Année 2009-2010 J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 1 / 43
1 Introduction Le modèle de marché Options Bermuda Définition et valorisation Options Américaines 2 Les algorithmes Monte Carlo Algorithme de Longstaff Schwartz Méthode duale Théorie Implémentation J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 2 / 43
Le modèle de marché On considère un modèle de Black Scholes d dimensionnel. Soit S t := ( St 1 ),...,Sd t le vecteur des cours des actifs. ( W 1 t,...,wt d ) t 0 d M.B. standard de matrice de corrélation Γ, on note L sa racine carrée (obtenue par factorisation de Cholesky par exemple). r > 0 le taux d intérêt sans risque (supposé constant). δ 1,...,δ d > 0 les taux de dividende des actifs S 1 t,...,sd t, supposés déterministes et constants. σ := (σ 1,...,σ d ) le vecteur des volatilités des actifs. S 0 := ( S 1 0,...,Sd 0 ) le vecteur des valeurs initiales des actifs (supposées déterministes). J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 3 / 43
Le modèle de marché (cont.) Sous la probabilité risque neutre la dynamique du court de l actif i est donnée par ( ) dst i = Si t (r δ i )dt + σ i dwt i. Soit de manière équivalente ds i t = Si t( (r δi )dt + σ i L i db t ), avec B un M.B d dimensionnel et L i la i eme ligne de la matrice L. S i t = Si 0 exp ((r δ i 1 2 σ2 i )t + σ i L i B t ), J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 4 / 43
Options Bermudas I Considérons une grille de temps 0 = t 0 < t 1 < < t N = T de pas δt. Une option Bermuda peut être exercée à tout instant t 0,...,t N, et paye φ(s tk ) si elle est exercée à l instant t k. Son prix à l instant t est donné par { VtN = φ(s tn ) V tk = max ( φ(s tk ),E[e rδt V tk+1 F tk ] ) pour k=n 1,...,0 De manière équivalente en posant Ṽ t := e rt V t {ṼtN = e rt N φ(s tn ) Ṽ tk = max ( e rt k φ(s tk ), E[Ṽ tk+1 F tk ] ), 0 k N 1. T k,n = { t.a. à valeurs dans {t k,...,t N } }. (Ṽ tk ) tk est l enveloppe de Snell de la suite (e rt k φ(s tk )) tk. Ṽ tk = esssup τ T k,n E[e rτ φ(s τ ) F tk ]. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 5 / 43
Options Bermudas I (cont.) τ k := min{t {t k,...,t N }, φ(s t )e rt = Ṽ t } est le t.a. optimal après t k sur l intervalle de temps discret [t k,t N ]. Ṽ tk = E[e rτ k φ(s τ k ) F t k ]. (Ṽ tk ) k est le prix actualisé à l instant t k. Remarque : S est un processus de Markov, on peut remplacer F t par S t. V tk = E[e r(τ k t k) φ(s τ k ) S t k ] V tk = esssupe[e r(τ tk) φ(s τ ) S tk ] (1) τ T k,n J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 6 / 43
Essentiel sup Soit (X i ) i I une famille de v.a. réelles. On peut définir la notion de sup i I X i ω par ω mais est-ce une variable aléatoire? Oui si I est dénombrable. Contre exemple : Soit I [0,1], on définit X i = 1 {U=i} pour i I avec U U [0,1]. sup i I X i (ω) = 1 {U(ω) I}. C est une variable aléatoire ssi I est un ensemble mesurable. On définit X = esssup i X i par X est une v.a. (X X i p.s) i si (X X i p.s.) i alors X Xp.s. C est la plus petite v.a. majorant les X i, i I. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 7 / 43
Options Américaines Une option américaine de maturité T est un contrat qui peut être exercé, à la discrétisation de son détenteur, à tout instant entre [0,T]. Une option américaine peut donc être vue comme une option Bermuda limite avec N =. Ainsi, le prix est à l instant d une option américaine de maturité T et de payoff φ est donné par P(t,S t ) := esssup τ T t,t E[e r(τ t) φ(s τ ) S t ], avec T t,t = { t.a. à valeurs dans [t,t] }. En pratique, on considère toujours des options Bermuda. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 8 / 43
1 Introduction Le modèle de marché Options Bermuda Définition et valorisation Options Américaines 2 Les algorithmes Monte Carlo Algorithme de Longstaff Schwartz Méthode duale Théorie Implémentation J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 9 / 43
Les algorithmes 3 types d algorithmes : 1. Itération sur les politiques d arrêt : Longstaff & Schwartz (a) approximation du temps d arrêt optimal τ, (b) calcul de E(e rτ φ(s τ )) par une méthode de Monte Carlo. 2. Itération sur les valeurs : quantification, Tsitsiklis VanRoy,... (a) utilisation de l équation de programmation dynamique, (b) approximation de l espérance conditionnelle E[e rδt P(t k,s tk ) S tk 1 ], (c) P(t 0,S t0 ) donne le prix à l instant 0. 3. Méthodes duales J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 10 / 43
Rappel du problème Une option de payoff φ que l on peut exercer en N dates 0 = t 0 < t 1 < < t N = T (subvision supposée régulière de pas δt). Le prix à l instant t d une telle option est donné par P(t,S t ) = esssup τ T t,t E [ e r(τ t) φ(s τ ) S t ] { } où T t,t = t.a. à valeurs dans[t,t] {t 0,,t N }. P satisfait { P(T,ST ) = φ(s T ) P(t,S t ) = max ( φ(s t ),E[e rδt P(t + δt,s t+δt ) S t ] ) pour t=t 0,...,t N 1 [ ] P(t k,s tk ) = E e rτ k φ(s τ ) S t avec k τ k = inf{ t {t k,...,t N },φ(s t ) = P(t,S t ) } τ k = inf{ t {t k,...,t N },φ(s t ) e rδt E[P(t + δt,s t+δt ) S t ] } J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 11 / 43
1 Introduction Le modèle de marché Options Bermuda Définition et valorisation Options Américaines 2 Les algorithmes Monte Carlo Algorithme de Longstaff Schwartz Méthode duale Théorie Implémentation J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 12 / 43
Algorithme de Longstaff Schwartz Principe : Tirer M trajectoires du modèle de Black Scholes (ω i ) 1 i M. Sur chaque trajectoire, calculer la quantité τ (ω i ). P 0 = P(t 0,S t0 ) est ensuite calculé par une méthode de Monte Carlo P M 0 = 1 M M e rτ (ω i ) φ(s τ (ω i )(ω i )) (2) i=1 Construction de τ : équation de programmation dynamique sur les politiques d arrêt. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 13 / 43
Programmation dynamique pour τ On cherche à construire une suite (τ i ) 0 i N de manière rétrograde t.q. pour i fixé, τ i soit le t.a. optimal après l instant t i. τ i := min { t {t i,...,t N }, φ(s t ) P(t,S t ) }. La suite (τ i ) 0 i N peut se réécrire de manière récursive { τ N = T τ i = t i 1 {φ(sti ) P(t i,s ti )} + τ i+1 1 {φ(s ti )<P(t i,s ti )} 0 i N 1. On peut supprimer la dépendance en P grâce à l équivalence ( ) φ(s ti ) < P(t,S ti ) max φ(s ti ),E[e rδt P(t i+1,s ti+1 ) S t ] = E[e rδt P(t i+1,s ti+1 ) S t ] [ φ(s ti )e rδt < E E [ e rτ i+1 φ(sτ ) S ] ] t Sti i+1 i+1. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 14 / 43
Programmation dynamique pour τ On cherche à construire une suite (τ i ) 0 i N de manière rétrograde t.q. pour i fixé, τ i soit le t.a. optimal après l instant t i. τ i := min { t {t i,...,t N }, φ(s t ) P(t,S t ) }. La suite (τ i ) 0 i N peut se réécrire de manière récursive { τ N = T τ i = t i 1 {φ(sti ) P(t i,s ti )} + τ i+1 1 {φ(s ti )<P(t i,s ti )} 0 i N 1. On peut supprimer la dépendance en P grâce à l équivalence ( ) φ(s ti ) < P(t,S ti ) max φ(s ti ),E[e rδt P(t i+1,s ti+1 ) S t ] = E[e rδt P(t i+1,s ti+1 ) S t ] [ ] φ(s ti )e rδt < E e rτ i+1 φ(sτ ) S t i+1 i. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 14 / 43
Programmation dynamique pour τ (cont.) On pose { } A i := φ(s ti )e rδt E[e rτ i+1 φ(sτ ) S t i+1 i ]. (3) τ i { τ N = T = t i 1 Ai + τ i+1 1 A c i 0 i N 1. (4) Il n y a plus de dépendance en P, seulement en (τ,j N). j Principale difficulté : approcher ψ i (S ti ) := E[e rτ i+1 φ(s τ ) S t i+1 i ]. Idée : Utiliser le fait que l espérance conditionnelle est une projection L 2 et minimiser E[ e rτ i+1 φ(s τ ) ψ i(s ti ) 2 ] pour ψ i dans un ensemble de i+1 fonctions bien choisies. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 15 / 43
LS : étape de régression Dans la suite, on pose f (t,x) = e rt φ(x). [ On cherche à minimiser E (f (τ i+1,s τ ) ψ i(s ti )) 2]. i+1 Soit (g l,l 1) une famille totale de fonctions R d R t.q. E(g l (S ti )g l (S ti ) T ) < pour tout (i,l). g L 2 (L (S ti )) pour tout i. ψ i = l 1 α i l g l := α i g. Le calcul de E[f (τ i+1,s τ i+1 ) S t i ] est remplacé par la détermination de α i qui minimise [ ( ) ] 2 α E f (τ i+1,s τ ) (α g)(s t i+1 i ). J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 16 / 43
algorithme d arrêt optimal Ensure: Initialisation : τ N = t N for i = N 1 to 0 do détermination de α i = (α i,l 1) qui minimise l [ ( ) ] 2 α E f (τ i+1,s τ ) (α g)(s t i+1 i ). (5) On définit end for Remarque : τ i = t i 1 {f (ti,s ti )e rδt (α i g)(s ti )} + τ i+1 1 {f (t i,s ti )e rδt <(α i g)(s ti )}. α i est un vecteur de taille infinie. L espérance n est pas connue explicitement. Besoin de 2 approximations : tronquer α i : revient à prendre une famille libre finie plutôt qu une famille totale, calculer l espérance dans (5) grâce à une méthode de Monte Carlo. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 17 / 43
troncature de la famille de régression On projette sur une famille à k éléments. Ensure: Initialisation : ˆτ k N = t N for i = N 1 to 1 do Détermination de ˆα i,k = ( ˆα i,k,1 l k) qui minimise l [ ( ) ] 2 α E f ( ˆτ k i+1,sˆτ k (α g)(s ti ) i+1) On définit ˆτ k i = t i 1 {f (ti,s ti )e rδt ( ˆα i,k g)(s ti )} + ˆτk i+1 1 {f (t i,s ti )e rδt <( ˆα i,k g)(s ti )}. end for [ P0 (φ(s k = max t0 ), E f ( ˆτ k ) ]) 1,Sˆτ k. 1 J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 18 / 43
somme Monte Carlo au lieu de E Ensure: (S (m),m = 1,...,M) M copies indépendantes de (S t1,...,s tn ) Ensure: ˆτ (m),m,k N = t N, m = 1,...,M for i = N 1 to 1 do Détermination de ˆα i,m,k = ( ˆα i,m,k,1 l k) qui minimise l α 1 [ ( ) M 2 f ˆτ (m),m,k,s (m) (α g)(s (m) M i+1 ˆτ (m),m,k t i )]. for m = 1 to M do m=1 i+1 ˆτ (m),m,k i = t i 1 { f (t i,s (m) t )e rδt ( ˆα i,k g)(s } (m) + ˆτ (m),m,k i t ) i i+1 1 { f (t i,s (m) t i )e rδt (m) <( ˆα i,k g)(s }. t ) i end for end for ( P M,k 1 0 = max φ(s t0 ), M M m=1 f ( ˆτ (m),m,k 1,S (m) ) ). ˆτ (m),m,k 1 J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 19 / 43
Quelques commentaires Algorithme robuste car une erreur sur l estimation de E( ) (i.e. sur le calcul des ˆα i,k ) n engendre pas forcément une erreur sur le calcul de la stratégie optimale. Il peut être intéressant de travailler avec S tj = Σ 1 j (S tj m j ) m j = E(S tj ) = (S0 i e(r δ i)t j ) i [ ( ) ] Σ 2 j = Var(S t j ) = m p j mq exp t j j σ p σ q L pk L qk 1. Besoin de garder toutes les trajectoires pour pouvoir calculer 1 M M f m=1 empreinte mémoire : M N d. ( ) τ (m),m,k 1,S (m). τ (m),m,k 1 k J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 20 / 43
Améliorations On utilise la simulation rétrograde du Brownien pour ne pas conserver toutes les trajectoires. On ne garde à chaque étape j de l algorithme que les vecteurs du Brownien (S (m) t,m = 1,...,M), j du sous-jacent arrêté (S (m) τ (m),m,k j,m = 1,...,M). On utilise la simulation rétrograde de S tj sachant S tj+1. Taille : M d au lieu de M d N. Mise en œuvre de variables antithétiques dans la simulation des trajectoires des actifs. Si à l instant t j, φ(s tj ) = 0, on n exerce pas l option. Pas besoin de calculer E[f (τ i+1,s τ i+1 ) S t i ] sur l ensemble {φ(s tj ) = 0}. = On ne garde que les trajectoires à la monnaie. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 21 / 43
Simulation rétrograde du Brownien On cherche S tj connaissant S tj+1 (et aussi S 0 ). On utilise la simulation rétrograde du Brownien. Sachant B tj+1 = b, la loi de B tj est une loi gaussienne ( N b t ) j t j, (t j+1 t j ). t j+1 t j+1 Preuve : Il suffit de considérer la v.a. Y j = B tj βb tj+1 et de chercher β pour que Y j B tj+1. = β = t j t j+1. Y j est une gaussienne centrée indépendante de B tj+1, reste à calculer sa variance. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 22 / 43
Résolution du problème des moindres carrés ( On cherche α = argmin M R k i=1 [Z i (α g)(x i )] 2). Soit en dérivant par rapport à α j ( ( ) M k Z i α l g l )(X i ) g j (X i ) = 0, l=0 ( ) k M M g j (X i )g l (X i ) α l = Z i g j (X i ). i=1 i=1 i=1 l=0 ( ) M M Z i g(x i ) = Dα avec D = g j (X i )g l (X i ) i=1 i=1 D est symétrique définie positive. Grâce à l algorithme de Cholesky, D = T T (T triangulaire inférieure). Reste 2 systèmes triangulaires à résoudre. En pratique, D est mal conditionnée. L algorithme de Cholesky trouve des valeurs propres nulles ou légèrement négatives ( 10 6 ). j,l. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 23 / 43
Résolution du problème des moindres carrés (cont.) Alternatives : factorisation QR : D = QR où Q est une matrice orthogonale et R une matrice triangulaire supérieure. On peut ajouter une permutation P, DP = QR ( D = QRP T ) factorisation PD = LU, la permutation P permet d améliorer la stabilité numérique. Utilisation d une bibliothèque externe pour résoudre un système linéaire mal conditionné. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 24 / 43
Convergence du problème de minimisation On cherche à approcher E[Y X] par λ g(x) où λ = argmin λ E [ Y k l=1 λ lg l (X) 2 ]. Comme on ne sait pas calculer l espérance dans le problème de minimisation, on considère plutôt λ M, 1 = argmin λ M M k Y i λ l g l (X i ) i=1 l=1 2 Résultats sur la convergence des M estimateurs (c.f. les travaux de Shapiro) : λ M λ p.s. où λ = argmin λ R k E [ Y k l=1 λ lg l (X) 2 ] et il existe un TCL M(λ M, λ ) N (0,...) M convergence de λ M, quand M,k? L Dans Longstaff & Schwartz, il y a imbrication des régressions : Y = ψ M (X i+1 ) où ψ M a été calculée par simulation sur (X i+1,x i+2,...). J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 25 / 43
Choix de la base de régression On peut ajouter le payoff à la base au moins pour les temps proches de la maturité. La base peut changer au cours du temps. Souvent une famille de polynômes Attention à ne pas avoir une famille trop riche = risque d over-fitting, mauvaise stabilité numérique Glasserman et Yu (2004) : Number of paths vs number of basis functions in American option pricing. Cas log-normal : k = O( logm). Exemple :M = 100,000, k 4. Pour d = 3, polynômes d ordre 2. Cas normal : k = O(logM). Exemple :M = 100,000, k 12. Pour d = 3, polynômes d ordre 3. En dimension > 1, produit tensoriel de functions de 1 variable. Pour réduire le mauvais conditionnement du problème, considérer S t /S 0 comme variable (ou mieux S t /Var(S t )) + passage en variable log éventuellement. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 26 / 43
Choix de la base de régression (cont.) (C l ) l ensemble 2 à 2 disjoints. On considère g l = 1 {Cl }. On cherche à approcher m(x) = E[Y X] en minimisant λ E [ Y k l=1 λ lg l (X) 2 ]. λ l = E[ Y 1 {Cl }(X) ] P(X C l ) m:x m C l Y m #{m : X m C l }. La matrice de régression est diagonale. Choix du pavage : λ M l Cellules de Voronoï : coût de la recherche du plus proche voisin, il existe des algorithmes en log(k ) pavage régulier : savoir si x C l est immédiat. En dimension 1, il suffit de calculer une partie fractionnaire. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 27 / 43
Choix de la base de régression (cont.) Si m est Lipschitzienne, C = sup l diam(c l ). k k E[(m(X) λ l g l (X)) 2 ] E[(m(X) m(x k )) 2 1 {X Ck }] + E[m(X) 2 1 {X Ck }] l=1 l=1 lip C 2 k l=1 P(X C k ) + m 2 P(X C k). C doit être petit P(X C k ) doit être petite : estimation des queues de distribution de X. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 28 / 43
complexité A chacune des N étapes : M d pour la simulation du sous-jacent, k(k + 1)/2 M pour calculer D où k est le nombre de régresseurs. En réalité, seulement k(k + 1)/2 #{m : φ(s (m) t j ) > 0}. Algorithme de Cholesky : k 3 /6. Algorithme QR : 2k 3 /3 Cholesky Résolution du système triangulaire : k 2. = O(N M k 2 ). J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 29 / 43
convergence Résultats rigoureux de convergence dus à E. Clément, D. Lamberton et P. Protter An Analysis of a least square regression method for American option pricing, Finance and Stochastics, 2002. P k 0 P 0 dans L 2 quand k. A k fixé, P k,m 0 P0 k p.s. quand N. Un TCL existe également pour cette convergence mais d expression de la variance limite apparaissant dans le TCL. = pas d intervalle de confiance. α i,k,m α j,m p.s. pour tout i = 1,...,N. ) 1 [ ] M M j=1 (S φ (m) E φ(s τ (m),m,k τ k ) p.s. pour tout i = 1,...,N. i i J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 30 / 43
Exemples numériques Modèle de Black Scholes en dimension 3. Spot 100 100 100 Volatility 0.2 0.2 0.2 Interest rate 0.0488 0.0488 0.0488 Dividend rate 0 Correlation 0.3 Strike 100 Maturity 1 J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 31 / 43
LS : Influence du nombre de régresseurs (put) 2.9 2.8 2.7 2.6 2.5 2.4 2.3 sans payoff avec payoff 1 2 3 4 5 6 7 8 9 10 FIG.: Influence du nombre de régresseurs J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 32 / 43
LS : Influence du nombre de régresseurs (put min) 13.1 13.0 12.9 12.8 12.7 12.6 12.5 12.4 12.3 sans payoff avec payoff 1 2 3 4 5 6 7 8 9 10 FIG.: Influence du nombre de régresseurs J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 33 / 43
LS : variables antithétiques (Call) 8.57 standard antithetique 8.53 8.49 prix 8.45 8.41 8.37 1e4 2e4 3e4 4e4 5e4 nb tirages FIG.: Réduction de variance J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 34 / 43
LS : nombre de dates d exercice (Call) 8381e 3 8379e 3 8377e 3 8375e 3 8373e 3 8371e 3 8369e 3 10 20 30 40 50 60 70 80 90 100 FIG.: Cv en fonction du nbre de dates d exercice (50000 tirages) J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 35 / 43
LS : nombre de dates d exercice (Put) 4.06 4.05 4.04 prix 4.03 4.02 4.01 4.00 10 20 30 40 50 60 70 80 90 100 nb dates exercice FIG.: Cv en fonction du nbre de dates d exercice (50000 tirages) J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 36 / 43
1 Introduction Le modèle de marché Options Bermuda Définition et valorisation Options Américaines 2 Les algorithmes Monte Carlo Algorithme de Longstaff Schwartz Méthode duale Théorie Implémentation J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 37 / 43
Méthodes duales I U t = esssup τ T t,t E[e rτ φ(s τ )] (U t ) t est une sur-martingale. Décomposition de Doob-Meyer : U t = U 0 + M t A t où M est une martingale nulle en zéro et A un processus croissant prévisible nul en zéro. Rogers (2002) et Haugh & Kogan (2001) ont montré que Théorème 1 [ ] U 0 = inf M H0 1 E sup(e φ(s t ) M t ) t T avec H 1 0 l ensemble des martingales nulles en zéro et t.q. sup t T M t est intégrable. De plus, M réalise l infimum. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 38 / 43
Méthodes duales II Idées de la preuve. 1 U 0 = sup τ T E[e rτ φ(s τ )] = supe[e rτ φ(s τ ) M τ ] τ T 2 D autre part, e rt φ(s t ) U t = U 0 + M t A t. E[sup(e rt φ(s t ) M t )] t T inf M H 1 0 E[sup t T (e rt φ(s t ) M t )] E[sup(e rt φ(s t ) Mt )] t T E[sup(U t Mt t T = U 0. )] = E[sup(U 0 A t )] t T J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 39 / 43
Approche de Rogers pour le Put (dimension 1) I 1 Approcher le prix par inf λ E[sup t T (e rt φ(s t ) λm t )]. 2 Un bon choix de M dm t = 1 {t t}d C(t,S t ), avec t = inf{t 0 : S t K } et C(t,S t ) le prix actualisé de l option européenne correspondante à l instant t. 3 Calculer inf λ E[sup t T (e rt φ(s t ) λm t )] avec le M précédent. λ E[sup t T (e rt φ(s t ) λm t )] est une fonction convexe. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 40 / 43
Approche de Rogers pour le Put (dimension 1) II 1. (S (m),m = 1,...,M) M copies indépendantes de (S t1,...,s tn ). 2. Pour chaque (t i,s (m) t i ) calculer le prix actualisé C(t i,s (m) t i ) de l option européenne en ce point grâce à la formule de Balck & Scholes. 3. Calculer (M (m) t i ) pour m = 1,...,M et i = 0,...,N. M (m) = 0 et { } I (m) = min i 0 : S (m) K M (m) t i t i t i+1 = M (m) + 1 {i I (m) }( C(t i+1,s (m) t i+1 ) C(t i,s (m) t i ) 4. On cherche λ [λ, λ]. Soit λ 0 = 0, λ 0 = λ et λ 0 = λ. { λn+1 = λ n +λ n 2, λn = λ n si le taux accroissement en λ n > 0 λ n+1 = λ n +λ n 2, λ n = λ n si le taux accroissement en λ n 0 Arrêt : taux d accroissement < seuil J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 41 / 43
Autre approche I Belomestny, Bender, Schoenmakers (2007), True upper bounds for Bermudan products via non-nested Monte Carlo. (Y tj ) j approximation du processus de prix U t aux dates {t 0,,t N } Y tj = Y 0 + M tj + A tj où A est prévisible, A 0 = 0 et M martingale nulle en 0. A ti+1 A tj = E tj (Y tj+1 ) Y tj, M ti+1 M tj = Y tj+1 E tj (Y tj+1 ). Si E( M t 2 ) < t, Z = (Z 1,,Z d ) tel que M tj = t j 0 Z tdw t. On considère une partition π = {s 1,,s L } {t 0,,t N }. Y tj+1 Y tj Z si (W si+1 W si ) + A tj+1 A tj s i π:t j s i <t j+1 Z d s i 1 [ E si (Ws d s i+1 s i+1 Ws d i )Y tj+1 ], t j s i < t j+1 i J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 42 / 43
Autre approche II Calcul de E si [ (W d s i+1 W d s i )Y tj+1 ], Si on a une stratégie d exercice (τ 1,,τ n ), on sait que Y tj = E tj [e rτ j φ(s τj )], puis Z d s i 1 [ ] E si (Ws d s i+1 s i+1 Ws d i )e rτ j φ(s τj ), t j s i < t j+1 i = pas d espérances conditionnelles imbriquées. ] E si [(W s d i+1 Ws d i )e rτ j φ(s τj ) = g(s si ). g est approchée par une technique de moindres carrés comme dans LS. [ lim π 0 E max 0 j N M tj Mt j 2] = 0. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 43 / 43
Algorithme de Cholesky Factorisation de Cholesky d une matrice carrée symétrique positive A de taille n Pour k = 1,...,n faire T k,k = A k,k T 2 k,j, j<k pour i = k + 1,...,n faire A i,k T k,j T i,j j<k T i,k = T k,k. J. LELONG (MÉTHODES NUMÉRIQUES AVANCÉES) ANNÉE 2009-2010 1 / 1