1/46 Un problème d allocation avec coûts de transaction Université Montesquieu Bordeaux IV GREΘA et IMB CHRISTOPHETTE BLANCHET (Université de Nice) RAJNA GIBSON (Université de Zurich) ETIENNE TANRÉ et DENIS TALAY (INRIA Sophia Antipolis) Séminaire Probabilités et Processus Stochastiques Rennes 19 mars 2007
Plan 2/46 1 2 au contrôle stochastique 3 de travail 4 Etude de la fonction 5
Plan 3/46 1 2 au contrôle stochastique 3 de travail 4 Etude de la fonction 5
4/46 Investissement Objectif Approche fondamentale principes économiques Analyse technique comportement passé des prix Approche mathématique modèles mathématiques Comparer les performances de l analyse technique et de l approche mathématique
Analyse technique 5/46 Anticiper les hausses et les baisses à partir de l analyse graphique du cours cours de l euro en dollars US, juillet 2003 mai 2004 source : http ://www.rcforexonline.com
Analyse technique Moyenne mobile 6/46 Moyenne mobile M δ t = 1 δ t t δ Si S t > M δ t S u du achat Si S t < Mt δ vente cours du dollar US en francs suisses, 23 Optimiser avril 2004 5 mai 2004 toutes les heures moyennes mobiles 7 heures, 17 heures, 34 heures source : http ://www.rcforexonline.com la taille de la fenêtre δ les instants de décision
Approche mathématique 7/46 Marché : Objectif Actif sans risque Actif risqué S 0 t S t stratégie π t [0, 1] proportion de la richesse investie dans l actif risqué richesse W π t richesse correspondant à la stratégie π Modéliser la dynamique de S t Résoudre le problème d optimisation sup E[U(WT π )] π
Approche mathématique Modélisation 8/46 Actif sans risque Actif risqué ds 0 t = S 0 t rdt ds t = µ(t)s t dt + σs t db t B mouvement Brownien standard µ(t) {µ 1, µ 2 } indépendant de B, µ 1 < r < µ 2
Travaux précédents Modèle 9/46 BLANCHET, DIOP, GIBSON, KAMINSKI, TALAY, TANRÉ (2005) Un seul changement de dérive µ(t) = µ 1 si t < τ µ(t) = µ 2 si t τ avec P(τ > t) = e λt Stratégie détecter τ 1.17 1.13 1.09 1.05 1.01 0.97 0.93 0.89 0.85 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 µ 1 = 0.2, µ 2 = 0.2, σ = 0.15, λ = 2.
Travaux précédents 10/46 Etude théorique du problème d optimisation Etude théorique de la détection de rupture détection bien calibrée détection mal calibrée moyenne mobile Conclusion Moyenne mobile meilleure si paramètres mal calibrés Taux d erreur à partir duquel c est vrai
de travail 11/46 Marché : Actif sans risque Actif risqué dst 0 = St 0rdt ds t = µ(t)s t dt + σs t db t µ(t) {µ 1, µ 2 }, avec plusieurs changements de valeur coûts de transaction
Plan 12/46 1 2 au contrôle stochastique 3 de travail 4 Etude de la fonction 5
Contrôle Stochastique 13/46 Variable d état du système W t évoluant suivant une dynamique probabiliste Processus de contrôle π t valeur choisie à tout instant en fonction de l information disponible : adapté influence la dynamique de W t Critère de performance J(W, π) à maximiser Objectif V = sup J(W, π) π Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Contrôle Stochastique 13/46 Variable d état du système W t évoluant suivant une dynamique probabiliste Processus de contrôle π t valeur choisie à tout instant en fonction de l information disponible : adapté influence la dynamique de W t Critère de performance J(W, π) à maximiser Objectif V = sup J(W, π) π Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Contrôle Stochastique 13/46 Variable d état du système W t évoluant suivant une dynamique probabiliste Processus de contrôle π t valeur choisie à tout instant en fonction de l information disponible : adapté influence la dynamique de W t Critère de performance J(W, π) à maximiser Objectif V = sup J(W, π) π Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Contrôle Stochastique 13/46 Variable d état du système W t évoluant suivant une dynamique probabiliste Processus de contrôle π t valeur choisie à tout instant en fonction de l information disponible : adapté influence la dynamique de W t Critère de performance J(W, π) à maximiser Objectif V = sup J(W, π) π Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Exemple : le problème de Merton Formulation I 14/46 Marché : Actif sans risque Actif risqué dst 0 = St 0rdt ds t = µs t dt + σs t db t Etat : richesse W t = N t S t + N 0 t ds0 t Contrôle : proportion de la richesse investie dans l actif risqué π t = N t S t W t [0; 1] Dynamique auto-financée : dw π t dw π t W π t = N ts t W π t = π t ds t S t ds t S t = N t ds t + N 0 t ds0 t + N0 t S0 t W π t dst 0 St 0 + (1 π t ) ds0 t S 0 t = ( π t µ + (1 π t )r ) dt + π t σdb t
Exemple : le problème de Merton Formulation II 15/46 Critère : espérance de l utilité de la richesse terminale U(x) = x α, 0 < α < 1 valeur V (t, x) = sup E[U(W t,x,π T )] π Objectif Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Exemple : le problème de Merton Equation d Hamilton-Jacobi-Bellman 16/46 Equation d Hamilton-Jacobi-Bellman Φ (t, x) + sup L p Φ(t, x) t p [0;1] = 0 Φ(T, x) = U(x) = x α L p Φ(t, x) = x ( pµ + (1 p)r ) Φ x (t, x) + 1 2 σ2 p 2 x 2 2 Φ (t, x) x 2 Comme U(W t,x,π T ) = U(xW t,1,π T ) = x α U(W t,1,π T ), on cherche une solution de la forme Φ(t, x) = x α ϕ(t) 0 = ϕ (t) + ϕ(t) sup {α ( pµ + (1 p)r ) + p [0;1] 1 = ϕ(t ) α(α 1) p 2 σ 2 } 2
Exemple : le problème de Merton Résolution de HJB 17/46 Solution avec Φ(t, x) = x α β(t t) e β = sup {α ( pµ + (1 p)r ) + p [0;1] = αr + atteint en p = α(µ r)2 2(1 α)σ 2 µ r (1 α)σ 2 α(α 1) p 2 σ 2 } 2
Exemple : le problème de Merton Interprétation de HJB 18/46 Formule d Itô pour Φ entre t et T : T ( Φ(T, W t,x,π Φ T ) = Φ(t, x) + t u + Lπu Φ + martingale U(W t,x,π T ) Φ(t, x) + Donc T + martingale Φ(t, x) + martingale avec égalité lorsque π t = p t ) (u, W t,x,π u ( Φ ) u + sup L p Φ p [0;1] Φ(t, x) E[U(W t,x,π T )] )du (u, W t,x,π u )du
Exemple : le problème de Merton Conclusion 19/46 Conclusion V (t, x) = x α eβ(t t) Contrôle optimal constant π t = µ r (1 α)σ 2 V est solution de l équation d Hamilton Jacobi Bellman
Exemple : le problème de Merton Conclusion 19/46 Conclusion V (t, x) = x α eβ(t t) Contrôle optimal constant π t = µ r (1 α)σ 2 V est solution de l équation d Hamilton Jacobi Bellman
Plan 20/46 1 2 au contrôle stochastique 3 de travail 4 Etude de la fonction 5
Nouveau modèle 21/46 Plusieurs changements de dérive (ξ 2n+1 ) iid Exp(λ 1 ) (ξ 2n ) iid Exp(λ 2 ) τ 0 = 0, τ n = ξ 1 + + ξ n 1.4 1.3 1.2 { µ1 if τ µ(t) = 2n t < τ 2n+1 µ 2 if τ 2n+1 t < τ 2n+2 Coûts de transaction g 01 coût d achat g 10 coût de vente 1.1 1.0 0.9 0.8 0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 µ 1 = 0.2, µ 2 = 0.2, σ = 0.15, λ 1 = λ 2 = 2.
Stratégies admissibles 22/46 Contrôle : π t {0, 1} proportion de la richesse investie dans l actif risqué F S t = σ(s u, u t) π t doit être F S t -adapté Problème F S t F B t = σ(b u, u t) = Reformuler le problème de contrôle
Filtrage 23/46 Projection optionnelle : F t = P(µ(t) = µ 1 Ft S ) B t = 1 ( log S t t ( µ1 F s + µ 2 (1 F s ) σ2 ) ) ds σ S 0 2 Proposition B est un (F S )-mouvement Brownien F S = F B ds t S t KURTZ, OCONE 1988 0 = ( µ 1 F t + µ 2 (1 F t ) ) dt + σdb t df t = ( λ 1 F t + λ 2 (1 F t ) ) dt + µ 1 µ 2 F t (1 F t )db t σ
Nouvelle formulation 24/46 Contrôle : π t Etat : couple (W t, F t ) Dynamique : dw π t W π t = ( π t (µ 1 F t + µ 2 (1 F t )) + (1 π t )r ) dt + π t σd B t g 01 δ( π t = 1) g 10 δ( π t = 1) df t = ( λ 1 F t + λ 2 (1 F t ) ) dt + µ 1 µ 2 F t (1 F t )d σ B t, Critère : espérance de l utilité de la richesse finale Utilité : U(x) = x α, α ]0, 1[
Nouvelle formulation 24/46 Contrôle : π t Etat : couple (W t, F t ) Dynamique : dw π t W π t = ( π t (µ 1 F t + µ 2 (1 F t )) + (1 π t )r ) dt + π t σd B t g 01 δ( π t = 1) g 10 δ( π t = 1) df t = ( λ 1 F t + λ 2 (1 F t ) ) dt + µ 1 µ 2 F t (1 F t )d σ B t, Critère : espérance de l utilité de la richesse finale Utilité : U(x) = x α, α ]0, 1[
Nouvelle formulation 24/46 Contrôle : π t Etat : couple (W t, F t ) Dynamique : dw π t W π t = ( π t (µ 1 F t + µ 2 (1 F t )) + (1 π t )r ) dt + π t σd B t g 01 δ( π t = 1) g 10 δ( π t = 1) df t = ( λ 1 F t + λ 2 (1 F t ) ) dt + µ 1 µ 2 F t (1 F t )d σ B t, Critère : espérance de l utilité de la richesse finale Utilité : U(x) = x α, α ]0, 1[
Plan 25/46 1 2 au contrôle stochastique 3 de travail 4 Etude de la fonction 5
Définition 26/46 Si π t = 0 Si π t = 1 J 0 (t, x, f, π) = E[U(W π T ) W π t = x, F t = f ] J 1 (t, x, f, π) = E[U(W π T ) W π t = x, F t = f ] valeur V 0 (t, x, f ) = sup J 0 (t, x, f, π) π V 1 (t, x, f ) = sup J 1 (t, x, f, π) π
Régularité 27/46 Comparaison Continuité Pour tous i {0; 1} 0 t,ˆt T x, ˆx > 0 0 f,ˆf 1 : V i (ˆt, ˆx,ˆf ) V i (t, x, f ) V 0 (t, x, f ) V 1 (t, (1 g 01 )x, f ) V 1 (t, x, f ) V 0 (t, (1 g 10 )x, f ) C(1 + x α 1 + ˆx α 1 ) ( ˆx x + x( ˆf f + ˆt t 1/2 ) )
Principe de la Programmation Dynamique 28/46 Principe de la Programmation Dynamique Pour tout temps d arrêt θ tel que 0 t θ T et pour tous x, f, i : V i (t, x, f ) = sup π E[V π θ (t, W θ,x,f,π θ, F t,f θ )]
Equations d Hamilton Jacobi Bellman 29/46 Equations d Hamilton Jacobi Bellman { max { ϕ 0 t + L 0 ϕ 0 ; ϕ 0 (t, x, f ) + ϕ 1 (t, x(1 g 01 ), f ) } = 0 max { ϕ 1 t + L 1 ϕ 1 ; ϕ 1 (t, x, f ) + ϕ 0 (t, x(1 g 10 ), f ) } = 0 L 0 ϕ(t, x, f ) = xr ϕ x (t, x, f ) + ` ϕ λ 1 f + λ 2 (1 f ) (t, x, f ) + f 1 µ1 µ 2 2f 2 (1 f ) 2 2 ϕ (t, x, f ) 2 σ f 2 L 1 ϕ(t, x, f ) = x(µ 1 f + µ 2 (1 f )) ϕ x (t, x, f ) + 1 2 x 2 σ 2 2 ϕ (t, x, f ) x 2 ϕ +` λ 1 f + λ 2 (1 f ) f (t, x, f ) + x(µ 1 µ 2 )f (1 f ) 2 ϕ (t, x, f ) x f + 1 µ1 µ 2 2f 2 (1 f ) 2 2 ϕ (t, x, f ) 2 σ f 2
Solution de viscosité 30/46 (P) F(t, x, v(t, x), D t v(t, x), Dv(t, x), D 2 v(t, x)) = 0 Définition v est sous-solution de viscosité de (P) si F( t, x, v( t, x), D t ϕ( t, x), Dϕ( t, x), D 2 ϕ( t, x)) 0 pour tous t, x et toute fonction ϕ C 1,2 tels que t, x est un maximum local de v ϕ v est sur-solution de viscosité de (P) si F( t, x, v( t, x), D t ϕ( t, x), Dϕ( t, x), D 2 ϕ( t, x)) 0 pour tous t, x et toute fonction ϕ C 1,2 tels que t, x est un minimum local de v ϕ
Caractérisation de la fonction valeur 31/46 V α : ensemble des ϕ continues sur [0; T ] [0; + [ [0; 1] telles que ϕ(t, 0, f ) = 0 et ϕ(t, x, f ) ϕ(t, ˆx,ˆf ) sup [0;T ] ]0;+ [ 2 [0;1] 2 (1 + x α 1 + ˆx α 1 )( x ˆx + x f ˆf ) <. Théorème (V 0, V 1 ) est l unique solution de viscosité de HJB sur V α V α vérifiant V 0 (T, x, f ) = V 1 (T, x, f ) = U(x) = x α
Réduction de la dimension 32/46 Dépendance en x : V i (t, x, f ) = sup π t,x,f,π E[U(WT )] = x α V i (t, 1, f ) Equations d Hamilton Jacobi Bellman simplifiées { max { V 0 t + L 0 V 0 ; V 0 (t, f ) + (1 g 01 ) α V 1 (t, f ) } = 0 max { V 1 t + L 1 V 1 ; V 1 (t, f ) + (1 g 10 ) α V 0 (t, f ) } = 0 L 0 ϕ(t, f ) = αrϕ(t, f ) + ` λ 1 f + λ 2 (1 f ) ϕ f (t, f ) + 1 µ1 µ 2 2f 2 (1 f ) 2 2 ϕ 2 σ f 2 (t, f ) L 1 ϕ(t, f ) = α µ 1 f + µ 2 (1 f ) + +α(µ 1 µ 2 )f (1 f ) ϕ f (t, f ) + 1 2 (α 1)σ2 2 µ1 µ 2 σ ϕ(t, f ) + ` λ 1 f + λ 2 (1 f ) 2f 2 (1 f ) 2 2 ϕ f 2 (t, f )
Schéma numérique pour la partie EDP 33/46 On calcule en temps rétrograde V (t t, f ) = ( ( b(t, f ) 1 + t c(t, f ) f ( b + (t, f ) + t f ( b (t, f ) + t f avec c(t, f ) coefficient devant ϕ(t, f ) b(t, f ) coefficient devant ϕ f (t, f ) a(t, f ) coefficient devant 2 ϕ f 2 (t, f ) 2a(t, f ) f 2 )) V (t, f ) + a(t, f ) f 2 ) V (t, f + f ) + a(t, f ) f 2 ) V (t, f f )
Schéma numérique pour le calcul des fonctions valeur 34/46 Initialisation ˆV 0 (T, f ) = ˆV 1 (T, f ) = 1 Itération Avec le schéma de l EDP de HJB, calculer V 0 (t, ) et V 1 (t, ) à partir de ˆV 0 (t + dt, ) et ˆV 1 (t + dt, ) Comparaison si V 0 (t, f ) (1 g 01 ) α V 1 (t, f ), prendre ˆV 0 (t, f ) = V 0 (t, f ) sinon ˆV 0 (t, f ) = (1 g 01 ) α V 1 (t, f ) si V 1 (t, f ) (1 g 10 ) α V 0 (t, f ), prendre ˆV 1 (t, f ) = V 1 (t, f ) sinon ˆV 1 (t, f ) = (1 g 10 ) α V 0 (t, f )
Schéma numérique pour le calcul des fonctions valeur 34/46 Initialisation ˆV 0 (T, f ) = ˆV 1 (T, f ) = 1 Itération Avec le schéma de l EDP de HJB, calculer V 0 (t, ) et V 1 (t, ) à partir de ˆV 0 (t + dt, ) et ˆV 1 (t + dt, ) Comparaison si V 0 (t, f ) (1 g 01 ) α V 1 (t, f ), prendre ˆV 0 (t, f ) = V 0 (t, f ) sinon ˆV 0 (t, f ) = (1 g 01 ) α V 1 (t, f ) si V 1 (t, f ) (1 g 10 ) α V 0 (t, f ), prendre ˆV 1 (t, f ) = V 1 (t, f ) sinon ˆV 1 (t, f ) = (1 g 10 ) α V 0 (t, f )
Schéma numérique pour le calcul des fonctions valeur 34/46 Initialisation ˆV 0 (T, f ) = ˆV 1 (T, f ) = 1 Itération Avec le schéma de l EDP de HJB, calculer V 0 (t, ) et V 1 (t, ) à partir de ˆV 0 (t + dt, ) et ˆV 1 (t + dt, ) Comparaison si V 0 (t, f ) (1 g 01 ) α V 1 (t, f ), prendre ˆV 0 (t, f ) = V 0 (t, f ) sinon ˆV 0 (t, f ) = (1 g 01 ) α V 1 (t, f ) si V 1 (t, f ) (1 g 10 ) α V 0 (t, f ), prendre ˆV 1 (t, f ) = V 1 (t, f ) sinon ˆV 1 (t, f ) = (1 g 10 ) α V 0 (t, f )
valeur V 0 Tracé 35/46 Paramètres : T = 3, µ 2 = 0.2, µ 1 = 0.21, λ 1 = λ 2 = 2, σ = 0.15, g 01 = g 10 = 0.01 0.0 V(t,f) 1.0450 1.0200 1.0 0.5 0.9950 1.5 0.0 0.2 0.4 0.6 f 0.8 3.0 1.0 2.5 2.0 temps
valeur V 0 Régularité I 36/46 Coûts de transaction g 01 = g 10 = 0.01 Zoom entre t = 2.5 et t = 3 = T 1.018 1.016 1.014 1.012 V(t,f) 1.010 1.008 1.006 1.004 1.002 1.000 0.998 0.0 0.1 0.2 0.3 0.4 f 0.5 0.6 0.7 0.8 0.9 3.000 1.0 2.817 2.633 temps 2.450
valeur V 0 Régularité II 37/46 Coupe en f = 0.05 1.045 1.040 1.035 1.030 1.025 1.020 1.015 1.010 1.005 1.000 0.995 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Coupes en t = 2.90, t = 2.91, t = 2.92, t = 2.93, t = 2.94, t = 2.95, 1.0035 1.0030 1.0025 1.0020 1.0015 1.0010 1.0005 1.0000 0.9995 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
Plan 38/46 1 2 au contrôle stochastique 3 de travail 4 Etude de la fonction 5
Stratégie 39/46 Calculer ˆV 0, ˆV 1 Estimer ˆF t Comparer ˆV 0 (t, ˆF t ) et ˆV 1 (t, ˆF t ) : achat si ˆV 0 (t, ˆF t ) = (1 g 01 ) α ˆV 1 (t, ˆF t ) vente si ˆV 1 (t, ˆF t ) = (1 g 10 ) α ˆV 0 (t, ˆF t ) 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 buying zone selling zone Estimated F µ 1 = 0.2, µ 2 = 0.2, σ = 0.15, λ 1 = 2, λ 2 = 2, T = 3
Comparaison stratégie / fonction valeur 40/46 Calcul de la fonction valeur : pas de discrétisation en temps 10 6 pas de discrétisation en espace 10 3 10 5 simulations de Monte Carlo de la stratégie F 0 0 0.1 0.2 0.3 0.4 0.5 ˆV 0 1.061 1.057 1.053 1.049 1.045 1.043 Stratégie 1.061 1.056 1.052 1.049 1.045 1.043 F 0 0.6 0.7 0.8 0.9 1 ˆV 0 1.041 1.039 1.038 1.037 1.036 Stratégie 1.040 1.039 1.038 1.037 1.036
Coûts de transaction 0.25% Zones de transaction 41/46 Vrais paramètres : µ 1 = 0.2, µ 2 = 0.21, σ = 0.15, λ 1 = 2, λ 2 = 2, T = 3, δ = 0.8 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 parametres bien specifies parametres mal specifies 1 Paramètres mal calibrés 1 : µ 1 = 0.3, µ 2 = 0.2, σ = 0.15, λ 1 = 1, λ 2 = 1 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 parametres bien specifies parametres mal specifies 2 Paramètres mal calibrés 2 : µ 1 = 0.3, µ 2 = 0.1, σ = 0.25, λ 1 = 1, λ 2 = 1
Coûts de transaction 0.25% Stratégie mal calibrée vs Moyenne mobile 42/46 Vrais paramètres : µ 1 = 0.2, µ 2 = 0.21, σ = 0.15, λ 1 = 2, λ 2 = 2, T = 3, δ = 0.8 100.000 simulations Monte Carlo 1.050 1.045 1.040 1.035 1.030 1.025 1.020 1.015 1.010 1.005 1.000 0.995 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Performance optimale Performance mal specifiee Performance chartiste Buy and Hold Paramètres mal calibrés 1 : µ 1 = 0.3, µ 2 = 0.2, σ = 0.15, λ 1 = 1, λ 2 = 1 1.045 1.040 1.035 1.030 1.025 1.020 1.015 1.010 1.005 1.000 0.995 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Performance optimale Performance mal specifiee Performance chartiste Buy and Hold Paramètres mal calibrés 2 : µ 1 = 0.3, µ 2 = 0.1, σ = 0.25, λ 1 = 1, λ 2 = 1
Coûts de transaction 0.5% Zones de transaction 43/46 Vrais paramètres : µ 1 = 0.2, µ 2 = 0.21, σ = 0.15, λ 1 = 2, λ 2 = 2, T = 3, δ = 0.8 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 parametres bien specifies parametres mal specifies 1 Paramètres mal calibrés 1 : µ 1 = 0.3, µ 2 = 0.2, σ = 0.15, λ 1 = 1, λ 2 = 1 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 parametres bien specifies parametres mal specifies 2 Paramètres mal calibrés 2 : µ 1 = 0.3, µ 2 = 0.1, σ = 0.25, λ 1 = 1, λ 2 = 1
Coûts de transaction 0.5% Stratégie mal calibrée vs Moyenne mobile 44/46 Vrais paramètres : µ 1 = 0.2, µ 2 = 0.21, σ = 0.15, λ 1 = 2, λ 2 = 2, T = 3, δ = 0.8 100.000 simulations Monte Carlo 1.040 1.035 1.030 1.025 1.020 1.015 1.010 1.005 1.000 0.995 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Performance optimale Performance mal specifiee Performance chartiste Buy and Hold Paramètres mal calibrés 1 : µ 1 = 0.3, µ 2 = 0.2, σ = 0.15, λ 1 = 1, λ 2 = 1 1.040 1.035 1.030 1.025 1.020 1.015 1.010 1.005 1.000 0.995 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Performance optimale Performance mal specifiee Performance chartiste Buy and Hold Paramètres mal calibrés 2 : µ 1 = 0.3, µ 2 = 0.1, σ = 0.25, λ 1 = 1, λ 2 = 1
Coûts de transaction 0.1% Zones de transaction 45/46 Vrais paramètres : µ 1 = 0.2, µ 2 = 0.21, σ = 0.15, λ 1 = 2, λ 2 = 2, T = 3, δ = 0.8 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 parametres bien specifies parametres mal specifies 1 Paramètres mal calibrés 1 : µ 1 = 0.3, µ 2 = 0.2, σ = 0.15, λ 1 = 1, λ 2 = 1 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 parametres bien specifies parametres mal specifies 2 Paramètres mal calibrés 2 : µ 1 = 0.3, µ 2 = 0.1, σ = 0.25, λ 1 = 1, λ 2 = 1
Coûts de transaction 0.1% Stratégie mal calibrée vs Moyenne mobile 46/46 Vrais paramètres : µ 1 = 0.2, µ 2 = 0.21, σ = 0.15, λ 1 = 2, λ 2 = 2, T = 3, δ = 0.8 100000 simulations Monte Carlo 1.030 1.025 1.020 1.015 1.010 1.005 1.000 0.995 0.990 0.985 0.980 0.975 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Performance optimale Performance mal specifiee Performance chartiste Buy and Hold Paramètres mal calibrés : µ 1 = 0.18, µ 2 = 0.18, σ = 0.15, λ 1 = 4, λ 2 = 4 1.030 1.025 1.020 1.015 1.010 1.005 1.000 0.995 0.990 0.985 0.980 0.975 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Performance optimale Performance mal specifiee Performance chartiste Buy and Hold Paramètres mal calibrés : µ 1 = 0.18, µ 2 = 0.18, σ = 0.25, λ 1 = 4, λ 2 = 4