1/31 Un problème d allocation avec coûts de transaction Université Montesquieu Bordeaux IV CHRISTOPHETTE BLANCHET (Université de Nice) RAJNA GIBSON (Université de Zurich) ETIENNE TANRÉ et DENIS TALAY (INRIA Sophia Antipolis) Journées Bordeaux-Pau-Toulouse 22-23 septembre 2006
Plan 2/31 1 au contrôle stochastique 2 3 de travail 4 Etude de la fonction
Plan 3/31 1 au contrôle stochastique 2 3 de travail 4 Etude de la fonction
Contrôle Stochastique 4/31 Variable d état du système W t évoluant suivant une dynamique probabiliste Processus de contrôle π t valeur choisie à tout instant en fonction de l information disponible : adapté influence la dynamique de W t Critère de performance J(W, π) à maximiser V = sup J(W, π) π Objectif Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Contrôle Stochastique 4/31 Variable d état du système W t évoluant suivant une dynamique probabiliste Processus de contrôle π t valeur choisie à tout instant en fonction de l information disponible : adapté influence la dynamique de W t Critère de performance J(W, π) à maximiser V = sup J(W, π) π Objectif Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Contrôle Stochastique 4/31 Variable d état du système W t évoluant suivant une dynamique probabiliste Processus de contrôle π t valeur choisie à tout instant en fonction de l information disponible : adapté influence la dynamique de W t Critère de performance J(W, π) à maximiser V = sup J(W, π) π Objectif Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Contrôle Stochastique 4/31 Variable d état du système W t évoluant suivant une dynamique probabiliste Processus de contrôle π t valeur choisie à tout instant en fonction de l information disponible : adapté influence la dynamique de W t Critère de performance J(W, π) à maximiser V = sup J(W, π) π Objectif Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Exemple : le problème de Merton Formulation I 5/31 Marché : Actif sans risque Actif risqué dst 0 = St 0rdt ds t = µs t dt + σs t db t Etat : richesse W t = N t S t + N 0 t ds0 t Contrôle : proportion de la richesse investie dans l actif risqué π t = N t S t W t [0; 1] Dynamique auto-financée : dw π t dw π t W π t = N ts t W π t = π t ds t S t ds t S t = N t ds t + N 0 t ds0 t + N0 t S0 t W π t dst 0 St 0 + (1 π t ) ds0 t S 0 t = ( π t µ + (1 π t )r ) dt + π t σdb t
Exemple : le problème de Merton Formulation II 6/31 Critère : espérance de l utilité de la richesse terminale U(x) = x α, 0 < α < 1 valeur V (t, x) = sup E[U(W t,x,π T )] π Objectif Déterminer la fonction valeur Trouver un contrôle optimal (s il en existe)
Exemple : le problème de Merton Equation d Hamilton-Jacobi-Bellman 7/31 Equation d Hamilton-Jacobi-Bellman Φ (t, x) + sup L p Φ(t, x) t p [0;1] = 0 Φ(T, x) = U(x) = x α L p Φ(t, x) = x ( pµ + (1 p)r ) Φ x (t, x) + 1 2 σ2 p 2 x 2 2 Φ (t, x) x 2 Comme U(W t,x,π T ) = U(xW t,1,π T ) = x α U(W t,1,π T ), on cherche une solution de la forme Φ(t, x) = x α ϕ(t) 0 = ϕ (t) + ϕ(t) sup {α ( pµ + (1 p)r ) + p [0;1] 1 = ϕ(t ) α(α 1) p 2 σ 2 } 2
Exemple : le problème de Merton Résolution de HJB 8/31 Solution avec Φ(t, x) = x α β(t t) e β = sup {α ( pµ + (1 p)r ) + p [0;1] = αr + α(µ r)2 2(1 α)σ 2 α(α 1) p 2 σ 2 } 2 atteint en p = µ r (1 α)σ 2
Exemple : le problème de Merton Interprétation de HJB 9/31 Formule d Itô pour Φ entre t et T : T ( Φ(T, W t,x,π Φ T ) = Φ(t, x) + t u + Lπu Φ + martingale U(W t,x,π T ) Φ(t, x) + T + martingale Φ(t, x) + martingale t ) (u, W t,x,π u ( Φ ) u + sup L p Φ p [0;1] )du (u, W t,x,π u )du Donc avec égalité lorsque π u = p, Φ(t, x) E[U(W t,x,π T )] t u T
Exemple : le problème de Merton Conclusion 10/31 Conclusion V (t, x) = x α eβ(t t) Contrôle optimal constant π u = µ r (1 α)σ 2 V est solution de l équation d Hamilton Jacobi Bellman
Exemple : le problème de Merton Conclusion 10/31 Conclusion V (t, x) = x α eβ(t t) Contrôle optimal constant π u = µ r (1 α)σ 2 V est solution de l équation d Hamilton Jacobi Bellman
Plan 11/31 1 au contrôle stochastique 2 3 de travail 4 Etude de la fonction
12/31 Investissement Approche fondamentale principes économiques Analyse technique comportement passé des prix Approche mathématique modèles mathématiques Objectif Comparer les performances de l analyse technique et de l approche mathématique
Modélisation 13/31 Marché : Actif sans risque Actif risqué B mouvement Brownien standard, µ(t) {µ 1, µ 2 } indépendant de B, dst 0 = St 0rdt ds t = µ(t)s t dt + σs t db t contrôle π t {0, 1} proportion de la richesse investie dans l actif risqué état Wt π richesse correspondant à la stratégie π critère espérance de l utilité de la richesse finale Objectif Maximiser l espérance de l utilité de la richesse finale
Stratégie de l analyste technique 14/31 Moyenne mobile M δ t = 1 δ t t δ S u du 1.4 1.3 1.2 1.1 1.0 Si S t > M δ t Si S t < M δ t Optimiser achat vente la taille de la fenêtre δ les instants de décision 0.9 0.8 0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 Stock Moving average µ 1 = 0.2, µ 2 = 0.2, σ = 0.15, δ = 0.8.
Travaux précédents Modèle 15/31 BLANCHET, DIOP, GIBSON, KAMINSKI, TALAY, TANRÉ (2005) Un seul changement de dérive µ(t) = µ 1 si t < τ µ(t) = µ 2 si t τ avec P(τ > t) = e λt 1.17 1.13 1.09 1.05 1.01 0.97 0.93 Stratégie détecter τ 0.89 0.85 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 µ 1 = 0.2, µ 2 = 0.2, σ = 0.15, λ = 2.
Travaux précédents 16/31 Etude théorique de la fonction valeur Etude théorique de la détection de rupture Comparaisons des stratégies détection bien calibrée détection mal calibrée moyenne mobile Conclusion Moyenne mobile meilleure si paramètres mal calibrés Taux d erreur à partir duquel c est vrai
Plan 17/31 1 au contrôle stochastique 2 3 de travail 4 Etude de la fonction
Nouveau modèle 18/31 Plusieurs changements de dérive (ξ 2n+1 ) iid Exp(λ 1 ) (ξ 2n ) iid Exp(λ 2 ) τ 0 = 0, τ n = ξ 1 + + ξ n { µ1 if τ µ(t) = 2n t < τ 2n+1 µ 2 if τ 2n+1 t < τ 2n+2 Coûts de transaction g 01 coût d achat g 10 coût de vente 1.4 1.3 1.2 1.1 1.0 0.9 0.8 0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 µ 1 = 0.2, µ 2 = 0.2, σ = 0.15, λ 1 = λ 2 = 2.
Stratégies admissibles 19/31 Contrôle : π t {0, 1} proportion de la richesse investie dans l actif risqué F S t = σ(s u, u t) π t doit être F S t -adapté Problème F S t F B t = σ(b u, u t) = Reformuler le problème de contrôle
Nouvelle formulation 20/31 Contrôle : π t Etat : couple (W t, F t ) Dynamique : dw π t W π t = ( π t (µ 1 F t + µ 2 (1 F t )) + (1 π t )r ) dt + π t σd B t g 01 δ( π t = 1) g 10 δ( π t = 1) df t = ( λ 1 F t + λ 2 (1 F t ) ) dt + µ 1 µ 2 F t (1 F t )d σ B t, Critère : espérance de l utilité de la richesse finale Utilité : U(x) = x α, α ]0, 1[
Nouvelle formulation 20/31 Contrôle : π t Etat : couple (W t, F t ) Dynamique : dw π t W π t = ( π t (µ 1 F t + µ 2 (1 F t )) + (1 π t )r ) dt + π t σd B t g 01 δ( π t = 1) g 10 δ( π t = 1) df t = ( λ 1 F t + λ 2 (1 F t ) ) dt + µ 1 µ 2 F t (1 F t )d σ B t, Critère : espérance de l utilité de la richesse finale Utilité : U(x) = x α, α ]0, 1[
Nouvelle formulation 20/31 Contrôle : π t Etat : couple (W t, F t ) Dynamique : dw π t W π t = ( π t (µ 1 F t + µ 2 (1 F t )) + (1 π t )r ) dt + π t σd B t g 01 δ( π t = 1) g 10 δ( π t = 1) df t = ( λ 1 F t + λ 2 (1 F t ) ) dt + µ 1 µ 2 F t (1 F t )d σ B t, Critère : espérance de l utilité de la richesse finale Utilité : U(x) = x α, α ]0, 1[
Plan 21/31 1 au contrôle stochastique 2 3 de travail 4 Etude de la fonction
Définition 22/31 Si π t = 0 Si π t = 1 J 0 (t, x, f, π) = E[U(W π T ) W π t = x, F t = f ] J 1 (t, x, f, π) = E[U(W π T ) W π t = x, F t = f ] valeur V 0 (t, x, f ) = sup J 0 (t, x, f, π) π V 1 (t, x, f ) = sup J 1 (t, x, f, π) π
Régularité 23/31 Comparaison Continuité Pour tous i {0; 1} 0 t,ˆt T x, ˆx > 0 0 f,ˆf 1 : V i (ˆt, ˆx,ˆf ) V i (t, x, f ) V 0 (t, x, f ) V 1 (t, (1 g 01 )x, f ) V 1 (t, x, f ) V 0 (t, (1 g 10 )x, f ) C(1 + x α 1 + ˆx α 1 ) ( ˆx x + x( ˆf f + ˆt t 1/2 ) )
Principe de la Programmation Dynamique 24/31 Principe de la Programmation Dynamique Pour tous 0 s t T et x, f, i : V i (s, x, f ) = sup π E[V π t (t, W s,x,f,π t, F s,f t )]
Equations d Hamilton Jacobi Bellman 25/31 Equations d Hamilton Jacobi Bellman { min { ϕ0 t L 0 ϕ 0 ; ϕ 0 (t, x, f ) ϕ 1 (t, x(1 g 01 ), f ) } = 0 min { ϕ1 t L 1 ϕ 1 ; ϕ 1 (t, x, f ) ϕ 0 (t, x(1 g 10 ), f ) } = 0 L 0 ϕ(t, x, f ) = xr ϕ x (t, x, f ) + ` ϕ λ 1 f + λ 2 (1 f ) (t, x, f ) + f 1 µ1 µ 2 2f 2 (1 f ) 2 2 ϕ (t, x, f ) 2 σ f 2 L 1 ϕ(t, x, f ) = x(µ 1 f + µ 2 (1 f )) ϕ x (t, x, f ) + 1 2 x 2 σ 2 2 ϕ (t, x, f ) x 2 ϕ +` λ 1 f + λ 2 (1 f ) f (t, x, f ) + x(µ 1 µ 2 )f (1 f ) 2 ϕ (t, x, f ) x f + 1 µ1 µ 2 2f 2 (1 f ) 2 2 ϕ (t, x, f ) 2 σ f 2
Caractérisation de la fonction valeur 26/31 V α : ensemble des ϕ continues sur [0; T ] [0; + [ [0; 1] telles que ϕ(t, 0, f ) = 0 et ϕ(t, x, f ) ϕ(t, ˆx,ˆf ) sup [0;T ] ]0;+ [ 2 [0;1] 2 (1 + x α 1 + ˆx α 1 )( x ˆx + x f ˆf ) <. Théorème (V 0, V 1 ) est l unique solution de viscosité de HJB sur V α V α vérifiant V 0 (T, x, f ) = V 1 (T, x, f ) = U(x) = x α
Discrétisation 27/31 Dépendance en x : V i (t, x, f ) = sup π t,x,f,π E[U(WT )] = x α V i (t, 1, f ) Schéma numérique ˆV 0 (T, f ) = ˆV 1 (T, f ) = 1 Avec la partie EDP de HJB, calculer V 0 (t, ) et V 1 (t, ) à partir de ˆV 0 (t + dt, ) et ˆV 1 (t + dt, ) Comparaison si V 0 (t, f ) (1 g 01 ) α V 1 (t, f ), prendre ˆV 0 (t, f ) = V 0 (t, f ) sinon ˆV 0 (t, f ) = (1 g 01 ) α V 1 (t, f ) si V 1 (t, f ) (1 g 10 ) α V 0 (t, f ), prendre ˆV 1 (t, f ) = V 1 (t, f ) sinon ˆV 1 (t, f ) = (1 g 10 ) α V 0 (t, f )
Discrétisation 27/31 Dépendance en x : V i (t, x, f ) = sup π t,x,f,π E[U(WT )] = x α V i (t, 1, f ) Schéma numérique ˆV 0 (T, f ) = ˆV 1 (T, f ) = 1 Avec la partie EDP de HJB, calculer V 0 (t, ) et V 1 (t, ) à partir de ˆV 0 (t + dt, ) et ˆV 1 (t + dt, ) Comparaison si V 0 (t, f ) (1 g 01 ) α V 1 (t, f ), prendre ˆV 0 (t, f ) = V 0 (t, f ) sinon ˆV 0 (t, f ) = (1 g 01 ) α V 1 (t, f ) si V 1 (t, f ) (1 g 10 ) α V 0 (t, f ), prendre ˆV 1 (t, f ) = V 1 (t, f ) sinon ˆV 1 (t, f ) = (1 g 10 ) α V 0 (t, f )
Discrétisation 27/31 Dépendance en x : V i (t, x, f ) = sup π t,x,f,π E[U(WT )] = x α V i (t, 1, f ) Schéma numérique ˆV 0 (T, f ) = ˆV 1 (T, f ) = 1 Avec la partie EDP de HJB, calculer V 0 (t, ) et V 1 (t, ) à partir de ˆV 0 (t + dt, ) et ˆV 1 (t + dt, ) Comparaison si V 0 (t, f ) (1 g 01 ) α V 1 (t, f ), prendre ˆV 0 (t, f ) = V 0 (t, f ) sinon ˆV 0 (t, f ) = (1 g 01 ) α V 1 (t, f ) si V 1 (t, f ) (1 g 10 ) α V 0 (t, f ), prendre ˆV 1 (t, f ) = V 1 (t, f ) sinon ˆV 1 (t, f ) = (1 g 10 ) α V 0 (t, f )
valeur V 0 Tracé 28/31 Paramètres : T = 3, µ 2 = µ 1 = 0.2, λ 1 = λ 2 = 2, σ = 0.15, g 01 = g 10 = 0.01 1.04 1.03 V(t,f) 1.02 1.01 1.2 0.8 0.4 0 1.00 1.6 0 0.10.20.3 0.4 0.50.60.7 optional projection 0.8 0.91.0 3.2 2.8 2.4 2.0 time
Stratégie efficace 29/31 Calculer ˆV 0, ˆV 1 Estimer ˆF t Comparer ˆV 0 (t, ˆF t ) et ˆV 1 (t, ˆF t ) : achat si ˆV 0 (t, ˆF t ) = (1 g 01 ) α ˆV 1 (t, ˆF t ) vente si ˆV 1 (t, ˆF t ) = (1 g 10 ) α ˆV 0 (t, ˆF t ) 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 buying zone selling zone Estimated F µ 1 = 0.2, µ 2 = 0.2, σ = 0.15, λ 1 = 2, λ 2 = 2, T = 3
Comparaison stratégie efficace/ fonction valeur 30/31 Calcul de la fonction valeur : pas de discrétisation en temps 10 6 pas de discrétisation en espace 10 3 10 5 simulations de Monte Carlo de la stratégie efficace F 0 0 0.1 0.2 0.3 0.4 0.5 ˆV 0 1.061 1.057 1.053 1.049 1.045 1.043 Stratégie 1.061 1.056 1.052 1.049 1.045 1.043 F 0 0.6 0.7 0.8 0.9 1 ˆV 0 1.041 1.039 1.038 1.037 1.036 Stratégie 1.040 1.039 1.038 1.037 1.036
Comparaison stratégie mal calibrée / Moyenne mobile 31/31 1.05 1.04 1.03 1.05 1.04 1.03 1.02 1.01 1.00 0.99 0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 Efficient Strategy Misspecified Efficient Strategy Moving Average Strategy Paramètres mal calibrés : µ 1 = 1.8, µ 2 = 1.8, σ = 0.15, λ 1 = 4, λ 2 = 4 1.02 1.01 1.00 0.99 0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 Efficient Strategy Misspecified Efficient Strategy Moving Average Strategy Paramètres mal calibrés : µ 1 = 1.8, µ 2 = 1.8, σ = 0.25, λ 1 = 4, λ 2 = 4 Vrais paramètres : µ 1 = 0.2, µ 2 = 0.2, σ = 0.15, λ 1 = 2, λ 2 = 2, T = 3, δ = 0.8 100000 simulations Monte Carlo