«Etude de la performance d une Value-at-Risk chaotique pour l indice CAC 40» Rachida HENNANI, Michel TERRAZA DR n 2011-18
Etude de la performance d une Value-at-Risk chaotique pour l indice CAC 40 R. HENNANI Lameta Université Montpellier 1 M. TERRAZA Lameta-CNRS Université Montpellier 1 15 novembre 2011 Résumé L accroissement du risque de marché sur les places financières a conduit les autorités de régulation à imposer le calcul d une mesure de risques extrêmes : la Value-at-Risk. FIGLEWSKI(1997) et JPMORGAN(1996) dans son modèle Riskmetrics, recommandent dans le calcul de la VaR d utiliser une moyenne des rentabilités nulle. Cette hypothèse, souvent retenue dans une grande partie des analyses sur la VaR, implique une perte d informations dans sa construction. Le recours à des caractéristiques non linéaires dans la modélisation de l équation de la moyenne des rentabilités conduit à la détection de phénomènes chaotiques dans les séries financières vérifiée notamment par KYRTSOU, TERRAZA M.(2003), GUEGAN et MERCIER(2005), GUEGAN et HOUM- MIYA(2005), GUEGAN (2009). Par ailleurs, l introduction des modèles ARCH par ENGLE(1982) permet de prendre en compte l importante variabilité des rendements des cours. L association de ces deux caractéristiques notamment par KYRTSOU et TER- RAZA(2003) fournit une amélioration des résultats prévisionnels et par conséquent des mesures de risques estimées. Nous retenons ce constat et l appliquons à l indice français du CAC 40 sur la période du 31/12/1987 au 11/04/2011. Le résultat de notre étude comparative à l aide des tests de backtesting montre que les VaR estimées par le modèle MG-QGARCH(1,1) surperforment le benchmark Riskmetrics. Mots clés : Value-at-risk, Modèle de Mackey-Glass, GARCH, TARCH, QGARCH, tests de backtesting Codes JEL :C01, C22, C58 Correspondance: LAMETA (UMR CNRS 5474), Université Montpellier 1, Avenue Raymond Dugrand, Site de Richter CS 79606, Montpellier Cedex 1, France. E-mail : rachida.hennani@lameta.univ-montp1.fr 1
1 Introduction Les crises financières qui affectent les économies du monde ont favorisées le développement d un certain nombre d outils de mesure du risque de marché. La plupart de ces instruments s inscrivent dans un cadre particulier défini par les instances de règlementation et imposé aux différents organismes bancaires et financiers. Parmi les différents outils proposés, la Value-at-Risk constitue une mesure du risque extrême permettant de déterminer le montant de perte maximal pour une probabilité et un horizon temporel donnés. Ainsi en Europe, Le Comité de Bâle (Bâle 2 1997) impose cette mesure aux banques de manière à ce que ces établissements, souvent soumis à des risques de marchés, puissent établir une estimation des fonds propres nécessaires pour faire face aux pertes potentielles qu ils pourront subir. L utilisation de cet instrument nécessite la mise en place d un modèle interne qui doit être validé par les instances réglementaires, ainsi qu à une autoévaluation de leurs modèles notamment par des tests de backtesting 1. MANGANELLI et ENGLE(2001) ont recensé 3 approches d estimation de la Value-at-Risk : une approche non-paramétrique basée sur des simulations, une approche paramétrique qui s inscrit dans un cadre de linéarité des instruments financiers et qui suppose une distribution normale de la série des rentabilités étudiée et enfin une approche semiparamétrique. Nous nous intéresserons, dans le cadre de ce travail, à l approche paramétrique. Elle est basée sur l analyse de la série stationnarisée des prix. La modélisation proposée est alors une combinaison de processus ARMA pour l équation de la moyenne et de processus ARCH pour l équation de la variance. Une démarche alternative à cette approche est fournie par les modèles chaotiques. Ces derniers s inscrivent dans une approche déterministe mais se caractérisent par une sensibilité aux conditions initiales et une forte récurrence. En effet KYRTSOU(2008), KYRTSOU et MAL- LIARIS(2009), KYRTSOU et TERRAZA(2003) ont montré que les fluctuations des séries financières pouvaient être générées par des dynamiques déterministes non linéaires bruitées. De nombreux auteurs dont KYRTSOU et TERRAZA(2002,2003) ont montré la présence de phénomènes chaotiques dans les séries financières. BROCK et HOMMES(1998), LUX(1995,1998), MALLIARIS et STEIN(1999) justifient la présence de dynamiques chaotiques dans les séries financières par l interaction des comportements hétérogènes des agents financiers qui conduisent de fait à des structures chaotiques complexes. L objet de cet article est de montrer que la prise en compte des caractéristiques de la série étudiée, notamment en ce qui concerne les structures chaotiques par un processus adéquat, conduit à de meilleures prévisions de la VaR. Contrairement à l hypothèse formulée par FI- 1. Suite à la crise financière de 2007, le Comité de Bâle décide d amender les accords de Bâle 2 en juillet 2009 pour finalement proposer en juillet 2010 la réforme Bâle 3 comme réponse à la crise financière. La mise en?uvre des mesures décidées dans l accord de Bâle 3 débutera en janvier 2013. 2
2 VALUE-AT-RISK ET TESTS DE BACKTESTING 3 GLEWSKI(1997) et JPMORGAN(1996), nous proposons l estimation de la moyenne par une équation de Mackey-Glass pour prendre en compte les structures chaotiques et nous estimons différents processus GARCH pour l équation de la variance. Cette association a été utilisée pour la première fois en économétrie financière par KYRTSOU et TERRAZA (2003,2004,2010). Nous proposons une prévision de la VaR par les modèles retenus et une étude de leurs performances par les tests de backtesting qui confirment l utilité de recourir à un modèle de chaos stochastique. Notre article est structuré de la manière suivante : la première section est une présentation de la VaR et des tests de backtesting permettant de sélectionner les meilleurs modèles de prévision. La seconde section est l analyse de la série des cours du CAC 40 pour une période allant du 31/12/1987 au 11/04/2011 à laquelle nous associons plusieurs modélisations et estimations de la VaR. La dernière section porte sur les tests de backtesting et conclut sur la surperformance du modèle Mackey-Glass- QGARCH(1,1). 2 Value-at-risk et tests de backtesting Le risque de marché qui existe sur les différentes places financières conduit les investisseurs à une analyse spécifique du risque. Une mesure de référence du risque de marché a été recommandée dès 1993 par le Groupe des Trente : la VaR (TERRAZA V. 2010). Depuis la popularisation de cette mesure par la banque JP MORGAN(1996), de nombreuses méthodes d estimation se sont développées et leur évaluation s effectue par les techniques de backtesting. Elles permettent de vérifier l adéquation des modèles utilisés pour la prévision de la Value-at- Risk. JORION(2003) définit le backtesting comme un ensemble de procédures statistiques qui consiste à vérifier si les pertes observées ex-post correspondent aux pertes prévues. Chaque dépassement étant considéré comme une exception. La notion d exception (ou hit) va constituer la base des tests statistiques qui se sont développés pour évaluer la prévision de la Value-at-Risk. Ces tests se scindent en 2 groupes : ceux qui permettent de vérifier l hypothèse de couverture non conditionnelle et ceux qui permettent de vérifier l hypothèse d indépendance. Ainsi une prévision de la Value-at-Risk est valide si et seulement si les hypothèses de couverture non conditionnelle et conditionnelle sont vérifiées(christoffersen(1998)). 2.1 La Value-at-Risk Popularisée dès l automne 1994 par la Banque JP MORGAN via sa méthodologie Riskmetrics, la VaR désigne le niveau de perte de valeur d un actif à une date donnée et pour un niveau de probabilité fixé à priori. L intérêt particulier porté à cette mesure de risque par les autorités de régulation est dû à la crédibilité des institutions financières mais aussi à la recherche d une certaine harmonisation entre les pays.
Dans la littérature économétrique, la VaR a fait l objet de nombreuses recherches qui ont conduit au développement de nombreuses méthodes d estimation. L approche paramétrique,que nous retenons, nécessite la définition d un horizon temporel, d une probabilité de risque mais surtout d une mesure de la volatilité. En général, la mesure de volatilité retenue est l écart-type. Ainsi, la VaR en t en fonction de l information disponible en t-1, pour une probabilité de risque α est donnée par : V ar t t 1 = µ t σ t φ 1 (α) (1) Où µ t est la moyenne de la série des rendements au temps t, φ est la fonction de répartition de la loi normale et σ t l écart-type de la série en t. L estimation proposée par la banque initiatrice est basée sur la modélisation de la série stationnarisée des prix par un modèle IGARCH sans constante : avec V ar t (α) = µ t φ 1 (α)σ t (2) σ 2 t = λσ 2 t 1 + (1 λ)r 2 t 1 (3) Où µ t est la moyenne conditionnelle et σ 2 t la variance conditionnelle. La spécification de la variance correspond à un modèle IGARCH (1,1) sans constante et dont les paramètres sont fixés préalablement 2. 2.2 Tests de couverture non-conditionnelle L hypothèse de couverture non-conditionnelle est vérifiée si la probabilité de réalisation ex-post d une perte en excès par rapport à la Value-at-Risk anticipée ex-ante est égale au taux de couverture. Ainsi, les prévisions de la Value-at-Risk pour un taux de couverture de α% ne doivent pas conduire à plus de α% de violations. Soit : I t = { 1 si rt < V ar t 0 sinon (4) Avec I t une fonction indicatrice permettant de comparer les rentabilités observées et les Value-at-Risk estimées, r t correspond à la rentabilité observée en t et V ar t, la value-at-risk estimée en t à partir de l ensemble d information disponible en t 1. Cette fonction indicatrice est aussi appelée hit function. Elle est utilisée par KUPIEC (1995) pour construire un test de couverture non conditionnelle qui permet de tester si le nombre de violations enregistrées excède ou non le taux de couverture. Le test de KUPIEC(1995) est construit sur l hypothèse H0 suivante : E(I t ) = α où I t désigne la variable indicatrice définie ci-dessus 2. Pour les estimations de volatilité quotidiennes, on retient λ = 0.94 et pour les données mensuelles, il faut retenir λ = 0.96. 4
2 VALUE-AT-RISK ET TESTS DE BACKTESTING 5 et α le taux de couverture retenu. La statistique de KUPIEC est donnée par : LR uc = 2ln[(1 α) N X α X ] + 2ln[(1 (X/N)) N X (X/N) X ] χ 2 (1) (5) Où N est le nombre de violations et X le nombre de prévisions. Le rapport N X correspond au taux d échec. Si la statistique calculée LR uc est inférieure au χ 2 (1) alors l hypothèse H 0 est retenue : les prévisions effectuées respectent l hypothèse de couverture non conditionnelle. 2.3 Tests de couverture conditionnelle L hypothèse d indépendance permet de combler les insuffisances de l hypothèse de couverture non conditionnelle notamment sur l occurrence des violations dans le temps. Ainsi, l hypothèse d indépendance permet de prendre en compte la réalisation temporelle des hits. Elle suppose qu il n existe pas de clusters de violations c est-à-dire que les violations de la Value-at-Risk à 2 dates différentes pour un même taux de couverture doivent être indépendamment distribuées. CHRISTOFFER- SEN(1998) souligne la non validité des prévisions de la Value-at-Risk si elles ne satisfont pas les hypothèses de couverture non conditionnelle et d indépendance. Ces 2 hypothèses peuvent être regroupées sous l hypothèse de couverture conditionnelle, satisfaite lorsque la probabilité conditionnelle à l ensemble d information disponible en t-1 d une exception en t est égale au taux de couverture α. Il existe 2 grandes familles de tests : d une part les tests construits pour un taux de couverture donné qui se basent sur l occurrence des violations et qui sont regroupés sous l étiquette "Event Probability Forecast Evaluation" et d autre part, des tests qui visent à vérifier pour un ensemble de taux de couverture la propriété d efficience conditionnelle. Ils sont rassemblés dans l approche "Density Forecast Evaluation". Il existe plusieurs tests de couverture conditionnelle notamment les tests LR de CHRISTOFFERSEN(1998), les tests de durée (HURLIN et TOKPAVI(2008)), les tests fondés sur un modèle de régression des hits(engle et MANGANELLI(2004)). Nous retenons ici le test de CHRISTOFFERSEN(1998) qui suppose que le processus de violations I t (α) est modélisé par une chaîne de Markov. Il utilise les statistiques LR en posant des restrictions sur les paramètres, permettant alors de tester les différentes hypothèses de couverture. Les statistiques de tests sont les suivantes (HURLIN 2010) : LR cc = 2{lnL[Π α, I 1 (α),..., I T (α)] lnl[ Π, I 1 (α),..., I T (α)]} χ 2 (2) (6) LR ind = 2{lnL[ Π π, I 1 (α),..., I T (α)] lnl[ Π, I 1 (α),..., I T (α)]} χ 2 (1) (7) Où Π est l estimateur du maximum de vraisemblance de la matrice
de transition sous l hypothèse alternative et L(.), la log-vraisemblance des violations I t (α). Π π et Π α désignent respectivement l estimateur du maximum de vraisemblance de la matrice de transition sous l hypothèse d indépendance et l estimateur du maximum de vraisemblance de la matrice de transition sous l hypothèse de couverture conditionnelle. Par ailleurs, nous avons l égalité suivante : LR cc = LR uc + LR ind (8) 3 Application empirique à l indice français CAC 40 Nous proposons d illustrer l utilité de la prise en compte de structures chaotiques dans le calcul de la VaR à partir de la série de l indice français CAC40 sur une période allant du 31/12/1987 au 11/04/2011, soit 6073 observations. Nous avons noté que cet indice comportait les faits stylisés tels définis par CONT(2000) comme une forte volatilité et une non-stationnarité des prix. Les analyses sur la série stationnarisée des prix révèlent d autres caractéristiques des séries financières : non autocorrélation des rendements mais autocorrélation des rendements au carré, asymétrie et leptokurticité de la distribution des rentabilités, clusters de volatilité. Outre la mise en évidence d effets ARCH, l application du test BDS rejette l hypothèse de structures linéaires et le test GPH la présence de phénomènes de persistance. 3.1 Analyse descriptive et tests préliminaires Le graphique 1 montre une série des prix clairement non stationnaire, volatile avec une tendance à la hausse. Ces premières observations sont confirmées par les tests de racine unitaire 3 figurant dans la table 1. Pour stationnariser notre série nous retenons les différences premières du log des cours qui sont une approximation des rentabilités financières (Graphique 2). Evolution des cours du CAC 40 Prix de l'indice CAC 40 1000 2000 3000 4000 5000 6000 7000 0 1000 2000 3000 4000 5000 6000 Temps[Jours] Figure 1 Evolution des prix de l indice CAC 40 3. Le choix du test de racine unitaire approprié est conditionné par les caractéristiques de la série étudiée. Le test standard de Dickey-Fuller sert de référence et les critères AIC, SC et HQ permettent la sélection des modèles : nous avons retenu le modèle 1 pour le test de Seo et de Dickey-Fuller et le modèle 3 pour le test ERS, et le modèle A pour le test de Zivot-Andrews. 6
3 APPLICATION EMPIRIQUE À L INDICE FRANÇAIS CAC 40 7 Tests de racine unitaire Standard Estimation Valeur critique Dickey-Fuller 0.140848-1.940876 Efficient Estimation Valeur critique Elliot-Rothenberg-Stock -1.498772-2.89 Non-linéarité en variance Estimation Valeur critique Seo 3.62-1.64 Avec rupture Estimation Valeur critique Zivot-Andrews -2.974-4.8 Table 1 Tests de racine unitaire sur la série des cours de l indice CAC 40. Rentabilités de l'indice CAC 40 0.10 0.00 0.10 Evolution des rentabilités du CAC 40 0 1000 2000 3000 4000 5000 6000 Temps[Jours] Figure 2 Evolution des rentabilités de l indice CAC 40
z-stat D après les statistiques descriptives de la table 2, la série des rentabilités est une série volatile, leptokurtique et asymétrique : la distribution des rentabilités n est pas une distribution gaussienne. C est cette insuffisance des modèles linéaires qui conduit à envisager une approche non linéaire du processus générateur de la série des rentabilités. Pour justifier ce choix nous retenons le test de BROCK, DECHERT et SCHEINK- MAN (1996) qui permet de tester si une série est i.i.d. Les résultats du test sont donnés dans le graphique 3 pour différentes valeurs d epsilon 4 et pour différentes dimensions. Statistiques descriptives de la série des rentabilités n 6072 x 0.00023 Maximum 0.105946 Minimum -0.094715 σ t 0.013651 Skewness -0.034872 Kurtosis 8.147068 Jarque-Bera 6703.785 Table 2 Statistiques descriptives 30 Résultat du test BDS sur la série des rentabilités 25 20 15 10 m=2 m=3 m=4 m=5 Quantile de la loi normale 5 0 0,25 0,5 0,75 1 1,25 1,5 1,75 2 ε/σ Figure 3 Résultats du test BDS sur la série des rentabilités de l indice CAC 40 L hypothèse de distribution i.i.d. de la série des rentabilités est rejetée. Les alternatives à cette hypothèse sont nombreuses et s inscrivent 4. Ce test est basé sur l intégrale de corrélation C m,n (ɛ) qui mesure la proportion de vecteurs (X t, X s) de l espace d immersion R m qui sont distants de moins de ɛ (MIGNON et LARDIC(2002)). 8
3 APPLICATION EMPIRIQUE À L INDICE FRANÇAIS CAC 40 9 dans une approche non linéaire du processus générateur de la série des rentabilités. L approche par les phénomènes de persistance ne peut être retenue compte tenu des résultats du test GPH figurant dans la table 3. La présence de structures à mémoire longue pour différentes tailles d échantillon est rejetée. Résultats du test GPH Nombre d observations d t-statistic P-value T 0.4 = 32 0.000048992 1.2602 0.217 T 0.5 = 77 0.000023919 1.1170 0.2675 T 0.6 = 186 0.0000060475 0.4669 0.6411 T 0.7 = 445 0.000001302 0.1558 0.8762 T 0.8 = 1063 0.0000048642 0.8418 0.4001 Table 3 Test GPH Le recours aux processus hétéroscédastiques constitue une voie intéressante puisqu elle permet de prendre en compte l importante variabilité des rendements. En effet, CONT(2001) a distingué 8 principales propriétés des séries financières dont la plupart ont été décelées dans la série des cours et des rendements du CAC 40. Parmi les différentes propriétés mises en exergue par cet auteur, on note une forte autocorrélation des carrés des rendements et une faible autocorrélation des rendements. Ces caractéristiques sont confirmées pour la série des rendements du CAC 40.(Tables 4 et 5 ) Tests d autocorrélation Retards Q-stat P-value Rendements 2 5.0165 0.0814 3 19.3793 0.0002 4 27.2207 0 5 37.8187 0 10 43.6228 0 15 46.1220 0 20 55.6604 0 Rendements au carré 2 563.7347 0 3 891.8202 0 4 1173.4 0 5 1635.3 0 10 2789.5 0 15 3791.4 0 20 4625.5 0 Table 4 Tests d autocorrélation
Tests ARCH Retards ARCH-stat P-value 2 472.2938 0 3 633.5047 0 4 719.6183 0 5 890.9493 0 10 1000.7 0 15 1064 0 20 1108.5 0 Table 5 Tests ARCH Les tests ARCH mettent en évidence un phénomène d intermittence dans la série des rentabilités et les tests d autocorrélation confirment la présence de clusters de volatilité. 3.2 Etude de la non linéarité de la série des rentabilités Le rejet de l hypothèse nulle du test BDS, l asymétrie de la distribution des rendements nous orientent vers les tests de détection de structures chaotiques. Les différents tests retenus (métrique, topologique et dynamique) sont présentés en annexe A. L approche métrique : Le calcul de la dimension de corrélation de GRASSBERGER et PROCACCIA(1983) est effectué à l aide du logiciel Visual Recurrence Analysis(VRA) de KONO- NOV(1996). L évolution croissante mais à taux décroissant de la dimension de corrélation est donnée par la figure 4, ce qui nous permet de supposer que si la dimension de plongement tend vers l infini, la dimension de corrélation va se stabiliser. Aussi, l idée selon laquelle un processus stochastique pur génère la série des rentabilités de l indice CAC 40 peut être rejetée. D après la figure 4, nous pouvons supposer que le processus générant la série des rentabilités possède une part non négligeable de déterminisme. 10
3 APPLICATION EMPIRIQUE À L INDICE FRANÇAIS CAC 4011 Figure 4 Dimension de corrélation L approche dynamique : Le calcul du plus grand exposant de Lyapunov est indispensable pour confirmer ou infirmer la présence de structures chaotiques. Nous retenons 2 des 3 algorithmes présentés en annexe A, à savoir les algorithmes de WOLF et al.(1985) et de ROSENSTEIN et al.(1992). L application de ces 2 algorithmes a été effectuée par des logiciels particuliers : le logiciel NDT (Nonlinear Dynamics Toolbox) pour l algorithme de WOLF et al.(1985) et Matlab pour l algorithme de ROSENSTEIN et al.(1992) avec un code de MOHAMMADI 5. Les résultats figurent dans le tableau ci-dessous 6. Calcul du plus grand exposant de Lyapunov Paramètres m τ 4 2 Algorithme de Wolf et al. LLE 1.734051 Algorithme de Rosenstein et al. LLE 0.0000347 Table 6 Estimation du plus grand exposant de Lyapunov Il apparait que le plus grand exposant de Lyapunov estimé est positif. Aussi, ces résultats confortent l hypothèse de présence de structures chaotiques dans la série des rendements du CAC 40. Une modélisation adéquate de la série des rentabilités nécessite 5. Shapour MOHAMMADI. Lyaprosen : Matlab function to calculate lyapunov exponent. Statistical Software Components, Boston College Department of Economics, July 2009. 6. m, la dimension de plongement a été estimée par la méthode des faux voisins. τ, le délai est tel qu il minimise l information mutuelle et la fonction d autocorrélation.
bien la prise en compte de cette structure. L approche topologique : Cette approche confirme les résultats précédents. Le graphique 5 indique que le pourcentage de déterminisme détecté dans la série des rendements est non négligeable. Le pourcentage de points récurrents montre qu il existe une structure déterministe et compte tenu des paramètres retenus 7, nous pouvons qualifier cette structure déterministe de chaotique. Figure 5 % de déterminisme de la série des rentabilités 7. Le calcul du pourcentage de déterminisme via le logiciel VRA nécessite de fixer la longueur minimale des lignes diagonales formées par les points récurrents(cf. annexe A). La présence de structures chaotiques est confirmée par un pourcentage de déterminisme relativement élevé. 12
3 APPLICATION EMPIRIQUE À L INDICE FRANÇAIS CAC 4013 3.3 Modélisation Afin de prendre en compte les caractéristiques précédentes de la série des rentabilités, nous proposons une modélisation par le modèle de Mackey-Glass 8 pour l équation de la moyenne et une modélisation par un processus de type ARCH pour l équation de la variance. Nous avons ainsi estimé 3 modèles qui proposent une modélisation différente de l effet ARCH. Par ailleurs, afin de juger de l amélioration induite par la prise en compte de structures chaotiques, nous proposons une modélisation par un processus purement stochastique : le modèle GARCH(1,1) 9. Modèle GARCH(1,1) : Introduits pour la première fois par ENGLE en 1982, les processus ARCH permettent de faire dépendre la variance d une série d un ensemble d informations notamment le temps. Ces modèles font l objet d une généralisation par Bollerslev en 1986 qui présente les modèles GARCH : X t = cɛ t (9) avec ɛ t I t 1 N(0, h t ) ɛ t = z t ht et h t = α 0 + α 1 ɛ t 1 2 + β 1 h t 1. Les résultats de l estimation de ce modèle sont donnés ci-dessous. Modèle GARCH(1,1) Paramètres coefficients Probabilité c 0.000567 <0.0001 α 0 4.514e-06 <0.0001 α 1 0.101483 <0.0001 β 1 0.873657 <0.0001 Table 7 Estimation du modèle GARCH(1,1) 8. M. MACKEY and L. GLASS. Oscillation and chaos in physiological control systems. Science, 197 :287289, 1977. 9. En pratique la modélisation par un ARCH conduit à retenir un grand nombre de retards pour tenir compte de la volatilité persistante.un nombre important de retards peut conduire à une violation de la contrainte de non-négativité de la variance. Les modèles GARCH permettent de recourir à une structure de retards plus souple(bollerslev et al.(1991))
Modèle Mackey-Glass-GARCH(1,1) : Il s agit d un modèle qui a déjà fait l objet d un certain nombre de publications notamment par KYRTSOU et TERRAZA(2003,2004,2010). Il permet de prendre en compte les structures chaotiques complexes dans la moyenne mais aussi le caractère fortement volatile des séries financières par une modélisation GARCH. Le modèle est spécifié de la façon suivante : X t 1 X t = a 1 + Xt 1 2 δx t 1 + ɛ t (10) avec ɛ t I t 1 N(0, h t ) ɛ t = z t ht et h t = α 0 + α 1 ɛ t 1 2 + β 1 h t 1. L estimation de ce modèle est donnée dans la table 8. Modèle Mackey-Glass-GARCH(1,1) Paramètres coefficients Probabilité a -9.65916 0.0048 τ -9.67313 0.0047 α 0 4.511e-06 <0.0001 α 1 0.10035 <0.0001 β 1 0.874849 <0.0001 Table 8 Estimation du modèle Mackey-Glass-GARCH(1,1) Il est à noter la significativité de tous les paramètres du modèle mais aussi et surtout la capacité de ce modèle à prendre en compte les phénomènes d intermittence présent dans les séries financières.(annexe B) Modèle Mackey-Glass-TARCH(1,1) Développé par GLOSTEN et al.(1993) et ZAKOIAN et al.(1993), le modèle TGARCH modélise l effet d annonce de bonnes et mauvaises nouvelles sur le marché. Couplé à un modèle de Mackey- Glass, le modèle TARCH permet de surestimer l effet d une volatilité négative. Le modèle Mackey-Glass-TARCH(1,1) retenu est le suivant : X t 1 X t = a 1 + Xt 1 2 δx t 1 + ɛ t (11) avec ɛ t I t 1 N(0, h t ) et h t = α 0 + (α 1 + γ 1 δ t 1 )ɛ t 1 où d t 1 = { 1 si ɛt 1 < 0 0 si ɛ t 1 0 (12) L estimation de ce modèle est donnée dans la table 9. Le modèle MG-TARCH(1,1) a été estimé par la méthode du maximum de vraisemblance et l algorithme d optimisation retenu est l algorithme de LEVENBERG-MARQUARDT(1963). Ce modèle semble intégrer les caractéristiques de la série des rendements de l indice CAC 40 en ce sens où la variance conditionnelle 14
3 APPLICATION EMPIRIQUE À L INDICE FRANÇAIS CAC 4015 Modèle Mackey-Glass-TARCH(1,1) Paramètres coefficients Probabilité a -7.25154 0.0057 τ -7.260811 0.0057 α 0 0.0135518 <0.0001 α 1 0.019291 <0.0001 γ 1 0.006019 0.6046 Table 9 Estimation du modèle Mackey-Glass-TARCH(1,1) permet de rendre compte des clusters de volatilité existants tel qu on peut le voir en annexe B. Modèle Mackey-Glass-QGARCH(1,1) Il considère des asymétries pouvant exister dans la variance conditionnelle. Introduits par ENGLE et NG(1993) et SENTANA(1995), les modèles Quadratic GARCH vérifient les mêmes conditions de stationnarité que les modèles GARCH classiques. Le modèle MG-QGARCH(1,1) est spécifié de la manière suivante : X t 1 X t = a 1 + Xt 1 2 δx t 1 + ɛ t (13) avec ɛ t I t 1 N(0, h t ) h t = α 0 + φ 1 ɛ t 1 + α 1 ɛ t 1 2 + β 1 h t 1 Les résultats de l estimation par la méthode du maximum de vraisemblance montrent la significativité de tous les paramètres. Par ailleurs, il est possible de noter l adéquation de ce modèle aux spécificités de notre série (ANNEXE B). Modèle Mackey-Glass-QGARCH(1,1) Paramètres coefficients Probabilité a -9.65783 <0.0001 τ -9.67395 <0.0001 α 0 0.000004053 <0.0001 α 1 0.066469 <0.0001 β 1 0.910102 <0.0001 φ -0.00107 0.0001 Table 10 Estimation du modèle Mackey-Glass-QGARCH(1,1)
Le choix de ces modèles est assujetti aux différentes structures détectées dans la série des rentabilités du CAC40. Compte tenu des caractéristiques présentées précédemment, la sélection de ces modèles doit conduire à une réduction conséquente du bruit résiduel. L analyse des histogrammes des résidus issus des différents modèles(annexe B) ne conclut pas en faveur d une distribution normale des résidus mais montre une diminution du kurtosis et par conséquent des statistiques de tests de normalité. Les tests effectués sur les résidus des différents modèles (ANNEXE B) montrent qu il n y a plus d autocorrélation dans les résidus des modèles GARCH(1,1), MG-GARCH(1,1) et MG-QGARCH(1,1). Le test ARCH indique que le phénomène d intermittence décelé précédemment a été bien pris en compte par tous les modèles excepté le modèle TARCH. Compte tenu de ces premiers résultats qui font apparaitre des statistiques relativement proches, la discrimination entre les modèles GARCH, MG-GARCH et MG-QGARCH ne peut se faire que sur leurs capacités prédictives. 16
4 TESTS DE BACKTESTING ET CONCLUSION 17 4 Tests de backtesting et conclusion L approche classique retenue par de nombreux auteurs est de fournir des prévisions de la VaR en ne prenant en compte que la position longue, c est-à-dire pour des rentabilités négatives. Or, la capacité de prévisions des modèles qui sont proposés doit être évaluée en position longue mais aussi en position courte. Les acteurs qui participent aux marchés financiers sont non seulement curieux de connaître la perte maximale que pourra engendrer une baisse du prix de l actif qu ils détiennent mais ils peuvent, en position courte s inquiéter de l augmentation maximale du prix d un actif qu ils ont l intention d acquérir. Nous présentons les résultats des tests de backtesting en position courte et en position longue, pour des couvertures conditionnelle et non conditionnelle, dans l échantillon et hors échantillon. Par ailleurs, nous retenons les prévisions par le modèle Riskmetrics 10 comme benchmark. Les résultats pour les prévisions dans l échantillon sont donnés dans la table 11. 4.1 Prévisions dans l échantillon Les résultats du test de Kupiec appellent plusieurs commentaires notamment sur l interprétation prudente qu il faut en faire. La statistique LR uc donnée dans le tableau 11 est une statistique à comparer à la valeur du Khi-deux à un degré de liberté. Si nous nous référons à cette statistique, nous constatons que tous les modèles excepté Riskmetrics proposent une bonne couverture non conditionnelle en position courte et en position longue. Il est donc possible d établir un premier classement qui montre que le modèle MG-QGARCH est celui qui propose la meilleure couverture non conditionnelle en position courte pour les 2 quantiles retenus. En ce qui concerne la position longue, les statistiques LR uc des modèles GARCH et MG-GARCH sont les plus faibles et par conséquent, ces modèles proposent une couverture non conditionnelle plus intéréssante. Le modèle Riskmetrics enregistre de forts taux d échecs pour les deux positions, ce qui ne lui permet pas de proposer une couverture non conditionnelle satisfaisante. L analyse du test d indépendance montre que l hypothèse de distribution indépendante de la série des exceptions pour un même taux est acceptée pour tous les modèles. L hypothèse de couverture conditionnelle qui regroupe les tests LR uc et LR ind indique que le modèle MG-QGARCH minimise la statistique LR cc et qu il est par conséquent le meilleur pour la prévision dans l échantillon en position courte. En position longue, ce modèle est concurrencé par le modèle MG-GARCH qui minimise la statistique LR cc pour le quantile 0.01 tandis que le MG- QGARCH est le meilleur modèle pour le quantile 0.05. Les constats 10. RISKMETRICS. Technical document. Technical report, Morgan Guarantee Trust Company of New-York, 1996.
Test de backtesting Position courte Quantile LR u c LR i nd LR c c Modèle GARCH(1,1) 0.95 0.1703 8.299e 24 0.1703 0.99 0.7570 1.3218e 9 0.7570 Modèle MG GARCH(1,1) 0.95 0.0269 4.254e 11 0.0269 0.99 0.0669 0.1029 0.0698 Modèle MG-TARCH(1,1) 0.95 1.1677 2.0511e 17 1.1677 0.99 0.0909 9.0816e 8 0.0909 Modèle MG-QGARCH(1,1) 0.95 0.0173 1.5656e 17 0.0173 0.99 0.0033 1.5313e 5 0.0033 Modèle Riskmetrics 0.95 25.7492 1 26.7492 0.99 5.0453 1 6.0453 Position longue Quantile LR u c LR i nd LR c c Modèle GARCH(1,1) 0.05 0.0168 0.119 0.1287 0.01 3.5270 5.8891e 13 3.5270 Modèle MG GARCH(1,1) 0.05 0.0269 1.2421 1.2690 0.01 0.3492 3.5188e 5 0.3493 Modèle MG-TARCH(1,1) 0.05 0.9219 4.3158e 26 0.9219 0.01 1.9366 2.5073e 11 1.9366 Modèle MG-QGARCH(1,1) 0.05 0.0173 1.5656e 17 0.0173 0.01 0.5398 0.0019 0.5417 Modèle Riskmetrics 0.05 25.7599 1 26.7599 0.01 24.7492 1 25.7592 Table 11 Test de backtesting sur les prévisions dans l échantillon que nous venons d établir révèlent une surperformance des modèles MG-GARCH et MG-QGARCH. La prise en compte des structures chaotiques améliore les prévisions dans l échantillon. Cependant, il reste nécessaire d évaluer leur capacité à établir des prévisions hors-échantillon satisfaisantes. 18
4 TESTS DE BACKTESTING ET CONCLUSION 19 4.2 Prévisions hors-échantillon Nous réestimons pour chaque modèle les coefficients et déterminons les prévisions hors-échantillon. Une analyse graphique (Annexe C) et statistique des prévisions hors-échantillon fournies par les différents modèles nous permet d établir différents constats : On note la spécificité du modèle GARCH(1,1) qui permet de prendre en compte la volatilité conditionnelle et à répercuter les volatilités importantes dans le calcul de la VaR et ce grâce à la variance conditionnelle. Visuellement, ce modèle donne des résultats acceptables dans la mesure où l on n observe que peu d exceptions. Statistiquement, d après les résultats de la table 12, le modèle GARCH(1,1) offre la meilleure couverture non conditionnelle en position courte pour le quantile 0.99. Nous constatons que les VaR estimées par ce modèle semblent très consommatrices en fonds propres. Ce modèle minimise la statistique d indépendance pour le quantile 0.95 et comparativement aux autres modèles, il est celui qui propose la meilleure prévision en position courte pour le quantile 0.99. En position longue, le modèle GARCH(1,1) ne passe pas les tests de backtesting pour le quantile 0.01. Ce modèle n est pas assez robuste pour fournir des estimations de VaR valides pour différents quantiles. Le modèle MG-GARCH présente beaucoup moins de violations de la VaR estimée et les tests de backtesting valident les prévisions. On note qu il est plus performant que les modèles GARCH(1,1) en position longue et Riskmetrics pour les 2 positions. Contrairement au modèle GARCH(1,1), ce modèle est assez robuste dans ses prévisions dans la mesure où il valide les tests de couverture conditionnelle pour tous les quantiles retenus. Le modèle MG-TARCH(1,1) montre que les VaR estimées repliquent assez bien les variations des rentabilités. Une analyse plus fine des taux d échecs et des statistiques de tests complètent les résultats visibles graphiquement : le modèle n est pas performant même s il présente de meilleurs résultats que le benchmark. L analyse des tests de backtesting pour le modèle MG-TARCH montre que les prévisions par ce modèle sont insuffisantes puisque la statistique LR cc est toujours supérieure à la valeur du khi-deux à 2 degrés de liberté. Le modèle MG-QGARCH(1,1) est le meilleur des modèles retenus en position longue et en position courte pour le quantile 0.95. Les VaR estimées par ce modèle sont pour la plupart fortement consommatrices de fonds propres, le modèle MG-QGARCH est robuste en position longue et en position courte même s il ne surperforme pas le GARCH(1,1) pour le quantile 0.99. Compte tenu des différentes analyses établies ci-dessus, c est ce modèle que nous retenons comme étant le meilleur pour les prévisions dans l échantillon et hors échantillon.
Test de backtesting Position courte Quantile LR u c LR i nd LR c c Modèle GARCH(1,1) 0.95 1.9818 5.4394e 16 1.9818 0.99 1.1886 0.0015 1.1901 Modèle MG GARCH(1,1) 0.95 2.3481 3.5762e 5 2.3481 0.99 2.5729 1 3.5729 Modèle MG-TARCH(1,1) 0.95 25.7492 1 26.7592 0.99 5.0453 1 6.0453 Modèle MG-QGARCH(1,1) 0.95 1.6305 3.1695e 12 1.6305 0.99 3.8593 1 4.8593 Modèle Riskmetrics 0.95 1325.01 0.119 1325.2 0.99.NaN 2.5073e 11.NaN Position longue Quantile LR u c LR i nd LR c c Modèle GARCH(1,1) 0.05 1.1677 2.0511e 17 1.1677 0.01 5.0453 1 6.0453 Modèle MG GARCH(1,1) 0.05 0.3475 1.8904 2.2379 0.01 2.5721 3.211e 5 2.5721 Modèle MG-TARCH(1,1) 0.05 27.11 1 28.11 0.01 5.0322 1 6.0322 Modèle MG-QGARCH(1,1) 0.05 0.2968 5.293e 15 0.2968 0.01 0.1398 0.0192 0.159 Modèle Riskmetrics 0.05 1313.4 8.2590e 24 1313.4 0.01.NaN 9.0816e 8.NaN Table 12 Test de backtesting sur les prévisions hors échantillon 20
4 TESTS DE BACKTESTING ET CONCLUSION 21 4.3 Conclusion La prise en compte des différentes composantes d une série temporelle doit permettre la construction d un modèle adéquat de telle sorte à minimiser le bruit résiduel. L approche chaotique des marchés financiers présente l intérêt de s inscrire à la fois dans une alternative aux modèles linéaires standards mais aussi dans celle des modèles purement stochastiques. L idée selon laquelle les cours boursiers comporteraient une part de déterminisme a fait l objet de nombreux travaux avec la série du CAC 40 et l application empirique que nous avons proposée confirme ce résultat. Nous montrons alors l apport significatif résultant de la prise en compte de ces structures chaotiques dans la construction de la VaR. L analyse comparative des résultats des tests de backtesting indique la performance particulière du modèle MG-QGARCH(1,1)et ce, pour différentes positions et par rapport au modèle Riskmetrics choisit ici comme benchmark. La principale question porte sur la souplesse du modèle MG-QGARCH en période de crise. Ce modèle est-il capable de rendre compte des pertes exceptionnelles pouvant survenir sur les marchés financiers? En effet, les révisions du Comité Bâle 2 introduisent une exigence en capital liée à une VaR dite " stressée" 11 car il est apparu que les fonds propres déterminés par le calcul de la VaR étaient insuffisants pour couvrir les pertes subies par ces établissements suite aux évènements récents qui ont secoués les marchés financiers. Il reste à vérifier dans une autre recherche si le modèle Mackey-Glass-QGARCH(1,1) peut jouer ce rôle. 11. Basel Committee on Banking Supervision(2009) : Revisions to the Basel II market risk framework
Références BELAIRE-FRANCH, J. and D. CONTRERAS (2002). Recurrence plots in nonlinear time series analysis : Free software. J-STAT-SOFT 7 (9), 1 18. BOLLERSLEV, T. (1986). Generalized autoregressive conditional heteroskedasticity. Journal of Econometrics 31, 307 327. BOLLERSLEV, T., R. Y. CHOU, N. JAYARAMAN, and K. F. KRONER (1991). Les modèles arch en finance : Un point sur la théorie et les résultats empiriques. Annals of Economics and Statistics / Annales d Économie et de Statistique (24), pp. 1 59. BROCK, W. A., W. D. DECHERT, and J. SCHEINKMAN (1987). A test for independence based on the correlation dimension. Technical report, Discussion Paper 8702, University of Wisconsin-Madison. BROCK, W. A. and C. H. HOMMES (1998). Heterogeneous beliefs and routes to chaos in a simple asset pricing model. Journal of Economic Dynamics and Control 22 (8-9), 1235 1274. CHRISTOFFERSEN, P. F. (1998, November). Evaluating interval forecasts. International Economic Review 39 (4), 841 62. CONT, R. (2001). Empirical properties of asset returns : stylized facts and statistical issues. Quantitative Finance 1 (2), 223 236. DICKEY, D. and W. FULLER (1981). Likelihood ratio statistics for autoregressive time series with unit root. Econometrica 49, 4. ECKMANN, J.-P., S. O. KAMPHORST, and D. RUELLE (1987). Recurrence plots of dynamical systems. EPL (Europhysics Letters) 4 (9), 973. ELLIOTT, G., T. J. ROTHENBERG, and J. H. STOCK (1996). Efficient tests for an autoregressive unit root. Econometrica 64 (4), 813 836. ENGLE, R. F. (1982). Autoregressive conditional heteroscedasticity, with estimates of the variance of the united kingdom inflation. ENGLE, R. F. and V. K. NG (1993, December). Measuring and testing the impact of news on volatility. Journal of Finance 48 (5), 1749 78. FIGLEWSKI, S. (1997). Forecasting Volatility. Financial Markets, Institutions and Instruments Vol. 6 No. 2. GEWEKE, J. and S. PORTER-HUDAK (1983). The estimation and application of long memory time series models. Journal of Time Series Analysis 4 (4), 221 238. GLOSTEN, L., R. JAGANNATHAN, and D. RUNKLE (1993). On the relation between the expected value and the volatility 22
RÉFÉRENCES 23 of the nominal excess return on stocks. GRASSBERGER, P. and I. PROCACCIA (1983). Measuring the strangeness of strange attractors. In International Symposium on Physical Design. GUEGAN, D. (2009). Chaos in economics and finance. Annual Reviews in Control 33 (1), 89 93. GUEGAN, D. and L. MERCIER (2005, April). Prediction in chaotic time series : methods and comparisons with an application to financial intra-day data. European Journal of Finance 11 (2), 137 150. HURLIN, C. and S. TOKPAVI (2007a). Un test de validité de la value at risk. Revue économique 58 (3), 599 608. HURLIN, C. and S. TOKPAVI (2007b). Une évaluation des procédures de backtesting, tout va pour le mieux dans le meilleur des mondes. Finance 29(1), 53 80. JORION, P. and G. A. of Risk Professionals (2007). Financial risk manager handbook. Wiley Finance. Wiley. KANTZ, H. (1994). A robust method to estimate the maximal lyapunov exponent of a time series. Physics Letters A 185 (1), 77 87. KANTZ, H. and T. SCHREIBER (1997). Nonlinear Time Series Analysis. Cambridge University Press. KUPIEC, P. (1995). Techniques for verifying the accuracy of risk measurement models. J. Derivatives 2, 174 184. KYRSTOU, C. and M. TERRAZA (2002). Stochastic chaos or arch effects in stock series? : A comparative study. International Review of Financial Analysis 11 (4), 407 431. KYRTSOU, C. (2008). Re-examining the sources of heteroskedasticity : The paradigm of noisy chaotic models. Physica A : Statistical Mechanics and its Applications 387 (27), 6785 6789. KYRTSOU, C., W. C. LABYS, and M. TERRAZA (2004, 09). Noisy chaotic dynamics in commodity markets. Empirical Economics 29 (3), 489 502. KYRTSOU, C. and A. G. MALLIARIS (2009, January). The impact of information signals on market prices when agents have non-linear trading rules. Economic Modelling 26 (1), 167 176. KYRTSOU, C. and M. TERRAZA (2003, June). Is it possible to study chaotic and arch behaviour jointly? application of a noisy mackey-glass equation with heteroskedastic errors to the paris stock exchange returns series. Computational Economics 21 (3), 257 276. KYRTSOU, C. and M. TERRAZA (2010, April). Seasonal mackey-glass-garch process and short-term dynamics. Empirical Economics 38 (2), 325 345.
KYRTSOU, C. and V. TERRAZA (2004). Var non linéaire chaotique : Application à la série des rentabilités de lindice nikkei. In AFFI International Conference. LIU, H.-F., Z.-H. DAI, W.-F. LI, X. GONG, and Z.-H. YU (2005). Noise robust estimates of the largest lyapunov exponent. Physics Letters A 341 (1-4), 119 127. LUX, T. (1995). Herd behaviour, bubbles and crashes. The Economic Journal 105 (431), pp. 881 896. LUX, T. (1998). The socio-economic dynamics of speculative markets : interacting agents, chaos, and the fat tails of return distributions. Journal of Economic Behavior & Organization 33 (2), 143 165. MALLIARIS, A. G. and J. L. STEIN (1999, November). Methodological issues in asset pricing : Random walk or chaotic dynamics. Journal of Banking & Finance 23 (11), 1605 1635. MANGANELLI, S. and R. ENGLE (2001). Value-at-risk models in finance. ECB Working Paper 75. RABEMANANJARA, R. and J. M. ZAKOIAN (1993). Threshold arch models and asymmetries in volatility. Journal of Applied Econometrics 8, 31 49. ROSENSTEIN, M. T., J. J. COLLINS, and C. J. D. LUCA (1993). A practical method for calculating largest lyapunov exponents from small data sets. Physica D : Nonlinear Phenomena 65 (1-2), 117 134. SENTANA, E. (1995). Quadratic arch models. Papers 9517, Centro de Estudios Monetarios Y Financieros-. SEO, B. (1999). Distribution theory for unit root tests with conditional heteroskedasticity. Journal of Econometrics 91, 113 144. SHINTANI, M. and O. LINTON (2004, May). Nonparametric neural network estimation of lyapunov exponents and a direct test for chaos. Journal of Econometrics 120 (1), 1 33. TERRAZA, V. (2010). Modélisation de la Value at Risk, une évaluation du modèle Riskmetrics. Editions Universitaires Européennes. WOLF, A., J. B. SWIFT, H. L. SWINNEY, and J. A. VAS- TANO (1985). Determining lyapunov exponents from a time series. Physica D : Nonlinear Phenomena 16 (3), 285 317. ZBILUT, J. P. and C. L. WEBBER (1992). Embeddings and delays as derived from quantification of recurrence plots. Physics Letters A 171 (3-4), 199 203. ZIVOT, E. and D. W. K. ANDREWS (1992). Further evidence on the great crash, the oil-price shock, and the unit-root hypothesis. 24
ANNEXES 25 ANNEXE A : Les outils de détection du chaos L une des caractéristiques des comportements des modèles chaotiques réside dans le caractère aléatoire des trajectoires réalisées. Ce comportement erratique ne permet pas de distinguer visuellement une trajectoire issue d un modèle chaotique d une réalisation d un modèle stochastique. C est à partir des travaux de Poincaré que les mathématiciens russes (Lyapunov, Bessicivitch et Kolmogorov) et allemands(hausdorff) ont proposé des outils mathématiques permettant de distinguer un processus aléatoire d un processus déterministe. Par ailleurs, de nombreux auteurs (LINTON et SHINTANI(2004), KANTZ et SCHREIBER(1997), GRASSBERGER et PROCACCIA(1983)) ont proposés des méthodes empiriques qui permettent de déterminer la présence de structures chaotiques. Ces différents outils ont faits l objet d une classification notamment par BELAIRE-FRANCH et CONTRE- RAS(2001). Selon ces derniers, il existe 3 types de méthodes permettant de déceler les structures chaotiques d une série : une approche métrique, une approche dynamique et une approche topologique. Approche métrique : Elle vise à calculer les distances dans l attracteur du système. Le test le plus fréquent est le calcul de la dimension de corrélation de GRASSBERGER et PROCAC- CIA(1992). La dimension de corrélation est une approximation de la dimension d information. Cette dernière est une généralisation de la notion de capacité 12 puisqu elle vise à prendre en compte la fréquence de visite des trajectoires dans l attracteur. Il est possible de retenir la définition donnée par GUE- GAN(1992) 13 qui définit la dimension d information comme la fréquence de visite des cubes utilisés pour recouvrir l espace : I(ɛ) d I = lim ɛ 0 ln 1 ɛ où I(ɛ) = i P iln 1 P i avec P i la probabilité pour la trajectoire X t au temps t de tomber dans le ième cube c i. Si tous les cubes ont la même probabilité de visite alors la dimension d information coïncide avec la capacité. La dimension de corrélation mesure la possibilité pour 2 points de la série dans l espace des phases reconstruit avec la dimension de plongement d d être séparés d une distance inférieure à ɛ. La dimension de corrélation est 12. Telle qu elle est définie par GUEGAN(1992), la capacité de Kolmogorov est la limite suivante : LogN(ɛ) d c = lim ɛ 0 log 1 ɛ quand ɛ 0 pour un espace de points situés dans un espace d état de dimension d, ɛ désignant le coté des cubes permettant de recouvrir cet espace et N(ɛ) le nombre de cubes nécessaires pour recouvrir cet espace. 13. Dominique GUEGAN. Notion de chaos : approche dynamique et problemes didentification. Rapport de recherche RR-1623, INRIA, 1992. Projet CLOREC.
définit par : D c = lim ɛ 0 lnc(ɛ) lnɛ où C(ɛ) est l intégrale de corrélation pour une distance de ɛ. L intérêt que nous portons à cet instrument réside dans sa capacité à pouvoir distinguer un processus déterministe d un processus stochastique. En effet, la dimension de corrélation qui caractérise un processus déterministe fait apparaitre une intégrale de corrélation croissante avec la dimension de plongement mais qui se stabilise tandis qu un processus stochastique est caractérisé par une croissance monotone de l intégrale de corrélation avec la dimension de plongement. La saturation n est jamais atteinte pour un processus stochastique. Cependant, cet instrument possède d importantes limites notamment en ce qui concerne le nombre de données retenues. Approche dynamique : Cette approche s intéresse à la divergence des trajectoires dans l orbite en estimant les exposants de Lyapunov. Ces derniers indiquent le taux moyen de divergence par itération. Si le plus grand exposant de Lyapunov est positif alors il y a élongation et sensibilité aux conditions initiales. Si le plus grand exposant de Lyapunov est négatif, cela signifie que l on perd de l information sur les conditions initiales. Par ailleurs, un système comportant m dimensions possèdera autant d exposant de Lyapunov et chaque exposant mesure le taux de divergence suivant un des axes du système. La présentation théorique des exposants de Lyapunov ne permet pas une application directe à une série temporelle. Le théorème de TAKENS(1981) permet de concilier approche théorique et approche pratique. De nombreux algorithmes se sont développés pour proposer une estimation du plus grand exposant de Lyapunov. Les principaux sont les suivant : L algorithme de WOLF et al.(1985) : Cet algorithme repose sur une mesure du taux de divergence entre 2 trajectoires. Il s agit de fixer une distance maximale à ne pas dépasser. Si cette distance est franchie alors la trajectoire initialement suivie est remplacée par une nouvelle trajectoire. Cette méthode est très sensible au bruit et à la taille de l échantillon. L algorithme de ROSENSTEIN et al.(1992) et de KANTZ(1994) : L algorithme de ROSENSTEIN et al. tente de combler les faiblesses des méthodes existantes notamment la fiabilité en petits échantillons, l implémentation trop lourde qui accompagne ces méthodes. Il reprend la reconstruction de la dynamique de l attracteur par la méthode des retards. En utilisant la méthode des plus proches voisins, cet algorithme tente de localiser le point le plus proche pour chaque point de la trajectoire, non sans avoir préalablement imposé une contrainte supplémentaire selon laquelle les plus proches voisins doivent 26
ANNEXES 27 avoir une séparation temporelle plus grande que la moyenne de la série temporelle. Le plus grand exposant de Lyapunov est le taux de divergence de la jième paire des plus proches voisins. Il est déterminé par un ajustement par les moindres carrés à la moyenne. Dans la même idée, KANTZ(1994) calcule le plus grand exposant de Lyapunov en imposant un temps relatif α pour déterminer la distance entre la trajectoire de référence et le voisin. LIU et al.(2005) proposent une amélioration de l algorithme de ROSENSTEIN et al.(1992) en ce sens où l algorithme proposé est beaucoup plus robuste au bruit qui peut atteindre jusqu à 30% du signal. Par ailleurs, l algorithme modifié n est pas sensible à la distribution du bruit et apparait performant pour des systèmes chaotiques complexes. L algorithme de SHINTANI et LINTON(2003) : Il s agit d un algorithme basé sur une estimation non paramétrique des réseaux de neurones qui propose non seulement une estimation de l exposant de Lyapunov mais aussi un cadre statistique pour tester l hypothèse de chaoticité. Les auteurs définissent les conditions de normalité de l estimateur. La méthode des réseaux de neurones utilisée est une méthode avec une classe de couche unique, connue pour être plus performante que les autres méthodes et non sensible à l augmentation des dimensions. Approche topologique : Cette méthode étudie l organisation des attracteurs étranges et inclut les graphiques de récurrence. Les graphiques de récurrence ont été proposés par ECKMANN et al.(1987) pour détecter graphiquement des dynamiques cachées. Le graphique de récurrence représente les distances dans l espace de dimension m entre les points i et j. Ces distances, calculées selon la norme euclidienne, nécessite le plongement des séries dans l espace des phases préconisé par le théorème de Takens. Empiriquement, la méthode des retards permet d obtenir la matrice de plongement des séries étudiées. Ainsi, une série déterministe se caractérise par un graphique de récurrence particulier en ce sens où l attracteur du système sera revisité par les trajectoires plusieurs fois. Il sera alors possible d identifier une structure dans le graphique de récurrence. A l inverse, une série stochastique ne fournira aucune structure dans son graphique de récurrence. La principale limite de cet instrument réside dans son analyse uniquement visuelle, ce qui a poussé WEBBER et ZBILUT(1992,1994) à proposer un ensemble d outils d analyse regroupés sous l étiquette " Analyse Quantitative de Récurrence "(RQA). Ces auteurs proposent, outre le graphique de récurrence, plusieurs mesures : le pourcentage de récurrence : Cette mesure quantifie le pourcentage de points récurrents pour un rayon de voisinage spé-
cifié. le pourcentage de déterminisme : Cette mesure quantifie la proportion de points récurrents formant des diagonales dans le graphique de récurrence. Ainsi, pour des signaux périodiques, on observera des lignes diagonales très longues contrairement aux signaux chaotiques caractérisés par des diagonales très courtes. Les signaux stochastiques ne font apparaitre aucune diagonale. l entropie de Shannon : C est une mesure de la complexité du signal qui prend des valeurs faibles pour des fenêtres périodiques et des valeurs élevées dans le cas d un signal stochastique. le pourcentage de laminarité : Analogue au pourcentage de déterminisme, cette mesure quantifie le pourcentage de points récurrents non seulement pour les lignes diagonales mais aussi verticales. 28
6 5 4 3 2 1 0-1 -2-3 -4-5 -6-7 -8-9 -10 01/01/88 01/01/90 01/01/92 01/01/94 01/01/96 01/01/98 01/01/00 01/01/02 01/01/04 01/01/06 01/01/08 01/01/10 01/01/12 h_rendement 0.0028 0.0027 0.0026 0.0025 0.0024 0.0023 0.0022 0.0021 0.0020 0.0019 0.0018 0.0017 0.0016 0.0015 0.0014 0.0013 0.0012 0.0011 0.0010 0.0009 0.0008 0.0007 0.0006 0.0005 0.0004 0.0003 0.0002 0.0001 0.0000 ANNEXES 29 ANNEXE B : Variance conditionnelle et analyses des résidus Modele GARCH(1,1) rendement Rendements/VaR date PLOT2 Figure 6 Variance conditionnelle estimée par le modèle MG-GARCH et rendements observés variance conditionnelle du modèle MG-TGARCH et rendement rendement 7 Rendements/VaR 0.00024 6 5 0.00023 4 3 0.00022 2 1 0.00021 0-1 0.00020-2 -3 0.00019-4 0.00018-5 -6 0.00017-7 -8 0.00016 01/01/88 01/01/90 01/01/92 01/01/94 01/01/96 01/01/98 01/01/00 01/01/02 01/01/04 01/01/06 01/01/08 01/01/10 01/01/12 date PLOT2 h_rendement Figure 7 Variance conditionnelle du modèle MG-TARCH et rendements variance conditionnelle du modèle MG-QARCH et rendement RENDEMENT 5 4 3 2 1 0-1 -2-3 -4-5 -6-7 -8-9 -10-11 Rendements/VaR 0.0025 0.0024 0.0023 0.0022 0.0021 0.0020 0.0019 0.0018 0.0017 0.0016 0.0015 0.0014 0.0013 0.0012 0.0011 0.0010 0.0009 0.0008 0.0007 0.0006 0.0005 0.0004 0.0003 0.0002 0.0001 0.0000 01/01/88 01/01/90 01/01/92 01/01/94 01/01/96 01/01/98 01/01/00 01/01/02 01/01/04 01/01/06 01/01/08 01/01/10 01/01/12 date PLOT2 h_rendement Figure 8 Variance conditionnelle estimée par le modèle MG- QGARCH et rendements observés
Percent Percent Percent Percent 30 25 20 15 10 5 0 30 25 20 15 10 5 0 30 25 20 15 10 5 0 30 25 20 15 10 5 0 histogramme des résidus standardisés du modèle GARCH -5.4-4.8-4.2-3.6-3.0-2.4-1.8-1.2-0.6 0 0.6 1.2 1.8 2.4 3.0 3.6 4.2 4.8 5.4 6.0 6.6 7.2 7.8 8.4 9.0 resstan -6.0-5.4-4.8-4.2-3.6-3.0-2.4-1.8-1.2-0.6 0 0.6 1.2 1.8 2.4 3.0 3.6 4.2 4.8 5.4 6.0 6.6 7.2 7.8 8.4 9.0 resstan -4.8-4.2-3.6-3.0-2.4-1.8-1.2-0.6 0 0.6 1.2 1.8 2.4 3.0 3.6 4.2 4.8 5.4 6.0 6.6 7.2 7.8 8.4 9.0 9.6 10.2 resstan -6.9-6.3-5.7-5.1-4.5-3.9-3.3-2.7-2.1-1.5-0.9-0.3 0.3 0.9 1.5 2.1 2.7 3.3 3.9 4.5 5.1 5.7 6.3 6.9 resstan Figure 9 Histogramme des résidus du modèle GARCH histogramme des résidus standardisés du modèle MG-GARCH Figure 10 Histogramme des résidus du modèle MG-GARCH histogramme des résidus standardisés du modèle MG-GARCH Figure 11 Histogramme des résidus du modèle MG-QGARCH histogramme des résidus standardisés du modèle MG-TARCH Figure 12 Histogramme des résidus du modèle MG-TARCH 30
ANNEXES 31 Tests de normalité Statistiques GARCH(1,1) MG- GARCH(1,1) MG- QGARCH(1,1) Skewness 0.03488 0.042992 0.041416 0.042096 Kurtosis 5.1522976 5.08334689 5.08922987 5.096016 Prob(Kolmogorov- 0.01 0.01 <0.01 0.01 Smirnov) Prob(Cramervon 0.005 0.05 <0.005 <0.005 Mises) Table 13 Tests de normalité sur les résidus des différents modèles MG- TARCH(1,1) Retards Modèles 2 5 10 15 20 GARCH(1,1) 0.6359 0.0920 0.2534 0.4377 0.4376 MG- 0.8061 0.1126 0.3026 0.4692 0.4586 GARCH(1,1) MG- 0.7459 0.0636 0.2056 0.3415 0.3075 QGARCH(1,1) MG- TARCH(1,1) 0.1034 0.000 0.000 0.0002 0.0001 Table 14 P-values du test d autocorrélation sur les résidus des différents modèles estimés Retards Modèles 2 5 10 15 20 GARCH(1,1) 0.9714 0.447 0.4467 0.6415 0.7835 MG- 0.1721 0.3241 0.4864 0.601 0.7802 GARCH(1,1) MG- 0.4904 0.7271 0.8202 0.9504 0.9745 QGARCH(1,1) MG- TARCH(1,1) 0.0001 0.000 0.000 0.0001 0.0001 Table 15 P-values du test ARCH sur les résidus des différents modèles estimés
ANNEXE C : Rentabilités et VaR estimées Rendements et VaR prévus Rendements/VaR 0.05 0.04 0.03 0.02 0.01 0.00-0.01-0.02-0.03-0.04 11/04/10 09/05/10 06/06/10 04/07/10 01/08/10 29/08/10 26/09/10 24/10/10 21/11/10 19/12/10 16/01/11 13/02/11 13/03/11 10/04/11 Date PLOT RENDEMENT GARCH95 GARCH99 GARCH05 GARCH01 Figure 13 VaR prévues et rendements par le modèle GARCH(1,1) Rendements et VaR prévus Rendements/VaR 0.016 0.015 0.014 0.013 0.012 0.011 0.010 0.009 0.008 0.007 0.006 0.005 0.004 0.003 0.002 0.001 0.000-0.001-0.002-0.003-0.004-0.005-0.006-0.007-0.008-0.009-0.010-0.011-0.012-0.013-0.014-0.015-0.016 10/10/10 24/10/10 07/11/10 21/11/10 05/12/10 19/12/10 02/01/11 16/01/11 30/01/11 13/02/11 27/02/11 13/03/11 27/03/11 10/04/11 Date PLOT RENDEMENT mggarch95 mggarch99 mggarch05 mggarch01 Figure 14 VaR prévues et rendements par le modèle MG- GARCH(1,1) 32
ANNEXES 33 Rendements et VaR prévus Rendements/VaR 0.018 0.017 0.016 0.015 0.014 0.013 0.012 0.011 0.010 0.009 0.008 0.007 0.006 0.005 0.004 0.003 0.002 0.001 0.000-0.001-0.002-0.003-0.004-0.005-0.006-0.007-0.008-0.009-0.010-0.011-0.012-0.013-0.014-0.015-0.016-0.017-0.018 04/07/10 18/07/10 01/08/10 15/08/10 29/08/10 12/09/10 26/09/10 10/10/10 24/10/10 07/11/10 21/11/10 05/12/10 19/12/10 02/01/11 16/01/11 30/01/11 13/02/11 27/02/11 13/03/11 27/03/11 10/04/11 Date PLOT RENDEMENT mgqgarch95 mgqgarch99 mgqgarch05 mgqgarch01 Figure 15 VaR prévues et rendements par le modèle MG- QGARCH(1,1) Rendements et VaR prevus Rendements/VaR 0.05 0.04 0.03 0.02 0.01 0.00-0.01-0.02-0.03-0.04 11/04/10 09/05/10 06/06/10 04/07/10 01/08/10 29/08/10 26/09/10 24/10/10 21/11/10 19/12/10 16/01/11 13/02/11 13/03/11 10/04/11 Date PLOT RENDEMENT mgtgarch95 mgtgarch99 mgtgarch05 mgtgarch01 Figure 16 VaR prévues et rendements par le modèle MG-TARCH(1,1)
Documents de Recherche parus en 2011 1 DR n 2011-01 : DR n 2011-02 : DR n 2011-03 : DR n 2011-04 : DR n 2011-05 : DR n 2011-06 : DR n 2011-07 : DR n 2011-08 : DR n 2011-09 : DR n 2011-10 : Solenn LEPLAY, Sophie THOYER «Synergy effects of international policy instruments to reduce deforestation: a cross-country panel data analysis» Solenn LEPLAY, Jonah BUSCH, Philippe DELACOTE, Sophie THOYER «Implementation of national and international REDD mechanism under alternative payments for environemtal services: theory and illustration from Sumatra» Stéphanie AULONG, Robert KAST «A conceptual framework to assess vulnerability. Application to global change stressors on South Indian farmers» Nicolas QUEROU, Raphael SOUBEYRAN «Voting Rules in Bargaining with Costly Persistent Recognition» Pierre COURTOIS, Rabia NESSAH, Tarik TAZDAÏT «How to play the games? Nash versus Berge behavior rules» Pierre COURTOIS, Tarik TAZDAÏT «Learning to trust strangers: an evolutionary perspective» Pierre COURTOIS, Tarik TAZDAÏT «Bargaining over a climate deal: is it worse to wait and see?» Mathieu COUTTENIER, Raphael SOUBEYRAN «Diplomatic Intervention in Civil War : Trade for All or Trade for One?» Edmond BARANES, Jean-Christophe POUDOU «Internet access and investment incentives for broadband service providers» Sadek MELHEM, Michel TERRAZA, Mohamed CHIKHI «Cyclical Mackey Glass Model for Oil Bull Seasonal» 1 La liste intégrale des Documents de Travail du LAMETA parus depuis 1997 est disponible sur le site internet : http://www.lameta.univ-montp1.fr
DR n 2011-11 : DR n 2011-12 : DR n 2011-13 : DR n 2011-14 : DR n 2011-15 : DR n 2011-16 : DR n 2011-17 : DR n 2011-18 : Marianne LEFEBVRE, Sophie THOYER, Mabel TIDBALL, Marc WILLINGER «Sharing rules for a Common-Pool Resource with private alternatives» Ahmed ENNASRI, Marc WILLINGER «Managerial incentives under competitive pressure: Experimental investigation» Sadek MELHEM, Abdul Salam DIALLO, Michel TERRAZA «Hypothesis of Currency Basket Pricing of Crude Oil: An Iranian Perspective» Marianne LEFEBVRE, Lata GANGADHARAN, Sophie THOYER «Do Security-differentiated Water Rights Improve Efficiency?» Antoine BERETTI, Charles FIGUIERES, Gilles GROLLEAU «Using Money to Motivate Both `Saints' and `Sinners' : A Field Experiment On Motivational Crowding-Out» Jérémy CELSE «Damaging the Perfect Image of Athletes : How Sport Promotes Envy» Charles FIGUIERES, Estelle MIDLER «Deforestation as an externality problem to be solved efficiently and fairly» Rachida HENNANI, Michel TERRAZA «Etude de la performance d une Value-at-Risk chaotique pour l indice CAC 40»
Contact : Stéphane MUSSARD : mussard@lameta.univ-montp1.fr