6. Fonctions d autocorrélation et fonctions d autocorrélation partielle 7. Méthode de Box-Jenkins : procédure de sélection d un modèle 8. Prévisions 9.Exemple : le spread 10. Instabilité des paramètres et changements struturels Récapitulatif 6.1 Autocorrélation d un processus moyenne mobile 6.2 Autocorrélation d un processus autorégressif 6.3 Autocorrélation d un processus ARMA 6.4 Fonctions d autocorrélation partielle y t ACF PACF Bruit blanc ρ s = 0 8s 6= 0 φ ss = 0 8s AR(1), a 1 > 0 ρ s = a s 1, décroissance géométrique φ 11 = ρ 1, φ ss = 0 8s > 1 AR(1), a 1 < 0 ρ s = a s 1, Oscillations φ 11 = ρ 1, φ ss = 0 8s > 1 AR(p) Décroissance géométrique, oscillations possibles φ ss = 0 8s > p Allais Modèles stationnaires (partie 2)
6. Fonctions d autocorrélation et fonctions d autocorrélation partielle 7. Méthode de Box-Jenkins : procédure de sélection d un modèle 8. Prévisions 9.Exemple : le spread 10. Instabilité des paramètres et changements struturels Récapitulatif 6.1 Autocorrélation d un processus moyenne mobile 6.2 Autocorrélation d un processus autorégressif 6.3 Autocorrélation d un processus ARMA 6.4 Fonctions d autocorrélation partielle y t ACF PACF MA(1) ρ s = 0 8s > 1 Décroissance ARMA(1, 1), a 1 > 0 ARMA(1, 1), a 1 < 0 Décroissance géométrique après un retard Oscillations décroissantes après un retard Oscillations décroissantes après un retard, φ 11 = ρ 1 Décroissance géométrique après un retard, φ 11 = ρ 1 ARMA(p, q) Décroit après q retards Décroît après p retards Allais Modèles stationnaires (partie 2)
6. Fonctions d autocorrélation et fonctions d autocorrélation partielle 7. Méthode de Box-Jenkins : procédure de sélection d un modèle 8. Prévisions 9.Exemple : le spread 10. Instabilité des paramètres et changements struturels 7.1 Objectif et cadre de la méthode 7.2 Étapes de la méthode 7.3 Illustration de la méthode Étapes de la méthode de Box-Jenkins 1 Le processus est-il stationnaire et inversible? Transformation? 2 Identification du processus : ACF et PACF, 3 Estimation des modèles candidats et sélection : AIC, SBC, parsimonie du modèle, 4 Validité du modèle : les résidus vérifient-ils l hypothèse de bruit blanc? Allais Modèles stationnaires (partie 2)
6. Fonctions d autocorrélation et fonctions d autocorrélation partielle 7. Méthode de Box-Jenkins : procédure de sélection d un modèle 8. Prévisions 9.Exemple : le spread 10. Instabilité des paramètres et changements struturels 7.1 Objectif et cadre de la méthode 7.2 Étapes de la méthode 7.3 Illustration de la méthode Etape 4 : non autocorrélation des résidus. Test d autocorrélation global : test du portemanteau (Ljung et Box) Ljung et Box montrent que la statistique Q s = T(T + 2) s i=1 ρ 2 i T i sous H 0,! { 2 (s) peut être utilisée pour tester si un groupe d autocorrélation des résidus est significativement différent de zéro. H 0 : ρ i = 0, 8i = 1,...s Si la valeur de Q s est plus grande que la valeur critique de { 2 (s) à un seuil donné, alors une valeur au moins de ρ i est différente de 0 (on rejette H 0 ) Allais Modèles stationnaires (partie 2)
6. Fonctions d autocorrélation et fonctions d autocorrélation partielle 7. Méthode de Box-Jenkins : procédure de sélection d un modèle 8. Prévisions 9.Exemple : le spread 10. Instabilité des paramètres et changements struturels Tests basés sur la MSEP C : Test de Granger-Newbold 8.1 Fonctions et erreurs de prévision 8.2 Evaluation des prévisions Granger-Newbold montrent que ρ xz q(1 ρ 2 xz )/(n 1),! t(n 1) où ρ xz est la corrélation observée de x k et z k. Si ρ xz est statistiquement différent de 0 et ρ xz > 0 (ρ xz < 0) le modèle M 2 (M 1 ) est préféré à M 1 (M 2 ). Allais Modèles stationnaires (partie 2)
Introduction 1. Trends déterministes et stochastiques 2. Eliminer la tendance stationnaire 3. Régression et racine unitaire 4. Tests de Dickey-Fuller 5. Extension du test de Dickey-Fuller 6. Puissance des test et Régresseurs déterministe 7. Autres test de racines untitaires plus puissant Régressions fallacieuses (Granger et Newbold) Régrésser une variable non stationnaire sur des variables dépendantes dont une au moins est non stationnaire peut conduire à une régression fallacieuse, i.e. t stat conduisant à conclure à la significativité du coefficient, R 2 élevé voire proche de un, mais sans sens économique. Allais Modèles avec tendance
Introduction 1. Trends déterministes et stochastiques 2. Eliminer la tendance stationnaire 3. Régression et racine unitaire 4. Tests de Dickey-Fuller 5. Extension du test de Dickey-Fuller 6. Puissance des test et Régresseurs déterministe 7. Autres test de racines untitaires plus puissant Règles à suivre si variables non stationnaires 1 Si les fy t g et les fz t g sont stationnaires, les MCO seront sans biais si strict exogénéité des fz t g (TS.3) et consistents s il y a exogénéité contemporaine des fz t g. 2 Si les fy t g et les fz t g sont des processus intégrés d ordre différent. La régréssion (2) n a pas de sens. 3 Si les fy t g et les fz t g sont des processus intégrés du même ordre, et que les résidus de la régression se caractérise par une tendance stochastique, la régression est fallacieuse. (Cas développé précedemment). 4 Si les fy t g et les fz t g sont des processus intégrés du même ordre, et que les résidus de la régression sont stationnaires, les processus fy t g et fz t g sont cointégrés. Allais Modèles avec tendance
Introduction 1. Trends déterministes et stochastiques 2. Eliminer la tendance stationnaire 3. Régression et racine unitaire 4. Tests de Dickey-Fuller 5. Extension du test de Dickey-Fuller 6. Puissance des test et Régresseurs déterministe 7. Autres test de racines untitaires plus puissant Tests de Dickey-Fuller DF considèrent trois régressions différentes pour tester la présence d une racine unitaire. M1 : y t = γy t 1 + u t M2 : y t = a 0 + γy t 1 + u t M3 : y t = a 0 + γy t 1 + a 2 t + u t L hypothèse du test pour ces trois modèles est H 0 : γ = 0 vs H 1 : γ < 0 si bt γ < c on rejette H 0, où c est la valeur critique du test DF Pour chaque modèle M i et chaque taille d échantillon, il y a une tabulation différente de la stat de Student. Allais Modèles avec tendance
Introduction 1. Trends déterministes et stochastiques 2. Eliminer la tendance stationnaire 3. Régression et racine unitaire 4. Tests de Dickey-Fuller 5. Extension du test de Dickey-Fuller 6. Puissance des test et Régresseurs déterministe 7. Autres test de racines untitaires plus puissant Tests d hypothèses combinées DF proposent également trois tests associés à la stat de Fisher pour les modèles fm2 et fm3. φ 1, H 0 : γ = a 0 = 0, associé à fm2 φ 2, H 0 : γ = a 0 = a 2 = 0, associé à fm3 φ 3, H 0 : γ = a 2 = 0, associé à fm3 où la stat de Fisher usuelle est utilisée φ i = (SSR cont SSR non cont ) /r, i = 1, 2, 3. SSR non cont /(t k) Allais Modèles avec tendance
Introduction 1. Trends déterministes et stochastiques 2. Eliminer la tendance stationnaire 3. Régression et racine unitaire 4. Tests de Dickey-Fuller 5. Extension du test de Dickey-Fuller 6. Puissance des test et Régresseurs déterministe 7. Autres test de racines untitaires plus puissant 5.1 Détermination du nombre de retard dans la partie autorégressive 5.2 Test avec une composante moyenne mobile 5.3 Racines unitaires multiples 5.4 Test de racine unitaire pour les processus saisonniers 5.5 Changement structurel Procédure pour déterminer le nombre de retard p Idée : commencer du modèle le plus général et diminuer le p par incrémentation d un test de Student et/ou de Fisher. 1 Estimer le modèle avec un p élevé. Si t student pour le retard p n est pas significatif, on réestime le modèle avec p 1 retard. 2 Réitérer l étape 1, jusquà que le t student pour le dernier retard soit significatif. 3 Vérifier que l erreur du modèle est bien un bruit blanc (pas de chgt structurel et d autocorrélation). Rmq : processus avec saisonnalité. Allais Modèles avec tendance
Introduction 1. Trends déterministes et stochastiques 2. Eliminer la tendance stationnaire 3. Régression et racine unitaire 4. Tests de Dickey-Fuller 5. Extension du test de Dickey-Fuller 6. Puissance des test et Régresseurs déterministe 7. Autres test de racines untitaires plus puissant 5.1 Détermination du nombre de retard dans la partie autorégressive 5.2 Test avec une composante moyenne mobile 5.3 Racines unitaires multiples 5.4 Test de racine unitaire pour les processus saisonniers 5.5 Changement structurel Etapes du test de Perron : modèle H 1 ou A 1 1 Detrender la série. Estimer le modèle sous A 1, et en déduire les résidus û. 2 Estimer la régression : û t = a 1 û t 1. Sous l hypothèse nulle, la valeur théorique de a 1 est un. Lorsque les résidus de cette reg sont iid, la distribution de a 1 dépend de λ = τ/t. 3 Réaliser les tests de bruit blanc pour les résidus de l étape précédente. Si pas bruit blanc, les corriger de leur auto-corrélation, en régressant k û t = a 1 û t 1 + β i û t i=1 i + ε t 4 Calculer les t de student pour l hyp nulle a 1 = 1 et comparer aux valeurs critiques tabulées par Perron pour λ. Si t de student est plus grand que la val critique, alors on accepte l hyp nulle de Allais Modèles avec tendance
Introduction 1. Trends déterministes et stochastiques 2. Eliminer la tendance stationnaire 3. Régression et racine unitaire 4. Tests de Dickey-Fuller 5. Extension du test de Dickey-Fuller 6. Puissance des test et Régresseurs déterministe 7. Autres test de racines untitaires plus puissant Test de Perron : Autres hypothèses 5.1 Détermination du nombre de retard dans la partie autorégressive 5.2 Test avec une composante moyenne mobile 5.3 Racines unitaires multiples 5.4 Test de racine unitaire pour les processus saisonniers 5.5 Changement structurel H 2 : y t = a 0 + y t v.s 1 + µ 2 D l (τ + 1) + u t A 2 : y t = a 0 + a 2 t + µ 3 D T (τ + 1) + u t, avec D T (τ + 1) = t τ pour t > τ Sous H 1, fy t g est un processus I(1), avec chgt dans la constante, Sous A 1, fy t g est un processus TS, avec changement dans la pente du trend. Allais Modèles avec tendance