SERIES TEMPORELLES LINEAIRES



Documents pareils
1 Définition de la non stationnarité

2 TABLE DES MATIÈRES. I.8.2 Exemple... 38

CCP PSI Mathématiques 1 : un corrigé

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

I. Polynômes de Tchebychev

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

1 Complément sur la projection du nuage des individus

3. Conditionnement P (B)

Température corporelle d un castor (une petite introduction aux séries temporelles)

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Calcul différentiel sur R n Première partie

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

Fonctions de plusieurs variables. Sébastien Tordeux

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Correction de l examen de la première session

Modèles et Méthodes de Réservation

Cours d analyse numérique SMI-S4

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Espérance conditionnelle

Résolution d équations non linéaires

Moments des variables aléatoires réelles

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Calcul fonctionnel holomorphe dans les algèbres de Banach

Commun à tous les candidats

3 Approximation de solutions d équations

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Programmation linéaire

Séries temporelles : régression, et modélisation ARIMA(p,d,q)

Partie 1 - Séquence 3 Original d une fonction

Programmes des classes préparatoires aux Grandes Ecoles

Chapitre 5 : Flot maximal dans un graphe

Probabilités sur un univers fini

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Correction du Baccalauréat S Amérique du Nord mai 2007

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Cours d Analyse. Fonctions de plusieurs variables

Comparaison de fonctions Développements limités. Chapitre 10

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Amphi 3: Espaces complets - Applications linéaires continues

F411 - Courbes Paramétrées, Polaires

Limites finies en un point

Chapitre 2. Les Processus Aléatoires Non Stationnaires 1. Chapitre 2. Tests de Non Stationnarité et Processus Aléatoires Non Stationnaires

Chapitre 1 Régime transitoire dans les systèmes physiques

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Développement décimal d un réel

Continuité et dérivabilité d une fonction

Analyse en Composantes Principales

Mesures gaussiennes et espaces de Fock

Centre d'etudes Nucléaires de Fontenay-aux-Roses Direction des Piles Atomiques Département des Etudes de Piles

Probabilités III Introduction à l évaluation d options

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

PRECISION - REJET DE PERTURBATIONS T.D. G.E.I.I.

Repérage d un point - Vitesse et

MODELE A CORRECTION D ERREUR ET APPLICATIONS

MASTER ECONOMETRIE ET STATISTIQUE APPLIQUEE (ESA) Econométrie pour la Finance

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Introduction à l approche bootstrap

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

C algèbre d un certain groupe de Lie nilpotent.

Programmation linéaire et Optimisation. Didier Smets

Corrigé du baccalauréat S Asie 21 juin 2010

Quelques tests de primalité

Simulation de variables aléatoires

Chapitre 2. Matrices

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Dérivation : cours. Dérivation dans R

Intégration et probabilités TD1 Espaces mesurés

BTS Groupement A. Mathématiques Session Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

Communications numériques

Chap 4. La fonction exponentielle Terminale S. Lemme : Si est une fonction dérivable sur R telle que : = et 0! = 1 alors ne s annule pas sur R.

Résolution de systèmes linéaires par des méthodes directes

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Intégration et probabilités TD1 Espaces mesurés Corrigé

Développements limités, équivalents et calculs de limites

Plus courts chemins, programmation dynamique

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Chapitre 3. Les distributions à deux variables

Cours 02 : Problème général de la programmation linéaire

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

TSTI 2D CH X : Exemples de lois à densité 1

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Fonctions de plusieurs variables

Quantification Scalaire et Prédictive

Chapitre 1 Cinématique du point matériel

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

La fonction exponentielle

Image d un intervalle par une fonction continue

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Dérivées d ordres supérieurs. Application à l étude d extrema.

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

Texte Agrégation limitée par diffusion interne

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Capes Première épreuve

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Introduction à l étude des Corps Finis

Equations différentielles linéaires à coefficients constants

ALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII

Transcription:

Deuxième année 2004-2005 SERIES TEMPORELLES LINEAIRES Polycopié librement inspiré du cours de Madame Doz La rédaction a été commencée par la cuisine expérimentale pour les chapitres, 2 et 3 puis complétée et achevée par Joachim Connault pour les chapitres 4 et 5

Table des matières Introduction Processus réels stationnaires du second ordre 3 Processus stationnaire du second ordre 3 Définitions 3 2 Rappels sur L 2 (Ω, A, P) 6 2 Outils pour l étude des processus stationnaires 6 2 Transformée d un processus stationnaire par une moyenne mobile infinie 6 22 Régression linéaire ou affine théorique sur un nombre fini de retards 8 23 Régression linéaire théorique sur un nombre infini de retards 0 24 Densité spectrale et auto-corrélations inverses 25 Estimateurs associés et lois limites 4 3 Polynômes retard et avance 5 3 Définitions et propositions 5 32 Inversibilité des polynômes en L 7 2 Processus ARMA et ARIMA 2 2 Processus auto-régressifs d ordre p (AR(p)) 2 2 Définition et représentation canonique 2 22 Propriétés des processus AR(p) 25 23 Auto-corrélations partielle et inverse d un processus AR(p) 26 22 Processus moyenne mobile d ordre q (MA(q)) 28 22 Définition et représentation canonique 28 222 Propriétés des processus MA(q) 30 23 Processus ARMA(p, q) 3 23 Définition et représentation canonique minimale 3 232 Propriétés des processus ARMA(p, q) 33 24 Processus ARIMA(p, d, q) 34 24 Approximation auto-régressive d un ARIMA(p, d, q) 36 242 Approximation moyenne mobile d un ARIMA(p, d, q) 36 3 Identification et estimation d un modèle ARM A ou ARIM A 39 3 Première phase de l identification : choix de d 39 3 Approche empirique : l auto-corrélogramme 39 32 Approche par les tests de racine unité 4 32 Deuxième phase de l identification : choix de p et q 47 32 Résultats préliminaires 47 i

322 Choix de p pour un AR(p) 48 323 Choix de q pour un MA(q) 48 324 Choix de (p, q) pour un ARMA(p, q) 49 33 Estimation 49 33 Cas d un AR(p) 50 332 Cas d un MA(q) 5 333 Cas d un ARMA(p, q) 5 34 Vérifications a posteriori 5 34 Tests sur les paramètres 5 342 Tests sur les résidus 52 35 Choix du modèle 53 4 Prévision dans les ARMA et les ARIMA 55 4 Prévisions dans un AR(p) 55 42 Prévision dans un MA(q) 56 43 Cas d un ARMA(p, q) 58 43 Forme AR( ) 58 432 Utilisation d une équation de récurrence 58 44 Cas d un ARIMA(p, d, q) 59 45 Intervalles de précision 60 5 Processus vectoriels stationnaires - Processus V AR stationnaires 63 5 Processus vectoriels stationnaires du second ordre 63 5 Définition et proposition 63 52 Densité spectrale d un processus vectoriel stationnaire 65 53 Innovation d un processus vectoriel 67 54 Convergence des moments empiriques 69 52 Processus V AR stationnaires 70 52 Définition et proposition générale 70 522 Prévision dans un V AR stationnaire 73 53 Estimation d un modèle V AR sous hypothèse de normalité 74 53 Ecriture empilée du modèle 74 532 Estimation par les MCQG 76 533 EMV sous l hypothèse de normalité 77 534 Propriétés de l EMV sous l hypothèse de normalité 79 535 Tests de restrictions linéaires sur les paramètres du modèle sous hypothèse de normalité 79 Bibliographie 83 Index 84 ii

Introduction Les séries temporelles sont des données mesurées à des intervalles de temps régulier Les données macroéconomiques sont relevées par année, trimestres, mois, Les données financières sont mensuelles, hebdomadaires, quotidiennes, infra-journalières (on peut généraliser à temps continu, t R) On fera des études en temps discret donc on indicera de façon dénombrable, t Z On étudiera des séries univariées : elles résultent de l observation d une seule série On modélise la valeur en t en fonction des valeurs passées On peut aussi étudier des séries multivariées, c est-à-dire vectorielles Par exemple on a un contenu économique qui repose sur un a priori économique mais on n a pas d a priori sur le poids des variables (rôle symétrique?) On parle de modèles V AR évoqués dès 98 par Sims x t = x,t x n,t

2

Chapitre Processus réels stationnaires du second ordre Formalisme : On observe une grandeur donnée sur des dates de à T On considère des observations x,, x T, réalisations des variables aléatoires X,, X T : (Ω, A, P) R, ω Ω est un état de la nature tel que x t = X t (ω) On dit que (X t ) t Z est un processus stochastique et que (x t ) t Z une trajectoire du processus (X t ) t Z Hypothèses supplémentaires : Si E(X t ) = m t, on a une seule observation (x t en l occurrence) pour estimer m t En revanche si pour tout t Z, E(X t ) = m, on peut estimer m par ˆm = T T t= X t Il paraît donc nécessaire de supposer que la suite X t a certaines propriétés de régularité Processus stationnaire du second ordre Définitions Dans toute la suite on considérera (X t ) t Z et on supposera X t L 2 (Ω, A, P), t Z Définition (Stationnarité stricte ou forte) (X t ) t Z est un processus stationnaire au sens strict si : n N, (t,, t n ), h Z, la loi de (X t,, X tn ) est identique à la loi de (X t+h,, X tn+h ) Théorème (Théorème de Kolmogorov) (X t ) t Z est un processus stationnaire au sens strict si et seulement si la loi de (X t ) t Z est identique à la loi de (Y t ) t Z où Y t = X t+h Définition 2 (Stationnarité faible) (X t ) t Z est un processus stationnaire du second ordre (ou un processus faiblement stationnaire) s il vérifie : (i) t Z, E(X t ) = m (ii) t Z, V(X t ) = σ 2 = γ(0) (iii) t Z, h Z, Cov(X t, X t+h ) = γ(h) (ne dépend que de h) γ(h) est l auto-covariance d ordre h de X t 3

4 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE Remarque () Dans la suite, les processus stationnaires désignent les processus de la définition 2 ; (2) (iii) (ii) : h = 0 et γ(0) = σ 2 ; (3) Si un processus est stationnaire au sens strict alors il est faiblement stationnaire ; (4) Si (X t ) t Z est un processus gaussien alors il y a équivalence entre stationnarité faible et forte ; X t m X t γ(0) γ(t j t i ) (5) E = V = m γ(0) X tn X tn Exemple (Processus stationnaire) () Bruit blanc faible (white noise), (ε t ) t Z, si et seulement si : E(ε t ) = 0, t Z On notera ε t BB(0, σ 2 ) V(ε t ) = σ 2, t Z Cov(ε t, ε τ ) = 0, si t τ (2) ε t est un bruit blanc fort si et seulement si les ε t sont iid, E(ε t ) = 0 et V(ε t ) = σ 2 (3) Processus moyenne mobile d ordre, noté MA() (moving average of order ) Soit θ R Soit ε t BB(0, σ 2 ) Soit (X t ) t Z défini par : t Z, X t = ε t θε t Alors (X t ) t Z est un processus stationnaire On dit que X t MA() Remarque 2 En pratique on ne distinguera plus x t et X t (x t ) ou (X t ) désignera toujours le processus et x,, x T ou X,, X T la suite des observations Exemple 2 (Processus non stationnaires) () Marche aléatoire (random walk) Soit ε t BB(0, σ 2 ) (X t ) t Z est une marche aléatoire sans dérive si et seulement si (i) X t = X t + ε t, t 0 (ii) Cov(ε t, X t k ) = 0, 0 < k t Même si on a la propriété EX t = EX t EX t = m, t Z, (X t ) t n est pas stationnaire : X t = X t + ε t X t = X t 2 + ε t t X t = X 0 + ε k k= X = X 0 + ε D où ( t t ) V(X t ) = V(X 0 ) + 2 Cov(ε k, X 0 ) + V ε k = V(X 0 ) + tσ 2 k= k= Le processus n est pas stationnaire en variance

PROCESSUS STATIONNAIRE DU SECOND ORDRE 5 (2) Processus stationnaire autour d un trend déterministe X t = a + bt + Y t où (Y t ) t Z est un processus stationnaire Par exemple si Y t = ε t BB(0, σ 2 ), EX t = a + bt, le processus n est pas stationnaire en espérance Définition 3 (Fonction d auto-covariance) L auto-covariance d un processus stationnaire (X t ) t Z est définie par : γ : Z R h γ(h) = Cov(X t, X t h ) Proposition (i) γ est une fonction paire : γ( h) = γ(h) h (ii) γ est de type positif : n N, (t,, t n ), (a,, a n ) R n a i a j γ(t i t j ) > 0 i,j n Démonstration (i) Parité : γ(h) = Cov(X t, X t+h ) = Cov(X t h, X (t h)+h ) = Cov(X t h, X t ) = Cov(X t, X t h ) = γ( h) (ii) Positivité : ( ) V ai X ti = Cov i a i X ti, j a j X tj = i,j a i a j Cov(X ti, X tj ) = i,j a i a j γ(t i t j ) 0 On suppose toujours qu il n y a pas de relations linéaires entre les X t En effet, si on avait V ( a i X ti ) = 0 alors a i X ti = constante presque sûrement Définition 4 (Fonction d auto-corrélation) La fonction d auto-corrélation d un processus stationnaire (X t ) t Z est définie par : h Z, ρ(h) = γ(h) γ(0) = Corr(X t, X t+h ) Proposition 2 ρ : h ρ(h) est une fonction paire, de type positif, à valeurs dans ] ; [

6 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE Démonstration On a Corr(X t, X t+h ) = Cov(X t, X t+h ) VarXt VarX t+h = γ(h) γ(0) où γ est paire de type positif Définition 5 (Auto-corrélogramme théorique) L auto-corrélogramme de (X t ) t Z est le graphe de : { N ] ; [ 2 Rappels sur L 2 (Ω, A, P) h ρ(h) L 2 (Ω, A, P) est une espace de Hilbert pour le produit scalaire (X Y ) = EXY Si X n L 2 X j Z a j X j 2 = j Z alors la série j Z a jx j est définie ps et : q j= p lim X n X 2 = 0 n + a j X j p,q + a j X j 2 < + a j X j Théorème 2 (Projection sur un sev fermé H de L 2 (Ω, A, P)) j Z X L 2 (Ω, A, P),!X H/ X X 2 = min Y H X Y 2 P H (X) = X est caractérisé par X H et X X H Théorème 3 (Théorème des trois perpendiculaires) Soit H un sev fermé de L 2 (Ω, A, P), G un sev fermé de H, alors : X L 2 (Ω, A, P ), P G (P H (X)) = P G (X) 2 Outils pour l étude des processus stationnaires 2 Transformée d un processus stationnaire par une moyenne mobile infinie Définition 2 (Proposition) Soient (X t ) t Z un processus stationnaire et (a j ) j Z une suite de réels tels que j a j < + Alors Y t = j Z a jx t j est défini (ps) pour tout t On a les propriétés suivantes : (i) Y t L 2 (Ω, A, P), t Z

2 OUTILS POUR L ÉTUDE DES PROCESSUS STATIONNAIRES 7 (ii) (Y t ) t est un processus stationnaire tel que EY t = m Y = a j m X j Z γ Y (h) = j,k a j a k γ(h + k j) = j,k a j a k γ(h + j k), h Z On dit que (Y t ) t Z est la transformée de (X t ) t Z par la moyenne mobile infinie associée aux (a j ) j Z Démonstration (i) a j X t j 2 = j j a j X t j 2 = j a j (m 2 X + γ X (0)) 2 < + Y t est donc défini ps et Y t L 2 (Ω, A, P) (ii) On a alors : EY t = Ω Y t dp = = ( a j j Z Ω Ω a j X t j dp j Z X t j dp = E a j X t j j Z ) (Fubini) = j Z a j EX t j = m X j a j Enfin : Cov(Y t, Y t h ) = Cov a j X t j, a k X t h k j Z k Z = j k a j a k Cov(X t j, X t h k ) } {{ } γ X (h+k j) Définition 22 Si X t = ε t BB(0, σ 2 ) alors Y t = j Z a jε t j et on dit que Y t MA( )

8 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE 22 Régression linéaire ou affine théorique sur un nombre fini de retards Définition 23 Soit (X t ) t Z un processus stationnaire (i) La régression linéaire théorique de X t sur X t,, X t p est la projection orthogonale dans L 2 (Ω, A, P) de X t sur H = V ect(x t,, X t p ) On note généralement EL(X t X t,, X t p ) la régression linéaire théorique de X t sur X t,, X t p (ii) La régression affine théorique de X t sur X t,, X t p est la projection orthogonale dans L 2 (Ω, A, P ) de X t sur H = V ect(, X t,, X t p ) On note généralement EL(X t, X t,, X t p ) la régression affine théorique de X t sur X t,, X t p Proposition 2 (i) et (ii) coïncident si et seulement si EX t = 0 Remarque 2 () Si EX t 0, on calculera toujours la régression affine On la note aussi souvent EL(X t X t,, X t p ) (2) V ect(x t X t,, X t p ) et V ect(x t X t,, X t n ) sont des sev de dimension finie de L 2 donc fermés (3) Si (X t ) t est gaussien, alors EL(X t ) = E(X t ) Rappel : Calcul de la régression affine théorique (ii) H = V ect(, X t,, X t p ) et X t = p H (X t ) est caractérisé par X t H et X t X t H p Xt H a 0, a,, a p / Xt = a 0 + a j X t j j=

2 OUTILS POUR L ÉTUDE DES PROCESSUS STATIONNAIRES 9 X t X t H { (Xt Xt ) = 0 (X t Xt X t j ) = 0 j =,, p { E(Xt Xt ) = 0 E[(X t Xt )X t j ] = 0 j =,, p p p EX t = m X = E a 0 + a j X t j = a 0 + m X a j j= j= [( ) ] p E(X t X t j ) = E a 0 + a k X t k X t j j =,, p a 0 = m X p j= E(X t X t j ) = E p a 0 = m X a j [m X ( j= E(X t k X t j ) = m 2 X p a 0 = m X j= a j a j ( E(X t k X t j ) = m 2 X + k= p k= ) ] p a k X t j + k= ) p a k + k= p a k E(X t k X t j ) k= p a k E(X t X t k ) k= [ a k E(Xt X t k ) m 2 ] X j =,, p j =,, p j =,, p On a donc j =,, p E(X t X t j ) m 2 X = p k= [ a k E(Xt k X t j ) m 2 ] X Soit encore p j =,, p Cov(X t, X t j ) = a k Cov(X t k+j, X t j ) k= Et p γ(j) = a k γ(k j) k= a 0 = m X p j= a j

0 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE γ() γ(p ) γ() γ(p 2) γ(p ) γ(p 2) Puis en divisant par γ(0) ρ() ρ(p ) ρ() ρ(p 2) ρ(p ) ρ(p 2) a a p a a p = = Cette dernière matrice étant inversible si les X t sont indépendants Définition 24 (Propriété) On appelle auto-corrélation partielle d ordre p γ() γ(p) ρ() ρ(p) r(p) = Corr(X t EL(X t X t,, X t p+ ), X t p EL(X t p X t,, X t p+ )) = Cov(X t EL(X t X t,, X t p+ ), X t p EL(X t p X t,, X t p+ )) [Var(X t EL(X t X t,, X t p+ ))Var(X t p EL(X t p X t,, X t p+ ))] /2 On montre que r(p) = a p coefficient de X t p dans EL(X t X t,, X t p ) EL(X t p X t,, X t p+ ) = p a j X t j Pour la démonstration, on utilise le théorème de Frish-Waugh j= Définition 25 (Auto-corrélogramme partiel) L auto-corrélogramme partiel de (X t ) t Z est le graphe de : { N ] ; [ p r(p) 23 Régression linéaire théorique sur un nombre infini de retards Définition 26 Soit (X t ) t Z un processus stationnaire (i) La régression linéaire théorique de X t sur X t,, X t p, est la projection orthogonale dans L 2 (Ω, A, P) de X t sur H = V ect(x t,, X t p, ) (ii) La régression affine théorique de X t sur, X t,, X t p, est la projection orthogonale dans L 2 (Ω, A, P) de X t sur H = V ect(, X t,, X t p, ) On note aussi L(X t ) l espace L(, X t,, X t k, ) et : EL(X t X t ) = EL(X t X t,, X t k, ) la régression linéaire (ou affine) sur L(X t ) ( = EL(X t, X t,, X t k, )) Proposition 22 Les deux notions coïncident si et seulement si EX t = 0, t

2 OUTILS POUR L ÉTUDE DES PROCESSUS STATIONNAIRES Remarque 22 Xt = EL(X t X t,, X t p ) X t Xt 2 = min a 0,,a p X t a 0 + = min Y H X t Y 2 p a j X t j Proposition 23 EL(X t X t ) = lim n + EL(X t X t,, X t n ) au sens de L 2 j= 2 Théorème 2 (Admis) Soient (X t ) t Z un processus stationnaire et Xt régression affine de X t sur L(, X t,, X t k, ) et ε t = X t Xt, alors (ε t ) t Z est un bruit blanc Cov(ε t, ε t k ) = 0 k > 0 = EL(X t X t ) la Définition 27 (Processus des innovations) Avec les notations du théorème ci-dessus : (i) (ε t ) t Z est le processus des innovations de (X t ) t Z (ii) ε t est l innovation de X t (iii) X t est la prévision optimale de X t à la date t Remarque 23 ε t = X t X t = X t EL(X t X t ) donc ε t et ε t X t k, k > 0, ce qui peut aussi s interpréter comme : E(ε t ) = 0 k > 0, E(ε t X t k ) = Cov(ε t, X t k ) = 0 Théorème 22 (De Wold) Soient (X t ) t Z un processus stationnaire et (ε t ) t Z le processus des innovations correspondant Alors (a k ) k Z / + a k < + et X t = m + 24 Densité spectrale et auto-corrélations inverses + a k ε t k Proposition 24 (Densité spectrale) Soit (X t ) t Z un processus stationnaire de la forme : X t = m + + j=0 a j ε t j où (ε t ) t Z BB et + j=0 a j < + Alors (i) h Z γ X (h) < + (ii) ω [ π; π], f X (ω) = 2π γ X (h)e iωh h Z f X est la densité spectrale de (X t ) t Z

2 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE Démonstration Et on a Donc γ X (h) = a j a k γ ε (h + j k) h Z h Z γ ε (h + j k) = j,k { 0 si h + j k 0 σ 2 ε si h + j k = 0 γ X (h) = h Z h Z σ2 ε a j a h+j j σε 2 a j a h+j = σε 2 j h,j a j 2 < + Proposition 25 Sous les hypothèses précédentes, Démonstration f X (ω) = 2π f X (ω) = 2π [ γ X (0) + h>0 γ X (h) cos(ωh) h Z γ X (h)e iωh + h<0 γ X (h)e iωh ] = γ X (0) + γ X (h)e iωh + γ X ( h) 2π } {{ } h>0 h>0 =γ X (h) = 2π γ X (0) + γ X (h) (e iωh + e iωh ) } {{ } h>0 =2 cos(ωh) = γ X (0) + γ X (h) cos(ωh) 2π h 0 = 2π γ X (h) cos(ωh) h Z Exemple 2 () (ε t ) t Z BB(0, σ 2 ) f ε (ω) = σε 2π (2) (X t ) t Z MA() f ε (ω) = σε 2π ( + θ2 2θ cos ω) Théorème 23 (Injectivité) Avec les notations précédentes, h Z, γ X (h) = [ π;π] f X (ω)e iωh dω = [ π;π] e iωh f X (ω) cos(ωh)dω

2 OUTILS POUR L ÉTUDE DES PROCESSUS STATIONNAIRES 3 Démonstration [ π;π] f X (ω)e iωh dω = ( ) γ X (k)e iωk e iωh dω 2π [ π;π] k Z ( ) = 2π γ X (k) k Z = γ X (h) e iω(k h) dω } [ π;π] {{ } 8 < = : 0 si k h 2π si k = h (d après Fubini) Conséquence par f X La fonction f X γ X est une bijection donc (X t ) t est caractérisé complètement Exemple 22 () Si f X (ω) = constante alors X BB (2) Si f X (ω) = a + 2b cos ω alors X MA() { a = σ2 où 2π ( + θ2 ) b = σ2 2π Proposition 26 Soit (X t ) t Z tel que X t = j Z a jε t j où ε t BB et j a j < + Soit Y t = k Z b kx t k avec k b k < + Alors (i) Y t = k Z c k ε t k 2 (ii) f Y (ω) = f X (ω) b k e iωk k Z Démonstration (i) Y t = b k X t k = b k a j ε t k j = a j b k ε t (k+j) = a j b h j ε t h = a j b h j k Z k Z j Z j,k Z j,h Z h Z j Z } {{ } c h ε t h

4 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE (ii) f Y (ω) = 2π = 2π = 2π = 2π γ Y (h)e iωh h Z b j b k γ X (h + j k) e iωh h Z h,j,k Z j,k Z b j b k γ X (h + j k)e iω(h+j k) e iωj e iωk ( ) γ X (l)e iωl ( ) b j e iωj b k e iωk j Z l Z 2 = f X (ω) b k e iωk k Z k Z Définition 28 (Auto-corrélations inverses) Soit (X t ) t Z tel que X t = j Z a jε t j ε t BB et j a j < + On suppose que ω f X (ω) e iωh est intégrable sur [ π; π] On appelle auto-covariance inverse d ordre h de (X t ) t Z γx(h) i = f X (ω) e iωh dω [ π;π] où L auto-corrélation inverse d ordre h est alors définie comme ρ i X(h) = γi X (h) γ i X (0) Définition 29 (Auto-corrélogramme inverse) L auto-corrélogramme inverse de (X t ) t Z est le graphe de : { N ] ; [ h ρ i X (h) 25 Estimateurs associés et lois limites On considère un processus stationnaire (X t ) t Z tel que pour tout t Z, EX t = m On cherche à estimer les grandeurs associées γ X (h), ρ X (h) = γ X(h) γ X (0), r X(h) = a h h, f X(ω), γx i (h) et ρi X (h) et ceci sachant qu on observe X,, X T On prend comme estimateurs : ˆm = T X t = T X T moyenne empirique, t= ˆγ X (h) = T h T t=h+ (X t X T )(X t h X T ) auto-covariance empirique d ordre h (estimation acceptable si h n est pas trop grand), ˆρ X (h) = ˆγ X(h) ˆγ X (0),

3 POLYNÔMES RETARD ET AVANCE 5 ˆr(h) = â h h dans la régression empirique (mco) de x t sur, x t,, x t h, ˆf X (ω) = H ˆγ X (h)e iωh, le problème ici étant que l on voudrait un H suffisamment 2π h= H grand mais prendre un H trop grand est risqué pour l estimation de ˆγ X (h) On prend alors un estimateur corrigé : ˆf X (ω) = 2π H h= H ( h ) ˆγ X (h)e iωh H + } {{ } coefficient de Newey-West On donne moins de poids aux ˆγ X (h)e iωh avec un grand h on ne prend pas ˆρ i = ˆγi (h) ˆγ i (0) où ˆγi (h) = [ π;π] ˆf X (ω) e iωh dω, il existe d autres façons de l obtenir Proposition 27 Si (X t ) est un processus stationnaire alors tous les estimateurs présentés ci-dessus sont convergents Démonstration C est la loi des grands nombres Proposition 28 Si X t = m + + j=0 a jε t j où E(ε 4 t ) = η < +, alors tous ces estimateurs ont des lois jointes asymptotiquement gaussiennes : L ( T ( ˆm m) N 0, h Z γ X(h) ) T T T Ω h, W h et Σ h étant calculables ˆγ(0) γ(0) ˆγ(h) γ(h) ˆρ(0) ρ(0) ˆρ(h) ρ(h) ˆr(0) r(0) ˆr(h) r(h) L N (0, Ω h ) L N (0, W h ) L N (0, Σ h ) Remarque 24 () Les auto-corrélogrammes (direct, partiel et inverse) associés aux valeurs estimées sont appelés auto-corrélogrammes empiriques (2) On en déduit des intervalles de confiance asymptotiques 3 Polynômes retard et avance 3 Définitions et propositions Définition 3 (i) L opérateur retard L ( lag) ou B ( backward) est défini sur la classe des processus stationnaires comme étant : L : (X t ) t Z (Y t ) t Z tel que Y t = X t

6 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE On note : LX t = X t (ii) De la même façon, l opérateur avance F ( forward) correspond à On note : F X t = X t+ Proposition 3 F : (X t ) t Z (Y t ) t Z tel que Y t = X t+ (i) L k = L} {{ L} vérifie L k X t = X t k kfois (ii) F k = F} {{ F} vérifie F k X t = X t+k kfois Notation : L 0 = Id est noté L 0 = (L 0 X t = X t ) Définition 32 Soit P un polynôme, P (z) = p a kz k, a k R, on lui associe le polynôme retard P (L) défini comme suit : p P (L) = a k L k Et ( p ) P (L)X t = a k L k X t = p a k X t k De façon similaire on obtient le polynôme avance P (F ) : ( p ) p P (F )X t = a k F k X t = a k X t+k Définition 33 (Séries en L (ou en F )) (polynômes de degré infini) Soit A(z) = + a kz k et Y t = A(L)X t = + a kx t k Alors (Y t ) t Z est bien un processus stationnaire car + a k < + Proposition 32 On suppose + a k < + et + b k < + et Alors (i) α R, A(L) = + a k L k B(L) = ( + ) αa(l) = (αa)(l) = α a k L k = + + b k L k (αa k )L k ( + ) ( + ) (ii) A(L) + B(L) = (A + B)(L) = a k L k + b k L k = + (a k + b k )L k (iii) A(L) B(L) = (AB)(L) = B(L) A(L) avec (AB)(L) = (BA)(L) = C(L) = c k = + j=0 a j b k j + c k L k et

3 POLYNÔMES RETARD ET AVANCE 7 32 Inversibilité des polynômes en L Définition 34 (Inversibilité) A(L) est inversible B(L) tel que A(L) B(L) = Id On suppose P (L) = p a kl k et Y t = P (L)X t et on désire savoir si X t peut s exprimer en fonction de Y t (X t = P (L) Y t ) On peut décomposer notre polynôme de la façon suivante : p p p ) p P (z) = (z z i ) = ( z i ) ( zzi = α λ i z) avec λ i = i=( z i i= i= où les z i C sont les racines de P p Finalement P (L) = α ( λ i L) Inversibilité de λl i= Proposition 33 (i) Si λ <, alors λl est inversible et ( λl) = + (ii) Si λ >, λl est inversible et ( λl) = λ k F k (iii) Si λ =, λl n est pas inversible Démonstration (i) Si λ < alors ( λl) + λk = λ < +, donc A(L) = i= k= + + λ k L k λ k L k est bien défini On a ainsi ( λl)a(l) = C(L) = + j=0 c jl j et c j = + a kb k j avec b 0 =, b = λ, b k = 0 si k > et a k = λ k On trouve c 0 = et c j = 0 si j 0, soit encore C(L) = On en déduit que ( λl) est inversible et ( λl) = A(L) On pouvait aussi montrer ce résultat en écrivant : k ( λl)a(l) = lim ( λl) λ j L j = lim k + k + λk+ L k+ = j=0 ( (ii) Si λ > alors λl = λ L ) ( = λl F ) λ λ On a alors (λl) = ( λ F et F ) + = λ λ k F k car λ > En combinant ces deux résultats, on obtient ( ( λl) = ( λl) F ) ( = + λ λ F Dans ce cas, X t = ( λl) Y t = + k= λ k Y t+k ) + λ k F k = k= λ k F k = k= λ k L k

8 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE (iii) Cas λ = Alors L n est pas inversible Montrons-le par l absurde Supposons Y t = ( L)X t = X t X t On a vu que si (Y t ) t Z est stationnaire alors (X t ) t Z ne l est pas (cf page 4, l exemple où Y t = ε t BB(0, σ 2 )) On n a pas X t = a k Y t k avec a k < + ; k Z k Z Il n existe pas A(L) = a k L k, a k < + tel que ( L)A(L) = k Z k Z On peut le voir à la main Dans ces conditions k Z ( L)A(L) = a k = a k et donc ne tend pas vers 0 a k = + Inversion d un polynôme en L Soit φ un polynôme de degré p à coefficients réels : φ(z) = + ϕ z + + ϕ p z p φ(l) = + ϕ L + + ϕ p L p (φ(0) = ) φ possède p racines (z,, z p ) dans complexes ou réelles, on peut donc le décomposer en p p p ) p φ(z) = ϕ p (z z j ) = ϕ p ( z j ) ( zzj = α ( λ j z) j= j= j= j= où λ j = z j Par conséquent, on peut se ramener à : φ(l) = p ( λ j z) On a alors 2 cas possibles : si z i R alors λ i R, si z i C R alors z i racine de φ de même ordre de multiplicité que z i (i) Si λ i < alors λ i < et j= φ(z) = ( λ i z)( λ i z)ψ(z) (( λ i L)( λ i L)) = ( λ i L) ( λ i L) ( ) ( ) = λ k i L k k λ i L k k k = A(L) A(L) (ii) λ i >, idem avec ( λ i L) = λk i Lk (iii) Si λ i = alors φ(l) n est pas inversible

3 POLYNÔMES RETARD ET AVANCE 9 Proposition 34 Avec les notations précédentes (i) φ est inversible si et seulement si ses racines sont de module distinct de (ii) Si λ j <, j [, p], alors φ(l) est inversible et φ(l) = + a k L k où a 0 =, a k R et + a k < + Remarque 3 λ j < z j = λ j > Démonstration (i) j, ( λ j L) est bien défini, de la forme k Z a j,k L k et φ(l) = p ( λ j L) est donc aussi défini Mais φ(l) peut contenir des termes en L k, k > 0 qui sont des termes concernant le futur et donc peu utilisables en pratique (ii) Si λ j < pour tout j alors ( λ j L) = + λ k j L k et j= p φ(l) = ( λ j L) = + j= a k L k tel que + a k < + Par ailleurs ( p p + ) φ(z) = ( λ j z) et φ(z)φ(z) = ( λ j z) a k z k = j= j= Donc φ(0)φ(0) = a 0 = a 0 = S il existe j tel que λ j C\R alors φ(l) = ( λ j )( λ j )P (L) et : ( λ j ) ( λ j ) = = ( + ) ( + ) λ k j L k λ k j L k + α k L k où α k R, α 0 =, + Méthodes pratiques d inversion de φ(l) On se place dans le cadre défini précédemment où : p φ(l) = ( λ j L) j= α k < +

20 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE a) Quand p 2, φ(l) = ( p + ) j= λk j Lk Cette méthode s avère fastidieuse en général b) Par identification : on écrit que ( + ) ( + ) φ(l) a k L k = ( + ϕ L + + ϕ p L p ) a k L k = Les a k sont obtenus par récurrence puis identification c) Décomposition en éléments simples : φ(l) = j= j= p p λ j L = a j λ j L On décompose cette fraction rationnelle en éléments simples Dans la pratique on l utilise quand les racines sont simples d) Division selon les puissances croissantes de par φ(z) : = φ(z)q r (z) + z r+ R r (z) tel que lim Q r(z) = φ (z) r +

Chapitre 2 Processus ARMA et ARIMA Les ARM A sont des processus stationnaires et les ARIM A des processus non stationnaires intégrés, c est-à-dire qu on les rend stationnaires par différentiation 2 Processus auto-régressifs d ordre p (AR(p)) 2 Définition et représentation canonique Définition 2 (Processus AR) (X t ) t Z est un processus AR(p) si (i) (X t ) est stationnaire (ii) (X t ) vérifie une équation X t = µ+ϕ X t + +ϕ p X t p +ε t avec ϕ p 0 et ε t BB(0, σ 2 ) On note φ(l)x t = µ + ε t où φ(l) = (ϕ L + + ϕ p L p ) Exemple 2 X t AR() ie ( ρl)x t = µ + ε t où ε t BB(0, σ 2 ) et ρ < Remarque 2 Il existe des solutions non stationnaires (en espérance) de la même équation Soit Y t tel que ( ρl)y t = 0 Y t = ρy t Y t = ρ t Y 0 Soit (X t ) un processus stationnaire On définit (Z t ) par Z t = X t + Y t On a alors ( ρl)z t = ( ρl)x t + ( ρl)y t = ε t + 0 EZ t = EX t + EY t = m X + ρ t EY 0 cte Donc (Z t ) n est pas un processus stationnaire Proposition 2 Si X t AR(p) tel que φ(l)x t = µ + ε t, alors EX t = µ φ() = µ (ϕ + + ϕ p ) Démonstration X t = µ + ϕ X t + + ϕ p X t p + ε t EX t = µ + ϕ EX t + + ϕ p EX t p + Eε t m = µ + ϕ m + + ϕ p m m = µ (ϕ + + ϕ p ) = µ φ() 2

22 CHAPITRE 2 PROCESSUS ARM A ET ARIM A On retrouve bien le résultat annoncé Proposition 22 Si X t AR(p) est tel que φ(l)x t = µ + ε t et si l on pose Y t = X t m (où m = EX t ), on a alors φ(l)y t = ε t et EY t = 0 Démonstration EX t = m = µ φ() et φ(l)(x t m) = φ(l)x t φ(l)m Or Lm = m et par conséquent : φ(l)m = ( (ϕ + + ϕ p ))m = φ()m Finalement : φ(l)(x t m) = φ(l)x t µ = ε t Ecriture MA( ) quand les racines de φ sont de module strictement supérieur à On suppose que φ(l)x t = µ + ε t où φ(l) = (ϕ L + + ϕ p L p ) et aussi que z φ(z) 0 On suppose que φ(z) = p ( λ iz) où λ i = z i < Alors φ(l) est inversible et φ(l) = 0 a kl k = A(L) tel que a k < et a 0 = On en déduit X t = A(L)µ + A(L)ε t ( ) = A()µ + a k L k ε t = m + 0 a k L k ε t k 0 car φ() µ = m Proposition 23 Sous les hypothèses précédentes, (X t ) t Z admet une représentation MA( ) ie : X t = m + + a k ε t k, où a 0 =, a k R, + Proposition 24 Sous les hypothèses précédentes : (i) L(X t ) = L(ε t ) (ii) ε t est l innovation de X t a k < + Rappel de notation L(X t ) = L(, X t, X t,, X t p, ) L(ε t ) = L(, ε t, ε t,, ε t p, )

2 PROCESSUS AUTO-RÉGRESSIFS D ORDRE P (AR(P )) 23 Démonstration (i) X t = µ + ϕ X t + + ϕ p X t p + ε t On a vu que X t = η + + a t ε t k Donc k 0, X t k L(ε t k ) L(ε t ) De la même façon, comme X t L(ε t ) = L(, ε t, ε t,, ε t k, ) L(, X t, X t,, X t k, ) L(ε t ) L(X t ) L(ε t ) L(X t ) L(ε t ) ε t = X t (µ + ϕ X t + + ϕ p X t p ) on obtient l inclusion réciproque et finalement L(X t ) = L(ε t ) (ii) L innovation de X t vaut, par définition, X t X t, or : Comme L(X t ) = L(ε t ), on a : X t = EL(X t X t ) = EL(X t, X t,, X t k, ) = EL(µ + ϕ X t + + ϕ p X t p +ε t X t ) } {{ } L(X t ) = µ + ϕ X t + + ϕ p X t p + EL(ε t X t ) EL(ε t X t ) = EL(ε t ε t ) = 0 car ε t BB Finalement X t = µ + ϕ X t + + ϕ p X t p et X t X t = ε t, ε t est bien l innovation de X t Définition 22 Soient X t AR(p) et φ un polynôme vérifiant : φ(l)x t = µ + ε t z φ(z) 0 On dit que la représentation φ(l)x t = µ + ε t est la représentation canonique de (X t ) t Z Cas où φ admet des racines de module inférieur à Remarque 22 () Si (X t ) t Z est supposé stationnaire alors φ n a pas de racines de module égal à (2) On sait que φ(l) est inversible, φ(l) = Z a kl k Mais on n a plus l égalité L(X t ) = L(ε t ) L écriture φ(l)x t = µ + ε t ne met pas en évidence l innovation de X t On cherche une autre représentation de (X t )

24 CHAPITRE 2 PROCESSUS ARM A ET ARIM A On peut écrire On définit φ(l) = p ( λ j L) = j= φ (z) = j/ λ j < j/ λ j < ( λ j z) ( λ j L) j/ λ j > j/ λ j > ( z ) λ j ( λ j L) de telle sorte que φ a toutes ses racines de module strictement supérieur à On définit ensuite le processus (η t ) t Z tel que η t = φ (L)(X t m) où m = µ φ() On montre alors que η t BB(0, σ 2 η) en calculant f η (ω) : Comme φ(l)x t = ε t, on a aussi : f η (ω) = f X (ω) φ (e iω ) 2 Ceci nous mène à : Or f η (ω) = σ2 ε 2π = σ2 ε 2π = σ2 ε 2π f ε (ω) = f X (ω) φ(e iω ) 2 = σ2 ε 2π φ(e iω ) 2 φ (e iω ) 2 [ ] [ j/ λj < λ je iω 2 ] 2 j/ λ j > eiω λ j [ ] [ ] j/ λj < λ je iω 2 j/ λj > λ je iω 2 j, λ j > λ j e iω 2 λ j 2 λ j e iω 2 j/ λ j > λ j e iω 2 λ j e iω 2 = En effet : Si λ j R, λ j e iω 2 = λ j e iω 2 = λ j e iω 2 λ j e iω 2 λ j e iω 2 Si λ j R\C, λ j e iω 2 λ j e iω =, λ 2 j étant aussi une racine de φ puisque celui-ci est à coefficients réels On a donc f η (ω) = α σ2 ε 2π = σ2 η 2π avec α = λ j 2 < et finalement η t BB(0, σ 2 ) car sa transformée de Fourier est une constante j, λ j > Bilan La représentation φ (L)X t = φ ()m + η t = µ + η t est la représentation canonique de (X t ) t Z car φ a toutes ses racines de module strictement supérieur à et η t est l innovation de X t

2 PROCESSUS AUTO-RÉGRESSIFS D ORDRE P (AR(P )) 25 22 Propriétés des processus AR(p) On suppose que φ(l)x t = µ + ε t où les racines de φ sont de module strictement supérieur à, ε t suit un bruit blanc On peut se ramener ensuite à µ = 0 par centrage car φ(l)(x t m) = ε t où m = µ/φ() On considère donc le cas où φ(l)x t = ε t (et EX t = 0) Auto-covariance, auto-corrélations et équivalence de Yule-Walker L auto-covariance : γ(h) = Cov(X t, X t h ) = E(X t X t h ) pour h 0 (car m X = 0), et Donc X t = ϕ X t + + ϕ p X t p + ε t Xt 2 = ϕ X t X t + + ϕ p X t X t p + X t ε t γ(0) = ϕ γ() + + ϕ p γ(p) + E(X t ε t ) Or E(X t ε t ) = E[(ϕ X t + + ϕ p X t p )ε t ] +E(ε 2 t ) } {{ } =0 car ε t L(X t ) D où Si h > 0, on procède de la même façon : γ(0) = ϕ γ() + + ϕ p γ(p) + σ 2 ε X t X t h = ϕ X t X t h + + ϕ p X t p X t h + ε t X t h γ(h) = ϕ γ(h ) + + ϕ p γ(h p) + E(ε t X t h ) } {{ } =0 car ε t X t h Les auto-corrélations : A partir de la relation de récurrence de γ(h) on déduit celle sur ρ(h) = γ(h) γ(0) ρ(h) = ϕ ρ(h ) + + ϕ p ρ(h p), h 0 Ces dernières équations sont appelées équations de Yule-Walker Pour h > 0, les γ(h) et les ρ(h) vérifient une relation de récurrence d ordre p et = ϕ ρ() + + ϕ p ρ(p) + σ2 ε γ(0) γ(0) = σε 2 (ϕ ρ() + + ϕ p ρ(p))

26 CHAPITRE 2 PROCESSUS ARM A ET ARIM A Les équations de Yule-Walker pour h =,, p peuvent s écrire : ρ() ρ(p ) ρ() ρ() ρ(p 2) ρ(p ) ϕ ϕ p = ρ() ρ(p) Les solutions de l équation de récurrence sont complètement déterminées par la donnée de conditions initiales ρ(),, ρ(p) : elles permettent d obtenir ϕ,, ϕ p En particulier elles donneront une estimation préliminaire de ˆϕ,, ˆϕ p en fonction de ˆρ T (),, ˆρ T (p) ρ() = ϕ + ϕ 2 ρ() + + ϕ p ρ(p ) ρ(p) = ϕ ρ(p ) + + ϕ p ρ() + ϕ p ϕ = ( ϕ 2 )ρ() ϕ p ρ(p ) ϕ p = ρ(p) ϕ ρ(p ) + ϕ p ρ() On peut donc aussi obtenir ρ(),, ρ(p) en fonction de ϕ,, ϕ p Proposition 25 Si X t AR(p) alors les ρ(h) et les γ(h) décroissent vers 0 exponentiellement avec h Démonstration h > 0, ρ(h) ϕ ρ(h ) ϕ p ρ(h p) = 0 Le polynôme caractéristique de cette relation de récurrence est : ( z p ϕ z p ϕ p z ϕ p = z p ϕ z ϕ p z p ϕ ) ( ) p z p = z p φ z Avec φ(l)x t = ε t et φ(l) = ϕ L ϕ p L p Les racines du polynôme caractéristique sont les λ i = z i (les z i étant les racines de φ) avec λ i < La forme générale de la solution est, si z,, z n sont des racines distinctes de φ de multiplicité respective m,, m n : n m i ρ(h) = α ik λ k i h k i= λ i < donc ρ(h) décroît vers 0 exponentiellement avec h 23 Auto-corrélations partielle et inverse d un processus AR(p) Proposition 26 Si (X t ) t Z AR(p) et si φ(l)x t = µ + ε t est sa représentation canonique, alors : { 0 si h > p r(h) = 0 sinon

2 PROCESSUS AUTO-RÉGRESSIFS D ORDRE P (AR(P )) 27 Démonstration r(h) est le coefficient de X t h dans EL(X t X t,, X t h ) et X t = µ + ϕ X t + + ϕ p X t p +ε t } {{ } L(,X t,,x t p ) L(,X t,,x t h ) EL(X t X t,, X t h ) = µ + ϕ X t + + ϕ p X t p + EL(ε t X t,, X t h ) Si h > p, le coefficient de X t h est 0 Si h = p, le coefficient de X t p est ϕ p 0 = µ + ϕ X t + + ϕ p X t p + 0 Proposition 27 Si (X t ) t Z AR(p), alors : { 0 si h > p γ(h) = 0 si h = p { 0 si h > p ρ(h) = 0 si h = p Démonstration ρ i (h) = γ i(h) γ i (0) où : γ i (h) = π π f X (ω) eiωh dω φ(l)x t = ε t (en remplaçant éventuellement X t par X t m) : Et par conséquent : avec ψ 0 = et ψ k = ϕ k, k > 0, f X (ω) φ(e iω ) 2 = f ε (ω) = σ2 ε 2π f X (ω) = σ2 ε 2π φ(e iω ) 2 f X (ω) = 2π φ(e iω ) 2 σ 2 ε φ(z) = ϕ z ϕ p z p = f X (ω) = 2π σ 2 ε = 2π σ 2 ε ( p ( p ψ k e iωk) ψ k ψ l e iω(k l) 0 k,l p p ψ k z k ψ k e iωk ) Ainsi γ i (h) = 2π σ 2 ε 0 k,l p π ψ k ψ l e iω(k l+h) dω π } {{ } =0 sauf si k l+h=0

28 CHAPITRE 2 PROCESSUS ARM A ET ARIM A Or k l p; p donc si h > p, γ i (h) = 0 En revanche si h = p : π π eiω(k l+h) dω p = l k { l = p k = 0 Donc γ i (p) = 4π2 σ 2 ε ψ 0 ψ p = 4π2 σε 2 ϕ p 0 22 Processus moyenne mobile d ordre q (M A(q)) 22 Définition et représentation canonique Définition 22 (X t ) t Z MA(q) s il existe ε t BB(0, σ 2 ) et θ,, θ q tels que X t = m + ε t θ ε t θ q ε t q Proposition 22 EX t = m Remarque 22 () (X t ) t Z est nécessairement stationnaire (2) On note X t = m + θ(l)ε t où θ(l) = θ L θ q L q (3) Comme X t m = θ(l)ε t, on peut centrer X t, EX t = 0 Ecriture AR( ) quand les racines de θ sont de module > Sous ces hypothèses θ(l) est inversible et θ(l) = Il s en suit que Soit encore + a k L k avec a 0 = et a k < + X t m = θ(l)ε t θ(l) (X t m) = ε t θ(l) X t m θ() = ε t + a k X t k µ = ε t où µ = D où la représentation canonique AR( ) X t = + k= a k X t k + Proposition 222 Sous les hypothèses précédentes (i) L(X t ) = L(ε t ) (ii) ε t est l innovation de X t m θ() m θ() + ε t

22 PROCESSUS MOYENNE MOBILE D ORDRE Q (M A(Q)) 29 Démonstration (i) Comme X t = m + ε t θ ε t θ q ε t q X t L(, ε t,, ε t q ) L(ε t ) Ceci nous amène à (cf cas AR page 23 pour plus de détails) : L(X t ) L(ε t ) + ε t = a k X t k µ L(ε t ) L(X t ) L(X t) = L(ε t ) (ii) X t = EL(X t X t ) = EL(m + ε t θ ε t θ q ε t q X t ) = EL(m + ε t θ ε t θ q ε t q ε t ) = m + 0 θ ε t θ q ε t q = X t ε t Donc X t X t = ε t, X t est bien l innovation de X t Cas où des racines de θ sont de module < On suppose qu on s est ramené à X t = θ(l)ε t par centrage : X t = ( λ i L) ( λ i L) ε t i/ λ i < Comme précédemment, on définit : θ (L) = ( λ i L) i/ λ i < On définit aussi (η t ) par X t = θ (L)η t, d où i/ λ i > η t = θ (L) X t i/ λ i > ( λ i L) On montre que f η (ω) = cte (η t ) BB On a donc X t = θ (L)η t toutes les racines de θ sont de module > η t BB C est la représentation canonique de (X t ) et (η t ) est le processus des innovations Cas où certaines racines de θ sont de module égal à On montre que (X t ) est stationnaire Par exemple X t = ( L)ε t On ne peut plus écrire θ(l) inversible avec θ(l) = 0 a kl k (ε t ) reste le processus des innovations de (X t ) mais la démonstration est difficile

30 CHAPITRE 2 PROCESSUS ARM A ET ARIM A 222 Propriétés des processus M A(q) On suppose que la représentation étudiée est la représentation canonique X t = m + θ(l)ε t toutes les racines de θ sont de module > θ(l) = θ L θ q L q ε t BB Proposition 223 (Auto-covariance) Sous les hypothèses précédentes 0 si h > q θ γ(h) = q σε 2 0 si h = q σε 2 ( θh + q i=h+ θ ) iθ i h si h < q σε 2 ( + q ) i= θ2 i si h = 0 On en déduit ρ(h) = 0 si h > q et ρ(q) 0 Démonstration Si h = 0 X t = ε t θ ε t θ q ε t q après centrage Car Cov(ε t j, ε t k ) = 0 si j k Si h > q Si h = q Si h < q γ(h) = Cov(X t, X t h ) γ(0) = VarX t = σ 2 ε( + θ 2 + + θ 2 q) 0 = Cov[(ε t θ ε t θ q ε t q ), (ε t h θ ε t h θ q ε t h q )] } {{ } } {{ } ε t j, j 0,q ε t k, k h,q+h t j t k γ(h) = 0 γ(q) = Cov[(ε t θ ε t θ q ε t q ), (ε t q θ ε t q θ q ε t 2q )] = θ q σ 2 ε γ(h) = Cov[(ε t θ ε t θ q ε t q ), (ε t h θ ε t h θ q ε t h q )] q q = θ i Cov[ε t i, ε t h θ k ε t h k ] car Cov(ε t, ε t i ) = 0 i > 0 i= = θ h σ 2 ε + = θ h σ 2 ε + q q i= k= ( q i=h+ k= θ i θ k Cov(ε t i, ε t h k ) } {{ } =0 si i h+k θ i θ i h ) σ 2 ε Remarque 222 On n a pas de résultat particulier pour les auto-corrélations partielles Proposition 224 ρ i (h) décroît exponentiellement avec h

23 PROCESSUS ARM A(P, Q) 3 Démonstration ρ i (h) = γi (h) γ i (0) avec, γi (h) = π π f X (ω) eiωh dω et X t = θ(l)ε t f X (ω) = σ2 ε 2π θ(eiω ) 2 f X (ω) = 2π σ 2 ε θ(e iω ) 2 Soit (Y t ) t Z un processus tel que θ(l)y t = η t et Y t AR(q) : Donc On a ainsi : f Y (ω) = f X (ω) σ 2 η 2π = f Y (ω) θ(e iω ) 2 f Y (ω) = σ2 η 2π θ(e iω ) 2 2π σ 2 ε = σ2 η 2π σ2 η = 4π2 σ 2 ε Tableau récapitulatif des différentes situations Les auto-corrélations inverses d un processus M A(q) ont les mêmes propriétés que les auto-corrélations d un AR(q) : AR(p) MA(q) ρ(h) décroît exponentiellement vers 0 avec h 0 si h > q et non nul si h = q r(h) 0 si h > p et non nul si h = p - ρ i (h) 0 si h > p et non nul si h = p décroît exponentiellement vers 0 avec h 23 Processus ARM A(p, q) 23 Définition et représentation canonique minimale Définition 23 Un processus stationnaire (X t ) t Z admet une représentation ARMA(p, q) canonique minimale s il vérifie une équation : où (i) ε t BB(0, σ 2 ) φ(l)x t = µ + θ(l)ε t (ii) φ(l) = ϕ L ϕ p L p, avec ϕ p 0 (iii) θ(l) = θ L θ q L q, avec θ q 0 (iv) φ et θ ont toutes leurs racines de module strictement supérieur à (représentation canonique) (v) φ et θ n ont pas de racines communes (représentation minimale) Remarque 23 () Il existe des solutions non stationnaires : soit (X t ) un processus stationnaire et (Y t ) déterministe tel que φ(l)y = 0 On définit Z t = X t + Y t qui vérifie l équation (2) Retour sur la représentation canonique :

32 CHAPITRE 2 PROCESSUS ARM A ET ARIM A Si (X t ) est stationnaire, alors les racines de φ sont de module distinct de On pourrait considérer le cas où θ a des racines de module (c est compatible avec la stationnarité) Si on suppose que φ et θ ont des racines de module distinct de, on peut toujours se ramener à la représentation φ (L)X t = µ + θ (L)η t où φ et θ ont des racines de module > Si φ et θ ont des racines de module strictement supérieur à mais admettent une racine commune, alors φ(l) = ( λl)ϕ 0 (L) et θ(l) = ( λl)θ 0 (L) D où ϕ 0 (L)X t = µ λ + θ 0(L)ε t X t ARMA(p, q ) Proposition 23 (i) EX t = µ φ() = m (ii) φ(l)(x t m) = θ(l)ε t Remarque 232 Par centrage on peut donc se ramener au cas où µ = 0 Démonstration (i) On a (ii) E(X t ϕ X t ϕ p X t p ) = E(µ + ε t θ ε t θ q ε t q ) Et comme (X t ) est supposé stationnaire Donc φ(l)(x t m) = θ(l)ε t m( ϕ ϕ p ) = µ + 0 m = µ φ() φ(l)x t = φ()m + θ(l)ε t = φ(l)m + θ(l)ε t Proposition 232 Sous les hypothèses précédentes, (i) (X t ) admet une représentation AR( ), + a kx t k = µ+ε t où a 0 = et k a k < + (ii) (X t ) admet une représentation MA( ), X t = m+ + b kε t k où b 0 = et k b k < + (iii) L(X t ) = L(ε t ) (iv) ε t est l innovation de X t Démonstration (i) On sait que φ(l)(x t m) = θ(l)ε t, celà nous permet d écrire Et ce avec A()m = φ() θ() = µ θ() θ(l) φ(l) (X } {{ } t m) = ε t A(L) A(L)X t A()m = ε t

23 PROCESSUS ARM A(P, Q) 33 (ii) De la même façon φ(l)x t = µ + θ(l)ε t amène X t = µ φ() + φ(l) θ(l) } {{ } B(L)= P b k L k ε t (iii) Etant donné que (X t ) est de la forme AR( ), on a : t, ε t L(X t ) L(ε t ) L(X t ) L(ε t ) L(X t ) Par un raisonnement identique et tenant compte du fait que (X t ) est également de la forme MA( ) on obtient : L(X t ) L(ε t ) Les deux résultats nous permettent alors de dire que : (iv) Calculons l innovation de X t : L(X t ) = L(ε t ) X t X t = X t EL(X t X t ) = X t EL( = X t + = ε t + =0 + =0 a k X t k + µ + ε t X t ) a k X t k µ EL(ε t ε t ) } {{ } =0 Remarque 233 AR(p) ARMA(p, 0) MA(q) ARMA(0, q) ARMA(p, q) AR( )#AR(P ) si P grand MA( )#MA(Q) si Q grand Souvent l un des paramètres (p ou q) est petit alors que l autre est grand Avec l approximation précédente on a alors moins de paramètres à estimer En vertu du théorème de Wold, X t = m+b(l)ε t, où (ε t ) est le processus des innovations, si de plus X t ARMA(p, q) alors B(L) = θ(l) φ(l) 232 Propriétés des processus ARM A(p, q) On considère un processus ARMA(p, q) tel que : φ(l)x t = θ(l)ε t, éventuellement après centrage, φ(l) = ϕ L ϕ p L p, θ(l) = θ L θ q L q C est la représentation canonique minimale Proposition 233 (Auto-covariance et auto-corrélation) les ρ(h) vérifient les équations de récurrence d ordre p : γ(h) ϕ γ(h ) ϕ p γ(h p) = 0 ρ(h) ϕ ρ(h ) ϕ p ρ(h p) = 0 (i) Pour h > q, les γ(h) et (ii) Elles décroissent donc vers 0 exponentiellement avec h, pour h > q

34 CHAPITRE 2 PROCESSUS ARM A ET ARIM A Démonstration (i) X t = ϕ X t + + ϕ p X t p θ ε t θ q ε t q et par conséquent : γ(h) = E(X t X t h ) = ϕ E(X t X t h ) + + ϕ p E(X t p X t h ) θ E(ε t X t h ) θ } {{ } q E(ε t q X t h ) } {{ } =0 =0 = ϕ γ(h ) + + ϕ p γ(h p) Il s en suit que : ρ(h) = ϕ ρ(h ) + + ϕ p ρ(h p) (ii) Les γ(h) et ( les ) ρ(h) vérifient une équation de récurrence dont le polynôme caractéristique est z p+ φ z Les conditions initiales sont γ(q), γ(q ),, γ(q p + ) et ρ(q), ρ(q ),, ρ(q p + ) Equations de Yule-Walker L équation précédente pour k = q +,, q + p donne : ρ(q) ρ(q + p ) ϕ ρ(p + ) = ρ(q + p ) ρ(q) ϕ p ρ(p + q) Quand ρ est connu ou estimé, on peut alors calculer les φ j Ou inversement, quand les ϕ j sont connus, on calcule ρ(q + ),, ρ(q + p) qui seront les conditions initiales pour le calcul de ρ(h) tel h > q 24 Processus ARIM A(p, d, q) Ces processus sont non stationnaires dès que d Les séries économiques sont souvent non stationnaires, tel le PIB Exemple 24 On considère un processus (X t ) t Z correspondant à une marche aléatoire c està-dire t 0, X t = X t + ε t tel que ε t BB(0, σ 2 ) et t > 0, Cov(ε t, X 0 ) = 0 Alors t t X t = X 0 + ε k = X 0 + On ne peut pas itérer le procédé car = X + + j=0 k= j=0 t ε k = X + ε t j t j=0 ε t j ε t j n est pas défini On ne peut pas supposer le processus démarre à La condition initiale est Cov(X 0, ɛ k ) = 0 pour k > 0 On peut alors penser à considérer : ( L)X t = X t X t = X t = ε t

24 PROCESSUS ARIM A(P, D, Q) 35 Idée générale : X t ARIMA(p, d, q) si et seulement si ( L) d X t est stationnaire alors que ( L) d X t ne l est pas (dans le cas de la marche aléatoire, d = ) Définition 24 (Représentation canonique minimale) (X t ) t pd est un processus ARIMA(p, d, q) en représentation canonique minimale s il vérifie une équation du type : t 0, ( L) d φ(l)x t = µ + θ(l)ε t Et ceci avec : (i) ε t BB(0, σ 2 ) (ii) φ(l) = ϕ L ϕ p L p où ϕ p 0 θ(l) = θ L θ q L q où θ q 0 (iii) φ et θ ont leurs racines de module > et n ont pas de racines communes (iv) conditions initiales Z = (X,, X p d, ε,, ε q ) telles que Cov(ε t, Z) = 0 Exemple 242 Soit le processus défini par ( L)X t = ε t On a donc d o φ = d o θ = 0 Si Z = X, Cov(Z t, ε t ) = 0 t 0 Remarque 24 Comme ( L) d φ(l)x t = φ(l)( L) d X t, on pose Y t = ( L) d X t (Y t ) suit alors le processus : φ(l)y t = µ + θ(l)ε t Proposition 24 Sous les hypothèses précédentes, ( L) d X t = Y t est alors asymptotiquement équivalent à un processus ARM A(p, q) Démonstration Ce qui signifie qu il existe un processus stationnaire (Z t ) t Z tel que : φ(l)z t = µ + θ(l)ε t lim Y t Z t 2 = 0 t + Notations Si d = 0, X t ARMA(p, q) qui est un processus stationnaire On note X t I(0) Si d =, (X t ) est un processus intégré d ordre On note X t I() Si d = 2, (X t ) n est pas stationnaire, Y t = ( l)x t non plus, Z t = ( l)y t = ( L) 2 X t est asymptotiquement équivalent à un processus stationnaire On note X t I(2) Définition 242 Si ( L) d X t est asymptotiquement équivalent à un processus stationnaire et si ( L) d X t ne l est pas alors on dit que (X t ) est intégré d ordre d et on note X t I(d)

36 CHAPITRE 2 PROCESSUS ARM A ET ARIM A 24 Approximation auto-régressive d un ARIM A(p, d, q) Proposition 242 Avec les notations précédentes, A t (L), A t (L) = t j=0 at j Lj et a 0 t = µ 0 h(t) R p+d+q et lim h(t) = 0 tels que A t(l)x t = µ 0 + ε t + h(t) Z t + X t = t a t jx t j + ε t + h(t) Z Démonstration On pose ψ(l) = ( L) d φ(l), avec cette notation : j= ψ(l)x t = µ + θ(l)ε t d o ψ = p + d, d o θ = q On effectue la division selon les puissances croissantes à l ordre t de par θ(z) : = θ(z)q t (z) + z t+ R t (z) où d o Q t = t, d o R t = q Ce qui implique : Or = θ(l)q t (L) + L t+ R t (L) Ainsi En décomposant la somme t j=0 ψ(l)q t (L) X } {{ } t = Q t ()µ + Q t (L)θ(L)ε t d o =p+d+t p+d+t j=0 = Q t ()µ + ( L t+ R t (L))ε t a (t) j X t j = µ 0 + ε t R t (L)ε p+d+t a (t) j X t j = µ 0 + ε t j=t+ a (t) j q X t j r (t) k ε k On effectue le changement d indice k = t j dans p+d+t j=t+ a(t) j X t j : t j=0 a (t) j X t j = µ 0 + ε t k= p d a (t) q t k X k r (t) k ε k } {{ } h(t) Z 242 Approximation moyenne mobile d un ARIM A(p, d, q) Proposition 243 Sous les mêmes hypothèses, B t (L), B t (L) = t j=0 b(t) j Lj et b (0) t = µ h(t) R p+d+q et lim h(t) = 0 tels que X t = µ + B t (L)ε t + h(t) Z t +

24 PROCESSUS ARIM A(P, D, Q) 37 Corollaire t, ε t L(X 0,, X t,, Z) X t L(ε 0,, ε t,, Z) ε t = X t EL(X t X 0,, X t,, Z) est le processus des innovations Proposition 244 (Calcul de EX t ) Si l on note m t = EX t alors m t vérifie ψ(l)m t = µ On obtient ainsi : ( ) une équation de récurrence dont le polynôme caractéristique est z p+d+ ψ, z une forme générale de la solution (pour µ = 0 et µ 0) Exemple 243 (i) Marche aléatoire sans dérive : ( L)X t = ε t ( L)m t = 0 m t = cte (ii) Marche aléatoire avec dérive : ( L)X t = µ + ε t alors m t m t = µ ( L)m t = µ m t = m 0 + µ t (iii) ( L)( ϕl)x t = ε t et alors m t = α + βϕt (iv) On a vu que : X t = X 0 + t k= ε k si µ = 0 EX t = EX 0 X t = X 0 + µt + t k= ε k si µ 0 EX t = EX 0 + µt

38 CHAPITRE 2 PROCESSUS ARM A ET ARIM A

Chapitre 3 Identification et estimation d un modèle ARMA ou ARIMA Introduction On dispose d observations x,, x T de X,, X T Comment modéliser par un ARMA ou un ARIMA? On a 2 types de choix : (X t ) t Z est un processus stationnaire auquel cas il faut estimer un ARMA(p, q), ou (X t ) I(d) est donc non stationnaire mais ( L) d X t est stationnaire, dans ce cas il faut estimer un ARIMA(p, d, q) La démarche pour l identification est la suivante : (i) Choix de d, (ii) Choix de (p, q), (iii) Estimer ϕ,, ϕ p, θ,, θ q (ce qui peut se faire par le maximum de vraisemblance sous l hypothèse que les ε t N (0, σ 2 ) sont iid) et σ 2, (iv) Phase de vérification : ϕ p 0? ϕ p 0? ε t BB(0, σ 2 )? Les deux premières étapes constituent la phase d identification du processus et pour vérifier la non nullité des coefficients lors de la phase de vérification il faudra définir les tests auxquels on aura recours En ce qui concerne le choix de d on peut procéder de façon empirique (en observant les auto-corrélogrammes) ou en effectuant des tests de racine unité : { H0 : d = H : d = 0 DF (ADF), PP, SP H 0 : d = 0 H : d = KPSS 3 Première phase de l identification : choix de d 3 Approche empirique : l auto-corrélogramme On a vu que : si X t ARMA(p, q), les ρ(h) décroissent exponentiellement vers 0 avec h (pour h > q), 39

40CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA si (X t ) est stationnaire ˆρ T (h) P ρ(h), sous des hypothèses suffisantes (E ( ε 4 ) t = cte) : ( ) ˆρT () ρ() L T N (0, ), ˆρ T (h) ρ(h) h Remarque 3 Si (X t ) admet une racine unité, la proposition ρ(h) décroît exponentiellement vers 0 avec h n est plus vraie : c est la persistance des chocs Exemple 3 On considère un processus (X t ) tel que X t X t = ε t où ε t BB(0, σ 2 ) et Cov(ε t, X 0 ) = 0 si t 0 t X t = X 0 + k= ε k t+h X t+h = X 0 + k= ρ(h) = Cov(X t, X t+h ) V(Xt )V(X t+h ) ( Cov X 0 + t k= ε k, X 0 + ) t+h j= ε j = (VX0 + tσ 2 ) /2 (VX 0 + (t + h)σ 2 ) ε k = VX 0 + tσ 2 (VX0 + tσ 2 )(VX 0 + (t + h)σ 2 ) Pour t grand et h t, tσ 2 ρ(h)# σ 2 t(t + h) = # h + h 2t t La décroissance est lente et linéaire en h D où une règle pratique : si les ˆρ T (h) restent proches de ou décroissent linéairement avec h alors le processus est sans doute non stationnaire Remarque 32 () Si l auto-corrélogramme fait penser que (X t ) est non stationnaire, alors on étudie l auto-corrélogramme de Y t = ( L)X t (2) On étudie l auto-corrélogramme inverse pour étudier une sur-différentiation éventuelle (3) Rappel : si φ(l)x t = θ(l)ε t et θ(l)z t = φ(l)η t, alors Si (X t ) est stationnaire, alors φ() 0 ρ i X(h) = ρ Z (h) φ(l)( L)X t = θ(l)( L)ε t ρ i X(h) = ρ W (h) avec (W t ) d équation θ(l)( L)W t = φ(l)η t Si on a sur-différentiation les ρ i X (h)ne décroissent pas vers 0 exponentiellement avec h

3 PREMIÈRE PHASE DE L IDENTIFICATION : CHOIX DE D 4 32 Approche par les tests de racine unité On présente ci-dessous les principaux tests de racine unité dans la littérature Dans les trois premiers paragraphes (tests de Dickey-Fuller, Phillips-Perron, Schmidt-Phillips) ; l hypothèse nulle est l hypothèse de non-stationnarité dans la série étudiée ; dans le dernier paragraphe, (tests KPPS), l hypothèse nulle est celle de stationnarité La présentation qui est donnée ici des tests de Dickey-Fuller et de Phillips-Perron s inspire largement de celle de JD Hamilton, Time Series Analysis, Princeton University Press, 994 Il faut d emblée signaler que les tests présentés ici sont peu puissants Par ailleurs, les tests de Dickey-Fuller sont présentés en détail à cause de la place qu ils tiennent dans la littérature, mais leur mise en œuvre pratique s avère souvent problématique : nécessité de procéder à des tests emboîtés d une part, cadre mal adapté aux séries présentant une tendance d autre part Dans ce dernier cas notamment, on leur préfère le test de Schmidt-Phillips Les tests de Dickey-Fuller Dans tous les modèles présentés ci-dessous, (η t ) désigne un bruit blanc et ρ un réel tel que ρ Le cadre général des tests DF et ADF Ces tests peuvent être regroupés en quatre cas : Pour les tests DF y t = ρy t + η, avec H 0 : ρ =, marche aléatoire sans dérive ; 2 y t = α + ρy t + η, avec H 0 : α = 0, ρ =, marche aléatoire sans dérive ; 3 y t = α + ρy t + η, avec H 0 : α 0, ρ =, marche aléatoire avec dérive ; 4 y t = α + βt + ρy t + η, avec H 0 : α = 0, β = 0, ρ =, marche aléatoire sans dérive, ou H 0 : β = 0, ρ =, marche aléatoire avec dérive Pour les tests ADF Soit Φ(L) polynôme de degré p 2, dont les racines sont supposées de module supérieur à, et ayant au plus une racine égale à : p Φ(L) = ( λ i L) i= avec éventuellement! i 0 / λ i0 = et i i 0, λ i < D où la réécriture des cas : Φ(L)y t = η, H 0 : Φ() = 0 ; 2 Φ(L)y t = α + η, H 0 : Φ() = 0, α = 0 ; 3 Φ(L)y t = α + η, H 0 : Φ() = 0, α 0 ; 4 Φ(L)y t = α + βt + η, H 0 : Φ() = 0, α = 0, β = 0, ou H 0 : Φ() = 0, β = 0 L écriture des quatre modèles ci-dessus peut être transformée en utilisant la démarche suivante : On décompose Φ(L) = φ L φ p L p sous la forme p Φ(L) = Φ() + ( L)Φ (L) = Φ() ( L) α i L i i=0

42CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA avec α 0 = (φ + + φ p ) = Φ() et i p, α i = α i + φ i = (φi + + φ p ) On obtient : p Φ(L)y t = Φ()y t α 0 y t α i y t i i= p = Φ()y t (Φ() )(y t y t ) α i y t i = y t + (Φ() )y t p α i y t i i= i= En posant ρ = Φ(), on obtient : y t = ρy t + p i= α i y t i = η, H 0 : ρ = 2 y t = α + ρy t + p i= α i y t i = η, H 0 : α = 0, ρ = 3 y t = α + ρy t + p i= α i y t i = η, H 0 : α 0, ρ = 4 y t = α + +βtρy t + p i= α i y t i = η, H 0 : α = β = 0, ρ = ou H 0 : β = 0, ρ = De plus, comme Φ() = ( λ i ) ( λ i )( λ i ) > 0 λ i R λ i C R on a, comme précédemment, ρ Les tests DF apparaissent comme des cas particuliers des tests ADF, dans lesquels p = et p i= α i y t i = 0 Tous ces modèles sont estimés par les MCO Pour simplifier, on les écrit souvent sous la forme : Cas : p y t = φy t + α i y t i + η, φ = ρ Cas 2 et 3 : Cas 4 : i= p y t = α + φy t + α i y t i + η i= p y t = α + βt + φy t + α i y t i + η Les statistiques de tests et leurs lois Les résultats sont les suivants : les α i et les t bαi ont des lois limites standard, même sous l hypothèse de non-stationnarité, ce qui permet de fixer p par des tests de Fisher, et donc de partir avec p grand ; les coefficients qui caractérisent la nature stochastique de la série, α, β, φ = ρ, ont les mêmes lois dans le cadre DF et ADF Ces lois sont non standard, mais elles sont tabulées Il faut noter que les lois asymptotiques sont valables quelle que soit la loi des η, alors que les lois à distance finie sont valables seulement si les η sont gaussiens H 0 : ρ = H 0 : φ = 0 On dispose des lois sous H 0 de : i=

3 PREMIÈRE PHASE DE L IDENTIFICATION : CHOIX DE D 43 T bφt = T bρ table B5 cas ; t bφt = t bρ table B6 cas NB : il s agit d un test unilatéral puisque ρ On rejette H 0 au seuil a si T bφt t bφt < c a 2 2 H 0 : α = 0, ρ = H 0 : α = 0, φ = 0 On dispose des lois sous H 0 de : T bφt = T bρ table B5 cas 2 ; t bφt = t bρ table B6 cas 2 ; Φ, statistique de Fisher pour l hypothèse : table iv ; t bα, statistique de Student associée à α : table i 3 H 0 : α 0, ρ = H 0 : α 0, φ = 0 La loi limite sous H 0 de t bφt = t bρ est N (0, ) < c a ou 4 H 0 : α = 0, β = 0, ρ = H 0 : α = 0, β = 0, φ = 0 ou H 0 : β = 0, ρ = H 0 : β = 0, φ = 0 lois sous H 0 T bφt = T bρ table B5 cas 4 ; t cφt = t bρ table B6 cas 4 ; Φ, statistique de Fisher pour l hypothèse : table v ; t bα : table ii ; t bβ : table iii lois sous H 0 T bφt = T bρ table B5 cas 4 ; t bφt = t bρ table B6 cas 4 ; Φ, statistique de Fisher pour l hypothèse : table vi Mise en œuvre pratique des tests On choisit d abord entre les cadres donnés par le cas 2 ou le cas 4 suivant que le graphique présente une tendance (cas 4) ou non (cas 2) On se place dans le cadre ADF en choisissant p suffisamment grand pour avoir ε t BB Puisque la loi des α i est standard dans tous les cas, on commence par réduire (éventuellement) p en menant des tests de nullité des derniers retards (Fisher ou Student) Cas 2 La difficulté de la construction d une procédure rigoureuse de tests emboîtés provient du fait que la loi de t bρt = t bφt dépend de la vraie valeur de α, qui est elle-même inconnue Cependant, on peut remarquer que, pour un seuil de test donné, la valeur critique c a 2 associée à t bφt dans le cas où α = 0 est inférieure à la valeur critique c a 3 qui lui est associée quand α 0 (Cas 3) Par exemple, pour T = + et a = 0, 05, cas valeurs critiques sont c a 2 = 2, 86 et c a 3 =, 645 (quantile à 5% de N (0, ) On peut donc proposer la démarche suivante : Si t bφt < c a 2, on rejette l hypothèse ρ = au seuil a, quelle que soit la vraie valeur de α ; Si t bφt < c a 3, on accepte l hypothèse ρ = au seuil a, quelle que soit la vraie valeur de α (plus exactement, on ne rejette pas cette hypothèse) On peut ensuite mener un test de l hypothèse jointe H 0 : α = 0, ρ = en utilisant la statistique Φ et la valeur critique k2 a associée (table iv : si Φ < k2 a, on accepte H 0 au seuil a ; si Φ < k2 a, on refuse H 0, donc on considère que le vrai modèle est celui du cas 3 Par exemple, pour T = + et a = 0, 05, k2 a = 4, 59 Si c a 2 < t φt b < c a 3, on ne peut rien conclure au vu de la statistique t φt b On mène donc le test de l hypothèse jointe H 0 : α = 0, ρ =

44CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA si Φ < k a 2, on accepte H 0 au seuil a ; si Φ < k a 2, on refuse H 0 au seuil a ; on se trouve vraisemblablement dans le cas où α 0 et ρ < ; ceci peut être contrôlé en examinant la statistique de Student associée à α Cas 4 Le problème est ici que les lois limites ne sont connues que lorsque β = 0, alors que la vraie valeur de β est inconnue Ceci provient du fait que le modèle est mal adapté au cas de séries présentant une tendance déterministe linéaire, comme on le verra ci-dessous On choisira donc plutôt, dans ce cas, de recourir au test de Schmidt-Phillips Dans le cadre des tests de Dickey-Fuller, la seule procédure de tests emboîtés qui puisse être proposée est la suivante : si Φ 3 < k3 a (table vi), on accepte l hypothèse H 0 : (β = 0, ρ = ) au seuil a, quelle que soit la vraie valeur de α Par exemple, pour T = +, a = 0, 05, k3 a = 6, 25 On teste ensuite l hypothèse H 0 : (α = 0, β = 0, ρ = ) à l aide de la statistique Φ 2 : si Φ 2 < k4 a (table v), on accepte H 0 ; si Φ 2 > k4 a, on refuse H 0 si Φ 3 > k3 a, on refuse H 0, et donc aussi H 0 Les tests de Phillips-Perron L idée sous-jacente aux tests ADF est qu en remplaçant les modèles du cadre DF : d t = 0 cas y t = d t + φy t + η, d t = α cas 2 et 3 d t = α + βt cas 4 par des modèles du type : p y t = d t + φy t + α i y t i + η On peut toujours choisir p assez grand pour conserver l hypothèse de bruit blanc sur η Ceci entraîne que les lois limites des estimateurs des paramètres caractérisant la nature stochastique de la série sont identiques à celles du cadre DF Phillips et Perron ont proposé une autre façon de traiter l auto-corrélation éventuelle du processus ( y t ) Les modèles considérés ont la même forme que ceux du cadre DF : i= y t = d t + φy t + u t mais on admet la possibilité que les u t soient auto-corrélés Les auteurs montrent que, sous réserve d introduire un terme correctif adapté, les lois des statistiques T bφt = T bρt et t bφt = t bρt sont asymptotiquement identiques à celles qui sont observées dans le cadre DF Ces termes correctifs sont fondés sur des estimateurs convergents de σ 2 u = γ u (0) et de ω 2 = 2πf u (0), c est-à-dire : ω 2 = ( γ u (k) = lim V T k Z T T t= u t ) Ces estimateurs sont calculés comme suit : on estime le modèle par les mco et on calcule les résidus estimés û t ;

3 PREMIÈRE PHASE DE L IDENTIFICATION : CHOIX DE D 45 on pose : et k 0, γ u (k) = T ω 2 T K = γ u(0) + 2 K k= T t=k+ û t û t k ( k ) γ u (k) K + avec K suffisamment grand (estimateur de Newey-West) En général, on choisit K de l ordre de T Pour les différentes valeurs possibles de d t (d t = 0, d t = α, d t = α + βt), on obtient des lois identiques à celles du cadre DF en remplaçant : T bφt = T bρt par : T bφt 2 T 2 σ2 bφt σ 2 u ( ω 2 T K γ 0 ) t bφt = t bρt par : γ 0 ω 2 T K t bφt 2 T σ2 bφt σ 2 u ( ω 2 T K γ 0) ω T K Le test de Schmidt-Phillips Le problème posé par le cas 4 des tests DF et ADF est que les paramètres n ont pas la même interprétation sous l hypothèse nulle et sous l hypothèse alternative Considérons en effet le modèle : y t = α + βt + ρy t + η et l hypothèse : H 0 : β = 0, ρ = Sous l hypothèse alternative, on a : Sous l hypothèse H 0, on a : ( ρl)y t = α + βt + η y t = ( ρl) (α + βt + η) y t = α ρ + β (t ρ(t )) + ρk ε t k y t = a + bt + u t avec b = β( ρ), a = βρ + α ρ u t = ρk ε t k I(0) y t = y 0 + αt + Donc, sous H a, y t est stationnaire autour d une tendance déterministe de pente b = β( ρ), et sous H 0, y t est non stationnaire autour d une tendance déterministe de pente α La formulation du modèle n est donc pas satisfaisante Schmidt et Phillips ont proposé un modèle et un test beaucoup mieux adapté au cas des séries présentant une tendance Dans ce modèle, on suppose que y t = α + βt + u t, avec (u t ) non stationnaire sous H 0 et (u t ) stationnaire sous H Méthode de test pour le modèle de base Dans le modèle de base, on suppose que : t ε t k y t = α + βt + u t u t = ρu t + η avec ρ, η BB(0, σ 2 )

46CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA On pose : H 0 : ρ = On calcule : Comme le modèle s écrit aussi : β = y T y T, α = y β, û t = y t α βt y t = b + u t u t = b + (ρ )u t + η = b + φu t + η on estime par les mco le modèle : y t = µ+φû t +η t et on teste : H 0 : φ = 0 contre H : φ < 0 Soit φ T l estimateur des mco de φ, et t bφt la statistique de Student associée, on refuse H 0 au seuil a si T bφt = T bρt < c a ou si t bφt < c a avec ca et c a obtenus dans la table A (par exemple, pour T = 00, a = 0, 05 : c a = 3, 04) Cas général On suppose toujours : { yt = α + βt + u t u t = ρu t + η mais on ne fait plus l hypothèse que (η) est un BB On effectue le même type de correction que dans le test de Phillips-Perron pour prendre en compte l auto-corrélation éventuelle des η La procédure de test proposée par les auteurs est cependant un peu différente de la précédente Tenant compte du fait que : Ils estiment directement le modèle : ( ρl)y t = ( ρl)(α + βt) + ( ρl)u t = a + bt + η y t = a + bt + φy t + η par les MCO, et calcule σ 2 ε et ω 2 KT pour les résidus ε t comme cela a été fait pour û t au paragraphe 2, et λ 2 σ = c ε 2 bω KT 2 On reprend ensuite la démarche exposée au 32 pour calculer φ T = ρ T et t bφt Les auteurs montrent que les lois limites de T φt b λ 2 T bφt et t bφt au 32 et t b φt λ 2 Le test KPSS (Kwiotowski, Phillips, Schmidt, Shin) sont identiques respectivement aux lois obtenues pour Comme on l a dit en introduction, l hypothèse nulle de ce test est celle de la stationnarité (autour d une constante ou d une tendance déterministe linéaire), contrairement à tous les cas précédents Deux cas sont donc étudiés : y t = r t + η où η I(0), r t = r t + u t, u t BB(0, σ 2 u) 2 y t = βt + r t + η avec η I(0), r t = r t + u t, u t BB(0, σ 2 u) La statistique de test utilisée correspond à la statistique du test du score lorsque les η sont iid de loi N (0, σ 2 u) Cependant, elle est corrigée de façon à tenir compte de l auto-corrélation des η dans le cas général La procédure employée est alors la suivante :

32 DEUXIÈME PHASE DE L IDENTIFICATION : CHOIX DE P ET Q 47 on régresse y t sur une constante (cas ) ou sur une constante et un trend (cas 2) et on calcule les résidus û t de la régression (û t = y t ȳ dans le cas, û t = y t α βt dans le cas 2) ; on calcule : t Ŝ t = et ω 2 T K = T t= k= k= û k T K ( û 2 t + 2 k ) K + T T t=k+ û t û t k avec K de l ordre de T la statistique de test est : η = T 2 T t= Ŝ2 t ω 2 T K La loi limite de η est tabulée dans le cas (η µ dans la table) et dans le cas 2 (η τ dans la table) On refuse H 0 : σ 2 u = 0 au seuil α lorsque la valeur obtenue de η est supérieure à la valeur critique correspondante 32 Deuxième phase de l identification : choix de p et q On suppose que l on a déjà déterminé d et on travaille éventuellement sur Y t = ( L) d X t On assimile alors (Y t ) à un processus ARMA(p, q) On se propose donc de déterminer les valeurs de p et q 32 Résultats préliminaires Soit Y t I(d) et X t = ( L) d Y t On a vu que si X t AR(p) alors { r(h) = 0 si h > p et r(p) 0 ρ i (h) = 0 si h > p et ρ i (p) 0 Et si X t MA(q), alors ρ(h) = 0 si h > q et ρ(q) 0 Enfin on sait que si Y t I(0), alors ˆr T (h) P r(h) ˆρ i T (h) P ρ i (h) ˆρ T (h) P De plus si (ε t ) est stationnaire à l ordre 4 (E ( ε 4 t ) = µ < + ) alors tous ces estimateurs sont asymptotiquement normaux ρ(h)

48CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA Remarque 32 (Calcul de ˆρ i T pour Y t ARMA(p, q)) Si φ(l)y t = θ(l)ε t, on a vu que pour η t BB bien choisi, le processus (Z t ) respectant l équation θ(l)z t = φ(l)η t vérifie ρ Z (h) = ρ i Y (h) On a et On prendra où K est suffisamment grand Z t = θ(l) φ(l)η t = A(L)η t = ρ Z (h) = + j=0 a ja j+h + j=0 a2 j ˆρ i Y (h) = ˆρ Z (h) = + j=0 = ρ iy (h) K j=0 âjâ j+h K j=0 â2 j a j η t j Par ailleurs : θ(l) φ(l)y t = ε t A(L)Y t = ε t Y t = + j= a jy t j + ε t Il est possible d obtenir â,, â K en régressant Y t sur Y t,, Y t K 322 Choix de p pour un AR(p) On montre que T (ˆrT (h) r(h)) loi N (0, ) T (ˆρ i T (h) ρ i (h)) loi N (0, ) On teste H 0 : r(h) = 0 contre H 0 : r(h) 0 On refuse H 0 si [ T ˆr T (h) >, 96 au seuil de 5% L intervalle de confiance à 95% pour r(h) : ˆr T (h),96 T, ˆr T (h) +,96 T ] Si ˆr T (h) est non significativement différent de zéro pour h > p et ˆr T (p) 0, alors p est l ordre de l AR Sur l auto-corrélogramme c est le rang du dernier pic significatif 323 Choix de q pour un MA(q) Si X t MA(q), on montre que T ˆρ T (h) ρ(h) q ρ2 (k) loi N (0, ) Si h > q, T ˆρ T (h) q ρ2 (k) loi N (0, ) Comme ˆρ T (k) ρ(k), on a T ˆρ T (h) q ˆρ2 (k) loi Student

33 ESTIMATION 49 324 Choix de (p, q) pour un ARMA(p, q) Rappel : AR(p) = ARMA(p, 0) et MA(q) = ARMA(0, q) Si X t ARMA(p, q) tel que φ(l)x t = θ(l)ε t alors (X t ) admet une représentation AR( ) donnée par : θ(l) φ(l)x t = + a k X t k = ε t où a 0 = et + a k < + Cette représentation peut être approximée par un AR(P ) pour P assez grand : P a k X t k # ε t De la même façon X t admet une représentation MA( ) donnée par : X t = φ(l) θ(l)ε t = + b k ε t k qui peut aussi être approximée par un MA(Q) pour Q assez grand : Q b k ε t k # X t Exemple 32 Si ˆr T (h) et ˆρ i T (h) sont significativement non nuls pour h 3 seulement et si ˆρ T (h) est significativement non nul pour h 4 seulement, on est amené à estimer un AR(3) et un MA(4) ce qui pousse à choisir un ARMA(p, q) avec p 3 et q 4 33 Estimation A l issue des phases précédentes, on a choisi d et divers couples (p, q) compatibles avec les données Le modèle s écrit : ( L) d φ(l)x t = µ + θ(l)ε t On suppose que ε t iid N (0, σ 2 ε) Les paramètres à estimer sont ω = (ϕ,, ϕ p, θ,, θ q ) et σ 2 ε On calcule l estimateur du maximum de vraisemblance : ln ( x (p+d),, x, x, x 0,, x T ) ln ( x,, x T x (p+d),, x ) ln ( x (p+d),, x ) On a recours à des procédures numériques de maximisation de la vraisemblance : µ la valeur initiale φ() est estimée par la moyenne empirique de ( L)d X t les équations de Yule-Walker donnent un estimateur initial pour (ϕ,, ϕ p ) : ρ(q + ) ˆρ(q) ˆρ(p + q ) ϕ = ρ(q + p) ˆρ(p + q ) ˆρ(q) ϕ p on obtient de la même façon (θ,, θ q ) à partir des ˆρ i T (h)

50CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA Propriété de l EMV Soit ω = (θ, σε) 2 On a alors ( ( T (ˆωT ω) loi Ω 0 N 0, 0 α On en déduit des intervalles de confiance asymptotiques pour les paramètres On effectue des tests du type : H 0 : φ p = 0 contre H : φ p 0 H 0 : θ p = 0 contre H : θ p 0 H 0 : µ = 0 contre H : µ 0 33 Cas d un AR(p) On se place dans le cadre suivant : y p+ y T y t = ( L) d (x t m) )) φ(l)y t = ε t y t = ϕ y t + + ϕ p y t p + ε t ε t N (0, σ 2 ) iid suit, conditionnellement à l(y p+,, y T y,, y p ) = T t=p+ ln l(y p+,, y T y,, y p ) = T 2 ln 2π T 2 ln σ2 2σ 2 y y p, une loi normale dont la densité s écrit : ( exp y ) t (ϕ y t + + ϕ p y t p ) 2πσ 2 2σ 2 T [y t (ϕ y t + + ϕ p y t p )] t=p+ La maximisation de la vraisemblance conditionnelle donne ˆϕ,, ˆϕ p qui peuvent être calculés en régressant (MCO) y t sur y t,, y t p CLS (méthode approximative) On a l(y,, y T ) = l(y p+,, y T y,, y p ) l(y,, y p ) où y y p N 0, γ(0) γ(p ) γ(p ) γ(0) } {{ } V p V p étant calculable en fonction de ϕ,, ϕ p, il en découle : l(y,, y p ) = } {{ } p e 2 z V pz 2π det Vp z

34 VÉRIFICATIONS A POSTERIORI 5 max ln l(y,, y p ) = max p σ 2,ϕ,,ϕ p σ 2,ϕ,,ϕ p 2 ln 2π 2 ln det V p 2 z V p z Pour plus de détails sur le cas AR(p) on pourra consulter [3] 332 Cas d un M A(q) On considère : ( L) d Y t = θ(l)ε t Y t = X t m t où EX t = m t ε t N (0, σ 2 ) iid θ(l)ε t = ε t θ ε t θ q ε t q La vraisemblance du modèle est l(y,, y T ε 0, ε,, ε q+ ), fonction dont le maximum doit être calculé de façon numérique Soit on suppose ε 0 = ε = = ε q+ = 0 méthode numérique 2 è approximation CLS Soit on ne fait pas cette hypothèse méthode numérique approximation ULLS Pour plus de précisions cf [2] 333 Cas d un ARM A(p, q) Diverses approximations sont possibles : MLE, CLS, ULLS (cf [2]) 34 Vérifications a posteriori 34 Tests sur les paramètres Exemple 34 On désire tester H 0 : ϕ p = 0 contre l hypothèse alternative H : ϕ p 0, on a : ( )) T ( ˆϕT,p ϕ p ) loi N (0, V as T ˆϕT,p D où T ˆϕ T,p ϕ p V as ( T ˆϕT,p ) loi N (0, ) ϕ p est significatif au seuil de 5% (asymptotiquement) si ˆϕ T,p (V as ( ˆϕ T,p ) /2 ) >, 96 } {{ } t ˆϕT,p Exemple 342 Le même test s applique avec θ q à la place de ϕ p, on refuse alors H 0 (ie θ q est significatif) si t ˆϕT,p >, 96

52CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA Remarque 34 (Econométrie asymptotique) ˆβ = β + (X X) T X ε T ˆb b ˆσˆb T loi N X T ε et X X T Q ( X ) X 0, lim T } {{ } Q y t = a + bx t + ε t H 0 Student(N 2) Si ˆϕ p n est pas significatif (ou θ q ) on relance l estimation en remplaçant p par p (ou q par q ) Si ˆµ n est pas significatif, on relance l estimation sans terme constant 342 Tests sur les résidus On se place toujours dans les mêmes conditions : φ(l)y t = µ + θ(l)ε t Y t ϕ Y t ϕ p Y t p = µ + ε t θ ε t θ q ε t q ˆε t = Y t ˆϕ Y t ˆϕ p Y t p ˆµ + ˆθ ε t + + ˆθ q ε t q Les résidus estimés (à savoir ˆε t ) sont-ils compatibles avec l hypothèse de bruit blanc de ε t? Pour celà on effectue le test du porte-manteau : ˆρ k (ˆε) = T T t=k+ ˆε tˆε t k L auto-corrélation empirique d ordre k de ˆε t, est alors : Q K = T K ˆρ 2 ε(k) Pour K assez grand (K 2), on montre que si ε t BB(0, σ 2 ) alors k= Q K L χ 2 (K p q) On refuse H 0 : ε t BB au seuil α si Q K > χ 2 α (K p q) Remarque 342 Q K peut être éventuellement remplacé par : Q K = T (T + 2) K k= T k ˆρ2 ε(k)

35 CHOIX DU MODÈLE 53 35 Choix du modèle A l issue des phases d estimation et de vérification il reste en général plusieurs modèles possibles pour représenter les données Pour choisir un modèle on peut se fier à plusieurs critères : ˆσ 2 petit, critère de parcimonie : p + q minimal, critère de qualité de la prévision (cf plus loin), critère d information On suppose ε t BB(0, σ 2 ) iid On considère f 0 (x) = f(x, ω 0, σ0 2 ) la vraie loi (inconnue) du processus et f(x) = f(x, ω, σ 2 ) la famille de loi correspondant au modèle ARMA(p, q) estimé L écart entre ces lois est mesuré par : [ (f, f 0 ) = E 0 2 ln f(x) ] f 0 (x) Cette quantité est positive (d après Jensen) et est nulle si et seulement si f(x) = f 0 (x) ps En pratique on cherche à minimiser l écart entre f 0 et f Il existe différentes façons d approximer ce critère d information : AIC(p, q) = T ln ˆσ 2 + 2(p + q), critère d information d Akaïke SBC(p, q) = T ln ˆσ 2 + (p + q) ln T HQ(p, q) = T ln ˆσ 2 + (p + q)c ln(ln T ) avec c > 2, critère d information Hannan-Quinn On cherche donc à minimiser la quantité d informations

54CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA

Chapitre 4 Prévision dans les ARMA et les ARIMA Introduction On suppose (p, d, q) connus On dispose d observations x,, x T et on veut faire une prévision à l horizon H, c est-à-dire prévoir x T +,, x T +H On remplacera (ϕ,, ϕ p, θ,, θ q, µ, σ 2 ) par leurs estimateurs 4 Prévisions dans un AR(p) On suppose que l on a le modèle : φ(l)x t = µ + ε t où φ(l) = ϕ L + ϕ 2 + + ϕ p L p Soit x t+ = µ + ϕ x t + + ϕ p x t p+ + ε t+ Définition 4 (Prévision optimale) On trouve ensuite : tx t+j = EL(X t+j X t ) tx t+ = EL(x t+ x t ) = µ + ϕ x t + + ϕ p x t+ p + EL(ε t+ x t ) tx t+2 = EL(x t+2 x t ) = µ + ϕ t X t+ + ϕ 2 x t + ϕ p x t+ p + EL(ε t+ x t ) tx t+h = µel(x t+h x t ) = p ϕ j t x t+h j j= avec t x t+h j = x t+h j si t + h j t et h j D où l écriture h txt+h = µ + p ϕ j t x t+h j + ϕ j t x t+h j j= j=h 55

56 CHAPITRE 4 PRÉVISION DANS LES ARMA ET LES ARIMA On utilise ensuite l équation de récurrence : φ(l) t Xt+h = µ φ(l) ( txt+h } {{ m) = 0 } tyt+h où m = µ φ() = EX t tyt+h est la solution de l équation de récurrence de polynôme caractéristique Zp φ( Z ) On en déduit que t Yt+h est de la forme : ty t+h = r i= m i j= α ij λ j i hj avec les λ i racines distinctes de φ(z) avec la multiplicité m i α ij est obtenu à partir des p conditions initiales (observations ou prévisions) Exemple 4 On considère un AR tel que φ(l) = ( ϕl) 2 où ϕ < On a donc le processus : φ(l)x t = µ + ε t On veut prévoir t X t+h On commence par centrer : φ(l)y t = ε t φ(l) ( t Xt+h } {{ m) = 0 } tyt+h tyt+h s écrit : tyt+h = ϕh (ah + b) Si h = 0, t Yt = Y t = b Si h =, t Yt+ = 2ϕY t ϕ 2 Y t = ϕ(a + b) Par identification a = Y t ϕy t et b = Y t On en déduit tyt+h = ϕh ((Y t ϕy t )h + Y t ) 42 Prévision dans un M A(q) On considère le processus On a la prévision optimale : X t = m + θ(l)ε t q = m + ε t θ j ε t j j= X t+h = m + ε t+h q θ j ε t+h j j= txt+h = EL(X t+h X t ) = EL(X t+h ε t )

42 PRÉVISION DANS UN MA(Q) 57 Si h > q, t X t+h = m Si h q, h X t+h = m + ε t+h θ j ε t+h j EL(X t+h X t ) = m + 0 0 j= q θ j ε t+h j j=h q txt+h = = m θ j ε t+h j j=h q θ j ε t+h j j=h Cette forme est exacte mais n est pas utilisable en pratique car les ε t k ne sont pas observés pour k 0 Mais on peut les calculer à partir des observations en utilisant la forme AR( ) : θ(l) (X t m) = ε t θ(l) X t = µ + ε t où µ = m θ() Or θ(l) = a kl k où a 0 = et a k < + On a donc Pour les prévisions optimales : X t = µ X t+h = µ tx t+ = µ a k X t k + ε t k= a k X t+h k + ε t+h k= a k X t+ k k= txt+h = h µ a k Xt+h k a k Xt+h k k= En pratique, on n observe pas les X t pour t < 0 On n a qu une prévision approchée en tronquant : t ˆX h t+h t+h = µ a k ˆX t+h k a k Xt+h k En fait on néglige le terme ( ) a k X t+h k a k X i 2 k=t+h+ 2 k=t+h+ } {{ } k= k=h k=h h 0

58 CHAPITRE 4 PRÉVISION DANS LES ARMA ET LES ARIMA 43 Cas d un ARMA(p, q) On considère le modèle : φ(l)x t = µ + θ(l)ε t φ(l)(x t m) = θ(l)ε t En posant Y t = X t m, on se ramène à µ = 0 43 Forme AR( ) On a en multipliant par θ(l) : Y t = ϕ Y t + + ϕ p Y p + ε t θ ε t θ q ε t q θ(l) φ(l) Y } {{ } t = ε t A(L) Y t = a k Y t k + ε t k= h tyt+h = a k Y t+h k a k Y t+h k k= h tŷt+h = a k Ŷ t+h k k= k=h t+h a k Y t+h k k=h 432 Utilisation d une équation de récurrence On connaît l équation de récurrence : Y t+h = p ϕ j Y t+h j + ε t+h j= Si t + h q > t, ie h > q, alors D où EL ε t+h ty t+h = q θ k ε t+h j k= p θ j ε t+h j Y t = 0 j= p j= ϕ j t Y t+h j où t Yt+h j = Y t+h j si t + h j t ie j h Pour h > q, les t Yt+h vérifient l équation de récurrence de polynôme caractéristique Zp φ ( ) Z on en déduit que ty t+h = r i= m i j=0 α ij λ j i hj où on déduit les α ij des conditions initiales t Y t+q,, t Y t+q p observés ou prévus

44 CAS D UN ARIMA(P, D, Q) 59 44 Cas d un ARIMA(p, d, q) On considère le modèle : ( L) d φ(l) X } {{ } t = µ + θ(l)ε t ψ(l) On a les conditions initiales Z = (X,, X p d, ε,, ε q ) On se ramène au cas µ = 0 en posant EX t = m t m t est une solution déterministe de l équation de récurrence ψ(l)m t = µ On pose alors Y t = X t m et on a l équation En t + h ψ(l)y t = θ(l)ε t ψ(l)y t+h = θ(l)ε t+h tyt+h = EL(Y t+h Y t,, Y, Y 0, Z) Utilisation de l approximation auto-régressive t Y t = a j Y t j + H (t)z + ε t j= avec H(t) R p+d+q et lim t H(t) = 0 Y t+h = ty t+h = tŷt+h = t+h a j Y t+h j + H (t + h)z + ε t+h j= t+h a j t Yt+h j + H (t + h)z avec t Yt+h j = Y t+h j si j h j= t+h a j t Ŷ t+h j j= Utilisation d une équation de récurrence ψ(l)y t = θ(l)ε t ψ(l)y t+h = θ(l)ε t+h ψ(l) t Yt+h = 0 si t + h q > t ie h > q Les t Yt+h pour h > q sont solutions de l équation de récurrence de polynôme caractéristique Zp + dψ ( ) Z D où ty t+h = = r i= m i j=0 α ij λ j i hj d α j h j λ j i hj + j= r i=2 m i j=0 α ij λ j i hj Remarque 44 On a la même équation de récurrence pour les t Ŷ t+h, h > q

60 CHAPITRE 4 PRÉVISION DANS LES ARMA ET LES ARIMA 45 Intervalles de précision Dans les cas AR, MA, ARMA on sait qu il existe une représentation MA( ) : X t = m + B(L)ε t = m + b k ε t k où b k < On alors en t + h X t+h = m + ε t+h + b k ε t+h k k= Xt+h = EL(X t+h X t ) = EL(X t+h ε t ) = m + ε t+h + b k ε t+h k, si t + h k t L erreur de prévision à l horizon h est : k=h e t (h) = X t+h t Xt+h h = ε t+h + b k ε t+h k Dans les cas ARMA, on a vu une approximation MA, en posant Y t = X t m : Y t = Y t+h = L erreur de prévision est donnée par : k= t b j ε t j + H(t) Z j=0 t b j ε t j + H(t + h) Z j=0 tyt+h = EL(Y t+h Y t,, Y 0, Z) = EL(Y t+h ε t,, ε 0, Z) = t+j b j ε t+h j + H(t + h) Z j=h e t (h) = X t+h t Xt+h = Y t+h t Yt+h h = b j ε t+h j j=0 Si les ε t sont iid N (0, σ 2 ), alors h e t (h) N 0, σ 2 j=0 b 2 j

45 INTERVALLES DE PRÉCISION 6 Soient ˆσ 2 et ˆb j des estimateurs convergents de σ 2 et b j On en déduit que : ˆσ e t (h) h ˆb j=0 2 j N (0, ) On en déduit un intervalle de prévision au niveau α pour X t+h : h t Xt+h u α ˆσ h ˆb2 2 j ; t Xt+h u α ˆσ ˆb2 2 j j=0 j=0

62 CHAPITRE 4 PRÉVISION DANS LES ARMA ET LES ARIMA

Chapitre 5 Processus vectoriels stationnaires - Processus V AR stationnaires Introduction Définition 50 (Processus vectoriel) (X t ) est un processus à valeurs dans R n si avec (x i,t ) processus à valeurs dans R X t = Pour une étude complète, il faudrait étudier : V AR : modèle parlant car on explique à partir des x it passés, V MA : moins parlant car on explique à partir des ε it passés, V ARMA Les modèles V AR ont germé avec l économétrie avec Sims en 980 suite à la critique de Lucas On teste des modèles structurels, l exogénéité 5 Processus vectoriels stationnaires du second ordre 5 Définition et proposition Définition 5 (Processus vectoriel du second ordre) (X t ) est un processus du second ordre si et seulement si On a EX t = Ex t Ex nt x,t x n,t t, X t L 2 R n (Ω, A, P) i, t, x it L 2 (Ω, A, P) X tx t = X t 2 2 = n i= x2 it L (Ω, A, P) = m et VX t = E(X t m)(x t m) = (Cov(x it, x jt )) i,j n 63

64CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Définition 52 (Processus vectoriel stationnaire au second ordre) Soit (X t ) est un processus du second ordre On dit que (X t ) est stationnaire au second ordre si et seulement si : (i) EX t = m (ii) VX t = Σ = Γ X (0) (iii) E(X t m)(x t+h m) = Γ X (h) Remarque 5 () (iii) (ii) (2) (iii) Cov(x it, x j,t h ) = γ ij (h), i, j, h (3) (X t ) stationnaire (x it ) stationnaire i Mais la réciproque est fausse en général car les conditions : EX t = m Ex it = m i, i Cov(x it, x i,t h ) = γ i (h) ne suffisent pas pour avoir la stationnarité de (X t ) Exemple 5 () ε t BB(0, Ω) où ε t = Stationnarité? (i) EX t = 0 (ii) VX t = Ω (iii) Eε t ε τ = 0 si t τ OK (2) X t V MA() Soit ε t BB(0, Ω), A M n (R) fixée Alors X t = ε t Aε t est stationnaire : (i) EX t = 0 (ii) ε,t ε n,t VX t = E(ε t Aε t )(ε t Aε t ) (iii) EX t X t = E(ε t Aε t )(ε t Aε t 2 ) Pour h >, EX t X t h = 0 EX t X t+ = ΩA EX t X t+h = 0, si h > = E[ε t ε t Aε t ε t ε ta + Aε t ε t A ] = Ω + AΩA Proposition 5 X t stationnaire h Z, Γ( h) = Γ(h)

5 PROCESSUS VECTORIELS STATIONNAIRES DU SECOND ORDRE 65 Démonstration Γ( h) = E(X t m)(x t+h m) = EX t X t+h mm = EX t h X (t h)+h mm par stationnarité = EX t h X t mm = E(X t X t h ) (mm ) = [EX t X t h mm ] = Γ(h) Proposition 52 Soit (X t ) t Z un processus stationnaire Soit (A j ) j Z une suite de matrices telle que j Z A j < + Alors (i) Y t = j A jx t j L 2 R n (Ω, A, P) (ii) Y t est stationnaire avec : EY t = m Y = ( j A j )m X Γ Y (h) = j,k A jγ X (h + k j)a k Démonstration Dans le cas général Γ Y (h) = E(Y t Y = E j = j,k t h ) ( ) A j X t j A k X t k E(A j X t j X t h k A k ) k = j,k E(A j Γ X (h + k j)a k ) Cas particulier Si X t = ε t BB, alors Y t = j Z A j ε t j C est un processus V MA( ) 52 Densité spectrale d un processus vectoriel stationnaire Définition 53 (Densité spectrale) Si X t = Z A kε t k où ε t BB et Z A k < + alors (i) Z Γ X(h) < + (ii) S X (ω) = 2π Z Γ X(h)e iωh est la matrice de densité spectrale de (X t )

66CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Démonstration Γ X (h) = EX t X t h car EX t = 0 ( ) = E A j ε t j A k ε t k h = j,k j A k E (ε t j ε t k h ) } {{ } 8 < 0 si j h + k = : Ω sinon k A j = j A j ΩA j On majore ensuite Γ X (h) h Z h k,h A k ΩA k h k A k Ω A k h ( 2 Ω A k ) < + k Donc S X (ω) a un sens Proposition 53 (i) Si ε BB(0, Ω) alors S ε (ω) = 2π Ω (ii) Soit X t = k A kε t k = A(L)ε t tel que k A k < + et Y t = k B kx t k = B(L)X t tel que k B k < + alors Y t = k C kε t k = C(L)ε t et S Y (ω) = B(e iω )S X (ω)b(e iω ) Démonstration (i) C(L) = B(L)A(L) = (BA)(L) (ii) S Y (ω) : cf le cas réel Théorème 5 (Injectivité) On considère le modèle X t = A(L)ε t où ε t BB Alors h Z, Γ X (h) = π π S X (ω)e iωh dω

5 PROCESSUS VECTORIELS STATIONNAIRES DU SECOND ORDRE 67 Démonstration π π S X (ω)e iωh dω = π = k π = Γ X (h) ( ) Γ x (k)e iωk e iωh dω k π e iω(k h) Γ X (k) π } {{ } δ kh (symbole de Kronecker ) 53 Innovation d un processus vectoriel Soit X t = x t x nt Définition 54 (Prévision) X t = EL(X t X t ) = où j EL(x t X t ) EL(x nt X t ) EL(x jt X t ) = EL(x jt x,t,, x n,t ) = EL(x jt {x s,, x ns, s t }) = EL(x jt {x is, i = n, s t }) Proposition 54 Soit X t la prévision linéaire optimale de X t à la date t Si ˆXt est une autre prévision linéaire de X t à la date t, alors au sens des matrices symétriques positives On a égalité si et seulement si ˆXt = X t V(X t X t ) V(X t ˆX t ) Remarque 52 () ˆXt est une prévision linéaire de X t en t, ie ˆXt est une fonction linéaire de x js, s t, j = n V(X t X t ) V(X t ˆX t ) u R n {0}, u V(X t X t )u < u V(X t ˆX t )u En particulier pour u = (0,, 0, }{{}, 0,, 0), on a : ième position V(x it x it) V(x it ˆx it ) x it est la prévision optimale de x it comme fonction linéaire des x js, s t

68CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES (2) u R n {0}, Vu (X t X t ) < Vu (X t ˆX t ) u X t est une prévision de u X t plus précise que u ˆXt (3) Si on note L(X t ) = L(x,t,, x n,t ) = L({x s,, x ns, s t }) On a L(x i,t ) L(X t ) x it = EL(x it x t ) V(x it x it ) > V(x it x it ) C est normal car on a plus d informations dans L(X t ) que dans L(x i,t ) Proposition 55 (Processus des innovations) Soit (X t ) t Z un processus stationnaire et X t = EL(X t x t ) L innovation de X t est ε t = X t X t On a plus précisément ε t = = = ε t ε nt x t EL(x t X t ) x nt EL(x nt X t ) On montre que (ε t ) t Z est un bruit blanc x t EL(x t {x s,, x ns, s t }) x nt EL(x nt {x s,, x ns, s t }) Remarque 53 () ce qui a été présenté est valable dans le cas où EX t = 0 Quand EX t 0, on définit Puis (2) ε t = ε t ε nt X t = où ε it BB, i L(X t ) = L(, x,t,, x n,t ) EL(x t, x,t,, x n,t ) EL(x nt, x,t,, x n,t ) Mais ε it n est pas l innovation du processus univarié (x it ) En effet x it EL(x it, x,t,, x n,t ) x it EL(x it x,t )

5 PROCESSUS VECTORIELS STATIONNAIRES DU SECOND ORDRE 69 Démonstration Eε t = Si j, Ex jt = 0, alors Si EX t 0, alors Eε t Eε nt où Eε it = E(x it EL(x it X t )) E(EL(x it X t )) = E(EL(x it x,t,, x n,t )) E(EL(x it X t )) = E(EL(x it, x,t,, x n,t )) i, x it EL(x it X t ) Ex it E(EL(x it X t )) = 0 Eε it = 0 On peut toujours se ramener à EX t = 0 On a E(ε t ε t) = (E(ε it ε jt )) i,j n avec ε it ε jt = (x it EL(x it X t ))(x jt EL(x jt X t )) } {{ } L(X t ) E(ε it ε jt ) = E[x it (x jt EL(x jt X t ))] = E(x it x jt ) E(x it EL(x jt X t )) Si s < t, alors E(ε t ε s) = (E(ε it ε js )) i,j n où ε it = x it EL(x it X t ) L(X t ) Donc E(ε it ε js ) = 0 si s < t ε js = x js EL(x js X t ) L(X s ) L(X t ) Théorème 52 (Théorème de Wold) Soit (X t ) un processus vectoriel stationnaire et (ε t ) le processus des innovations On a alors (A k ) k Z tel que X t = m t + Z A k ε t k avec A 0 = I et Z A k < + 54 Convergence des moments empiriques Soit X t = x t x nt et EX t = m m n

70CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES On définit les estimateurs : ˆm = T ˆΓ(0) = ˆΓ(h) = T X t = X T = t= T ou T x t x nt T (X t X T )(X t X T ) t= T h ou T h T (X t X T )(X t h X T ) Proposition 56 (i) Convergence : ˆm et ˆΓ(h) sont des estimateurs convergents respectivement de m et Γ(h) (ii) Normalité asymptotique : t= T ( ˆm m) loi N ( 0, h Z Γ X (h) ) On note ˆΓ(h) = (ˆγ ij (h)) i,j n On a la normalité jointe de toute famille finie de ˆγ ij (h), i, j, h Exemple 52 T ˆγ (0) γ (0) ˆγ nn (0) γ nn (0) ˆγ () γ () ˆγ nn () γ nn () n(n+) 2 termes de ˆΓ(0) Γ(0) n2 termes de ˆΓ() Γ() loi N (0, ) 52 Processus V AR stationnaires 52 Définition et proposition générale Définition 52 Soit X t V AR(p), µ R n, (φ j ) j p (M n (R)) p, φ p 0, ε t BB(0, Ω), Ω M n (R) tel que où φ(l) = I n φ L φ p L p Remarque 52 φ k = X t = µ + φ X t + + φ p X t p + ε t φ(l)x t = µ + ε t ( ) ϕ k ij i,j n i, x it = µ i + p n k= j= (ϕ k ijx j,t k ) + ε it

52 PROCESSUS V AR STATIONNAIRES 7 Proposition 52 Si det φ(z) a toutes ses racines de module strictement plus grand que, alors (i) φ(l) est inversible (ii) φ(l) = A kl k tel que A 0 = I et A k < + Démonstration φ(l) = I n φ L φ p L p = (ϕ ij (L)) i,j n avec ϕ ij (L) = δ ij ϕ ij L ϕ p ij Lp On note φ(z) = I φ Z φ p Z p = (ϕ ij (Z)) i,j n, Z C avec ϕ ij (Z) = δ ij ϕ ij Z ϕ p ij Zp On note φ(l) la comatrice de φ(l) On sait que φ(z) φ(z) = φ(z)φ(z) = det φ(z)i n φ(l) φ(l) = φ(l)φ(l) = det φ(l)i n On aura donc φ(l) inversible det φ(l) inversible On sait que si les racines de det φ(z) sont de module strictement plus grand que, alors det φ(l) Dans ce cas, det φ(l) a pour inverse (det φ(l)) = a k L k tel que a 0 = et a k < + On a donc avec φ(l) = ( ϕ ij (L)) i,j n et d o ϕ ij p n φ(l) φ(l) = det φ(l)i n φ(l) φ(l)(det φ(l)) } {{ } = I n φ(l) ( ) φ(l) = a k L k φ(l) = avec A 0 = a 0 φ()in et k A k < + car k a k < + 0 0 A k L k Remarque 522 Si det φ() = 0 alors (X t ) est non stationnaire φ(l)x t = µ + ε t X t = φ(l) (µ + ε t ) X t = φ(l)(det φ(l)) (µ + ε t ) det φ(l) X t = φ(l)(µ + ε t ) ( L)ψ(L)X t = φ(l)(µ + ε t ) 0 Proposition 522 Si φ(l)x t = µ + ε t et si les racines de det φ(z) sont de module strictement supérieur à, alors (i) X t = m + 0 A kε t k avec A 0 = I et A k < + (ii) (ε t ) est le processus des innovations de (X t )

72CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Démonstration (i) Soit le modèle φ(l)x t = µ + ε t avec φ(l) inversible L inverse de φ(l) est donné par φ(l) = det φ(l) φ(l) = A l L k 0 où A 0 = I n et A k < + On a X t = φ(l) (µ + ε t ) = φ(l) µ + φ(l) ε t = m + A k ε t k 0 (ii) φ(l)x t = µ + ε t p X t = µ + φ k X t k + ε t x it = µ i + p n k= j= ϕ k ijx j,t k + ε it D où ε it L(x it,, x,t,, x,t p,, x n,t p ) Puis L(, ε t ) = L(, {ε is, i = n, s t}) L(X t ) n i, x it = µ i + j= a k ijε j,t k L(, {ε is, i = n, s t}) = L(, ε t ) L(, X t ) L(, ε t ) L(, X t ) = L(, ε t )

52 PROCESSUS V AR STATIONNAIRES 73 Montrons que ε t = X t X t Xt = EL(X t, X t ) ( ) p = EL µ + φ k X t k + ε t X t ( EL µ + ( p n ) ) k= j= ϕk j x j,t k ε t X t = ( EL µ n + ( p n ) ) k= j= ϕk nj x j,t k ε nt X t p = µ + φ k X t k + EL(ε t, X t ) } {{ } } {{ } EL(ε t,ε t ) X t ε t } {{ } 0 car ε t BB CQFD Remarque 523 () X t = m + 0 A kε t k = m + φ(l) ε t d après le théorème de Wold avec m = EX t = φ(l) µ (2) Soit le modèle φ(l)x t = µ + ε t a) Si det φ(z) a ses racines de module strictement plus grand que, alors X t = m+φ(l) ε t On en déduit que (X t ) Z est stationnaire (représentation V MA( )) b) Si det φ() = 0, alors (X t ) ne peut pas être stationnaire car det φ(z) = ( Z) d ψ(z) tel que les racines de ψ sont de module strictement plus grand que ( L) d X t = ψ(l) φ(l)(µ + εt ) c) Si det φ(z) a toutes ses racines de module strictement supérieur à, alors il existe une solution (X t ) stationnaire, il existe aussi des solutions non stationnaires en espérance : Z t = X t + Y t où Y t est déterministe tel que φ(l)y t 522 Prévision dans un V AR stationnaire A la date t, on souhaite effectuer une prévision de X t+h et déterminer une région de confiance de la prévision de X t+h On considère le modèle φ(l)x t = µ + ε t avec det φ(z) ayant toutes ses racines de module strictement supérieur à On s intéresse à la solution stationnaire (X t ) Prévision tx t+ = EL(X t+, X t ) tx t+h = EL(X t+h, X t )

74CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Plus précisément on a txt+ = µ + φ X t + + φ p X t++p + EL(ε t+ X t ) } {{ } 0 X t+2 = µ + φ X t+ + + φ p X t+2+p + ε t+2 txt+2 = µ + φ t Xt+ + + φ p X t+2+p + EL(ε t+2 X t ) } {{ } 0 X t+h = µ + tx t+h = µ + p φ k X t+h k + ε t+h p φ k t Xt+h k + 0 avec t X t+h k = X t+h k si k h C est la méthode itérative de calcul de la prévision de X t+h Région de confiance sous hypothèse de normalité Si h =, X t+ t X t+ = ε t+ N (0, Ω) car les ε t sont iid et N (0, Ω) La région de confiance de R n dans laquelle X t+ a une probabilité α de se trouver est { (Xt+ t X t+) Ω (X t+ t X t+) q α ( χ 2 (n) )} C est un ellipsoïde en dimension n Si h = 2, X t+2 t X t+2 = φ (X t+ t X t+ )ε t+2 V(X t+2 t X t+2) = φ Ωφ + Ω D où (X t+2 t X t+2) (φ Ωφ + Ω) (X t+2 t X t+2) χ 2 (n) On peut en déduire comme précédemment une région de confiance au niveau α 53 Estimation d un modèle V AR sous hypothèse de normalité 53 Ecriture empilée du modèle Exemple 53 (Cas n = 2, p = 2) X t = = ( xt x 2t ( µ µ 2 ) ) ( a b + a 2 b 2 ) ( x,t = µ + φ X t + φ 2 X t 2 + ε t x 2,t ) ( c d + c 2 d 2 ) ( x,t 2 x 2,t 2 ) ( εt + ε 2t )

53 ESTIMATION D UN MODÈLE V AR SOUS HYPOTHÈSE DE NORMALITÉ 75 Modèle empilé avec T observations : x 3 x T x 23 x 2T x 2 x 22 x x 2 0 0 = x,t x 2,T x,t 2 x 2,T 2 0 0 0 0 x 2 x 22 x x 2 0 0 x,t x 2,T x,t 2 x 2,T 2 ( x x 2 ) = ( Z 0 0 Z ) ( β β 2 ) ( Z 0 + 0 Z ) ( ε On a donc le modèle (M) (I 2 Z)β + ε où désigne le symbole de Kronecker (M) se décompose en les 2 sous-modèles : (M ) x = Zβ + ε (M 2 ) x 2 = Zβ 2 + ε 2 ε 2 ) µ a b c d µ 2 a 2 b 2 c 2 d 2 + ε 3 ε T ε 23 ε 2T ( ) σ σ On veut calculer Vε, en supposant que ε t N (0, Ω) où Ω = 2 avec σ σ 2 σ 2 = σ 2 22 ε 3 σ 0 σ 2 0 ( ) V ε T ε 23 = 0 σ 0 σ 2 σ I σ 2 0 σ 22 0 = T 2 σ 2 I T 2 = Ω I σ I T 2 σ 2 I T 2 T 2 0 σ 2 0 σ 22 ε 2T Cas général On étudie le modèle : X t = µ + p k= φ kx t k + ε t où ε t BB(0, Ω) x t µ ϕ p k ϕ k n x,t k ε t = + + x nt µ k= n ϕ k n ϕ k nn x n,t k ε nt Pour le modèle empilé avec T observations : 0 0 x,p+ Z 0 0 x,t 0 0 = Z x n,p+ 0 0 0 0 0 0 x n,t 0 0 0 0 0 0 0 0 0 0 0 0 Z µ φ p,n µ n φ p n,n + ε,p+ ε,t ε n,p+ ε n,t

76CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES avec Z = x,p x n,p x, x n, x,t x n,t x,t p x n,t p x x n Ce qui équivaut au modèle (M) (M i ) x i = Zβ i + ε i = (I n Z) β β n + ε ε n x = (I n Z)β + ε qui se décompose en les n sous-modèles Remarque 53 () Si on suppose que les observations démarrent à t = p + (au lieu de t = ), on peut écrire : (M i ) x i = Zβ i + ε i avec x,0 x p,0 x, p+ x n, p+ Z = x,t x n,t x,t p x n,t p Dans ce cas : σ 0 ε 0 σ ε T 0 V = ε n 0 σ n 0 ε nt 0 σ n σ σ n où Ω = σ n σ nn (2) (M i ) x i = Zβ i + ε i avec V(ε i ) = V 0 0 0 0 0 0 ε i ε it = σ ii I T σ n 0 0 σ n 0 0 σ nn 0 0 σ nn σ I T σ n I T = σ n I T σ nn I T = Ω I T Bilan { x = (In Z)β + ε 532 Estimation par les MCQG Vε = Ω I T Théorème 53 (Théorème de Zellner) Pour le modèle précédent, ˆβ ˆβ MCQG = ˆβ MCG = ˆβ MCO = ˆβ n

53 ESTIMATION D UN MODÈLE V AR SOUS HYPOTHÈSE DE NORMALITÉ 77 Proposition 53 L estimateur est sans biais : E ˆβ = β et a pour variance V( ˆβ) = Ω (Z Z) Démonstration (i) ˆβ = (I n (Z Z) Z )x = (I n (Z Z) Z )((I n Z)β + ε) ˆβ = (I n I n(np+) )β + (I n (Z Z) Z )ε = β + (I n (Z Z) Z )ε D où E ˆβ = Eβ +(I }{{} n (Z Z) Z ) }{{} Eε β 0 (ii) V ˆβ = (I n (Z Z) Z )(Ω I T )(I n (Z Z) Z ) ˆβ σ (Z Z) σ n (Z Z) Remarque 532 () V = Ω(Z Z) = ˆβ σ n (Z Z) σ nn (Z Z) Dans le modèle (M i ) x i = Zβ i + ε i, V ˆβ i = σ ii (Z Z) En outre [ E ( ˆβ i β i )( ˆβ j β j ) ] = σ ij (Z Z) (2) ˆε = x (I n Z) ˆβ x Z 0 = x n 0 Z x Z ˆβ = x n Z ˆβ n = ˆ σ 2 ii = ˆε ˆε n np + T (ε it) 2 = V emp (ˆε it ) ˆσ ij = Cov emp (ˆε it, ˆε jt ) = T T ˆε itˆε jt ˆβ ˆβ n Définition 53 (Matrice de covariance estimée) ˆΣ = (ˆσ ij ) i,j n où ˆσ ij = T T ˆε itˆε jt ˆΣ = T T ˆε tˆε t 533 EMV sous l hypothèse de normalité On suppose ε t iid N (0, Ω) On considère le processus x t p X t = = µ + φ k X t k + ε t x nt k=

78CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Calcul de la vraisemblance X t X t N ( µ + [ ( ( l(x t X t, θ) = n exp X t µ + 2π det Ω 2 ) p φ k X t k, Ω )) ( p φ k X t k Ω (X t µ + avec le paramètre θ = (µ, φ,, φ p, Ω) = {µ i, ϕ k ij, σ ij tel que k p et i, j n} On en déduit l(x,, X T X p+,, X 0, θ) = où ε t = X t (µ + p φ kx t k ) T l(x t X t, θ) = 2π nt [ T exp det Ω 2 ))] p φ k X t k ] T ε tω ε t ln l(x,, X T X p+,, X 0, θ) = nt 2 ln 2π T 2 ln det Ω 2 T ε tω ε t Calcul de l EMV On écrit les conditions du premier ordre : ln l Σ = 0 ln l β = 0 } ˆΣ = T T ˆε tˆε t où ˆε t = X t ˆµ n ˆφ k X t k avec ˆµ et ˆφ k EMV respectifs de µ et φ k D où par concentration de la vraisemblance ˆβ EMV = ˆβ MCG (d après le sur-modèle) = ˆβ MCO (d après le théorème de Zellner) Valeur de la vraisemblance au maximum avec ( T T ) ε ˆΩ t ε t = tr ε ˆΩ t ε t = D où T tr (ε ˆΩ ) t ε t = ln l(x, ˆθ) = nt 2 ln 2π T 2 ln det ˆΩ 2 T ε t ˆΩ ε t T (ˆΩ ) tr ε tε t ln l(x, ˆθ) = nt ln 2π T 2 2 ln det ˆΩ nt 2 = nt 2 ( + ln 2π) T ln det ˆΩ 2 = tr ˆΩ T ε tε t = T tr(i n) = nt } {{ } T ˆΩ

53 ESTIMATION D UN MODÈLE V AR SOUS HYPOTHÈSE DE NORMALITÉ 79 534 Propriétés de l EMV sous l hypothèse de normalité On sait que ˆβ EMV = ˆβ MCG = ˆβ MCO = ˆβ donc E ˆβ = β et V ˆβ = Ω (Z Z) Proposition 532 (Sous hypothèse de normalité des résidus) ˆβ N ( β, Ω (Z Z) ) Proposition 533 (Sans l hypothèse de normalité) (ii) ˆΩ P Ω (iii) T ( ˆβ β) loi N ( ( Ω p lim Z Z T ) ) (i) ˆβ P β Remarque 533 () (i) et (ii) sont valables pour ˆβ et ˆΩ avec ou sans l hypothèse de normalité (seule condition : processus stationnaire à l ordre 4 de ε t pour avoir la covariance de Ω) (2) p lim Z Z T existe déjà grâce à l hypothèse de stationnarité de X t Dans Z Z T interviennent des termes de la forme T T t= x it x j,t k T + E(x it x j,t k ) } {{ } existe et dépend de (i,j,k) seulement avec E(x it x j,t k ) = γ ij (k) + m i m j et Γ(k) = E[(X t m)(x t k m) ] Si ˆβ N ( β, Ω (Z Z) ), alors T ( ˆβ β) N ( 0, T Ω (Z Z) ) Comme p lim Z Z T existe et est positive, alors p lim T ( ˆβ β) loi N ( ( ) Z Z T existe On a donc bien ( Z ) ) Z 0, Ω p lim T Cette dernière propriété reste vraie même si on ne suppose pas les ε t gaussiens Elle résulte alors du TCL et de la stationnarité de (X t ) 535 Tests de restrictions linéaires sur les paramètres du modèle sous hypothèse de normalité Test de Wald On teste l hypothèse H 0 : Rβ = r contre l hypothèse alternative H 0 : Rβ r avec R M(q, n(np + )), β R n(np+) tel que le rang R = q < n(np + ) Sous l hypothèse ε t iid N (0, Ω), on a ˆβ N ( β, Ω (Z Z) ) R ˆβ r N ( 0, R ( Ω (Z Z) ) R ) sous H 0 (R ˆβ r) [ R ( Ω (Z Z) ) R ] (R ˆβ r) χ 2 (q) sous H 0

80CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Comme p lim ˆΩ = Ω ξ N = (R ˆβ r) [R(ˆΩ (Z Z) )R ] (R ˆβ r) χ 2 (q) sous H 0 On refuse H 0 au seuil α si ξ N > χ 2 α/2 (q) Sans l hypothèse de normalité sur ε, on a T ( ˆβ β) loi N ( ( Ω p lim Z Z T ) ) ( ( ξ N = (R ˆβ Z r) [R ) ) ] Z Ω p lim R (R T ˆβ r) loi χ 2 (q) sous H 0 Puis on fait comme dans le cas précédent Exemples d application (n = 2, p = 2) On considère le modèle : ( ) ( ) ( ) ( xt µ a b = + x,t x 2t µ 2 a 2 b 2 x 2,t ) ( c d + c 2 d 2 ) ( x,t 2 x 2,t 2 ) ( εt + ε 2t ) Significativité d un paramètre On teste H 0 : d = 0 contre H : d 0 (M ) x = Zβ + ε et V(ε ) = σui 2 T (M 2 ) x 2 = Zβ 2 + ε 2 ˆd N (d, σ 2 z55 ) où (z ij ) i,j = (Z Z) D où ˆd ˆσ z 55 St(2) Tests sur les paramètres d un seul sous-modèle On teste H 0 : b = d contre H : b d ˆb ˆd N (0, σ 2 ) On fait un test de Student ou de Fisher dans le modèle (M ) Tests sur plusieurs sous-modèles On tient compte de V ˆβ = Ω (Z Z) et ˆV ˆβ = Ω (Z Z) On teste H 0 : φ p = 0 contre H : φ p 0 Ici c = d = c 2 = d 2 = 0 (q = 4) ĉ ˆd ĉ 2 ˆd 2 N (0, ( matrice (4, 4) fonction de Ω On doit en tenir compte dans la statistique de Fisher )) Test du rapport de vraisemblances (LR test) Exemple 532 On teste H 0 : φ p = 0 contre H : φ p 0 On teste H 0 : φ p = 0 contre H : φ p 0 (M) X t = µ + φ X t + + φ p X t p + ε t de paramètre θ = (β, Ω) ˆβ, ˆΩ = T t ˆε tˆε t ln l(x, ˆθ) = nt 2 ( + ln 2π) T 2 ln det ˆΩ

53 ESTIMATION D UN MODÈLE V AR SOUS HYPOTHÈSE DE NORMALITÉ 8 (M 0 ) X t = µ + φ X t + + φ p X t p+ + ε t de paramètre θ 0 = (β 0, Ω 0 ) ˆβ 0, ˆΩ 0 = t ˆε0 t ˆε 0 t T ln l(x, ˆθ 0 ) = nt 2 ( + ln 2π) T 2 ln det ˆΩ 0 ( ( ξ LR = 2 ln l X, ˆθ ) ln l (X, ˆθ 0)) = T (ln det ˆΩ ln det ˆΩ 0) ( det = T ln ˆΩ ) 0 det ˆΩ Test de causalité Quand on rajoute le passé d une variable et d une autre, la précision de la prévision est-elle meilleure? On doit comparer la variance de EL(x t+ x t, y t ) à celle de EL(x t+ x t )

82

Bibliographie [] W Härdle and G Kerkyacharian and D Picard and A Tsybakov Wavelets, Approximation and Statistical Applications Springer Verlag, 998 [2] C Gourieroux and A Monfort Séries temporelles et modèles dynamiques Economica [3] J Hamilton Time Series Analysis Princeton University Press [4] Brockwell and Davis Times Series : Theory and Methods Springer Verlag [5] Bosq and Lecoutre Analyse et prévision des séries chronologiques ; méthodes paramétriques et non paramétriques Masson [6] Carbon and Delecroix Non Parametric versus Parametric Forecasting in Time Series : a Computational Point of View, Applied Stochastic Models and Data Analysis vol 9, p 25-229 993 [7] Abadie and Meslier Etude de l utilisation des modèles ARIMA pour la prévision à très court terme de l énergie journalière produite par Electricité de France RAIRO Recherche opérationnelle/ Operations research n, vol 3 p 37-54, février 979 [8] Martin Filtrage de Kalman d une série temporelle saisonnière Application à la prévision de consommation d électricité Revue de statistique appliquée v XLVII p 69-86, 999 [9] JM Poggi Prévision non paramétrique de la consommation électrique Revue de Statistique appliquée vol XLII p 83-98, 994 [0] Y Misiti and M Misiti and G Oppenheim and JM Poggi Analyse de signaux classiques par décomposition en ondelettes, Revue de Statistique Appliquée n 4 vol XLI p 5-35, 993 [] Y Misiti and M Misiti and G Oppenheim and JM Poggi Ondelettes en statistique et traitement du signal, Revue de Statistique Appliquée n 4 vol XLI p 34-43, 993 [2] Y Misiti and M Misiti and G Oppenheim and JM Poggi Décomposition en ondelettes et méthodes comparatives : étude d une courbe de charge électrique, Revue de Statistique Appliquée n 2 vol XLII p 57-77, 994 83

Index Akaïke (critère d information d ), 53 auto-corrélation, 5, 25, 33 inverse, 4, 27 partielle, 0, 26 auto-corrélogramme, 6 empirique, 5 inverse, 4 partiel, 0 auto-covariance, 3, 5, 25, 30, 33 inverse, 4 bruit blanc faible, 4 fort, 4 critère d information, 53 de parcimonie, 53 de qualité de la prévision, 53 critère d information, 53 densité spectrale, densité spectrale (processus vectoriel), 65 Dickey-Fuller (test de), 4 estimation, 74 Hannan-Quinn (critère d information d ), 53 injectivité (théorème d ), 2 innovation, intervalle de précision, 60 inversibilité, 7 Kolmogorov (théorème de), 3 KPPS (test), 46 marche aléatoire, 4 sans dérive, 4 moyenne mobile, 4 infinie, 7 Newey-West(estimateur de), 45 opérateur, 5 avance, 6 retard, 5 persistance des chocs, 40 Phillips-Perron (test de), 44 polynôme, 6 avance, 6 retard, 6 porte-manteau, 52 prévision, 67, 73 linéaire optimale, 67 prévision optimale,, 55 processus AR, 2 processus AR( ), 28 processus ARIM A, 35 processus ARM A, 3 processus MA, 28 processus M A( ), 22 processus des innovations,, 68 processus intégré, 35 processus stationnaire, 3 du second ordre, 3 strict, 3 processus stochastique, 3 processus vectoriel, 63 du second ordre, 63 stationnaire du second ordre, 64 régression, 8 affine théorique (retards finis), 8 affine théorique (retards infinis), 0 linéaire théorique (retards finis), 8 linéaire théorique (retards infinis), 0 représentation V M A( ), 73 représentation canonique, 23, 24, 28 minimale, 3 représentation canonique minimale, 35 84

Schmidt-Phillips (test de), 45 trajectoire, 3 Wald (test de), 79 Wold (théorème de),, 69 Yule-Walker (équation de), 49 Yule-Walker (équations de), 25, 34 Zellner (théorème de), 76 85