SERIES TEMPORELLES LINEAIRES
|
|
|
- Valérie Beaudoin
- il y a 9 ans
- Total affichages :
Transcription
1 Deuxième année SERIES TEMPORELLES LINEAIRES Polycopié librement inspiré du cours de Madame Doz La rédaction a été commencée par la cuisine expérimentale pour les chapitres, 2 et 3 puis complétée et achevée par Joachim Connault pour les chapitres 4 et 5
2
3 Table des matières Introduction Processus réels stationnaires du second ordre 3 Processus stationnaire du second ordre 3 Définitions 3 2 Rappels sur L 2 (Ω, A, P) 6 2 Outils pour l étude des processus stationnaires 6 2 Transformée d un processus stationnaire par une moyenne mobile infinie 6 22 Régression linéaire ou affine théorique sur un nombre fini de retards 8 23 Régression linéaire théorique sur un nombre infini de retards 0 24 Densité spectrale et auto-corrélations inverses 25 Estimateurs associés et lois limites 4 3 Polynômes retard et avance 5 3 Définitions et propositions 5 32 Inversibilité des polynômes en L 7 2 Processus ARMA et ARIMA 2 2 Processus auto-régressifs d ordre p (AR(p)) 2 2 Définition et représentation canonique 2 22 Propriétés des processus AR(p) Auto-corrélations partielle et inverse d un processus AR(p) Processus moyenne mobile d ordre q (MA(q)) Définition et représentation canonique Propriétés des processus MA(q) Processus ARMA(p, q) 3 23 Définition et représentation canonique minimale Propriétés des processus ARMA(p, q) Processus ARIMA(p, d, q) Approximation auto-régressive d un ARIMA(p, d, q) Approximation moyenne mobile d un ARIMA(p, d, q) 36 3 Identification et estimation d un modèle ARM A ou ARIM A 39 3 Première phase de l identification : choix de d 39 3 Approche empirique : l auto-corrélogramme Approche par les tests de racine unité 4 32 Deuxième phase de l identification : choix de p et q Résultats préliminaires 47 i
4 322 Choix de p pour un AR(p) Choix de q pour un MA(q) Choix de (p, q) pour un ARMA(p, q) Estimation Cas d un AR(p) Cas d un MA(q) Cas d un ARMA(p, q) 5 34 Vérifications a posteriori 5 34 Tests sur les paramètres Tests sur les résidus Choix du modèle 53 4 Prévision dans les ARMA et les ARIMA 55 4 Prévisions dans un AR(p) Prévision dans un MA(q) Cas d un ARMA(p, q) Forme AR( ) Utilisation d une équation de récurrence Cas d un ARIMA(p, d, q) Intervalles de précision 60 5 Processus vectoriels stationnaires - Processus V AR stationnaires 63 5 Processus vectoriels stationnaires du second ordre 63 5 Définition et proposition Densité spectrale d un processus vectoriel stationnaire Innovation d un processus vectoriel Convergence des moments empiriques Processus V AR stationnaires Définition et proposition générale Prévision dans un V AR stationnaire Estimation d un modèle V AR sous hypothèse de normalité Ecriture empilée du modèle Estimation par les MCQG EMV sous l hypothèse de normalité Propriétés de l EMV sous l hypothèse de normalité Tests de restrictions linéaires sur les paramètres du modèle sous hypothèse de normalité 79 Bibliographie 83 Index 84 ii
5 Introduction Les séries temporelles sont des données mesurées à des intervalles de temps régulier Les données macroéconomiques sont relevées par année, trimestres, mois, Les données financières sont mensuelles, hebdomadaires, quotidiennes, infra-journalières (on peut généraliser à temps continu, t R) On fera des études en temps discret donc on indicera de façon dénombrable, t Z On étudiera des séries univariées : elles résultent de l observation d une seule série On modélise la valeur en t en fonction des valeurs passées On peut aussi étudier des séries multivariées, c est-à-dire vectorielles Par exemple on a un contenu économique qui repose sur un a priori économique mais on n a pas d a priori sur le poids des variables (rôle symétrique?) On parle de modèles V AR évoqués dès 98 par Sims x t = x,t x n,t
6 2
7 Chapitre Processus réels stationnaires du second ordre Formalisme : On observe une grandeur donnée sur des dates de à T On considère des observations x,, x T, réalisations des variables aléatoires X,, X T : (Ω, A, P) R, ω Ω est un état de la nature tel que x t = X t (ω) On dit que (X t ) t Z est un processus stochastique et que (x t ) t Z une trajectoire du processus (X t ) t Z Hypothèses supplémentaires : Si E(X t ) = m t, on a une seule observation (x t en l occurrence) pour estimer m t En revanche si pour tout t Z, E(X t ) = m, on peut estimer m par ˆm = T T t= X t Il paraît donc nécessaire de supposer que la suite X t a certaines propriétés de régularité Processus stationnaire du second ordre Définitions Dans toute la suite on considérera (X t ) t Z et on supposera X t L 2 (Ω, A, P), t Z Définition (Stationnarité stricte ou forte) (X t ) t Z est un processus stationnaire au sens strict si : n N, (t,, t n ), h Z, la loi de (X t,, X tn ) est identique à la loi de (X t+h,, X tn+h ) Théorème (Théorème de Kolmogorov) (X t ) t Z est un processus stationnaire au sens strict si et seulement si la loi de (X t ) t Z est identique à la loi de (Y t ) t Z où Y t = X t+h Définition 2 (Stationnarité faible) (X t ) t Z est un processus stationnaire du second ordre (ou un processus faiblement stationnaire) s il vérifie : (i) t Z, E(X t ) = m (ii) t Z, V(X t ) = σ 2 = γ(0) (iii) t Z, h Z, Cov(X t, X t+h ) = γ(h) (ne dépend que de h) γ(h) est l auto-covariance d ordre h de X t 3
8 4 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE Remarque () Dans la suite, les processus stationnaires désignent les processus de la définition 2 ; (2) (iii) (ii) : h = 0 et γ(0) = σ 2 ; (3) Si un processus est stationnaire au sens strict alors il est faiblement stationnaire ; (4) Si (X t ) t Z est un processus gaussien alors il y a équivalence entre stationnarité faible et forte ; X t m X t γ(0) γ(t j t i ) (5) E = V = m γ(0) X tn X tn Exemple (Processus stationnaire) () Bruit blanc faible (white noise), (ε t ) t Z, si et seulement si : E(ε t ) = 0, t Z On notera ε t BB(0, σ 2 ) V(ε t ) = σ 2, t Z Cov(ε t, ε τ ) = 0, si t τ (2) ε t est un bruit blanc fort si et seulement si les ε t sont iid, E(ε t ) = 0 et V(ε t ) = σ 2 (3) Processus moyenne mobile d ordre, noté MA() (moving average of order ) Soit θ R Soit ε t BB(0, σ 2 ) Soit (X t ) t Z défini par : t Z, X t = ε t θε t Alors (X t ) t Z est un processus stationnaire On dit que X t MA() Remarque 2 En pratique on ne distinguera plus x t et X t (x t ) ou (X t ) désignera toujours le processus et x,, x T ou X,, X T la suite des observations Exemple 2 (Processus non stationnaires) () Marche aléatoire (random walk) Soit ε t BB(0, σ 2 ) (X t ) t Z est une marche aléatoire sans dérive si et seulement si (i) X t = X t + ε t, t 0 (ii) Cov(ε t, X t k ) = 0, 0 < k t Même si on a la propriété EX t = EX t EX t = m, t Z, (X t ) t n est pas stationnaire : X t = X t + ε t X t = X t 2 + ε t t X t = X 0 + ε k k= X = X 0 + ε D où ( t t ) V(X t ) = V(X 0 ) + 2 Cov(ε k, X 0 ) + V ε k = V(X 0 ) + tσ 2 k= k= Le processus n est pas stationnaire en variance
9 PROCESSUS STATIONNAIRE DU SECOND ORDRE 5 (2) Processus stationnaire autour d un trend déterministe X t = a + bt + Y t où (Y t ) t Z est un processus stationnaire Par exemple si Y t = ε t BB(0, σ 2 ), EX t = a + bt, le processus n est pas stationnaire en espérance Définition 3 (Fonction d auto-covariance) L auto-covariance d un processus stationnaire (X t ) t Z est définie par : γ : Z R h γ(h) = Cov(X t, X t h ) Proposition (i) γ est une fonction paire : γ( h) = γ(h) h (ii) γ est de type positif : n N, (t,, t n ), (a,, a n ) R n a i a j γ(t i t j ) > 0 i,j n Démonstration (i) Parité : γ(h) = Cov(X t, X t+h ) = Cov(X t h, X (t h)+h ) = Cov(X t h, X t ) = Cov(X t, X t h ) = γ( h) (ii) Positivité : ( ) V ai X ti = Cov i a i X ti, j a j X tj = i,j a i a j Cov(X ti, X tj ) = i,j a i a j γ(t i t j ) 0 On suppose toujours qu il n y a pas de relations linéaires entre les X t En effet, si on avait V ( a i X ti ) = 0 alors a i X ti = constante presque sûrement Définition 4 (Fonction d auto-corrélation) La fonction d auto-corrélation d un processus stationnaire (X t ) t Z est définie par : h Z, ρ(h) = γ(h) γ(0) = Corr(X t, X t+h ) Proposition 2 ρ : h ρ(h) est une fonction paire, de type positif, à valeurs dans ] ; [
10 6 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE Démonstration On a Corr(X t, X t+h ) = Cov(X t, X t+h ) VarXt VarX t+h = γ(h) γ(0) où γ est paire de type positif Définition 5 (Auto-corrélogramme théorique) L auto-corrélogramme de (X t ) t Z est le graphe de : { N ] ; [ 2 Rappels sur L 2 (Ω, A, P) h ρ(h) L 2 (Ω, A, P) est une espace de Hilbert pour le produit scalaire (X Y ) = EXY Si X n L 2 X j Z a j X j 2 = j Z alors la série j Z a jx j est définie ps et : q j= p lim X n X 2 = 0 n + a j X j p,q + a j X j 2 < + a j X j Théorème 2 (Projection sur un sev fermé H de L 2 (Ω, A, P)) j Z X L 2 (Ω, A, P),!X H/ X X 2 = min Y H X Y 2 P H (X) = X est caractérisé par X H et X X H Théorème 3 (Théorème des trois perpendiculaires) Soit H un sev fermé de L 2 (Ω, A, P), G un sev fermé de H, alors : X L 2 (Ω, A, P ), P G (P H (X)) = P G (X) 2 Outils pour l étude des processus stationnaires 2 Transformée d un processus stationnaire par une moyenne mobile infinie Définition 2 (Proposition) Soient (X t ) t Z un processus stationnaire et (a j ) j Z une suite de réels tels que j a j < + Alors Y t = j Z a jx t j est défini (ps) pour tout t On a les propriétés suivantes : (i) Y t L 2 (Ω, A, P), t Z
11 2 OUTILS POUR L ÉTUDE DES PROCESSUS STATIONNAIRES 7 (ii) (Y t ) t est un processus stationnaire tel que EY t = m Y = a j m X j Z γ Y (h) = j,k a j a k γ(h + k j) = j,k a j a k γ(h + j k), h Z On dit que (Y t ) t Z est la transformée de (X t ) t Z par la moyenne mobile infinie associée aux (a j ) j Z Démonstration (i) a j X t j 2 = j j a j X t j 2 = j a j (m 2 X + γ X (0)) 2 < + Y t est donc défini ps et Y t L 2 (Ω, A, P) (ii) On a alors : EY t = Ω Y t dp = = ( a j j Z Ω Ω a j X t j dp j Z X t j dp = E a j X t j j Z ) (Fubini) = j Z a j EX t j = m X j a j Enfin : Cov(Y t, Y t h ) = Cov a j X t j, a k X t h k j Z k Z = j k a j a k Cov(X t j, X t h k ) } {{ } γ X (h+k j) Définition 22 Si X t = ε t BB(0, σ 2 ) alors Y t = j Z a jε t j et on dit que Y t MA( )
12 8 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE 22 Régression linéaire ou affine théorique sur un nombre fini de retards Définition 23 Soit (X t ) t Z un processus stationnaire (i) La régression linéaire théorique de X t sur X t,, X t p est la projection orthogonale dans L 2 (Ω, A, P) de X t sur H = V ect(x t,, X t p ) On note généralement EL(X t X t,, X t p ) la régression linéaire théorique de X t sur X t,, X t p (ii) La régression affine théorique de X t sur X t,, X t p est la projection orthogonale dans L 2 (Ω, A, P ) de X t sur H = V ect(, X t,, X t p ) On note généralement EL(X t, X t,, X t p ) la régression affine théorique de X t sur X t,, X t p Proposition 2 (i) et (ii) coïncident si et seulement si EX t = 0 Remarque 2 () Si EX t 0, on calculera toujours la régression affine On la note aussi souvent EL(X t X t,, X t p ) (2) V ect(x t X t,, X t p ) et V ect(x t X t,, X t n ) sont des sev de dimension finie de L 2 donc fermés (3) Si (X t ) t est gaussien, alors EL(X t ) = E(X t ) Rappel : Calcul de la régression affine théorique (ii) H = V ect(, X t,, X t p ) et X t = p H (X t ) est caractérisé par X t H et X t X t H p Xt H a 0, a,, a p / Xt = a 0 + a j X t j j=
13 2 OUTILS POUR L ÉTUDE DES PROCESSUS STATIONNAIRES 9 X t X t H { (Xt Xt ) = 0 (X t Xt X t j ) = 0 j =,, p { E(Xt Xt ) = 0 E[(X t Xt )X t j ] = 0 j =,, p p p EX t = m X = E a 0 + a j X t j = a 0 + m X a j j= j= [( ) ] p E(X t X t j ) = E a 0 + a k X t k X t j j =,, p a 0 = m X p j= E(X t X t j ) = E p a 0 = m X a j [m X ( j= E(X t k X t j ) = m 2 X p a 0 = m X j= a j a j ( E(X t k X t j ) = m 2 X + k= p k= ) ] p a k X t j + k= ) p a k + k= p a k E(X t k X t j ) k= p a k E(X t X t k ) k= [ a k E(Xt X t k ) m 2 ] X j =,, p j =,, p j =,, p On a donc j =,, p E(X t X t j ) m 2 X = p k= [ a k E(Xt k X t j ) m 2 ] X Soit encore p j =,, p Cov(X t, X t j ) = a k Cov(X t k+j, X t j ) k= Et p γ(j) = a k γ(k j) k= a 0 = m X p j= a j
14 0 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE γ() γ(p ) γ() γ(p 2) γ(p ) γ(p 2) Puis en divisant par γ(0) ρ() ρ(p ) ρ() ρ(p 2) ρ(p ) ρ(p 2) a a p a a p = = Cette dernière matrice étant inversible si les X t sont indépendants Définition 24 (Propriété) On appelle auto-corrélation partielle d ordre p γ() γ(p) ρ() ρ(p) r(p) = Corr(X t EL(X t X t,, X t p+ ), X t p EL(X t p X t,, X t p+ )) = Cov(X t EL(X t X t,, X t p+ ), X t p EL(X t p X t,, X t p+ )) [Var(X t EL(X t X t,, X t p+ ))Var(X t p EL(X t p X t,, X t p+ ))] /2 On montre que r(p) = a p coefficient de X t p dans EL(X t X t,, X t p ) EL(X t p X t,, X t p+ ) = p a j X t j Pour la démonstration, on utilise le théorème de Frish-Waugh j= Définition 25 (Auto-corrélogramme partiel) L auto-corrélogramme partiel de (X t ) t Z est le graphe de : { N ] ; [ p r(p) 23 Régression linéaire théorique sur un nombre infini de retards Définition 26 Soit (X t ) t Z un processus stationnaire (i) La régression linéaire théorique de X t sur X t,, X t p, est la projection orthogonale dans L 2 (Ω, A, P) de X t sur H = V ect(x t,, X t p, ) (ii) La régression affine théorique de X t sur, X t,, X t p, est la projection orthogonale dans L 2 (Ω, A, P) de X t sur H = V ect(, X t,, X t p, ) On note aussi L(X t ) l espace L(, X t,, X t k, ) et : EL(X t X t ) = EL(X t X t,, X t k, ) la régression linéaire (ou affine) sur L(X t ) ( = EL(X t, X t,, X t k, )) Proposition 22 Les deux notions coïncident si et seulement si EX t = 0, t
15 2 OUTILS POUR L ÉTUDE DES PROCESSUS STATIONNAIRES Remarque 22 Xt = EL(X t X t,, X t p ) X t Xt 2 = min a 0,,a p X t a 0 + = min Y H X t Y 2 p a j X t j Proposition 23 EL(X t X t ) = lim n + EL(X t X t,, X t n ) au sens de L 2 j= 2 Théorème 2 (Admis) Soient (X t ) t Z un processus stationnaire et Xt régression affine de X t sur L(, X t,, X t k, ) et ε t = X t Xt, alors (ε t ) t Z est un bruit blanc Cov(ε t, ε t k ) = 0 k > 0 = EL(X t X t ) la Définition 27 (Processus des innovations) Avec les notations du théorème ci-dessus : (i) (ε t ) t Z est le processus des innovations de (X t ) t Z (ii) ε t est l innovation de X t (iii) X t est la prévision optimale de X t à la date t Remarque 23 ε t = X t X t = X t EL(X t X t ) donc ε t et ε t X t k, k > 0, ce qui peut aussi s interpréter comme : E(ε t ) = 0 k > 0, E(ε t X t k ) = Cov(ε t, X t k ) = 0 Théorème 22 (De Wold) Soient (X t ) t Z un processus stationnaire et (ε t ) t Z le processus des innovations correspondant Alors (a k ) k Z / + a k < + et X t = m + 24 Densité spectrale et auto-corrélations inverses + a k ε t k Proposition 24 (Densité spectrale) Soit (X t ) t Z un processus stationnaire de la forme : X t = m + + j=0 a j ε t j où (ε t ) t Z BB et + j=0 a j < + Alors (i) h Z γ X (h) < + (ii) ω [ π; π], f X (ω) = 2π γ X (h)e iωh h Z f X est la densité spectrale de (X t ) t Z
16 2 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE Démonstration Et on a Donc γ X (h) = a j a k γ ε (h + j k) h Z h Z γ ε (h + j k) = j,k { 0 si h + j k 0 σ 2 ε si h + j k = 0 γ X (h) = h Z h Z σ2 ε a j a h+j j σε 2 a j a h+j = σε 2 j h,j a j 2 < + Proposition 25 Sous les hypothèses précédentes, Démonstration f X (ω) = 2π f X (ω) = 2π [ γ X (0) + h>0 γ X (h) cos(ωh) h Z γ X (h)e iωh + h<0 γ X (h)e iωh ] = γ X (0) + γ X (h)e iωh + γ X ( h) 2π } {{ } h>0 h>0 =γ X (h) = 2π γ X (0) + γ X (h) (e iωh + e iωh ) } {{ } h>0 =2 cos(ωh) = γ X (0) + γ X (h) cos(ωh) 2π h 0 = 2π γ X (h) cos(ωh) h Z Exemple 2 () (ε t ) t Z BB(0, σ 2 ) f ε (ω) = σε 2π (2) (X t ) t Z MA() f ε (ω) = σε 2π ( + θ2 2θ cos ω) Théorème 23 (Injectivité) Avec les notations précédentes, h Z, γ X (h) = [ π;π] f X (ω)e iωh dω = [ π;π] e iωh f X (ω) cos(ωh)dω
17 2 OUTILS POUR L ÉTUDE DES PROCESSUS STATIONNAIRES 3 Démonstration [ π;π] f X (ω)e iωh dω = ( ) γ X (k)e iωk e iωh dω 2π [ π;π] k Z ( ) = 2π γ X (k) k Z = γ X (h) e iω(k h) dω } [ π;π] {{ } 8 < = : 0 si k h 2π si k = h (d après Fubini) Conséquence par f X La fonction f X γ X est une bijection donc (X t ) t est caractérisé complètement Exemple 22 () Si f X (ω) = constante alors X BB (2) Si f X (ω) = a + 2b cos ω alors X MA() { a = σ2 où 2π ( + θ2 ) b = σ2 2π Proposition 26 Soit (X t ) t Z tel que X t = j Z a jε t j où ε t BB et j a j < + Soit Y t = k Z b kx t k avec k b k < + Alors (i) Y t = k Z c k ε t k 2 (ii) f Y (ω) = f X (ω) b k e iωk k Z Démonstration (i) Y t = b k X t k = b k a j ε t k j = a j b k ε t (k+j) = a j b h j ε t h = a j b h j k Z k Z j Z j,k Z j,h Z h Z j Z } {{ } c h ε t h
18 4 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE (ii) f Y (ω) = 2π = 2π = 2π = 2π γ Y (h)e iωh h Z b j b k γ X (h + j k) e iωh h Z h,j,k Z j,k Z b j b k γ X (h + j k)e iω(h+j k) e iωj e iωk ( ) γ X (l)e iωl ( ) b j e iωj b k e iωk j Z l Z 2 = f X (ω) b k e iωk k Z k Z Définition 28 (Auto-corrélations inverses) Soit (X t ) t Z tel que X t = j Z a jε t j ε t BB et j a j < + On suppose que ω f X (ω) e iωh est intégrable sur [ π; π] On appelle auto-covariance inverse d ordre h de (X t ) t Z γx(h) i = f X (ω) e iωh dω [ π;π] où L auto-corrélation inverse d ordre h est alors définie comme ρ i X(h) = γi X (h) γ i X (0) Définition 29 (Auto-corrélogramme inverse) L auto-corrélogramme inverse de (X t ) t Z est le graphe de : { N ] ; [ h ρ i X (h) 25 Estimateurs associés et lois limites On considère un processus stationnaire (X t ) t Z tel que pour tout t Z, EX t = m On cherche à estimer les grandeurs associées γ X (h), ρ X (h) = γ X(h) γ X (0), r X(h) = a h h, f X(ω), γx i (h) et ρi X (h) et ceci sachant qu on observe X,, X T On prend comme estimateurs : ˆm = T X t = T X T moyenne empirique, t= ˆγ X (h) = T h T t=h+ (X t X T )(X t h X T ) auto-covariance empirique d ordre h (estimation acceptable si h n est pas trop grand), ˆρ X (h) = ˆγ X(h) ˆγ X (0),
19 3 POLYNÔMES RETARD ET AVANCE 5 ˆr(h) = â h h dans la régression empirique (mco) de x t sur, x t,, x t h, ˆf X (ω) = H ˆγ X (h)e iωh, le problème ici étant que l on voudrait un H suffisamment 2π h= H grand mais prendre un H trop grand est risqué pour l estimation de ˆγ X (h) On prend alors un estimateur corrigé : ˆf X (ω) = 2π H h= H ( h ) ˆγ X (h)e iωh H + } {{ } coefficient de Newey-West On donne moins de poids aux ˆγ X (h)e iωh avec un grand h on ne prend pas ˆρ i = ˆγi (h) ˆγ i (0) où ˆγi (h) = [ π;π] ˆf X (ω) e iωh dω, il existe d autres façons de l obtenir Proposition 27 Si (X t ) est un processus stationnaire alors tous les estimateurs présentés ci-dessus sont convergents Démonstration C est la loi des grands nombres Proposition 28 Si X t = m + + j=0 a jε t j où E(ε 4 t ) = η < +, alors tous ces estimateurs ont des lois jointes asymptotiquement gaussiennes : L ( T ( ˆm m) N 0, h Z γ X(h) ) T T T Ω h, W h et Σ h étant calculables ˆγ(0) γ(0) ˆγ(h) γ(h) ˆρ(0) ρ(0) ˆρ(h) ρ(h) ˆr(0) r(0) ˆr(h) r(h) L N (0, Ω h ) L N (0, W h ) L N (0, Σ h ) Remarque 24 () Les auto-corrélogrammes (direct, partiel et inverse) associés aux valeurs estimées sont appelés auto-corrélogrammes empiriques (2) On en déduit des intervalles de confiance asymptotiques 3 Polynômes retard et avance 3 Définitions et propositions Définition 3 (i) L opérateur retard L ( lag) ou B ( backward) est défini sur la classe des processus stationnaires comme étant : L : (X t ) t Z (Y t ) t Z tel que Y t = X t
20 6 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE On note : LX t = X t (ii) De la même façon, l opérateur avance F ( forward) correspond à On note : F X t = X t+ Proposition 3 F : (X t ) t Z (Y t ) t Z tel que Y t = X t+ (i) L k = L} {{ L} vérifie L k X t = X t k kfois (ii) F k = F} {{ F} vérifie F k X t = X t+k kfois Notation : L 0 = Id est noté L 0 = (L 0 X t = X t ) Définition 32 Soit P un polynôme, P (z) = p a kz k, a k R, on lui associe le polynôme retard P (L) défini comme suit : p P (L) = a k L k Et ( p ) P (L)X t = a k L k X t = p a k X t k De façon similaire on obtient le polynôme avance P (F ) : ( p ) p P (F )X t = a k F k X t = a k X t+k Définition 33 (Séries en L (ou en F )) (polynômes de degré infini) Soit A(z) = + a kz k et Y t = A(L)X t = + a kx t k Alors (Y t ) t Z est bien un processus stationnaire car + a k < + Proposition 32 On suppose + a k < + et + b k < + et Alors (i) α R, A(L) = + a k L k B(L) = ( + ) αa(l) = (αa)(l) = α a k L k = + + b k L k (αa k )L k ( + ) ( + ) (ii) A(L) + B(L) = (A + B)(L) = a k L k + b k L k = + (a k + b k )L k (iii) A(L) B(L) = (AB)(L) = B(L) A(L) avec (AB)(L) = (BA)(L) = C(L) = c k = + j=0 a j b k j + c k L k et
21 3 POLYNÔMES RETARD ET AVANCE 7 32 Inversibilité des polynômes en L Définition 34 (Inversibilité) A(L) est inversible B(L) tel que A(L) B(L) = Id On suppose P (L) = p a kl k et Y t = P (L)X t et on désire savoir si X t peut s exprimer en fonction de Y t (X t = P (L) Y t ) On peut décomposer notre polynôme de la façon suivante : p p p ) p P (z) = (z z i ) = ( z i ) ( zzi = α λ i z) avec λ i = i=( z i i= i= où les z i C sont les racines de P p Finalement P (L) = α ( λ i L) Inversibilité de λl i= Proposition 33 (i) Si λ <, alors λl est inversible et ( λl) = + (ii) Si λ >, λl est inversible et ( λl) = λ k F k (iii) Si λ =, λl n est pas inversible Démonstration (i) Si λ < alors ( λl) + λk = λ < +, donc A(L) = i= k= + + λ k L k λ k L k est bien défini On a ainsi ( λl)a(l) = C(L) = + j=0 c jl j et c j = + a kb k j avec b 0 =, b = λ, b k = 0 si k > et a k = λ k On trouve c 0 = et c j = 0 si j 0, soit encore C(L) = On en déduit que ( λl) est inversible et ( λl) = A(L) On pouvait aussi montrer ce résultat en écrivant : k ( λl)a(l) = lim ( λl) λ j L j = lim k + k + λk+ L k+ = j=0 ( (ii) Si λ > alors λl = λ L ) ( = λl F ) λ λ On a alors (λl) = ( λ F et F ) + = λ λ k F k car λ > En combinant ces deux résultats, on obtient ( ( λl) = ( λl) F ) ( = + λ λ F Dans ce cas, X t = ( λl) Y t = + k= λ k Y t+k ) + λ k F k = k= λ k F k = k= λ k L k
22 8 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE (iii) Cas λ = Alors L n est pas inversible Montrons-le par l absurde Supposons Y t = ( L)X t = X t X t On a vu que si (Y t ) t Z est stationnaire alors (X t ) t Z ne l est pas (cf page 4, l exemple où Y t = ε t BB(0, σ 2 )) On n a pas X t = a k Y t k avec a k < + ; k Z k Z Il n existe pas A(L) = a k L k, a k < + tel que ( L)A(L) = k Z k Z On peut le voir à la main Dans ces conditions k Z ( L)A(L) = a k = a k et donc ne tend pas vers 0 a k = + Inversion d un polynôme en L Soit φ un polynôme de degré p à coefficients réels : φ(z) = + ϕ z + + ϕ p z p φ(l) = + ϕ L + + ϕ p L p (φ(0) = ) φ possède p racines (z,, z p ) dans complexes ou réelles, on peut donc le décomposer en p p p ) p φ(z) = ϕ p (z z j ) = ϕ p ( z j ) ( zzj = α ( λ j z) j= j= j= j= où λ j = z j Par conséquent, on peut se ramener à : φ(l) = p ( λ j z) On a alors 2 cas possibles : si z i R alors λ i R, si z i C R alors z i racine de φ de même ordre de multiplicité que z i (i) Si λ i < alors λ i < et j= φ(z) = ( λ i z)( λ i z)ψ(z) (( λ i L)( λ i L)) = ( λ i L) ( λ i L) ( ) ( ) = λ k i L k k λ i L k k k = A(L) A(L) (ii) λ i >, idem avec ( λ i L) = λk i Lk (iii) Si λ i = alors φ(l) n est pas inversible
23 3 POLYNÔMES RETARD ET AVANCE 9 Proposition 34 Avec les notations précédentes (i) φ est inversible si et seulement si ses racines sont de module distinct de (ii) Si λ j <, j [, p], alors φ(l) est inversible et φ(l) = + a k L k où a 0 =, a k R et + a k < + Remarque 3 λ j < z j = λ j > Démonstration (i) j, ( λ j L) est bien défini, de la forme k Z a j,k L k et φ(l) = p ( λ j L) est donc aussi défini Mais φ(l) peut contenir des termes en L k, k > 0 qui sont des termes concernant le futur et donc peu utilisables en pratique (ii) Si λ j < pour tout j alors ( λ j L) = + λ k j L k et j= p φ(l) = ( λ j L) = + j= a k L k tel que + a k < + Par ailleurs ( p p + ) φ(z) = ( λ j z) et φ(z)φ(z) = ( λ j z) a k z k = j= j= Donc φ(0)φ(0) = a 0 = a 0 = S il existe j tel que λ j C\R alors φ(l) = ( λ j )( λ j )P (L) et : ( λ j ) ( λ j ) = = ( + ) ( + ) λ k j L k λ k j L k + α k L k où α k R, α 0 =, + Méthodes pratiques d inversion de φ(l) On se place dans le cadre défini précédemment où : p φ(l) = ( λ j L) j= α k < +
24 20 CHAPITRE PROCESSUS RÉELS STATIONNAIRES DU SECOND ORDRE a) Quand p 2, φ(l) = ( p + ) j= λk j Lk Cette méthode s avère fastidieuse en général b) Par identification : on écrit que ( + ) ( + ) φ(l) a k L k = ( + ϕ L + + ϕ p L p ) a k L k = Les a k sont obtenus par récurrence puis identification c) Décomposition en éléments simples : φ(l) = j= j= p p λ j L = a j λ j L On décompose cette fraction rationnelle en éléments simples Dans la pratique on l utilise quand les racines sont simples d) Division selon les puissances croissantes de par φ(z) : = φ(z)q r (z) + z r+ R r (z) tel que lim Q r(z) = φ (z) r +
25 Chapitre 2 Processus ARMA et ARIMA Les ARM A sont des processus stationnaires et les ARIM A des processus non stationnaires intégrés, c est-à-dire qu on les rend stationnaires par différentiation 2 Processus auto-régressifs d ordre p (AR(p)) 2 Définition et représentation canonique Définition 2 (Processus AR) (X t ) t Z est un processus AR(p) si (i) (X t ) est stationnaire (ii) (X t ) vérifie une équation X t = µ+ϕ X t + +ϕ p X t p +ε t avec ϕ p 0 et ε t BB(0, σ 2 ) On note φ(l)x t = µ + ε t où φ(l) = (ϕ L + + ϕ p L p ) Exemple 2 X t AR() ie ( ρl)x t = µ + ε t où ε t BB(0, σ 2 ) et ρ < Remarque 2 Il existe des solutions non stationnaires (en espérance) de la même équation Soit Y t tel que ( ρl)y t = 0 Y t = ρy t Y t = ρ t Y 0 Soit (X t ) un processus stationnaire On définit (Z t ) par Z t = X t + Y t On a alors ( ρl)z t = ( ρl)x t + ( ρl)y t = ε t + 0 EZ t = EX t + EY t = m X + ρ t EY 0 cte Donc (Z t ) n est pas un processus stationnaire Proposition 2 Si X t AR(p) tel que φ(l)x t = µ + ε t, alors EX t = µ φ() = µ (ϕ + + ϕ p ) Démonstration X t = µ + ϕ X t + + ϕ p X t p + ε t EX t = µ + ϕ EX t + + ϕ p EX t p + Eε t m = µ + ϕ m + + ϕ p m m = µ (ϕ + + ϕ p ) = µ φ() 2
26 22 CHAPITRE 2 PROCESSUS ARM A ET ARIM A On retrouve bien le résultat annoncé Proposition 22 Si X t AR(p) est tel que φ(l)x t = µ + ε t et si l on pose Y t = X t m (où m = EX t ), on a alors φ(l)y t = ε t et EY t = 0 Démonstration EX t = m = µ φ() et φ(l)(x t m) = φ(l)x t φ(l)m Or Lm = m et par conséquent : φ(l)m = ( (ϕ + + ϕ p ))m = φ()m Finalement : φ(l)(x t m) = φ(l)x t µ = ε t Ecriture MA( ) quand les racines de φ sont de module strictement supérieur à On suppose que φ(l)x t = µ + ε t où φ(l) = (ϕ L + + ϕ p L p ) et aussi que z φ(z) 0 On suppose que φ(z) = p ( λ iz) où λ i = z i < Alors φ(l) est inversible et φ(l) = 0 a kl k = A(L) tel que a k < et a 0 = On en déduit X t = A(L)µ + A(L)ε t ( ) = A()µ + a k L k ε t = m + 0 a k L k ε t k 0 car φ() µ = m Proposition 23 Sous les hypothèses précédentes, (X t ) t Z admet une représentation MA( ) ie : X t = m + + a k ε t k, où a 0 =, a k R, + Proposition 24 Sous les hypothèses précédentes : (i) L(X t ) = L(ε t ) (ii) ε t est l innovation de X t a k < + Rappel de notation L(X t ) = L(, X t, X t,, X t p, ) L(ε t ) = L(, ε t, ε t,, ε t p, )
27 2 PROCESSUS AUTO-RÉGRESSIFS D ORDRE P (AR(P )) 23 Démonstration (i) X t = µ + ϕ X t + + ϕ p X t p + ε t On a vu que X t = η + + a t ε t k Donc k 0, X t k L(ε t k ) L(ε t ) De la même façon, comme X t L(ε t ) = L(, ε t, ε t,, ε t k, ) L(, X t, X t,, X t k, ) L(ε t ) L(X t ) L(ε t ) L(X t ) L(ε t ) ε t = X t (µ + ϕ X t + + ϕ p X t p ) on obtient l inclusion réciproque et finalement L(X t ) = L(ε t ) (ii) L innovation de X t vaut, par définition, X t X t, or : Comme L(X t ) = L(ε t ), on a : X t = EL(X t X t ) = EL(X t, X t,, X t k, ) = EL(µ + ϕ X t + + ϕ p X t p +ε t X t ) } {{ } L(X t ) = µ + ϕ X t + + ϕ p X t p + EL(ε t X t ) EL(ε t X t ) = EL(ε t ε t ) = 0 car ε t BB Finalement X t = µ + ϕ X t + + ϕ p X t p et X t X t = ε t, ε t est bien l innovation de X t Définition 22 Soient X t AR(p) et φ un polynôme vérifiant : φ(l)x t = µ + ε t z φ(z) 0 On dit que la représentation φ(l)x t = µ + ε t est la représentation canonique de (X t ) t Z Cas où φ admet des racines de module inférieur à Remarque 22 () Si (X t ) t Z est supposé stationnaire alors φ n a pas de racines de module égal à (2) On sait que φ(l) est inversible, φ(l) = Z a kl k Mais on n a plus l égalité L(X t ) = L(ε t ) L écriture φ(l)x t = µ + ε t ne met pas en évidence l innovation de X t On cherche une autre représentation de (X t )
28 24 CHAPITRE 2 PROCESSUS ARM A ET ARIM A On peut écrire On définit φ(l) = p ( λ j L) = j= φ (z) = j/ λ j < j/ λ j < ( λ j z) ( λ j L) j/ λ j > j/ λ j > ( z ) λ j ( λ j L) de telle sorte que φ a toutes ses racines de module strictement supérieur à On définit ensuite le processus (η t ) t Z tel que η t = φ (L)(X t m) où m = µ φ() On montre alors que η t BB(0, σ 2 η) en calculant f η (ω) : Comme φ(l)x t = ε t, on a aussi : f η (ω) = f X (ω) φ (e iω ) 2 Ceci nous mène à : Or f η (ω) = σ2 ε 2π = σ2 ε 2π = σ2 ε 2π f ε (ω) = f X (ω) φ(e iω ) 2 = σ2 ε 2π φ(e iω ) 2 φ (e iω ) 2 [ ] [ j/ λj < λ je iω 2 ] 2 j/ λ j > eiω λ j [ ] [ ] j/ λj < λ je iω 2 j/ λj > λ je iω 2 j, λ j > λ j e iω 2 λ j 2 λ j e iω 2 j/ λ j > λ j e iω 2 λ j e iω 2 = En effet : Si λ j R, λ j e iω 2 = λ j e iω 2 = λ j e iω 2 λ j e iω 2 λ j e iω 2 Si λ j R\C, λ j e iω 2 λ j e iω =, λ 2 j étant aussi une racine de φ puisque celui-ci est à coefficients réels On a donc f η (ω) = α σ2 ε 2π = σ2 η 2π avec α = λ j 2 < et finalement η t BB(0, σ 2 ) car sa transformée de Fourier est une constante j, λ j > Bilan La représentation φ (L)X t = φ ()m + η t = µ + η t est la représentation canonique de (X t ) t Z car φ a toutes ses racines de module strictement supérieur à et η t est l innovation de X t
29 2 PROCESSUS AUTO-RÉGRESSIFS D ORDRE P (AR(P )) Propriétés des processus AR(p) On suppose que φ(l)x t = µ + ε t où les racines de φ sont de module strictement supérieur à, ε t suit un bruit blanc On peut se ramener ensuite à µ = 0 par centrage car φ(l)(x t m) = ε t où m = µ/φ() On considère donc le cas où φ(l)x t = ε t (et EX t = 0) Auto-covariance, auto-corrélations et équivalence de Yule-Walker L auto-covariance : γ(h) = Cov(X t, X t h ) = E(X t X t h ) pour h 0 (car m X = 0), et Donc X t = ϕ X t + + ϕ p X t p + ε t Xt 2 = ϕ X t X t + + ϕ p X t X t p + X t ε t γ(0) = ϕ γ() + + ϕ p γ(p) + E(X t ε t ) Or E(X t ε t ) = E[(ϕ X t + + ϕ p X t p )ε t ] +E(ε 2 t ) } {{ } =0 car ε t L(X t ) D où Si h > 0, on procède de la même façon : γ(0) = ϕ γ() + + ϕ p γ(p) + σ 2 ε X t X t h = ϕ X t X t h + + ϕ p X t p X t h + ε t X t h γ(h) = ϕ γ(h ) + + ϕ p γ(h p) + E(ε t X t h ) } {{ } =0 car ε t X t h Les auto-corrélations : A partir de la relation de récurrence de γ(h) on déduit celle sur ρ(h) = γ(h) γ(0) ρ(h) = ϕ ρ(h ) + + ϕ p ρ(h p), h 0 Ces dernières équations sont appelées équations de Yule-Walker Pour h > 0, les γ(h) et les ρ(h) vérifient une relation de récurrence d ordre p et = ϕ ρ() + + ϕ p ρ(p) + σ2 ε γ(0) γ(0) = σε 2 (ϕ ρ() + + ϕ p ρ(p))
30 26 CHAPITRE 2 PROCESSUS ARM A ET ARIM A Les équations de Yule-Walker pour h =,, p peuvent s écrire : ρ() ρ(p ) ρ() ρ() ρ(p 2) ρ(p ) ϕ ϕ p = ρ() ρ(p) Les solutions de l équation de récurrence sont complètement déterminées par la donnée de conditions initiales ρ(),, ρ(p) : elles permettent d obtenir ϕ,, ϕ p En particulier elles donneront une estimation préliminaire de ˆϕ,, ˆϕ p en fonction de ˆρ T (),, ˆρ T (p) ρ() = ϕ + ϕ 2 ρ() + + ϕ p ρ(p ) ρ(p) = ϕ ρ(p ) + + ϕ p ρ() + ϕ p ϕ = ( ϕ 2 )ρ() ϕ p ρ(p ) ϕ p = ρ(p) ϕ ρ(p ) + ϕ p ρ() On peut donc aussi obtenir ρ(),, ρ(p) en fonction de ϕ,, ϕ p Proposition 25 Si X t AR(p) alors les ρ(h) et les γ(h) décroissent vers 0 exponentiellement avec h Démonstration h > 0, ρ(h) ϕ ρ(h ) ϕ p ρ(h p) = 0 Le polynôme caractéristique de cette relation de récurrence est : ( z p ϕ z p ϕ p z ϕ p = z p ϕ z ϕ p z p ϕ ) ( ) p z p = z p φ z Avec φ(l)x t = ε t et φ(l) = ϕ L ϕ p L p Les racines du polynôme caractéristique sont les λ i = z i (les z i étant les racines de φ) avec λ i < La forme générale de la solution est, si z,, z n sont des racines distinctes de φ de multiplicité respective m,, m n : n m i ρ(h) = α ik λ k i h k i= λ i < donc ρ(h) décroît vers 0 exponentiellement avec h 23 Auto-corrélations partielle et inverse d un processus AR(p) Proposition 26 Si (X t ) t Z AR(p) et si φ(l)x t = µ + ε t est sa représentation canonique, alors : { 0 si h > p r(h) = 0 sinon
31 2 PROCESSUS AUTO-RÉGRESSIFS D ORDRE P (AR(P )) 27 Démonstration r(h) est le coefficient de X t h dans EL(X t X t,, X t h ) et X t = µ + ϕ X t + + ϕ p X t p +ε t } {{ } L(,X t,,x t p ) L(,X t,,x t h ) EL(X t X t,, X t h ) = µ + ϕ X t + + ϕ p X t p + EL(ε t X t,, X t h ) Si h > p, le coefficient de X t h est 0 Si h = p, le coefficient de X t p est ϕ p 0 = µ + ϕ X t + + ϕ p X t p + 0 Proposition 27 Si (X t ) t Z AR(p), alors : { 0 si h > p γ(h) = 0 si h = p { 0 si h > p ρ(h) = 0 si h = p Démonstration ρ i (h) = γ i(h) γ i (0) où : γ i (h) = π π f X (ω) eiωh dω φ(l)x t = ε t (en remplaçant éventuellement X t par X t m) : Et par conséquent : avec ψ 0 = et ψ k = ϕ k, k > 0, f X (ω) φ(e iω ) 2 = f ε (ω) = σ2 ε 2π f X (ω) = σ2 ε 2π φ(e iω ) 2 f X (ω) = 2π φ(e iω ) 2 σ 2 ε φ(z) = ϕ z ϕ p z p = f X (ω) = 2π σ 2 ε = 2π σ 2 ε ( p ( p ψ k e iωk) ψ k ψ l e iω(k l) 0 k,l p p ψ k z k ψ k e iωk ) Ainsi γ i (h) = 2π σ 2 ε 0 k,l p π ψ k ψ l e iω(k l+h) dω π } {{ } =0 sauf si k l+h=0
32 28 CHAPITRE 2 PROCESSUS ARM A ET ARIM A Or k l p; p donc si h > p, γ i (h) = 0 En revanche si h = p : π π eiω(k l+h) dω p = l k { l = p k = 0 Donc γ i (p) = 4π2 σ 2 ε ψ 0 ψ p = 4π2 σε 2 ϕ p 0 22 Processus moyenne mobile d ordre q (M A(q)) 22 Définition et représentation canonique Définition 22 (X t ) t Z MA(q) s il existe ε t BB(0, σ 2 ) et θ,, θ q tels que X t = m + ε t θ ε t θ q ε t q Proposition 22 EX t = m Remarque 22 () (X t ) t Z est nécessairement stationnaire (2) On note X t = m + θ(l)ε t où θ(l) = θ L θ q L q (3) Comme X t m = θ(l)ε t, on peut centrer X t, EX t = 0 Ecriture AR( ) quand les racines de θ sont de module > Sous ces hypothèses θ(l) est inversible et θ(l) = Il s en suit que Soit encore + a k L k avec a 0 = et a k < + X t m = θ(l)ε t θ(l) (X t m) = ε t θ(l) X t m θ() = ε t + a k X t k µ = ε t où µ = D où la représentation canonique AR( ) X t = + k= a k X t k + Proposition 222 Sous les hypothèses précédentes (i) L(X t ) = L(ε t ) (ii) ε t est l innovation de X t m θ() m θ() + ε t
33 22 PROCESSUS MOYENNE MOBILE D ORDRE Q (M A(Q)) 29 Démonstration (i) Comme X t = m + ε t θ ε t θ q ε t q X t L(, ε t,, ε t q ) L(ε t ) Ceci nous amène à (cf cas AR page 23 pour plus de détails) : L(X t ) L(ε t ) + ε t = a k X t k µ L(ε t ) L(X t ) L(X t) = L(ε t ) (ii) X t = EL(X t X t ) = EL(m + ε t θ ε t θ q ε t q X t ) = EL(m + ε t θ ε t θ q ε t q ε t ) = m + 0 θ ε t θ q ε t q = X t ε t Donc X t X t = ε t, X t est bien l innovation de X t Cas où des racines de θ sont de module < On suppose qu on s est ramené à X t = θ(l)ε t par centrage : X t = ( λ i L) ( λ i L) ε t i/ λ i < Comme précédemment, on définit : θ (L) = ( λ i L) i/ λ i < On définit aussi (η t ) par X t = θ (L)η t, d où i/ λ i > η t = θ (L) X t i/ λ i > ( λ i L) On montre que f η (ω) = cte (η t ) BB On a donc X t = θ (L)η t toutes les racines de θ sont de module > η t BB C est la représentation canonique de (X t ) et (η t ) est le processus des innovations Cas où certaines racines de θ sont de module égal à On montre que (X t ) est stationnaire Par exemple X t = ( L)ε t On ne peut plus écrire θ(l) inversible avec θ(l) = 0 a kl k (ε t ) reste le processus des innovations de (X t ) mais la démonstration est difficile
34 30 CHAPITRE 2 PROCESSUS ARM A ET ARIM A 222 Propriétés des processus M A(q) On suppose que la représentation étudiée est la représentation canonique X t = m + θ(l)ε t toutes les racines de θ sont de module > θ(l) = θ L θ q L q ε t BB Proposition 223 (Auto-covariance) Sous les hypothèses précédentes 0 si h > q θ γ(h) = q σε 2 0 si h = q σε 2 ( θh + q i=h+ θ ) iθ i h si h < q σε 2 ( + q ) i= θ2 i si h = 0 On en déduit ρ(h) = 0 si h > q et ρ(q) 0 Démonstration Si h = 0 X t = ε t θ ε t θ q ε t q après centrage Car Cov(ε t j, ε t k ) = 0 si j k Si h > q Si h = q Si h < q γ(h) = Cov(X t, X t h ) γ(0) = VarX t = σ 2 ε( + θ θ 2 q) 0 = Cov[(ε t θ ε t θ q ε t q ), (ε t h θ ε t h θ q ε t h q )] } {{ } } {{ } ε t j, j 0,q ε t k, k h,q+h t j t k γ(h) = 0 γ(q) = Cov[(ε t θ ε t θ q ε t q ), (ε t q θ ε t q θ q ε t 2q )] = θ q σ 2 ε γ(h) = Cov[(ε t θ ε t θ q ε t q ), (ε t h θ ε t h θ q ε t h q )] q q = θ i Cov[ε t i, ε t h θ k ε t h k ] car Cov(ε t, ε t i ) = 0 i > 0 i= = θ h σ 2 ε + = θ h σ 2 ε + q q i= k= ( q i=h+ k= θ i θ k Cov(ε t i, ε t h k ) } {{ } =0 si i h+k θ i θ i h ) σ 2 ε Remarque 222 On n a pas de résultat particulier pour les auto-corrélations partielles Proposition 224 ρ i (h) décroît exponentiellement avec h
35 23 PROCESSUS ARM A(P, Q) 3 Démonstration ρ i (h) = γi (h) γ i (0) avec, γi (h) = π π f X (ω) eiωh dω et X t = θ(l)ε t f X (ω) = σ2 ε 2π θ(eiω ) 2 f X (ω) = 2π σ 2 ε θ(e iω ) 2 Soit (Y t ) t Z un processus tel que θ(l)y t = η t et Y t AR(q) : Donc On a ainsi : f Y (ω) = f X (ω) σ 2 η 2π = f Y (ω) θ(e iω ) 2 f Y (ω) = σ2 η 2π θ(e iω ) 2 2π σ 2 ε = σ2 η 2π σ2 η = 4π2 σ 2 ε Tableau récapitulatif des différentes situations Les auto-corrélations inverses d un processus M A(q) ont les mêmes propriétés que les auto-corrélations d un AR(q) : AR(p) MA(q) ρ(h) décroît exponentiellement vers 0 avec h 0 si h > q et non nul si h = q r(h) 0 si h > p et non nul si h = p - ρ i (h) 0 si h > p et non nul si h = p décroît exponentiellement vers 0 avec h 23 Processus ARM A(p, q) 23 Définition et représentation canonique minimale Définition 23 Un processus stationnaire (X t ) t Z admet une représentation ARMA(p, q) canonique minimale s il vérifie une équation : où (i) ε t BB(0, σ 2 ) φ(l)x t = µ + θ(l)ε t (ii) φ(l) = ϕ L ϕ p L p, avec ϕ p 0 (iii) θ(l) = θ L θ q L q, avec θ q 0 (iv) φ et θ ont toutes leurs racines de module strictement supérieur à (représentation canonique) (v) φ et θ n ont pas de racines communes (représentation minimale) Remarque 23 () Il existe des solutions non stationnaires : soit (X t ) un processus stationnaire et (Y t ) déterministe tel que φ(l)y = 0 On définit Z t = X t + Y t qui vérifie l équation (2) Retour sur la représentation canonique :
36 32 CHAPITRE 2 PROCESSUS ARM A ET ARIM A Si (X t ) est stationnaire, alors les racines de φ sont de module distinct de On pourrait considérer le cas où θ a des racines de module (c est compatible avec la stationnarité) Si on suppose que φ et θ ont des racines de module distinct de, on peut toujours se ramener à la représentation φ (L)X t = µ + θ (L)η t où φ et θ ont des racines de module > Si φ et θ ont des racines de module strictement supérieur à mais admettent une racine commune, alors φ(l) = ( λl)ϕ 0 (L) et θ(l) = ( λl)θ 0 (L) D où ϕ 0 (L)X t = µ λ + θ 0(L)ε t X t ARMA(p, q ) Proposition 23 (i) EX t = µ φ() = m (ii) φ(l)(x t m) = θ(l)ε t Remarque 232 Par centrage on peut donc se ramener au cas où µ = 0 Démonstration (i) On a (ii) E(X t ϕ X t ϕ p X t p ) = E(µ + ε t θ ε t θ q ε t q ) Et comme (X t ) est supposé stationnaire Donc φ(l)(x t m) = θ(l)ε t m( ϕ ϕ p ) = µ + 0 m = µ φ() φ(l)x t = φ()m + θ(l)ε t = φ(l)m + θ(l)ε t Proposition 232 Sous les hypothèses précédentes, (i) (X t ) admet une représentation AR( ), + a kx t k = µ+ε t où a 0 = et k a k < + (ii) (X t ) admet une représentation MA( ), X t = m+ + b kε t k où b 0 = et k b k < + (iii) L(X t ) = L(ε t ) (iv) ε t est l innovation de X t Démonstration (i) On sait que φ(l)(x t m) = θ(l)ε t, celà nous permet d écrire Et ce avec A()m = φ() θ() = µ θ() θ(l) φ(l) (X } {{ } t m) = ε t A(L) A(L)X t A()m = ε t
37 23 PROCESSUS ARM A(P, Q) 33 (ii) De la même façon φ(l)x t = µ + θ(l)ε t amène X t = µ φ() + φ(l) θ(l) } {{ } B(L)= P b k L k ε t (iii) Etant donné que (X t ) est de la forme AR( ), on a : t, ε t L(X t ) L(ε t ) L(X t ) L(ε t ) L(X t ) Par un raisonnement identique et tenant compte du fait que (X t ) est également de la forme MA( ) on obtient : L(X t ) L(ε t ) Les deux résultats nous permettent alors de dire que : (iv) Calculons l innovation de X t : L(X t ) = L(ε t ) X t X t = X t EL(X t X t ) = X t EL( = X t + = ε t + =0 + =0 a k X t k + µ + ε t X t ) a k X t k µ EL(ε t ε t ) } {{ } =0 Remarque 233 AR(p) ARMA(p, 0) MA(q) ARMA(0, q) ARMA(p, q) AR( )#AR(P ) si P grand MA( )#MA(Q) si Q grand Souvent l un des paramètres (p ou q) est petit alors que l autre est grand Avec l approximation précédente on a alors moins de paramètres à estimer En vertu du théorème de Wold, X t = m+b(l)ε t, où (ε t ) est le processus des innovations, si de plus X t ARMA(p, q) alors B(L) = θ(l) φ(l) 232 Propriétés des processus ARM A(p, q) On considère un processus ARMA(p, q) tel que : φ(l)x t = θ(l)ε t, éventuellement après centrage, φ(l) = ϕ L ϕ p L p, θ(l) = θ L θ q L q C est la représentation canonique minimale Proposition 233 (Auto-covariance et auto-corrélation) les ρ(h) vérifient les équations de récurrence d ordre p : γ(h) ϕ γ(h ) ϕ p γ(h p) = 0 ρ(h) ϕ ρ(h ) ϕ p ρ(h p) = 0 (i) Pour h > q, les γ(h) et (ii) Elles décroissent donc vers 0 exponentiellement avec h, pour h > q
38 34 CHAPITRE 2 PROCESSUS ARM A ET ARIM A Démonstration (i) X t = ϕ X t + + ϕ p X t p θ ε t θ q ε t q et par conséquent : γ(h) = E(X t X t h ) = ϕ E(X t X t h ) + + ϕ p E(X t p X t h ) θ E(ε t X t h ) θ } {{ } q E(ε t q X t h ) } {{ } =0 =0 = ϕ γ(h ) + + ϕ p γ(h p) Il s en suit que : ρ(h) = ϕ ρ(h ) + + ϕ p ρ(h p) (ii) Les γ(h) et ( les ) ρ(h) vérifient une équation de récurrence dont le polynôme caractéristique est z p+ φ z Les conditions initiales sont γ(q), γ(q ),, γ(q p + ) et ρ(q), ρ(q ),, ρ(q p + ) Equations de Yule-Walker L équation précédente pour k = q +,, q + p donne : ρ(q) ρ(q + p ) ϕ ρ(p + ) = ρ(q + p ) ρ(q) ϕ p ρ(p + q) Quand ρ est connu ou estimé, on peut alors calculer les φ j Ou inversement, quand les ϕ j sont connus, on calcule ρ(q + ),, ρ(q + p) qui seront les conditions initiales pour le calcul de ρ(h) tel h > q 24 Processus ARIM A(p, d, q) Ces processus sont non stationnaires dès que d Les séries économiques sont souvent non stationnaires, tel le PIB Exemple 24 On considère un processus (X t ) t Z correspondant à une marche aléatoire c està-dire t 0, X t = X t + ε t tel que ε t BB(0, σ 2 ) et t > 0, Cov(ε t, X 0 ) = 0 Alors t t X t = X 0 + ε k = X 0 + On ne peut pas itérer le procédé car = X + + j=0 k= j=0 t ε k = X + ε t j t j=0 ε t j ε t j n est pas défini On ne peut pas supposer le processus démarre à La condition initiale est Cov(X 0, ɛ k ) = 0 pour k > 0 On peut alors penser à considérer : ( L)X t = X t X t = X t = ε t
39 24 PROCESSUS ARIM A(P, D, Q) 35 Idée générale : X t ARIMA(p, d, q) si et seulement si ( L) d X t est stationnaire alors que ( L) d X t ne l est pas (dans le cas de la marche aléatoire, d = ) Définition 24 (Représentation canonique minimale) (X t ) t pd est un processus ARIMA(p, d, q) en représentation canonique minimale s il vérifie une équation du type : t 0, ( L) d φ(l)x t = µ + θ(l)ε t Et ceci avec : (i) ε t BB(0, σ 2 ) (ii) φ(l) = ϕ L ϕ p L p où ϕ p 0 θ(l) = θ L θ q L q où θ q 0 (iii) φ et θ ont leurs racines de module > et n ont pas de racines communes (iv) conditions initiales Z = (X,, X p d, ε,, ε q ) telles que Cov(ε t, Z) = 0 Exemple 242 Soit le processus défini par ( L)X t = ε t On a donc d o φ = d o θ = 0 Si Z = X, Cov(Z t, ε t ) = 0 t 0 Remarque 24 Comme ( L) d φ(l)x t = φ(l)( L) d X t, on pose Y t = ( L) d X t (Y t ) suit alors le processus : φ(l)y t = µ + θ(l)ε t Proposition 24 Sous les hypothèses précédentes, ( L) d X t = Y t est alors asymptotiquement équivalent à un processus ARM A(p, q) Démonstration Ce qui signifie qu il existe un processus stationnaire (Z t ) t Z tel que : φ(l)z t = µ + θ(l)ε t lim Y t Z t 2 = 0 t + Notations Si d = 0, X t ARMA(p, q) qui est un processus stationnaire On note X t I(0) Si d =, (X t ) est un processus intégré d ordre On note X t I() Si d = 2, (X t ) n est pas stationnaire, Y t = ( l)x t non plus, Z t = ( l)y t = ( L) 2 X t est asymptotiquement équivalent à un processus stationnaire On note X t I(2) Définition 242 Si ( L) d X t est asymptotiquement équivalent à un processus stationnaire et si ( L) d X t ne l est pas alors on dit que (X t ) est intégré d ordre d et on note X t I(d)
40 36 CHAPITRE 2 PROCESSUS ARM A ET ARIM A 24 Approximation auto-régressive d un ARIM A(p, d, q) Proposition 242 Avec les notations précédentes, A t (L), A t (L) = t j=0 at j Lj et a 0 t = µ 0 h(t) R p+d+q et lim h(t) = 0 tels que A t(l)x t = µ 0 + ε t + h(t) Z t + X t = t a t jx t j + ε t + h(t) Z Démonstration On pose ψ(l) = ( L) d φ(l), avec cette notation : j= ψ(l)x t = µ + θ(l)ε t d o ψ = p + d, d o θ = q On effectue la division selon les puissances croissantes à l ordre t de par θ(z) : = θ(z)q t (z) + z t+ R t (z) où d o Q t = t, d o R t = q Ce qui implique : Or = θ(l)q t (L) + L t+ R t (L) Ainsi En décomposant la somme t j=0 ψ(l)q t (L) X } {{ } t = Q t ()µ + Q t (L)θ(L)ε t d o =p+d+t p+d+t j=0 = Q t ()µ + ( L t+ R t (L))ε t a (t) j X t j = µ 0 + ε t R t (L)ε p+d+t a (t) j X t j = µ 0 + ε t j=t+ a (t) j q X t j r (t) k ε k On effectue le changement d indice k = t j dans p+d+t j=t+ a(t) j X t j : t j=0 a (t) j X t j = µ 0 + ε t k= p d a (t) q t k X k r (t) k ε k } {{ } h(t) Z 242 Approximation moyenne mobile d un ARIM A(p, d, q) Proposition 243 Sous les mêmes hypothèses, B t (L), B t (L) = t j=0 b(t) j Lj et b (0) t = µ h(t) R p+d+q et lim h(t) = 0 tels que X t = µ + B t (L)ε t + h(t) Z t +
41 24 PROCESSUS ARIM A(P, D, Q) 37 Corollaire t, ε t L(X 0,, X t,, Z) X t L(ε 0,, ε t,, Z) ε t = X t EL(X t X 0,, X t,, Z) est le processus des innovations Proposition 244 (Calcul de EX t ) Si l on note m t = EX t alors m t vérifie ψ(l)m t = µ On obtient ainsi : ( ) une équation de récurrence dont le polynôme caractéristique est z p+d+ ψ, z une forme générale de la solution (pour µ = 0 et µ 0) Exemple 243 (i) Marche aléatoire sans dérive : ( L)X t = ε t ( L)m t = 0 m t = cte (ii) Marche aléatoire avec dérive : ( L)X t = µ + ε t alors m t m t = µ ( L)m t = µ m t = m 0 + µ t (iii) ( L)( ϕl)x t = ε t et alors m t = α + βϕt (iv) On a vu que : X t = X 0 + t k= ε k si µ = 0 EX t = EX 0 X t = X 0 + µt + t k= ε k si µ 0 EX t = EX 0 + µt
42 38 CHAPITRE 2 PROCESSUS ARM A ET ARIM A
43 Chapitre 3 Identification et estimation d un modèle ARMA ou ARIMA Introduction On dispose d observations x,, x T de X,, X T Comment modéliser par un ARMA ou un ARIMA? On a 2 types de choix : (X t ) t Z est un processus stationnaire auquel cas il faut estimer un ARMA(p, q), ou (X t ) I(d) est donc non stationnaire mais ( L) d X t est stationnaire, dans ce cas il faut estimer un ARIMA(p, d, q) La démarche pour l identification est la suivante : (i) Choix de d, (ii) Choix de (p, q), (iii) Estimer ϕ,, ϕ p, θ,, θ q (ce qui peut se faire par le maximum de vraisemblance sous l hypothèse que les ε t N (0, σ 2 ) sont iid) et σ 2, (iv) Phase de vérification : ϕ p 0? ϕ p 0? ε t BB(0, σ 2 )? Les deux premières étapes constituent la phase d identification du processus et pour vérifier la non nullité des coefficients lors de la phase de vérification il faudra définir les tests auxquels on aura recours En ce qui concerne le choix de d on peut procéder de façon empirique (en observant les auto-corrélogrammes) ou en effectuant des tests de racine unité : { H0 : d = H : d = 0 DF (ADF), PP, SP H 0 : d = 0 H : d = KPSS 3 Première phase de l identification : choix de d 3 Approche empirique : l auto-corrélogramme On a vu que : si X t ARMA(p, q), les ρ(h) décroissent exponentiellement vers 0 avec h (pour h > q), 39
44 40CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA si (X t ) est stationnaire ˆρ T (h) P ρ(h), sous des hypothèses suffisantes (E ( ε 4 ) t = cte) : ( ) ˆρT () ρ() L T N (0, ), ˆρ T (h) ρ(h) h Remarque 3 Si (X t ) admet une racine unité, la proposition ρ(h) décroît exponentiellement vers 0 avec h n est plus vraie : c est la persistance des chocs Exemple 3 On considère un processus (X t ) tel que X t X t = ε t où ε t BB(0, σ 2 ) et Cov(ε t, X 0 ) = 0 si t 0 t X t = X 0 + k= ε k t+h X t+h = X 0 + k= ρ(h) = Cov(X t, X t+h ) V(Xt )V(X t+h ) ( Cov X 0 + t k= ε k, X 0 + ) t+h j= ε j = (VX0 + tσ 2 ) /2 (VX 0 + (t + h)σ 2 ) ε k = VX 0 + tσ 2 (VX0 + tσ 2 )(VX 0 + (t + h)σ 2 ) Pour t grand et h t, tσ 2 ρ(h)# σ 2 t(t + h) = # h + h 2t t La décroissance est lente et linéaire en h D où une règle pratique : si les ˆρ T (h) restent proches de ou décroissent linéairement avec h alors le processus est sans doute non stationnaire Remarque 32 () Si l auto-corrélogramme fait penser que (X t ) est non stationnaire, alors on étudie l auto-corrélogramme de Y t = ( L)X t (2) On étudie l auto-corrélogramme inverse pour étudier une sur-différentiation éventuelle (3) Rappel : si φ(l)x t = θ(l)ε t et θ(l)z t = φ(l)η t, alors Si (X t ) est stationnaire, alors φ() 0 ρ i X(h) = ρ Z (h) φ(l)( L)X t = θ(l)( L)ε t ρ i X(h) = ρ W (h) avec (W t ) d équation θ(l)( L)W t = φ(l)η t Si on a sur-différentiation les ρ i X (h)ne décroissent pas vers 0 exponentiellement avec h
45 3 PREMIÈRE PHASE DE L IDENTIFICATION : CHOIX DE D 4 32 Approche par les tests de racine unité On présente ci-dessous les principaux tests de racine unité dans la littérature Dans les trois premiers paragraphes (tests de Dickey-Fuller, Phillips-Perron, Schmidt-Phillips) ; l hypothèse nulle est l hypothèse de non-stationnarité dans la série étudiée ; dans le dernier paragraphe, (tests KPPS), l hypothèse nulle est celle de stationnarité La présentation qui est donnée ici des tests de Dickey-Fuller et de Phillips-Perron s inspire largement de celle de JD Hamilton, Time Series Analysis, Princeton University Press, 994 Il faut d emblée signaler que les tests présentés ici sont peu puissants Par ailleurs, les tests de Dickey-Fuller sont présentés en détail à cause de la place qu ils tiennent dans la littérature, mais leur mise en œuvre pratique s avère souvent problématique : nécessité de procéder à des tests emboîtés d une part, cadre mal adapté aux séries présentant une tendance d autre part Dans ce dernier cas notamment, on leur préfère le test de Schmidt-Phillips Les tests de Dickey-Fuller Dans tous les modèles présentés ci-dessous, (η t ) désigne un bruit blanc et ρ un réel tel que ρ Le cadre général des tests DF et ADF Ces tests peuvent être regroupés en quatre cas : Pour les tests DF y t = ρy t + η, avec H 0 : ρ =, marche aléatoire sans dérive ; 2 y t = α + ρy t + η, avec H 0 : α = 0, ρ =, marche aléatoire sans dérive ; 3 y t = α + ρy t + η, avec H 0 : α 0, ρ =, marche aléatoire avec dérive ; 4 y t = α + βt + ρy t + η, avec H 0 : α = 0, β = 0, ρ =, marche aléatoire sans dérive, ou H 0 : β = 0, ρ =, marche aléatoire avec dérive Pour les tests ADF Soit Φ(L) polynôme de degré p 2, dont les racines sont supposées de module supérieur à, et ayant au plus une racine égale à : p Φ(L) = ( λ i L) i= avec éventuellement! i 0 / λ i0 = et i i 0, λ i < D où la réécriture des cas : Φ(L)y t = η, H 0 : Φ() = 0 ; 2 Φ(L)y t = α + η, H 0 : Φ() = 0, α = 0 ; 3 Φ(L)y t = α + η, H 0 : Φ() = 0, α 0 ; 4 Φ(L)y t = α + βt + η, H 0 : Φ() = 0, α = 0, β = 0, ou H 0 : Φ() = 0, β = 0 L écriture des quatre modèles ci-dessus peut être transformée en utilisant la démarche suivante : On décompose Φ(L) = φ L φ p L p sous la forme p Φ(L) = Φ() + ( L)Φ (L) = Φ() ( L) α i L i i=0
46 42CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA avec α 0 = (φ + + φ p ) = Φ() et i p, α i = α i + φ i = (φi + + φ p ) On obtient : p Φ(L)y t = Φ()y t α 0 y t α i y t i i= p = Φ()y t (Φ() )(y t y t ) α i y t i = y t + (Φ() )y t p α i y t i i= i= En posant ρ = Φ(), on obtient : y t = ρy t + p i= α i y t i = η, H 0 : ρ = 2 y t = α + ρy t + p i= α i y t i = η, H 0 : α = 0, ρ = 3 y t = α + ρy t + p i= α i y t i = η, H 0 : α 0, ρ = 4 y t = α + +βtρy t + p i= α i y t i = η, H 0 : α = β = 0, ρ = ou H 0 : β = 0, ρ = De plus, comme Φ() = ( λ i ) ( λ i )( λ i ) > 0 λ i R λ i C R on a, comme précédemment, ρ Les tests DF apparaissent comme des cas particuliers des tests ADF, dans lesquels p = et p i= α i y t i = 0 Tous ces modèles sont estimés par les MCO Pour simplifier, on les écrit souvent sous la forme : Cas : p y t = φy t + α i y t i + η, φ = ρ Cas 2 et 3 : Cas 4 : i= p y t = α + φy t + α i y t i + η i= p y t = α + βt + φy t + α i y t i + η Les statistiques de tests et leurs lois Les résultats sont les suivants : les α i et les t bαi ont des lois limites standard, même sous l hypothèse de non-stationnarité, ce qui permet de fixer p par des tests de Fisher, et donc de partir avec p grand ; les coefficients qui caractérisent la nature stochastique de la série, α, β, φ = ρ, ont les mêmes lois dans le cadre DF et ADF Ces lois sont non standard, mais elles sont tabulées Il faut noter que les lois asymptotiques sont valables quelle que soit la loi des η, alors que les lois à distance finie sont valables seulement si les η sont gaussiens H 0 : ρ = H 0 : φ = 0 On dispose des lois sous H 0 de : i=
47 3 PREMIÈRE PHASE DE L IDENTIFICATION : CHOIX DE D 43 T bφt = T bρ table B5 cas ; t bφt = t bρ table B6 cas NB : il s agit d un test unilatéral puisque ρ On rejette H 0 au seuil a si T bφt t bφt < c a 2 2 H 0 : α = 0, ρ = H 0 : α = 0, φ = 0 On dispose des lois sous H 0 de : T bφt = T bρ table B5 cas 2 ; t bφt = t bρ table B6 cas 2 ; Φ, statistique de Fisher pour l hypothèse : table iv ; t bα, statistique de Student associée à α : table i 3 H 0 : α 0, ρ = H 0 : α 0, φ = 0 La loi limite sous H 0 de t bφt = t bρ est N (0, ) < c a ou 4 H 0 : α = 0, β = 0, ρ = H 0 : α = 0, β = 0, φ = 0 ou H 0 : β = 0, ρ = H 0 : β = 0, φ = 0 lois sous H 0 T bφt = T bρ table B5 cas 4 ; t cφt = t bρ table B6 cas 4 ; Φ, statistique de Fisher pour l hypothèse : table v ; t bα : table ii ; t bβ : table iii lois sous H 0 T bφt = T bρ table B5 cas 4 ; t bφt = t bρ table B6 cas 4 ; Φ, statistique de Fisher pour l hypothèse : table vi Mise en œuvre pratique des tests On choisit d abord entre les cadres donnés par le cas 2 ou le cas 4 suivant que le graphique présente une tendance (cas 4) ou non (cas 2) On se place dans le cadre ADF en choisissant p suffisamment grand pour avoir ε t BB Puisque la loi des α i est standard dans tous les cas, on commence par réduire (éventuellement) p en menant des tests de nullité des derniers retards (Fisher ou Student) Cas 2 La difficulté de la construction d une procédure rigoureuse de tests emboîtés provient du fait que la loi de t bρt = t bφt dépend de la vraie valeur de α, qui est elle-même inconnue Cependant, on peut remarquer que, pour un seuil de test donné, la valeur critique c a 2 associée à t bφt dans le cas où α = 0 est inférieure à la valeur critique c a 3 qui lui est associée quand α 0 (Cas 3) Par exemple, pour T = + et a = 0, 05, cas valeurs critiques sont c a 2 = 2, 86 et c a 3 =, 645 (quantile à 5% de N (0, ) On peut donc proposer la démarche suivante : Si t bφt < c a 2, on rejette l hypothèse ρ = au seuil a, quelle que soit la vraie valeur de α ; Si t bφt < c a 3, on accepte l hypothèse ρ = au seuil a, quelle que soit la vraie valeur de α (plus exactement, on ne rejette pas cette hypothèse) On peut ensuite mener un test de l hypothèse jointe H 0 : α = 0, ρ = en utilisant la statistique Φ et la valeur critique k2 a associée (table iv : si Φ < k2 a, on accepte H 0 au seuil a ; si Φ < k2 a, on refuse H 0, donc on considère que le vrai modèle est celui du cas 3 Par exemple, pour T = + et a = 0, 05, k2 a = 4, 59 Si c a 2 < t φt b < c a 3, on ne peut rien conclure au vu de la statistique t φt b On mène donc le test de l hypothèse jointe H 0 : α = 0, ρ =
48 44CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA si Φ < k a 2, on accepte H 0 au seuil a ; si Φ < k a 2, on refuse H 0 au seuil a ; on se trouve vraisemblablement dans le cas où α 0 et ρ < ; ceci peut être contrôlé en examinant la statistique de Student associée à α Cas 4 Le problème est ici que les lois limites ne sont connues que lorsque β = 0, alors que la vraie valeur de β est inconnue Ceci provient du fait que le modèle est mal adapté au cas de séries présentant une tendance déterministe linéaire, comme on le verra ci-dessous On choisira donc plutôt, dans ce cas, de recourir au test de Schmidt-Phillips Dans le cadre des tests de Dickey-Fuller, la seule procédure de tests emboîtés qui puisse être proposée est la suivante : si Φ 3 < k3 a (table vi), on accepte l hypothèse H 0 : (β = 0, ρ = ) au seuil a, quelle que soit la vraie valeur de α Par exemple, pour T = +, a = 0, 05, k3 a = 6, 25 On teste ensuite l hypothèse H 0 : (α = 0, β = 0, ρ = ) à l aide de la statistique Φ 2 : si Φ 2 < k4 a (table v), on accepte H 0 ; si Φ 2 > k4 a, on refuse H 0 si Φ 3 > k3 a, on refuse H 0, et donc aussi H 0 Les tests de Phillips-Perron L idée sous-jacente aux tests ADF est qu en remplaçant les modèles du cadre DF : d t = 0 cas y t = d t + φy t + η, d t = α cas 2 et 3 d t = α + βt cas 4 par des modèles du type : p y t = d t + φy t + α i y t i + η On peut toujours choisir p assez grand pour conserver l hypothèse de bruit blanc sur η Ceci entraîne que les lois limites des estimateurs des paramètres caractérisant la nature stochastique de la série sont identiques à celles du cadre DF Phillips et Perron ont proposé une autre façon de traiter l auto-corrélation éventuelle du processus ( y t ) Les modèles considérés ont la même forme que ceux du cadre DF : i= y t = d t + φy t + u t mais on admet la possibilité que les u t soient auto-corrélés Les auteurs montrent que, sous réserve d introduire un terme correctif adapté, les lois des statistiques T bφt = T bρt et t bφt = t bρt sont asymptotiquement identiques à celles qui sont observées dans le cadre DF Ces termes correctifs sont fondés sur des estimateurs convergents de σ 2 u = γ u (0) et de ω 2 = 2πf u (0), c est-à-dire : ω 2 = ( γ u (k) = lim V T k Z T T t= u t ) Ces estimateurs sont calculés comme suit : on estime le modèle par les mco et on calcule les résidus estimés û t ;
49 3 PREMIÈRE PHASE DE L IDENTIFICATION : CHOIX DE D 45 on pose : et k 0, γ u (k) = T ω 2 T K = γ u(0) + 2 K k= T t=k+ û t û t k ( k ) γ u (k) K + avec K suffisamment grand (estimateur de Newey-West) En général, on choisit K de l ordre de T Pour les différentes valeurs possibles de d t (d t = 0, d t = α, d t = α + βt), on obtient des lois identiques à celles du cadre DF en remplaçant : T bφt = T bρt par : T bφt 2 T 2 σ2 bφt σ 2 u ( ω 2 T K γ 0 ) t bφt = t bρt par : γ 0 ω 2 T K t bφt 2 T σ2 bφt σ 2 u ( ω 2 T K γ 0) ω T K Le test de Schmidt-Phillips Le problème posé par le cas 4 des tests DF et ADF est que les paramètres n ont pas la même interprétation sous l hypothèse nulle et sous l hypothèse alternative Considérons en effet le modèle : y t = α + βt + ρy t + η et l hypothèse : H 0 : β = 0, ρ = Sous l hypothèse alternative, on a : Sous l hypothèse H 0, on a : ( ρl)y t = α + βt + η y t = ( ρl) (α + βt + η) y t = α ρ + β (t ρ(t )) + ρk ε t k y t = a + bt + u t avec b = β( ρ), a = βρ + α ρ u t = ρk ε t k I(0) y t = y 0 + αt + Donc, sous H a, y t est stationnaire autour d une tendance déterministe de pente b = β( ρ), et sous H 0, y t est non stationnaire autour d une tendance déterministe de pente α La formulation du modèle n est donc pas satisfaisante Schmidt et Phillips ont proposé un modèle et un test beaucoup mieux adapté au cas des séries présentant une tendance Dans ce modèle, on suppose que y t = α + βt + u t, avec (u t ) non stationnaire sous H 0 et (u t ) stationnaire sous H Méthode de test pour le modèle de base Dans le modèle de base, on suppose que : t ε t k y t = α + βt + u t u t = ρu t + η avec ρ, η BB(0, σ 2 )
50 46CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA On pose : H 0 : ρ = On calcule : Comme le modèle s écrit aussi : β = y T y T, α = y β, û t = y t α βt y t = b + u t u t = b + (ρ )u t + η = b + φu t + η on estime par les mco le modèle : y t = µ+φû t +η t et on teste : H 0 : φ = 0 contre H : φ < 0 Soit φ T l estimateur des mco de φ, et t bφt la statistique de Student associée, on refuse H 0 au seuil a si T bφt = T bρt < c a ou si t bφt < c a avec ca et c a obtenus dans la table A (par exemple, pour T = 00, a = 0, 05 : c a = 3, 04) Cas général On suppose toujours : { yt = α + βt + u t u t = ρu t + η mais on ne fait plus l hypothèse que (η) est un BB On effectue le même type de correction que dans le test de Phillips-Perron pour prendre en compte l auto-corrélation éventuelle des η La procédure de test proposée par les auteurs est cependant un peu différente de la précédente Tenant compte du fait que : Ils estiment directement le modèle : ( ρl)y t = ( ρl)(α + βt) + ( ρl)u t = a + bt + η y t = a + bt + φy t + η par les MCO, et calcule σ 2 ε et ω 2 KT pour les résidus ε t comme cela a été fait pour û t au paragraphe 2, et λ 2 σ = c ε 2 bω KT 2 On reprend ensuite la démarche exposée au 32 pour calculer φ T = ρ T et t bφt Les auteurs montrent que les lois limites de T φt b λ 2 T bφt et t bφt au 32 et t b φt λ 2 Le test KPSS (Kwiotowski, Phillips, Schmidt, Shin) sont identiques respectivement aux lois obtenues pour Comme on l a dit en introduction, l hypothèse nulle de ce test est celle de la stationnarité (autour d une constante ou d une tendance déterministe linéaire), contrairement à tous les cas précédents Deux cas sont donc étudiés : y t = r t + η où η I(0), r t = r t + u t, u t BB(0, σ 2 u) 2 y t = βt + r t + η avec η I(0), r t = r t + u t, u t BB(0, σ 2 u) La statistique de test utilisée correspond à la statistique du test du score lorsque les η sont iid de loi N (0, σ 2 u) Cependant, elle est corrigée de façon à tenir compte de l auto-corrélation des η dans le cas général La procédure employée est alors la suivante :
51 32 DEUXIÈME PHASE DE L IDENTIFICATION : CHOIX DE P ET Q 47 on régresse y t sur une constante (cas ) ou sur une constante et un trend (cas 2) et on calcule les résidus û t de la régression (û t = y t ȳ dans le cas, û t = y t α βt dans le cas 2) ; on calcule : t Ŝ t = et ω 2 T K = T t= k= k= û k T K ( û 2 t + 2 k ) K + T T t=k+ û t û t k avec K de l ordre de T la statistique de test est : η = T 2 T t= Ŝ2 t ω 2 T K La loi limite de η est tabulée dans le cas (η µ dans la table) et dans le cas 2 (η τ dans la table) On refuse H 0 : σ 2 u = 0 au seuil α lorsque la valeur obtenue de η est supérieure à la valeur critique correspondante 32 Deuxième phase de l identification : choix de p et q On suppose que l on a déjà déterminé d et on travaille éventuellement sur Y t = ( L) d X t On assimile alors (Y t ) à un processus ARMA(p, q) On se propose donc de déterminer les valeurs de p et q 32 Résultats préliminaires Soit Y t I(d) et X t = ( L) d Y t On a vu que si X t AR(p) alors { r(h) = 0 si h > p et r(p) 0 ρ i (h) = 0 si h > p et ρ i (p) 0 Et si X t MA(q), alors ρ(h) = 0 si h > q et ρ(q) 0 Enfin on sait que si Y t I(0), alors ˆr T (h) P r(h) ˆρ i T (h) P ρ i (h) ˆρ T (h) P De plus si (ε t ) est stationnaire à l ordre 4 (E ( ε 4 t ) = µ < + ) alors tous ces estimateurs sont asymptotiquement normaux ρ(h)
52 48CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA Remarque 32 (Calcul de ˆρ i T pour Y t ARMA(p, q)) Si φ(l)y t = θ(l)ε t, on a vu que pour η t BB bien choisi, le processus (Z t ) respectant l équation θ(l)z t = φ(l)η t vérifie ρ Z (h) = ρ i Y (h) On a et On prendra où K est suffisamment grand Z t = θ(l) φ(l)η t = A(L)η t = ρ Z (h) = + j=0 a ja j+h + j=0 a2 j ˆρ i Y (h) = ˆρ Z (h) = + j=0 = ρ iy (h) K j=0 âjâ j+h K j=0 â2 j a j η t j Par ailleurs : θ(l) φ(l)y t = ε t A(L)Y t = ε t Y t = + j= a jy t j + ε t Il est possible d obtenir â,, â K en régressant Y t sur Y t,, Y t K 322 Choix de p pour un AR(p) On montre que T (ˆrT (h) r(h)) loi N (0, ) T (ˆρ i T (h) ρ i (h)) loi N (0, ) On teste H 0 : r(h) = 0 contre H 0 : r(h) 0 On refuse H 0 si [ T ˆr T (h) >, 96 au seuil de 5% L intervalle de confiance à 95% pour r(h) : ˆr T (h),96 T, ˆr T (h) +,96 T ] Si ˆr T (h) est non significativement différent de zéro pour h > p et ˆr T (p) 0, alors p est l ordre de l AR Sur l auto-corrélogramme c est le rang du dernier pic significatif 323 Choix de q pour un MA(q) Si X t MA(q), on montre que T ˆρ T (h) ρ(h) q ρ2 (k) loi N (0, ) Si h > q, T ˆρ T (h) q ρ2 (k) loi N (0, ) Comme ˆρ T (k) ρ(k), on a T ˆρ T (h) q ˆρ2 (k) loi Student
53 33 ESTIMATION Choix de (p, q) pour un ARMA(p, q) Rappel : AR(p) = ARMA(p, 0) et MA(q) = ARMA(0, q) Si X t ARMA(p, q) tel que φ(l)x t = θ(l)ε t alors (X t ) admet une représentation AR( ) donnée par : θ(l) φ(l)x t = + a k X t k = ε t où a 0 = et + a k < + Cette représentation peut être approximée par un AR(P ) pour P assez grand : P a k X t k # ε t De la même façon X t admet une représentation MA( ) donnée par : X t = φ(l) θ(l)ε t = + b k ε t k qui peut aussi être approximée par un MA(Q) pour Q assez grand : Q b k ε t k # X t Exemple 32 Si ˆr T (h) et ˆρ i T (h) sont significativement non nuls pour h 3 seulement et si ˆρ T (h) est significativement non nul pour h 4 seulement, on est amené à estimer un AR(3) et un MA(4) ce qui pousse à choisir un ARMA(p, q) avec p 3 et q 4 33 Estimation A l issue des phases précédentes, on a choisi d et divers couples (p, q) compatibles avec les données Le modèle s écrit : ( L) d φ(l)x t = µ + θ(l)ε t On suppose que ε t iid N (0, σ 2 ε) Les paramètres à estimer sont ω = (ϕ,, ϕ p, θ,, θ q ) et σ 2 ε On calcule l estimateur du maximum de vraisemblance : ln ( x (p+d),, x, x, x 0,, x T ) ln ( x,, x T x (p+d),, x ) ln ( x (p+d),, x ) On a recours à des procédures numériques de maximisation de la vraisemblance : µ la valeur initiale φ() est estimée par la moyenne empirique de ( L)d X t les équations de Yule-Walker donnent un estimateur initial pour (ϕ,, ϕ p ) : ρ(q + ) ˆρ(q) ˆρ(p + q ) ϕ = ρ(q + p) ˆρ(p + q ) ˆρ(q) ϕ p on obtient de la même façon (θ,, θ q ) à partir des ˆρ i T (h)
54 50CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA Propriété de l EMV Soit ω = (θ, σε) 2 On a alors ( ( T (ˆωT ω) loi Ω 0 N 0, 0 α On en déduit des intervalles de confiance asymptotiques pour les paramètres On effectue des tests du type : H 0 : φ p = 0 contre H : φ p 0 H 0 : θ p = 0 contre H : θ p 0 H 0 : µ = 0 contre H : µ 0 33 Cas d un AR(p) On se place dans le cadre suivant : y p+ y T y t = ( L) d (x t m) )) φ(l)y t = ε t y t = ϕ y t + + ϕ p y t p + ε t ε t N (0, σ 2 ) iid suit, conditionnellement à l(y p+,, y T y,, y p ) = T t=p+ ln l(y p+,, y T y,, y p ) = T 2 ln 2π T 2 ln σ2 2σ 2 y y p, une loi normale dont la densité s écrit : ( exp y ) t (ϕ y t + + ϕ p y t p ) 2πσ 2 2σ 2 T [y t (ϕ y t + + ϕ p y t p )] t=p+ La maximisation de la vraisemblance conditionnelle donne ˆϕ,, ˆϕ p qui peuvent être calculés en régressant (MCO) y t sur y t,, y t p CLS (méthode approximative) On a l(y,, y T ) = l(y p+,, y T y,, y p ) l(y,, y p ) où y y p N 0, γ(0) γ(p ) γ(p ) γ(0) } {{ } V p V p étant calculable en fonction de ϕ,, ϕ p, il en découle : l(y,, y p ) = } {{ } p e 2 z V pz 2π det Vp z
55 34 VÉRIFICATIONS A POSTERIORI 5 max ln l(y,, y p ) = max p σ 2,ϕ,,ϕ p σ 2,ϕ,,ϕ p 2 ln 2π 2 ln det V p 2 z V p z Pour plus de détails sur le cas AR(p) on pourra consulter [3] 332 Cas d un M A(q) On considère : ( L) d Y t = θ(l)ε t Y t = X t m t où EX t = m t ε t N (0, σ 2 ) iid θ(l)ε t = ε t θ ε t θ q ε t q La vraisemblance du modèle est l(y,, y T ε 0, ε,, ε q+ ), fonction dont le maximum doit être calculé de façon numérique Soit on suppose ε 0 = ε = = ε q+ = 0 méthode numérique 2 è approximation CLS Soit on ne fait pas cette hypothèse méthode numérique approximation ULLS Pour plus de précisions cf [2] 333 Cas d un ARM A(p, q) Diverses approximations sont possibles : MLE, CLS, ULLS (cf [2]) 34 Vérifications a posteriori 34 Tests sur les paramètres Exemple 34 On désire tester H 0 : ϕ p = 0 contre l hypothèse alternative H : ϕ p 0, on a : ( )) T ( ˆϕT,p ϕ p ) loi N (0, V as T ˆϕT,p D où T ˆϕ T,p ϕ p V as ( T ˆϕT,p ) loi N (0, ) ϕ p est significatif au seuil de 5% (asymptotiquement) si ˆϕ T,p (V as ( ˆϕ T,p ) /2 ) >, 96 } {{ } t ˆϕT,p Exemple 342 Le même test s applique avec θ q à la place de ϕ p, on refuse alors H 0 (ie θ q est significatif) si t ˆϕT,p >, 96
56 52CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA Remarque 34 (Econométrie asymptotique) ˆβ = β + (X X) T X ε T ˆb b ˆσˆb T loi N X T ε et X X T Q ( X ) X 0, lim T } {{ } Q y t = a + bx t + ε t H 0 Student(N 2) Si ˆϕ p n est pas significatif (ou θ q ) on relance l estimation en remplaçant p par p (ou q par q ) Si ˆµ n est pas significatif, on relance l estimation sans terme constant 342 Tests sur les résidus On se place toujours dans les mêmes conditions : φ(l)y t = µ + θ(l)ε t Y t ϕ Y t ϕ p Y t p = µ + ε t θ ε t θ q ε t q ˆε t = Y t ˆϕ Y t ˆϕ p Y t p ˆµ + ˆθ ε t + + ˆθ q ε t q Les résidus estimés (à savoir ˆε t ) sont-ils compatibles avec l hypothèse de bruit blanc de ε t? Pour celà on effectue le test du porte-manteau : ˆρ k (ˆε) = T T t=k+ ˆε tˆε t k L auto-corrélation empirique d ordre k de ˆε t, est alors : Q K = T K ˆρ 2 ε(k) Pour K assez grand (K 2), on montre que si ε t BB(0, σ 2 ) alors k= Q K L χ 2 (K p q) On refuse H 0 : ε t BB au seuil α si Q K > χ 2 α (K p q) Remarque 342 Q K peut être éventuellement remplacé par : Q K = T (T + 2) K k= T k ˆρ2 ε(k)
57 35 CHOIX DU MODÈLE Choix du modèle A l issue des phases d estimation et de vérification il reste en général plusieurs modèles possibles pour représenter les données Pour choisir un modèle on peut se fier à plusieurs critères : ˆσ 2 petit, critère de parcimonie : p + q minimal, critère de qualité de la prévision (cf plus loin), critère d information On suppose ε t BB(0, σ 2 ) iid On considère f 0 (x) = f(x, ω 0, σ0 2 ) la vraie loi (inconnue) du processus et f(x) = f(x, ω, σ 2 ) la famille de loi correspondant au modèle ARMA(p, q) estimé L écart entre ces lois est mesuré par : [ (f, f 0 ) = E 0 2 ln f(x) ] f 0 (x) Cette quantité est positive (d après Jensen) et est nulle si et seulement si f(x) = f 0 (x) ps En pratique on cherche à minimiser l écart entre f 0 et f Il existe différentes façons d approximer ce critère d information : AIC(p, q) = T ln ˆσ 2 + 2(p + q), critère d information d Akaïke SBC(p, q) = T ln ˆσ 2 + (p + q) ln T HQ(p, q) = T ln ˆσ 2 + (p + q)c ln(ln T ) avec c > 2, critère d information Hannan-Quinn On cherche donc à minimiser la quantité d informations
58 54CHAPITRE 3 IDENTIFICATION ET ESTIMATION D UN MODÈLE ARMA OU ARIMA
59 Chapitre 4 Prévision dans les ARMA et les ARIMA Introduction On suppose (p, d, q) connus On dispose d observations x,, x T et on veut faire une prévision à l horizon H, c est-à-dire prévoir x T +,, x T +H On remplacera (ϕ,, ϕ p, θ,, θ q, µ, σ 2 ) par leurs estimateurs 4 Prévisions dans un AR(p) On suppose que l on a le modèle : φ(l)x t = µ + ε t où φ(l) = ϕ L + ϕ ϕ p L p Soit x t+ = µ + ϕ x t + + ϕ p x t p+ + ε t+ Définition 4 (Prévision optimale) On trouve ensuite : tx t+j = EL(X t+j X t ) tx t+ = EL(x t+ x t ) = µ + ϕ x t + + ϕ p x t+ p + EL(ε t+ x t ) tx t+2 = EL(x t+2 x t ) = µ + ϕ t X t+ + ϕ 2 x t + ϕ p x t+ p + EL(ε t+ x t ) tx t+h = µel(x t+h x t ) = p ϕ j t x t+h j j= avec t x t+h j = x t+h j si t + h j t et h j D où l écriture h txt+h = µ + p ϕ j t x t+h j + ϕ j t x t+h j j= j=h 55
60 56 CHAPITRE 4 PRÉVISION DANS LES ARMA ET LES ARIMA On utilise ensuite l équation de récurrence : φ(l) t Xt+h = µ φ(l) ( txt+h } {{ m) = 0 } tyt+h où m = µ φ() = EX t tyt+h est la solution de l équation de récurrence de polynôme caractéristique Zp φ( Z ) On en déduit que t Yt+h est de la forme : ty t+h = r i= m i j= α ij λ j i hj avec les λ i racines distinctes de φ(z) avec la multiplicité m i α ij est obtenu à partir des p conditions initiales (observations ou prévisions) Exemple 4 On considère un AR tel que φ(l) = ( ϕl) 2 où ϕ < On a donc le processus : φ(l)x t = µ + ε t On veut prévoir t X t+h On commence par centrer : φ(l)y t = ε t φ(l) ( t Xt+h } {{ m) = 0 } tyt+h tyt+h s écrit : tyt+h = ϕh (ah + b) Si h = 0, t Yt = Y t = b Si h =, t Yt+ = 2ϕY t ϕ 2 Y t = ϕ(a + b) Par identification a = Y t ϕy t et b = Y t On en déduit tyt+h = ϕh ((Y t ϕy t )h + Y t ) 42 Prévision dans un M A(q) On considère le processus On a la prévision optimale : X t = m + θ(l)ε t q = m + ε t θ j ε t j j= X t+h = m + ε t+h q θ j ε t+h j j= txt+h = EL(X t+h X t ) = EL(X t+h ε t )
61 42 PRÉVISION DANS UN MA(Q) 57 Si h > q, t X t+h = m Si h q, h X t+h = m + ε t+h θ j ε t+h j EL(X t+h X t ) = m j= q θ j ε t+h j j=h q txt+h = = m θ j ε t+h j j=h q θ j ε t+h j j=h Cette forme est exacte mais n est pas utilisable en pratique car les ε t k ne sont pas observés pour k 0 Mais on peut les calculer à partir des observations en utilisant la forme AR( ) : θ(l) (X t m) = ε t θ(l) X t = µ + ε t où µ = m θ() Or θ(l) = a kl k où a 0 = et a k < + On a donc Pour les prévisions optimales : X t = µ X t+h = µ tx t+ = µ a k X t k + ε t k= a k X t+h k + ε t+h k= a k X t+ k k= txt+h = h µ a k Xt+h k a k Xt+h k k= En pratique, on n observe pas les X t pour t < 0 On n a qu une prévision approchée en tronquant : t ˆX h t+h t+h = µ a k ˆX t+h k a k Xt+h k En fait on néglige le terme ( ) a k X t+h k a k X i 2 k=t+h+ 2 k=t+h+ } {{ } k= k=h k=h h 0
62 58 CHAPITRE 4 PRÉVISION DANS LES ARMA ET LES ARIMA 43 Cas d un ARMA(p, q) On considère le modèle : φ(l)x t = µ + θ(l)ε t φ(l)(x t m) = θ(l)ε t En posant Y t = X t m, on se ramène à µ = 0 43 Forme AR( ) On a en multipliant par θ(l) : Y t = ϕ Y t + + ϕ p Y p + ε t θ ε t θ q ε t q θ(l) φ(l) Y } {{ } t = ε t A(L) Y t = a k Y t k + ε t k= h tyt+h = a k Y t+h k a k Y t+h k k= h tŷt+h = a k Ŷ t+h k k= k=h t+h a k Y t+h k k=h 432 Utilisation d une équation de récurrence On connaît l équation de récurrence : Y t+h = p ϕ j Y t+h j + ε t+h j= Si t + h q > t, ie h > q, alors D où EL ε t+h ty t+h = q θ k ε t+h j k= p θ j ε t+h j Y t = 0 j= p j= ϕ j t Y t+h j où t Yt+h j = Y t+h j si t + h j t ie j h Pour h > q, les t Yt+h vérifient l équation de récurrence de polynôme caractéristique Zp φ ( ) Z on en déduit que ty t+h = r i= m i j=0 α ij λ j i hj où on déduit les α ij des conditions initiales t Y t+q,, t Y t+q p observés ou prévus
63 44 CAS D UN ARIMA(P, D, Q) Cas d un ARIMA(p, d, q) On considère le modèle : ( L) d φ(l) X } {{ } t = µ + θ(l)ε t ψ(l) On a les conditions initiales Z = (X,, X p d, ε,, ε q ) On se ramène au cas µ = 0 en posant EX t = m t m t est une solution déterministe de l équation de récurrence ψ(l)m t = µ On pose alors Y t = X t m et on a l équation En t + h ψ(l)y t = θ(l)ε t ψ(l)y t+h = θ(l)ε t+h tyt+h = EL(Y t+h Y t,, Y, Y 0, Z) Utilisation de l approximation auto-régressive t Y t = a j Y t j + H (t)z + ε t j= avec H(t) R p+d+q et lim t H(t) = 0 Y t+h = ty t+h = tŷt+h = t+h a j Y t+h j + H (t + h)z + ε t+h j= t+h a j t Yt+h j + H (t + h)z avec t Yt+h j = Y t+h j si j h j= t+h a j t Ŷ t+h j j= Utilisation d une équation de récurrence ψ(l)y t = θ(l)ε t ψ(l)y t+h = θ(l)ε t+h ψ(l) t Yt+h = 0 si t + h q > t ie h > q Les t Yt+h pour h > q sont solutions de l équation de récurrence de polynôme caractéristique Zp + dψ ( ) Z D où ty t+h = = r i= m i j=0 α ij λ j i hj d α j h j λ j i hj + j= r i=2 m i j=0 α ij λ j i hj Remarque 44 On a la même équation de récurrence pour les t Ŷ t+h, h > q
64 60 CHAPITRE 4 PRÉVISION DANS LES ARMA ET LES ARIMA 45 Intervalles de précision Dans les cas AR, MA, ARMA on sait qu il existe une représentation MA( ) : X t = m + B(L)ε t = m + b k ε t k où b k < On alors en t + h X t+h = m + ε t+h + b k ε t+h k k= Xt+h = EL(X t+h X t ) = EL(X t+h ε t ) = m + ε t+h + b k ε t+h k, si t + h k t L erreur de prévision à l horizon h est : k=h e t (h) = X t+h t Xt+h h = ε t+h + b k ε t+h k Dans les cas ARMA, on a vu une approximation MA, en posant Y t = X t m : Y t = Y t+h = L erreur de prévision est donnée par : k= t b j ε t j + H(t) Z j=0 t b j ε t j + H(t + h) Z j=0 tyt+h = EL(Y t+h Y t,, Y 0, Z) = EL(Y t+h ε t,, ε 0, Z) = t+j b j ε t+h j + H(t + h) Z j=h e t (h) = X t+h t Xt+h = Y t+h t Yt+h h = b j ε t+h j j=0 Si les ε t sont iid N (0, σ 2 ), alors h e t (h) N 0, σ 2 j=0 b 2 j
65 45 INTERVALLES DE PRÉCISION 6 Soient ˆσ 2 et ˆb j des estimateurs convergents de σ 2 et b j On en déduit que : ˆσ e t (h) h ˆb j=0 2 j N (0, ) On en déduit un intervalle de prévision au niveau α pour X t+h : h t Xt+h u α ˆσ h ˆb2 2 j ; t Xt+h u α ˆσ ˆb2 2 j j=0 j=0
66 62 CHAPITRE 4 PRÉVISION DANS LES ARMA ET LES ARIMA
67 Chapitre 5 Processus vectoriels stationnaires - Processus V AR stationnaires Introduction Définition 50 (Processus vectoriel) (X t ) est un processus à valeurs dans R n si avec (x i,t ) processus à valeurs dans R X t = Pour une étude complète, il faudrait étudier : V AR : modèle parlant car on explique à partir des x it passés, V MA : moins parlant car on explique à partir des ε it passés, V ARMA Les modèles V AR ont germé avec l économétrie avec Sims en 980 suite à la critique de Lucas On teste des modèles structurels, l exogénéité 5 Processus vectoriels stationnaires du second ordre 5 Définition et proposition Définition 5 (Processus vectoriel du second ordre) (X t ) est un processus du second ordre si et seulement si On a EX t = Ex t Ex nt x,t x n,t t, X t L 2 R n (Ω, A, P) i, t, x it L 2 (Ω, A, P) X tx t = X t 2 2 = n i= x2 it L (Ω, A, P) = m et VX t = E(X t m)(x t m) = (Cov(x it, x jt )) i,j n 63
68 64CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Définition 52 (Processus vectoriel stationnaire au second ordre) Soit (X t ) est un processus du second ordre On dit que (X t ) est stationnaire au second ordre si et seulement si : (i) EX t = m (ii) VX t = Σ = Γ X (0) (iii) E(X t m)(x t+h m) = Γ X (h) Remarque 5 () (iii) (ii) (2) (iii) Cov(x it, x j,t h ) = γ ij (h), i, j, h (3) (X t ) stationnaire (x it ) stationnaire i Mais la réciproque est fausse en général car les conditions : EX t = m Ex it = m i, i Cov(x it, x i,t h ) = γ i (h) ne suffisent pas pour avoir la stationnarité de (X t ) Exemple 5 () ε t BB(0, Ω) où ε t = Stationnarité? (i) EX t = 0 (ii) VX t = Ω (iii) Eε t ε τ = 0 si t τ OK (2) X t V MA() Soit ε t BB(0, Ω), A M n (R) fixée Alors X t = ε t Aε t est stationnaire : (i) EX t = 0 (ii) ε,t ε n,t VX t = E(ε t Aε t )(ε t Aε t ) (iii) EX t X t = E(ε t Aε t )(ε t Aε t 2 ) Pour h >, EX t X t h = 0 EX t X t+ = ΩA EX t X t+h = 0, si h > = E[ε t ε t Aε t ε t ε ta + Aε t ε t A ] = Ω + AΩA Proposition 5 X t stationnaire h Z, Γ( h) = Γ(h)
69 5 PROCESSUS VECTORIELS STATIONNAIRES DU SECOND ORDRE 65 Démonstration Γ( h) = E(X t m)(x t+h m) = EX t X t+h mm = EX t h X (t h)+h mm par stationnarité = EX t h X t mm = E(X t X t h ) (mm ) = [EX t X t h mm ] = Γ(h) Proposition 52 Soit (X t ) t Z un processus stationnaire Soit (A j ) j Z une suite de matrices telle que j Z A j < + Alors (i) Y t = j A jx t j L 2 R n (Ω, A, P) (ii) Y t est stationnaire avec : EY t = m Y = ( j A j )m X Γ Y (h) = j,k A jγ X (h + k j)a k Démonstration Dans le cas général Γ Y (h) = E(Y t Y = E j = j,k t h ) ( ) A j X t j A k X t k E(A j X t j X t h k A k ) k = j,k E(A j Γ X (h + k j)a k ) Cas particulier Si X t = ε t BB, alors Y t = j Z A j ε t j C est un processus V MA( ) 52 Densité spectrale d un processus vectoriel stationnaire Définition 53 (Densité spectrale) Si X t = Z A kε t k où ε t BB et Z A k < + alors (i) Z Γ X(h) < + (ii) S X (ω) = 2π Z Γ X(h)e iωh est la matrice de densité spectrale de (X t )
70 66CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Démonstration Γ X (h) = EX t X t h car EX t = 0 ( ) = E A j ε t j A k ε t k h = j,k j A k E (ε t j ε t k h ) } {{ } 8 < 0 si j h + k = : Ω sinon k A j = j A j ΩA j On majore ensuite Γ X (h) h Z h k,h A k ΩA k h k A k Ω A k h ( 2 Ω A k ) < + k Donc S X (ω) a un sens Proposition 53 (i) Si ε BB(0, Ω) alors S ε (ω) = 2π Ω (ii) Soit X t = k A kε t k = A(L)ε t tel que k A k < + et Y t = k B kx t k = B(L)X t tel que k B k < + alors Y t = k C kε t k = C(L)ε t et S Y (ω) = B(e iω )S X (ω)b(e iω ) Démonstration (i) C(L) = B(L)A(L) = (BA)(L) (ii) S Y (ω) : cf le cas réel Théorème 5 (Injectivité) On considère le modèle X t = A(L)ε t où ε t BB Alors h Z, Γ X (h) = π π S X (ω)e iωh dω
71 5 PROCESSUS VECTORIELS STATIONNAIRES DU SECOND ORDRE 67 Démonstration π π S X (ω)e iωh dω = π = k π = Γ X (h) ( ) Γ x (k)e iωk e iωh dω k π e iω(k h) Γ X (k) π } {{ } δ kh (symbole de Kronecker ) 53 Innovation d un processus vectoriel Soit X t = x t x nt Définition 54 (Prévision) X t = EL(X t X t ) = où j EL(x t X t ) EL(x nt X t ) EL(x jt X t ) = EL(x jt x,t,, x n,t ) = EL(x jt {x s,, x ns, s t }) = EL(x jt {x is, i = n, s t }) Proposition 54 Soit X t la prévision linéaire optimale de X t à la date t Si ˆXt est une autre prévision linéaire de X t à la date t, alors au sens des matrices symétriques positives On a égalité si et seulement si ˆXt = X t V(X t X t ) V(X t ˆX t ) Remarque 52 () ˆXt est une prévision linéaire de X t en t, ie ˆXt est une fonction linéaire de x js, s t, j = n V(X t X t ) V(X t ˆX t ) u R n {0}, u V(X t X t )u < u V(X t ˆX t )u En particulier pour u = (0,, 0, }{{}, 0,, 0), on a : ième position V(x it x it) V(x it ˆx it ) x it est la prévision optimale de x it comme fonction linéaire des x js, s t
72 68CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES (2) u R n {0}, Vu (X t X t ) < Vu (X t ˆX t ) u X t est une prévision de u X t plus précise que u ˆXt (3) Si on note L(X t ) = L(x,t,, x n,t ) = L({x s,, x ns, s t }) On a L(x i,t ) L(X t ) x it = EL(x it x t ) V(x it x it ) > V(x it x it ) C est normal car on a plus d informations dans L(X t ) que dans L(x i,t ) Proposition 55 (Processus des innovations) Soit (X t ) t Z un processus stationnaire et X t = EL(X t x t ) L innovation de X t est ε t = X t X t On a plus précisément ε t = = = ε t ε nt x t EL(x t X t ) x nt EL(x nt X t ) On montre que (ε t ) t Z est un bruit blanc x t EL(x t {x s,, x ns, s t }) x nt EL(x nt {x s,, x ns, s t }) Remarque 53 () ce qui a été présenté est valable dans le cas où EX t = 0 Quand EX t 0, on définit Puis (2) ε t = ε t ε nt X t = où ε it BB, i L(X t ) = L(, x,t,, x n,t ) EL(x t, x,t,, x n,t ) EL(x nt, x,t,, x n,t ) Mais ε it n est pas l innovation du processus univarié (x it ) En effet x it EL(x it, x,t,, x n,t ) x it EL(x it x,t )
73 5 PROCESSUS VECTORIELS STATIONNAIRES DU SECOND ORDRE 69 Démonstration Eε t = Si j, Ex jt = 0, alors Si EX t 0, alors Eε t Eε nt où Eε it = E(x it EL(x it X t )) E(EL(x it X t )) = E(EL(x it x,t,, x n,t )) E(EL(x it X t )) = E(EL(x it, x,t,, x n,t )) i, x it EL(x it X t ) Ex it E(EL(x it X t )) = 0 Eε it = 0 On peut toujours se ramener à EX t = 0 On a E(ε t ε t) = (E(ε it ε jt )) i,j n avec ε it ε jt = (x it EL(x it X t ))(x jt EL(x jt X t )) } {{ } L(X t ) E(ε it ε jt ) = E[x it (x jt EL(x jt X t ))] = E(x it x jt ) E(x it EL(x jt X t )) Si s < t, alors E(ε t ε s) = (E(ε it ε js )) i,j n où ε it = x it EL(x it X t ) L(X t ) Donc E(ε it ε js ) = 0 si s < t ε js = x js EL(x js X t ) L(X s ) L(X t ) Théorème 52 (Théorème de Wold) Soit (X t ) un processus vectoriel stationnaire et (ε t ) le processus des innovations On a alors (A k ) k Z tel que X t = m t + Z A k ε t k avec A 0 = I et Z A k < + 54 Convergence des moments empiriques Soit X t = x t x nt et EX t = m m n
74 70CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES On définit les estimateurs : ˆm = T ˆΓ(0) = ˆΓ(h) = T X t = X T = t= T ou T x t x nt T (X t X T )(X t X T ) t= T h ou T h T (X t X T )(X t h X T ) Proposition 56 (i) Convergence : ˆm et ˆΓ(h) sont des estimateurs convergents respectivement de m et Γ(h) (ii) Normalité asymptotique : t= T ( ˆm m) loi N ( 0, h Z Γ X (h) ) On note ˆΓ(h) = (ˆγ ij (h)) i,j n On a la normalité jointe de toute famille finie de ˆγ ij (h), i, j, h Exemple 52 T ˆγ (0) γ (0) ˆγ nn (0) γ nn (0) ˆγ () γ () ˆγ nn () γ nn () n(n+) 2 termes de ˆΓ(0) Γ(0) n2 termes de ˆΓ() Γ() loi N (0, ) 52 Processus V AR stationnaires 52 Définition et proposition générale Définition 52 Soit X t V AR(p), µ R n, (φ j ) j p (M n (R)) p, φ p 0, ε t BB(0, Ω), Ω M n (R) tel que où φ(l) = I n φ L φ p L p Remarque 52 φ k = X t = µ + φ X t + + φ p X t p + ε t φ(l)x t = µ + ε t ( ) ϕ k ij i,j n i, x it = µ i + p n k= j= (ϕ k ijx j,t k ) + ε it
75 52 PROCESSUS V AR STATIONNAIRES 7 Proposition 52 Si det φ(z) a toutes ses racines de module strictement plus grand que, alors (i) φ(l) est inversible (ii) φ(l) = A kl k tel que A 0 = I et A k < + Démonstration φ(l) = I n φ L φ p L p = (ϕ ij (L)) i,j n avec ϕ ij (L) = δ ij ϕ ij L ϕ p ij Lp On note φ(z) = I φ Z φ p Z p = (ϕ ij (Z)) i,j n, Z C avec ϕ ij (Z) = δ ij ϕ ij Z ϕ p ij Zp On note φ(l) la comatrice de φ(l) On sait que φ(z) φ(z) = φ(z)φ(z) = det φ(z)i n φ(l) φ(l) = φ(l)φ(l) = det φ(l)i n On aura donc φ(l) inversible det φ(l) inversible On sait que si les racines de det φ(z) sont de module strictement plus grand que, alors det φ(l) Dans ce cas, det φ(l) a pour inverse (det φ(l)) = a k L k tel que a 0 = et a k < + On a donc avec φ(l) = ( ϕ ij (L)) i,j n et d o ϕ ij p n φ(l) φ(l) = det φ(l)i n φ(l) φ(l)(det φ(l)) } {{ } = I n φ(l) ( ) φ(l) = a k L k φ(l) = avec A 0 = a 0 φ()in et k A k < + car k a k < A k L k Remarque 522 Si det φ() = 0 alors (X t ) est non stationnaire φ(l)x t = µ + ε t X t = φ(l) (µ + ε t ) X t = φ(l)(det φ(l)) (µ + ε t ) det φ(l) X t = φ(l)(µ + ε t ) ( L)ψ(L)X t = φ(l)(µ + ε t ) 0 Proposition 522 Si φ(l)x t = µ + ε t et si les racines de det φ(z) sont de module strictement supérieur à, alors (i) X t = m + 0 A kε t k avec A 0 = I et A k < + (ii) (ε t ) est le processus des innovations de (X t )
76 72CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Démonstration (i) Soit le modèle φ(l)x t = µ + ε t avec φ(l) inversible L inverse de φ(l) est donné par φ(l) = det φ(l) φ(l) = A l L k 0 où A 0 = I n et A k < + On a X t = φ(l) (µ + ε t ) = φ(l) µ + φ(l) ε t = m + A k ε t k 0 (ii) φ(l)x t = µ + ε t p X t = µ + φ k X t k + ε t x it = µ i + p n k= j= ϕ k ijx j,t k + ε it D où ε it L(x it,, x,t,, x,t p,, x n,t p ) Puis L(, ε t ) = L(, {ε is, i = n, s t}) L(X t ) n i, x it = µ i + j= a k ijε j,t k L(, {ε is, i = n, s t}) = L(, ε t ) L(, X t ) L(, ε t ) L(, X t ) = L(, ε t )
77 52 PROCESSUS V AR STATIONNAIRES 73 Montrons que ε t = X t X t Xt = EL(X t, X t ) ( ) p = EL µ + φ k X t k + ε t X t ( EL µ + ( p n ) ) k= j= ϕk j x j,t k ε t X t = ( EL µ n + ( p n ) ) k= j= ϕk nj x j,t k ε nt X t p = µ + φ k X t k + EL(ε t, X t ) } {{ } } {{ } EL(ε t,ε t ) X t ε t } {{ } 0 car ε t BB CQFD Remarque 523 () X t = m + 0 A kε t k = m + φ(l) ε t d après le théorème de Wold avec m = EX t = φ(l) µ (2) Soit le modèle φ(l)x t = µ + ε t a) Si det φ(z) a ses racines de module strictement plus grand que, alors X t = m+φ(l) ε t On en déduit que (X t ) Z est stationnaire (représentation V MA( )) b) Si det φ() = 0, alors (X t ) ne peut pas être stationnaire car det φ(z) = ( Z) d ψ(z) tel que les racines de ψ sont de module strictement plus grand que ( L) d X t = ψ(l) φ(l)(µ + εt ) c) Si det φ(z) a toutes ses racines de module strictement supérieur à, alors il existe une solution (X t ) stationnaire, il existe aussi des solutions non stationnaires en espérance : Z t = X t + Y t où Y t est déterministe tel que φ(l)y t 522 Prévision dans un V AR stationnaire A la date t, on souhaite effectuer une prévision de X t+h et déterminer une région de confiance de la prévision de X t+h On considère le modèle φ(l)x t = µ + ε t avec det φ(z) ayant toutes ses racines de module strictement supérieur à On s intéresse à la solution stationnaire (X t ) Prévision tx t+ = EL(X t+, X t ) tx t+h = EL(X t+h, X t )
78 74CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Plus précisément on a txt+ = µ + φ X t + + φ p X t++p + EL(ε t+ X t ) } {{ } 0 X t+2 = µ + φ X t+ + + φ p X t+2+p + ε t+2 txt+2 = µ + φ t Xt+ + + φ p X t+2+p + EL(ε t+2 X t ) } {{ } 0 X t+h = µ + tx t+h = µ + p φ k X t+h k + ε t+h p φ k t Xt+h k + 0 avec t X t+h k = X t+h k si k h C est la méthode itérative de calcul de la prévision de X t+h Région de confiance sous hypothèse de normalité Si h =, X t+ t X t+ = ε t+ N (0, Ω) car les ε t sont iid et N (0, Ω) La région de confiance de R n dans laquelle X t+ a une probabilité α de se trouver est { (Xt+ t X t+) Ω (X t+ t X t+) q α ( χ 2 (n) )} C est un ellipsoïde en dimension n Si h = 2, X t+2 t X t+2 = φ (X t+ t X t+ )ε t+2 V(X t+2 t X t+2) = φ Ωφ + Ω D où (X t+2 t X t+2) (φ Ωφ + Ω) (X t+2 t X t+2) χ 2 (n) On peut en déduire comme précédemment une région de confiance au niveau α 53 Estimation d un modèle V AR sous hypothèse de normalité 53 Ecriture empilée du modèle Exemple 53 (Cas n = 2, p = 2) X t = = ( xt x 2t ( µ µ 2 ) ) ( a b + a 2 b 2 ) ( x,t = µ + φ X t + φ 2 X t 2 + ε t x 2,t ) ( c d + c 2 d 2 ) ( x,t 2 x 2,t 2 ) ( εt + ε 2t )
79 53 ESTIMATION D UN MODÈLE V AR SOUS HYPOTHÈSE DE NORMALITÉ 75 Modèle empilé avec T observations : x 3 x T x 23 x 2T x 2 x 22 x x = x,t x 2,T x,t 2 x 2,T x 2 x 22 x x x,t x 2,T x,t 2 x 2,T 2 ( x x 2 ) = ( Z 0 0 Z ) ( β β 2 ) ( Z Z ) ( ε On a donc le modèle (M) (I 2 Z)β + ε où désigne le symbole de Kronecker (M) se décompose en les 2 sous-modèles : (M ) x = Zβ + ε (M 2 ) x 2 = Zβ 2 + ε 2 ε 2 ) µ a b c d µ 2 a 2 b 2 c 2 d 2 + ε 3 ε T ε 23 ε 2T ( ) σ σ On veut calculer Vε, en supposant que ε t N (0, Ω) où Ω = 2 avec σ σ 2 σ 2 = σ 2 22 ε 3 σ 0 σ 2 0 ( ) V ε T ε 23 = 0 σ 0 σ 2 σ I σ 2 0 σ 22 0 = T 2 σ 2 I T 2 = Ω I σ I T 2 σ 2 I T 2 T 2 0 σ 2 0 σ 22 ε 2T Cas général On étudie le modèle : X t = µ + p k= φ kx t k + ε t où ε t BB(0, Ω) x t µ ϕ p k ϕ k n x,t k ε t = + + x nt µ k= n ϕ k n ϕ k nn x n,t k ε nt Pour le modèle empilé avec T observations : 0 0 x,p+ Z 0 0 x,t 0 0 = Z x n,p x n,t Z µ φ p,n µ n φ p n,n + ε,p+ ε,t ε n,p+ ε n,t
80 76CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES avec Z = x,p x n,p x, x n, x,t x n,t x,t p x n,t p x x n Ce qui équivaut au modèle (M) (M i ) x i = Zβ i + ε i = (I n Z) β β n + ε ε n x = (I n Z)β + ε qui se décompose en les n sous-modèles Remarque 53 () Si on suppose que les observations démarrent à t = p + (au lieu de t = ), on peut écrire : (M i ) x i = Zβ i + ε i avec x,0 x p,0 x, p+ x n, p+ Z = x,t x n,t x,t p x n,t p Dans ce cas : σ 0 ε 0 σ ε T 0 V = ε n 0 σ n 0 ε nt 0 σ n σ σ n où Ω = σ n σ nn (2) (M i ) x i = Zβ i + ε i avec V(ε i ) = V ε i ε it = σ ii I T σ n 0 0 σ n 0 0 σ nn 0 0 σ nn σ I T σ n I T = σ n I T σ nn I T = Ω I T Bilan { x = (In Z)β + ε 532 Estimation par les MCQG Vε = Ω I T Théorème 53 (Théorème de Zellner) Pour le modèle précédent, ˆβ ˆβ MCQG = ˆβ MCG = ˆβ MCO = ˆβ n
81 53 ESTIMATION D UN MODÈLE V AR SOUS HYPOTHÈSE DE NORMALITÉ 77 Proposition 53 L estimateur est sans biais : E ˆβ = β et a pour variance V( ˆβ) = Ω (Z Z) Démonstration (i) ˆβ = (I n (Z Z) Z )x = (I n (Z Z) Z )((I n Z)β + ε) ˆβ = (I n I n(np+) )β + (I n (Z Z) Z )ε = β + (I n (Z Z) Z )ε D où E ˆβ = Eβ +(I }{{} n (Z Z) Z ) }{{} Eε β 0 (ii) V ˆβ = (I n (Z Z) Z )(Ω I T )(I n (Z Z) Z ) ˆβ σ (Z Z) σ n (Z Z) Remarque 532 () V = Ω(Z Z) = ˆβ σ n (Z Z) σ nn (Z Z) Dans le modèle (M i ) x i = Zβ i + ε i, V ˆβ i = σ ii (Z Z) En outre [ E ( ˆβ i β i )( ˆβ j β j ) ] = σ ij (Z Z) (2) ˆε = x (I n Z) ˆβ x Z 0 = x n 0 Z x Z ˆβ = x n Z ˆβ n = ˆ σ 2 ii = ˆε ˆε n np + T (ε it) 2 = V emp (ˆε it ) ˆσ ij = Cov emp (ˆε it, ˆε jt ) = T T ˆε itˆε jt ˆβ ˆβ n Définition 53 (Matrice de covariance estimée) ˆΣ = (ˆσ ij ) i,j n où ˆσ ij = T T ˆε itˆε jt ˆΣ = T T ˆε tˆε t 533 EMV sous l hypothèse de normalité On suppose ε t iid N (0, Ω) On considère le processus x t p X t = = µ + φ k X t k + ε t x nt k=
82 78CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Calcul de la vraisemblance X t X t N ( µ + [ ( ( l(x t X t, θ) = n exp X t µ + 2π det Ω 2 ) p φ k X t k, Ω )) ( p φ k X t k Ω (X t µ + avec le paramètre θ = (µ, φ,, φ p, Ω) = {µ i, ϕ k ij, σ ij tel que k p et i, j n} On en déduit l(x,, X T X p+,, X 0, θ) = où ε t = X t (µ + p φ kx t k ) T l(x t X t, θ) = 2π nt [ T exp det Ω 2 ))] p φ k X t k ] T ε tω ε t ln l(x,, X T X p+,, X 0, θ) = nt 2 ln 2π T 2 ln det Ω 2 T ε tω ε t Calcul de l EMV On écrit les conditions du premier ordre : ln l Σ = 0 ln l β = 0 } ˆΣ = T T ˆε tˆε t où ˆε t = X t ˆµ n ˆφ k X t k avec ˆµ et ˆφ k EMV respectifs de µ et φ k D où par concentration de la vraisemblance ˆβ EMV = ˆβ MCG (d après le sur-modèle) = ˆβ MCO (d après le théorème de Zellner) Valeur de la vraisemblance au maximum avec ( T T ) ε ˆΩ t ε t = tr ε ˆΩ t ε t = D où T tr (ε ˆΩ ) t ε t = ln l(x, ˆθ) = nt 2 ln 2π T 2 ln det ˆΩ 2 T ε t ˆΩ ε t T (ˆΩ ) tr ε tε t ln l(x, ˆθ) = nt ln 2π T 2 2 ln det ˆΩ nt 2 = nt 2 ( + ln 2π) T ln det ˆΩ 2 = tr ˆΩ T ε tε t = T tr(i n) = nt } {{ } T ˆΩ
83 53 ESTIMATION D UN MODÈLE V AR SOUS HYPOTHÈSE DE NORMALITÉ Propriétés de l EMV sous l hypothèse de normalité On sait que ˆβ EMV = ˆβ MCG = ˆβ MCO = ˆβ donc E ˆβ = β et V ˆβ = Ω (Z Z) Proposition 532 (Sous hypothèse de normalité des résidus) ˆβ N ( β, Ω (Z Z) ) Proposition 533 (Sans l hypothèse de normalité) (ii) ˆΩ P Ω (iii) T ( ˆβ β) loi N ( ( Ω p lim Z Z T ) ) (i) ˆβ P β Remarque 533 () (i) et (ii) sont valables pour ˆβ et ˆΩ avec ou sans l hypothèse de normalité (seule condition : processus stationnaire à l ordre 4 de ε t pour avoir la covariance de Ω) (2) p lim Z Z T existe déjà grâce à l hypothèse de stationnarité de X t Dans Z Z T interviennent des termes de la forme T T t= x it x j,t k T + E(x it x j,t k ) } {{ } existe et dépend de (i,j,k) seulement avec E(x it x j,t k ) = γ ij (k) + m i m j et Γ(k) = E[(X t m)(x t k m) ] Si ˆβ N ( β, Ω (Z Z) ), alors T ( ˆβ β) N ( 0, T Ω (Z Z) ) Comme p lim Z Z T existe et est positive, alors p lim T ( ˆβ β) loi N ( ( ) Z Z T existe On a donc bien ( Z ) ) Z 0, Ω p lim T Cette dernière propriété reste vraie même si on ne suppose pas les ε t gaussiens Elle résulte alors du TCL et de la stationnarité de (X t ) 535 Tests de restrictions linéaires sur les paramètres du modèle sous hypothèse de normalité Test de Wald On teste l hypothèse H 0 : Rβ = r contre l hypothèse alternative H 0 : Rβ r avec R M(q, n(np + )), β R n(np+) tel que le rang R = q < n(np + ) Sous l hypothèse ε t iid N (0, Ω), on a ˆβ N ( β, Ω (Z Z) ) R ˆβ r N ( 0, R ( Ω (Z Z) ) R ) sous H 0 (R ˆβ r) [ R ( Ω (Z Z) ) R ] (R ˆβ r) χ 2 (q) sous H 0
84 80CHAPITRE 5 PROCESSUS VECTORIELS STATIONNAIRES - PROCESSUS V AR STATIONNAIRES Comme p lim ˆΩ = Ω ξ N = (R ˆβ r) [R(ˆΩ (Z Z) )R ] (R ˆβ r) χ 2 (q) sous H 0 On refuse H 0 au seuil α si ξ N > χ 2 α/2 (q) Sans l hypothèse de normalité sur ε, on a T ( ˆβ β) loi N ( ( Ω p lim Z Z T ) ) ( ( ξ N = (R ˆβ Z r) [R ) ) ] Z Ω p lim R (R T ˆβ r) loi χ 2 (q) sous H 0 Puis on fait comme dans le cas précédent Exemples d application (n = 2, p = 2) On considère le modèle : ( ) ( ) ( ) ( xt µ a b = + x,t x 2t µ 2 a 2 b 2 x 2,t ) ( c d + c 2 d 2 ) ( x,t 2 x 2,t 2 ) ( εt + ε 2t ) Significativité d un paramètre On teste H 0 : d = 0 contre H : d 0 (M ) x = Zβ + ε et V(ε ) = σui 2 T (M 2 ) x 2 = Zβ 2 + ε 2 ˆd N (d, σ 2 z55 ) où (z ij ) i,j = (Z Z) D où ˆd ˆσ z 55 St(2) Tests sur les paramètres d un seul sous-modèle On teste H 0 : b = d contre H : b d ˆb ˆd N (0, σ 2 ) On fait un test de Student ou de Fisher dans le modèle (M ) Tests sur plusieurs sous-modèles On tient compte de V ˆβ = Ω (Z Z) et ˆV ˆβ = Ω (Z Z) On teste H 0 : φ p = 0 contre H : φ p 0 Ici c = d = c 2 = d 2 = 0 (q = 4) ĉ ˆd ĉ 2 ˆd 2 N (0, ( matrice (4, 4) fonction de Ω On doit en tenir compte dans la statistique de Fisher )) Test du rapport de vraisemblances (LR test) Exemple 532 On teste H 0 : φ p = 0 contre H : φ p 0 On teste H 0 : φ p = 0 contre H : φ p 0 (M) X t = µ + φ X t + + φ p X t p + ε t de paramètre θ = (β, Ω) ˆβ, ˆΩ = T t ˆε tˆε t ln l(x, ˆθ) = nt 2 ( + ln 2π) T 2 ln det ˆΩ
85 53 ESTIMATION D UN MODÈLE V AR SOUS HYPOTHÈSE DE NORMALITÉ 8 (M 0 ) X t = µ + φ X t + + φ p X t p+ + ε t de paramètre θ 0 = (β 0, Ω 0 ) ˆβ 0, ˆΩ 0 = t ˆε0 t ˆε 0 t T ln l(x, ˆθ 0 ) = nt 2 ( + ln 2π) T 2 ln det ˆΩ 0 ( ( ξ LR = 2 ln l X, ˆθ ) ln l (X, ˆθ 0)) = T (ln det ˆΩ ln det ˆΩ 0) ( det = T ln ˆΩ ) 0 det ˆΩ Test de causalité Quand on rajoute le passé d une variable et d une autre, la précision de la prévision est-elle meilleure? On doit comparer la variance de EL(x t+ x t, y t ) à celle de EL(x t+ x t )
86 82
87 Bibliographie [] W Härdle and G Kerkyacharian and D Picard and A Tsybakov Wavelets, Approximation and Statistical Applications Springer Verlag, 998 [2] C Gourieroux and A Monfort Séries temporelles et modèles dynamiques Economica [3] J Hamilton Time Series Analysis Princeton University Press [4] Brockwell and Davis Times Series : Theory and Methods Springer Verlag [5] Bosq and Lecoutre Analyse et prévision des séries chronologiques ; méthodes paramétriques et non paramétriques Masson [6] Carbon and Delecroix Non Parametric versus Parametric Forecasting in Time Series : a Computational Point of View, Applied Stochastic Models and Data Analysis vol 9, p [7] Abadie and Meslier Etude de l utilisation des modèles ARIMA pour la prévision à très court terme de l énergie journalière produite par Electricité de France RAIRO Recherche opérationnelle/ Operations research n, vol 3 p 37-54, février 979 [8] Martin Filtrage de Kalman d une série temporelle saisonnière Application à la prévision de consommation d électricité Revue de statistique appliquée v XLVII p 69-86, 999 [9] JM Poggi Prévision non paramétrique de la consommation électrique Revue de Statistique appliquée vol XLII p 83-98, 994 [0] Y Misiti and M Misiti and G Oppenheim and JM Poggi Analyse de signaux classiques par décomposition en ondelettes, Revue de Statistique Appliquée n 4 vol XLI p 5-35, 993 [] Y Misiti and M Misiti and G Oppenheim and JM Poggi Ondelettes en statistique et traitement du signal, Revue de Statistique Appliquée n 4 vol XLI p 34-43, 993 [2] Y Misiti and M Misiti and G Oppenheim and JM Poggi Décomposition en ondelettes et méthodes comparatives : étude d une courbe de charge électrique, Revue de Statistique Appliquée n 2 vol XLII p 57-77,
88 Index Akaïke (critère d information d ), 53 auto-corrélation, 5, 25, 33 inverse, 4, 27 partielle, 0, 26 auto-corrélogramme, 6 empirique, 5 inverse, 4 partiel, 0 auto-covariance, 3, 5, 25, 30, 33 inverse, 4 bruit blanc faible, 4 fort, 4 critère d information, 53 de parcimonie, 53 de qualité de la prévision, 53 critère d information, 53 densité spectrale, densité spectrale (processus vectoriel), 65 Dickey-Fuller (test de), 4 estimation, 74 Hannan-Quinn (critère d information d ), 53 injectivité (théorème d ), 2 innovation, intervalle de précision, 60 inversibilité, 7 Kolmogorov (théorème de), 3 KPPS (test), 46 marche aléatoire, 4 sans dérive, 4 moyenne mobile, 4 infinie, 7 Newey-West(estimateur de), 45 opérateur, 5 avance, 6 retard, 5 persistance des chocs, 40 Phillips-Perron (test de), 44 polynôme, 6 avance, 6 retard, 6 porte-manteau, 52 prévision, 67, 73 linéaire optimale, 67 prévision optimale,, 55 processus AR, 2 processus AR( ), 28 processus ARIM A, 35 processus ARM A, 3 processus MA, 28 processus M A( ), 22 processus des innovations,, 68 processus intégré, 35 processus stationnaire, 3 du second ordre, 3 strict, 3 processus stochastique, 3 processus vectoriel, 63 du second ordre, 63 stationnaire du second ordre, 64 régression, 8 affine théorique (retards finis), 8 affine théorique (retards infinis), 0 linéaire théorique (retards finis), 8 linéaire théorique (retards infinis), 0 représentation V M A( ), 73 représentation canonique, 23, 24, 28 minimale, 3 représentation canonique minimale, 35 84
89 Schmidt-Phillips (test de), 45 trajectoire, 3 Wald (test de), 79 Wold (théorème de),, 69 Yule-Walker (équation de), 49 Yule-Walker (équations de), 25, 34 Zellner (théorème de), 76 85
1 Définition de la non stationnarité
Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles
2 TABLE DES MATIÈRES. I.8.2 Exemple... 38
Table des matières I Séries chronologiques 3 I.1 Introduction................................... 3 I.1.1 Motivations et objectifs......................... 3 I.1.2 Exemples de séries temporelles.....................
CCP PSI - 2010 Mathématiques 1 : un corrigé
CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P
TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION
TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun
I. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.
CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires
1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Température corporelle d un castor (une petite introduction aux séries temporelles)
Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature
Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Calcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor
Paramètre de longue mémoire d une série temporelle : le cas non linéaire Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor Notion de longue mémoire Les valeurs d une série temporelle X = (X l )
Fonctions de plusieurs variables. Sébastien Tordeux
Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................
* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable
Eo7 Fonctions de plusieurs variables Eercices de Jean-Louis Rouget Retrouver aussi cette fiche sur wwwmaths-francefr * très facile ** facile *** difficulté moenne **** difficile ***** très difficile I
Correction de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Modèles et Méthodes de Réservation
Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E
Cours d analyse numérique SMI-S4
ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,
Planche n o 22. Fonctions de plusieurs variables. Corrigé
Planche n o Fonctions de plusieurs variables Corrigé n o : f est définie sur R \ {, } Pour, f, = Quand tend vers, le couple, tend vers le couple, et f, tend vers Donc, si f a une limite réelle en, cette
Espérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Résolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Moments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et
Calcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
Commun à tous les candidats
EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle
3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Programmation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Séries temporelles : régression, et modélisation ARIMA(p,d,q)
Séries temporelles : régression, et modélisation ARIMA(p,d,q) 2 décembre 2012 Enseignant : Florin Avram Objectif : La prédiction des phénomènes spatio-temporaux est une des preoccupations principales dans
Partie 1 - Séquence 3 Original d une fonction
Partie - Séquence 3 Original d une fonction Lycée Victor Hugo - Besançon - STS 2 I. Généralités I. Généralités Définition Si F(p) = L [f(t)u (t)](p), alors on dit que f est l original de F. On note f(t)
Programmes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Chapitre 5 : Flot maximal dans un graphe
Graphes et RO TELECOM Nancy A Chapitre 5 : Flot maximal dans un graphe J.-F. Scheid 1 Plan du chapitre I. Définitions 1 Graphe Graphe valué 3 Représentation d un graphe (matrice d incidence, matrice d
Probabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Correction du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1
Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs
Cours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Comparaison de fonctions Développements limités. Chapitre 10
PCSI - 4/5 www.ericreynaud.fr Chapitre Points importants 3 Questions de cours 6 Eercices corrigés Plan du cours 4 Eercices types 7 Devoir maison 5 Eercices Chap Et s il ne fallait retenir que si points?
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours
Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****
Amphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
F411 - Courbes Paramétrées, Polaires
1/43 Courbes Paramétrées Courbes polaires Longueur d un arc, Courbure F411 - Courbes Paramétrées, Polaires Michel Fournié [email protected] http://www.math.univ-toulouse.fr/ fournie/ Année 2012/2013
Limites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
Chapitre 2. Les Processus Aléatoires Non Stationnaires 1. Chapitre 2. Tests de Non Stationnarité et Processus Aléatoires Non Stationnaires
Chapitre 2. Les Processus Aléatoires Non Stationnaires 1 Chapitre 2 Tests de Non Stationnarité et Processus Aléatoires Non Stationnaires Chapitre 2. Les Processus Aléatoires Non Stationnaires 2 Dans le
Chapitre 1 Régime transitoire dans les systèmes physiques
Chapitre 1 Régime transitoire dans les systèmes physiques Savoir-faire théoriques (T) : Écrire l équation différentielle associée à un système physique ; Faire apparaître la constante de temps ; Tracer
Exercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.
Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).
Développement décimal d un réel
4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce
Continuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Analyse en Composantes Principales
Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées
Mesures gaussiennes et espaces de Fock
Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première
Centre d'etudes Nucléaires de Fontenay-aux-Roses Direction des Piles Atomiques Département des Etudes de Piles
CEA-N-1195 Note CEA-N-1195 Centre d'etudes Nucléaires de Fontenay-aux-Roses Direction des Piles Atomiques Département des Etudes de Piles Service d'etudes de Protections de Piles PROPAGATION DES NEUTRONS
Probabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.
Eo7 Calculs de déterminants Fiche corrigée par Arnaud Bodin Eercice Calculer les déterminants des matrices suivantes : Correction Vidéo ( ) 0 6 7 3 4 5 8 4 5 6 0 3 4 5 5 6 7 0 3 5 4 3 0 3 0 0 3 0 0 0 3
INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE
INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE Le schéma synoptique ci-dessous décrit les différentes étapes du traitement numérique
PRECISION - REJET DE PERTURBATIONS T.D. G.E.I.I.
PRECISION - REJET DE PERTURBATIONS T.D. G.E.I.I.. Donner les erreurs en position, en vitesse et en accélération d un système de transfert F BO = N(p) D(p) (transfert en boucle ouverte) bouclé par retour
Repérage d un point - Vitesse et
PSI - écanique I - Repérage d un point - Vitesse et accélération page 1/6 Repérage d un point - Vitesse et accélération Table des matières 1 Espace et temps - Référentiel d observation 1 2 Coordonnées
MODELE A CORRECTION D ERREUR ET APPLICATIONS
MODELE A CORRECTION D ERREUR ET APPLICATIONS Hélène HAMISULTANE Bibliographie : Bourbonnais R. (2000), Econométrie, DUNOD. Lardic S. et Mignon V. (2002), Econométrie des Séries Temporelles Macroéconomiques
MASTER ECONOMETRIE ET STATISTIQUE APPLIQUEE (ESA) Econométrie pour la Finance
MASTER ECONOMETRIE ET STATISTIQUE APPLIQUEE (ESA) Université d Orléans Econométrie pour la Finance Modèles ARCH - GARCH Applications à la VaR Christophe Hurlin Documents et Supports Année Universitaire
Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA
Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université
Introduction à l approche bootstrap
Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
C algèbre d un certain groupe de Lie nilpotent.
Université Paul Verlaine - METZ LMAM 6 décembre 2011 1 2 3 4 Les transformations de Fourier. Le C algèbre de G/ Z. Le C algèbre du sous-groupe G 5 / vect{u,v }. Conclusion. G un groupe de Lie, Ĝ l ensemble
Programmation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Corrigé du baccalauréat S Asie 21 juin 2010
Corrigé du baccalauréat S Asie juin 00 EXERCICE Commun à tous les candidats 4 points. Question : Le triangle GBI est : Réponse a : isocèle. Réponse b : équilatéral. Réponse c : rectangle. On a GB = + =
Quelques tests de primalité
Quelques tests de primalité J.-M. Couveignes (merci à T. Ezome et R. Lercier) Institut de Mathématiques de Bordeaux & INRIA Bordeaux Sud-Ouest [email protected] École de printemps C2 Mars
Simulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Chapitre 2. Matrices
Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce
Exo7. Limites de fonctions. 1 Théorie. 2 Calculs
Eo7 Limites de fonctions Théorie Eercice Montrer que toute fonction périodique et non constante n admet pas de ite en + Montrer que toute fonction croissante et majorée admet une ite finie en + Indication
Dérivation : cours. Dérivation dans R
TS Dérivation dans R Dans tout le capitre, f désigne une fonction définie sur un intervalle I de R (non vide et non réduit à un élément) et à valeurs dans R. Petits rappels de première Téorème-définition
Intégration et probabilités TD1 Espaces mesurés
Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?
BTS Groupement A. Mathématiques Session 2011. Spécialités CIRA, IRIS, Systèmes électroniques, TPIL
BTS Groupement A Mathématiques Session 11 Exercice 1 : 1 points Spécialités CIRA, IRIS, Systèmes électroniques, TPIL On considère un circuit composé d une résistance et d un condensateur représenté par
Communications numériques
Communications numériques 1. Modulation numérique (a) message numérique/signal numérique (b) transmission binaire/m-aire en bande de base (c) modulation sur fréquence porteuse (d) paramètres, limite fondamentale
Chap 4. La fonction exponentielle Terminale S. Lemme : Si est une fonction dérivable sur R telle que : = et 0! = 1 alors ne s annule pas sur R.
Lemme : Si est une fonction dérivable sur R telle que : = et 0! = 1 alors ne s annule pas sur R. Démonstration : Soit la fonction %:& %&!= &!, elle est dérivable sur R et & R, %. &!= &! = &! = %&! [email protected]
Résolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Filtrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Intégration et probabilités TD1 Espaces mesurés Corrigé
Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.
Développements limités, équivalents et calculs de limites
Développements ités, équivalents et calculs de ites Eercice. Déterminer le développement ité en 0 à l ordre n des fonctions suivantes :. f() e (+) 3 n. g() sin() +ln(+) n 3 3. h() e sh() n 4. i() sin(
Plus courts chemins, programmation dynamique
1 Plus courts chemins, programmation dynamique 1. Plus courts chemins à partir d un sommet 2. Plus courts chemins entre tous les sommets 3. Semi-anneau 4. Programmation dynamique 5. Applications à la bio-informatique
Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7
Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,
Chapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Cours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
TSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Fonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Quantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Chapitre 1 Cinématique du point matériel
Chapitre 1 Cinématique du point matériel 7 1.1. Introduction 1.1.1. Domaine d étude Le programme de mécanique de math sup se limite à l étude de la mécanique classique. Sont exclus : la relativité et la
= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m
1 épartement de Physique, Université Laval, Québec Pierre Amiot, 1. La fonction delta et certaines de ses utilisations. Clientèle Ce texte est destiné aux physiciens, ingénieurs et autres scientifiques.
La fonction exponentielle
DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction
Image d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples
45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et
Dérivées d ordres supérieurs. Application à l étude d extrema.
Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une
* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.
Eo7 Fonctions de plusieurs variables Eercices de Jean-Louis Rouget Retrouver aussi cette fiche sur wwwmaths-francefr * très facile ** facile *** difficulté moenne **** difficile ***** très difficile I
Texte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Capes 2002 - Première épreuve
Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : [email protected] Mots-clés : équation fonctionnelle, série
Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Introduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Equations différentielles linéaires à coefficients constants
Equations différentielles linéaires à coefficients constants Cas des équations d ordre 1 et 2 Cours de : Martine Arrou-Vignod Médiatisation : Johan Millaud Département RT de l IUT de Vélizy Mai 2007 I
ALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII
ALGORITHMIQUE II NOTION DE COMPLEXITE 1 2 Comment choisir entre différents algorithmes pour résoudre un même problème? Plusieurs critères de choix : Exactitude Simplicité Efficacité (but de ce chapitre)
