Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32
Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature corporelle d un castor femelle (Castor canadensis) du Wisconsin. Une mesure toute les 10 minutes. Date Ceci est une série temporelle. Quelles remarques/constats pouvez vous faire à la vue de la Figure 1? GMMA 106 2014 2015 2 / 32
Les données > library(datasets) > beaver2 day time temp activ 1 307 930 36.58 0 2 307 940 36.73 0 3 307 950 36.93 0 4 307 1000 37.15 0.. 37 307 1530 37.64 0 38 307 1540 37.51 0 39 307 1550 37.98 1 40 307 1600 38.02 1.. 98 308 140 38.01 1 99 308 150 38.04 1 100 308 200 38.07 1 day Jour de l obervation time Heure de l observation 9h30 930 temp Température corporelle en C activ Variable binaire codant la présence dans son foyer (0) ou non (1). GMMA 106 2014 2015 3 / 32
Objectifs et éléments parcourus Notre objectif est de proposer un modèle statistique pour modéliser la température corporelle de notre femelle castor. Ceci nous permettra de croiser les objets suivants : Processus stochastique autocovariance, autocorrelation, autocorellation partielle bruit blanc, processus auto regressifs (AR) prédictions GMMA 106 2014 2015 4 / 32
Spécificités des séries temporelles La plupart des analyses statistiques supposent que les observations sont des réalisations indépendantes parfois de même loi, i.e., Y 1,...,Y n ind F 1,...,F n, Y 1,...,Y n iid F. Les séries temporelles sont ordonnées dans le sens où les observations apparaissent successivement (notion de temps) introduisant ainsi de la dépendance Il existe une infinité de types de dépendance, tout comme il existe de nombreux types de séries temporelles... GMMA 106 2014 2015 5 / 32
Environnement Atmospheric concentration of CO 2 360 350 340 330 320 1960 1970 1980 1990 Time Figure 2: Concentration de CO2 à Mauna Loa (Hawaï). GMMA 106 2014 2015 6 / 32
Sciences sociales/médecine Nombre d accidents mortels 7000 8000 9000 10000 1973 1974 1975 1976 1977 1978 1979 Annee Figure 3: Nombre d accidents mortels par mois au USA. GMMA 106 2014 2015 7 / 32
Finance FTSE CAC 3000 5000 1500 2500 3500 SMI DAX 2000 5000 8000 2000 4000 6000 1992 1993 1994 1995 1996 1997 1998 Time Figure 4: Prix de fermeture journaliers de 4 indices européens: DAX (Allemagne), SMI (Suisse), CAC (France) et TFSE (UK). GMMA 106 2014 2015 8 / 32
1. Un peu de théorie Processus stochastiques Dépendance Dépendance: ACF Dépendance: PACF Stationnarité GMMA 106 2014 2015 9 / 32
Processus stochastiques Processus stochastiques Dépendance Dépendance: ACF Dépendance: PACF Stationnarité Définition 1.a) Un processus stochastique {Y t } t T défini sur un espace d indice T est une famille de variables aléatoires définies sur un espace de probabilité commun (Ω,F,P). b) Une réalisation de {Y t } est le résultat de l expérience {Y t (ω)} t T = {y t } t T pour un ω Ω. L espace d indice T sera la plupart du temps R,R + ou Z. Cependant le processus sera souvent observé sur un sous-espace fini... En ce qui nous concerne on supposera que T = Z GMMA 106 2014 2015 10 / 32
Notre premier processus stochastique Processus stochastiques Dépendance Dépendance: ACF Dépendance: PACF Stationnarité Définition 2. Un processus stochastique {Y t } est appelé un bruit blanc si tous ses éléments sont décorrélés et tels que E[Y t ] = 0 et Var[Y t ] = σ 2. Exemple 1. Si Y t iid N(0,σ 2 ), t Z, on parle alors de bruit blanc Gaussien. Y t 6 4 2 0 2 4 Y t 6 4 2 0 2 4 0 500 1000 1500 2000 t 0 500 1000 1500 2000 t Figure 5: Deux réalisations d un bruit blanc gaussien avec σ 2 = 1 (gauche) et σ 2 = 2 (droite). GMMA 106 2014 2015 11 / 32
Dépendance Processus stochastiques Dépendance Dépendance: ACF Dépendance: PACF Stationnarité Définition 3. Soit {Y t } t T un processus stochastique. 1. Si E[ Y t ] <, alors on appelle moyenne du processus µ t = E[Y y ]. 2. Si Var[Y t ] <, alors on appelle la fonction d (auto)covariance du processus la fonction γ(s,t) = Cov(Y s,y t ) = E{(Y s µ s )(Y t µ t )}, et la fonction d (auto)correlation la fonction ρ(s,t) = γ(s, t) γ(s,s)γ(t,t). Remarque. On a Var[Y t ] = Cov(Y t,y t ) = γ(t,t) et ρ(s,t) 1 (Cauchy Schwartz). GMMA 106 2014 2015 12 / 32
Dépendance: ACF Processus stochastiques Dépendance Dépendance: ACF Dépendance: PACF Stationnarité A partir d observations (équidistantes) y 1,...,y n de {Y t }, γ h est estimée par son estimateur empirique ˆγ h = 1 n h 1 n h (y i y)(y i+h y), h = 0,1,...,n 2, i=1 où y est la moyenne. Le corrélogramme (ACF) trace les points {(h, ˆρ h ): h = 1,...h max }, ˆρ h = ˆγ h ˆγ 0. GMMA 106 2014 2015 13 / 32
Exemple d un ACF Processus stochastiques Dépendance Dépendance: ACF Dépendance: PACF Stationnarité Y t 10 5 0 5 10 0 500 1000 1500 2000 t 0 5 10 15 20 25 30 Figure 6: Réalisation d un MA(9) (gauche) et son ACF (droite) que l on ne verra pas :-(. ACF 0.0 0.2 0.4 0.6 0.8 1.0 Lag GMMA 106 2014 2015 14 / 32
Dépendance: PACF Processus stochastiques Dépendance Dépendance: ACF Dépendance: PACF Stationnarité Définition 4. Soient {Y t } un processus stationnaire et posons Ỹ 0 et Ỹh deux combinaisons linéaires de Y 1,...,Y h 1 minimisant E[(Y 0 Ỹ0) 2 ] et E[(Y h Ỹh) 2 ] respectivement. Alors la fonction d autocorrélation partielle est ρ 1 = Corr(Y 0,Y 1 ), ρ h = Corr(Y 0 Ỹ0,Y h Ỹh), h = 2,3,... Le corrélogramme partiel (PACF) trace les points {(h, ρ h ): h = 1,...,h max }. La logique derrière la corrélation partielle consiste à caractériser la corrélation entre Y 0 et Y h tout en ignorant celle induite par Y 1,...,Y h 1. GMMA 106 2014 2015 15 / 32
Exemple d un PACF Processus stochastiques Dépendance Dépendance: ACF Dépendance: PACF Stationnarité Y t 6 4 2 0 2 4 6 Partial ACF 0.4 0.0 0.2 0.4 0.6 0.8 0 500 1000 1500 2000 t 0 5 10 15 20 25 30 Figure 7: Réalisation d un AR(6) (gauche) et son PACF (droite) que l on ne verra pas vraiment. Lag GMMA 106 2014 2015 16 / 32
Stationnarité Processus stochastiques Dépendance Dépendance: ACF Dépendance: PACF Stationnarité Notations: Pour un ensemble S et u T, on écrira u+s pour l ensemble {u+s: s S} et Y S l ensemble des variables aléatoires {Y s : s S}. Définition 5. Un processus stochastique {Y t } t T est dit 1. strictement stationnaire si pour tout sous-ensemble fini S T et tout u T tel que u+s T, on a Y u+s L = YS. 2. stationnaire du deuxième ordre si la moyenne et la fonction de covariance de {Y t } ne dépendent ni de t ni de s. Si T R et {Y t } est stationnaire alors γ(t,t+h) = γ(0,h) = γ(0, h) γ h = γ h, h R. Dans la suite on dira que {Y t } est stationnaire pour signifier la stationnarité du deuxième ordre GMMA 106 2014 2015 17 / 32
autorégressif AR(1) Définition Covariance ACF Markov Vraisemblance Prédictions GMMA 106 2014 2015 18 / 32
Définition Définition Covariance ACF Markov Vraisemblance Prédictions Définition 6. Un processus {Y t } est appelé un processus autorégressif d ordre 1, noté AR(1), si Y t = αy t 1 +ε t, t Z, où α est le paramètre contrôlant l autorégressivité et {ε t } est un bruit blanc. De manière plus générale, on peut définir un processus de moyenne µ R par Y t µ = α(y t 1 µ)+ε t, t Z. On utilisera toutefois la première expression pour la suite. Exercice 1. Pourquoi est-il désirable d avoir α < 1? Que se passe-t-il lorsque α = 1? GMMA 106 2014 2015 19 / 32
Plusieurs réalisations d un AR(1) Définition Covariance ACF Markov Vraisemblance Prédictions Yt 0 5 10 15 20 α = 1 0 50 100 150 200 t Yt 4 2 0 2 α = 0.75 0 50 100 150 200 t Yt 2 1 0 1 2 3 α = 0.2 0 50 100 150 200 t Yt 3 2 1 0 1 2 3 α = 0.5 0 50 100 150 200 t Figure 8: Réalisation d un AR(1) avec (de gauche à droite) α = 1,0.75,0.2, 0.5. GMMA 106 2014 2015 20 / 32
Covariance de l AR(1) Définition Covariance ACF Markov Vraisemblance Prédictions Lemme 1. Soit {Y t } un AR(1) de paramètre d autorégression α < 1. Alors {Y t } admet la représentation linéaire suivante et ainsi Y t = α j ε t j, j=0 γ h = α h σ 2 1 α 2. GMMA 106 2014 2015 21 / 32
ACF de l AR(1) Définition Covariance ACF Markov Vraisemblance Prédictions Exercice 2. A quel type d ACF allez vous vous attendre en présence d un AR(1)? GMMA 106 2014 2015 22 / 32
ACF de l AR(1) Définition Covariance ACF Markov Vraisemblance Prédictions Exercice 2. A quel type d ACF allez vous vous attendre en présence d un AR(1)? ACF γ(h) 0.2 0.2 0.6 1.0 0.0 0.2 0.4 0.6 0.8 1.0 0 5 10 15 20 Lag 5 10 15 20 h ACF γ(h) 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0 0 5 10 15 20 Lag 5 10 15 20 h ACF γ(h) 0.5 0.0 0.5 1.0 0.5 0.0 0.5 1.0 0 5 10 15 20 Lag 5 10 15 20 h Figure 9: ACF d AR(1) avec α = 0.75,0.2, 0.5 (de gauche à droite). La ligne du haut est l ACF estimé et celle du bas le théorique. GMMA 106 2014 2015 22 / 32
Définition Covariance ACF Markov Vraisemblance Prédictions Exercice 3. Montrez que pour Y 1,...,Y n issues d un processus stationnaire on a { } Var[Y] = γ 0 1+ 2 n 1 (n h)ρ h, n n h=1 et que lors d un AR(1), α < 1, on a pour n assez grand Var[Y] γ ( 0 1+ 2α ). n 1 α GMMA 106 2014 2015 23 / 32
Définition Covariance ACF Markov Vraisemblance Prédictions Exercice 3. Montrez que pour Y 1,...,Y n issues d un processus stationnaire on a { } Var[Y] = γ 0 1+ 2 n 1 (n h)ρ h, n n h=1 et que lors d un AR(1), α < 1, on a pour n assez grand Var[Y] γ ( 0 1+ 2α ). n 1 α Pour un bruit blanc on a évidemment Var[Y] = n 1 σ 2. Ici la variance est plus grande comme une conséquence de la dépendance entre les Y 1,...,Y n. GMMA 106 2014 2015 23 / 32
Propriété Markovienne Définition Covariance ACF Markov Vraisemblance Prédictions Définition 7. Un processus stochastique {Y t } est dit Markovien si pour tout ensembles P = {t 1 < < t K < t} (le passé), la loi de Y t+1 dépend de celle de Y P uniquement au travers de Y t, i.e., Pr[Y t+1 y t+1 Y P = y P ] = Pr[Y t+1 y t+1 Y t = y t ]. On dit alors que {Y t } est une chaîne de Markov (d ordre 1) cela se généralise évidemment à l ordre p. Exercice 4. Montrez qu un AR(1) est une chaîne de Markov. GMMA 106 2014 2015 24 / 32
Propriété Markovienne Définition Covariance ACF Markov Vraisemblance Prédictions Définition 7. Un processus stochastique {Y t } est dit Markovien si pour tout ensembles P = {t 1 < < t K < t} (le passé), la loi de Y t+1 dépend de celle de Y P uniquement au travers de Y t, i.e., Pr[Y t+1 y t+1 Y P = y P ] = Pr[Y t+1 y t+1 Y t = y t ]. On dit alors que {Y t } est une chaîne de Markov (d ordre 1) cela se généralise évidemment à l ordre p. Exercice 4. Montrez qu un AR(1) est une chaîne de Markov. La fonction d autocorrélation partielle d un AR(1) est donc toujours nulle sauf lorsque h = 1! GMMA 106 2014 2015 24 / 32
Vraisemblance Définition Covariance ACF Markov Vraisemblance Prédictions Exercice 5. Soit Y 1,...,Y n les n premières observations d un AR(1) Gaussien, i.e., Y t+1 = αy t +ε t, ε t iid N(0,σ 2 ε ). Donnez l expression de la vraisemblance. GMMA 106 2014 2015 25 / 32
Prédictions Définition Covariance ACF Markov Vraisemblance Prédictions A partir des observations y 1,...,y n, l AR(1) (gaussien) ajusté nous donne y n = ˆαy n 1 +r t En itérant on a Y n+1 = ˆαy n +ε n+1 Malheureusement ε n+1 est non observé mais une prédiction raisonnable est 0 car {ε t } est de moyenne nulle. Ainsi la prédiction et son intervalle de confiance de 95% associé est ŷ n+1 = ˆαy n ±1.96ˆσ. Exercice 6.a) Trouvez la prédiction au temps n+2 et de manière plus générale au temps n+k ainsi que leurs intervalles de confiance respectifs. b) Que se passe-t-il lorsque k? GMMA 106 2014 2015 26 / 32
3. Ce que nous ne GMMA 106 2014 2015 27 / 32
Pour les personnes intéressées Nous avons juste survolé les séries temporelles. Les autres processus à connaître à tout prix si les séries temporelles vous intéressent sont AR(p) : Y t = α 1 Y t 1 +α 2 Y t 2 + +α p Y t p +ε t MA(q) : Y t = ε t +β 1 ε t 1 +β 2 ε t 2 + +β q ε t q ARMA(p,q) = AR(p) + MA(q) Différenciation, ARIMA(p, d, q) Densité spectrale Saisonnalité SAR(I)MA ARCH/GARCH GMMA 106 2014 2015 28 / 32
4. Les mains dans le GMMA 106 2014 2015 29 / 32
Nos données (rappel) Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 10: Temperature corporelle d un castor femelle (Castor canadensis) du Wisconsin. Une mesure toute les 10 minutes. Date On dispose d une variable binaire codant la présence dans le foyer Quels modèles statistiques (simples!!!) envisageriez vous? GMMA 106 2014 2015 30 / 32
Modélisation On va considérer les 5 modèles suivants iid M1: Y 1,...,Y n N(µ,σ 2 ) iid M2: Y 1,...,Y γ N(µ,σ 2 iid ) et Y γ+1,...,y n N(µ+δ,σ 2 ), γ = 38. M3: Y 1,...,Y n AR(1) M4: Y 1,...,Y n AR(1) avec changement de moyenne au temps t = γ, γ = 38. M5: Pareil que M4 mais avec γ inconnu. GMMA 106 2014 2015 31 / 32
Modélisation On va considérer les 5 modèles suivants iid M1: Y 1,...,Y n N(µ,σ 2 ) iid M2: Y 1,...,Y γ N(µ,σ 2 iid ) et Y γ+1,...,y n N(µ+δ,σ 2 ), γ = 38. M3: Y 1,...,Y n AR(1) M4: Y 1,...,Y n AR(1) avec changement de moyenne au temps t = γ, γ = 38. M5: Pareil que M4 mais avec γ inconnu. Attention pour comparer les modèles il faut qu ils soient tous ajustés sur les mêmes observations. Problème avec Y 0? GMMA 106 2014 2015 31 / 32
Modélisation On va considérer les 5 modèles suivants iid M1: Y 1,...,Y n N(µ,σ 2 ) iid M2: Y 1,...,Y γ N(µ,σ 2 iid ) et Y γ+1,...,y n N(µ+δ,σ 2 ), γ = 38. M3: Y 1,...,Y n AR(1) M4: Y 1,...,Y n AR(1) avec changement de moyenne au temps t = γ, γ = 38. M5: Pareil que M4 mais avec γ inconnu. Attention pour comparer les modèles il faut qu ils soient tous ajustés sur les mêmes observations. Problème avec Y 0? On écartera y 1 de tous nos modèles. GMMA 106 2014 2015 31 / 32
Ce que j aimerai que vous fassiez Construire des fonctions R calculant la vraisemblance pour chaque modèle et trouver le MLE (avec les erreurs standards). Faire une sélection de modèles, adéquation du modèle Faire de joli graphiques (selon votre inspiration) GMMA 106 2014 2015 32 / 32