Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor



Documents pareils
Filtrage stochastique non linéaire par la théorie de représentation des martingales

Modélisation de séries financières par un modèle multifractal. Céline Azizieh

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Équation de Langevin avec petites perturbations browniennes ou

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Le modèle de Black et Scholes

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Probabilités III Introduction à l évaluation d options

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

2 TABLE DES MATIÈRES. I.8.2 Exemple... 38

1 Définition de la non stationnarité

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7 : Intégration sur un intervalle quelconque

I. Polynômes de Tchebychev

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Echantillonnage Non uniforme

Programmes des classes préparatoires aux Grandes Ecoles

Amphi 3: Espaces complets - Applications linéaires continues

Mesures gaussiennes et espaces de Fock

Image d un intervalle par une fonction continue

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Chapitre 2 Le problème de l unicité des solutions

Température corporelle d un castor (une petite introduction aux séries temporelles)

Commun à tous les candidats

Correction du Baccalauréat S Amérique du Nord mai 2007

CCP PSI Mathématiques 1 : un corrigé

Limites finies en un point

Introduction à l approche bootstrap

Texte Agrégation limitée par diffusion interne

NON-LINEARITE ET RESEAUX NEURONAUX

3. Conditionnement P (B)

aux différences est appelé équation aux différences d ordre n en forme normale.

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Soutenance de stage Laboratoire des Signaux et Systèmes

Moments des variables aléatoires réelles

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours


3 Approximation de solutions d équations

Résumé des communications des Intervenants

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Calcul fonctionnel holomorphe dans les algèbres de Banach

Espérance conditionnelle

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Économetrie non paramétrique I. Estimation d une densité

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

CAPTEURS - CHAINES DE MESURES

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Simulation de variables aléatoires

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Introduction à la statistique non paramétrique

Formations EViews FORMATIONS GENERALES INTRODUCTIVES INTRO : INTRODUCTION A LA PRATIQUE DE L ECONOMETRIE AVEC EVIEWS

Intégration et probabilités TD1 Espaces mesurés

TD1 Signaux, énergie et puissance, signaux aléatoires

Résolution de systèmes linéaires par des méthodes directes

1 Complément sur la projection du nuage des individus

4 Distributions particulières de probabilités

Systèmes de communications numériques 2

Capes Première épreuve

TABLE DES MATIERES. C Exercices complémentaires 42

PROBABILITES ET STATISTIQUE I&II

Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test

MATHS FINANCIERES. Projet OMEGA

Modèles et Méthodes de Réservation

Continuité et dérivabilité d une fonction

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés

Intérêt du découpage en sous-bandes pour l analyse spectrale

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Correction de l examen de la première session

Etude des propriétés empiriques du lasso par simulations

Précision d un résultat et calculs d incertitudes

Cours d Analyse. Fonctions de plusieurs variables

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Principe de symétrisation pour la construction d un test adaptatif

Corrigé du baccalauréat S Asie 21 juin 2010

Table des matières. I Mise à niveau 11. Préface

Quantification Scalaire et Prédictive

Prédiction et Big data

Data first, ou comment piloter l analyse par les données

4. Martingales à temps discret

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

BTS Groupement A. Mathématiques Session Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

Projet de Traitement du Signal Segmentation d images SAR

Développement décimal d un réel

3. Caractéristiques et fonctions d une v.a.

Méthodes de Simulation

Calcul Stochastique pour la finance. Romuald ELIE

HÖLDER CONTINUITY AND WAVELETS

Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies

PROJET MODELE DE TAUX

Transcription:

Paramètre de longue mémoire d une série temporelle : le cas non linéaire Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

Notion de longue mémoire Les valeurs d une série temporelle X = (X l ) l Z sont en général dépendantes.

Notion de longue mémoire Les valeurs d une série temporelle X = (X l ) l Z sont en général dépendantes. Objectif : identifier et modéliser cette structure de dépendance.

Notion de longue mémoire Les valeurs d une série temporelle X = (X l ) l Z sont en général dépendantes. Objectif : identifier et modéliser cette structure de dépendance. Outil possible : notion de longue mémoire.

Notion de longue mémoire Notion introduite par B.Mandelbrot et ses collaborateurs dans les années 60 70 (Mandelbrot (1965), Mandelbrot Van ness (1968), Mandelbrot Wallis (1968,1969).

Notion de longue mémoire Notion introduite par B.Mandelbrot et ses collaborateurs dans les années 60 70 (Mandelbrot (1965), Mandelbrot Van ness (1968), Mandelbrot Wallis (1968,1969). Objectif : expliquer le phénomène de Hurst (1951) lié à l étude des niveaux du Nil.

Notion de longue mémoire Minima annuel des eaux du Nil : années 622 1281.

Notion de longue mémoire Comportement inhabituel de certaines statistiques de cette série temporelle.

Notion de longue mémoire Comportement inhabituel de certaines statistiques de cette série temporelle. Théorème central limite (CLT) non vérifié.

Notion de longue mémoire X = (X l ) l Z série temporelle stationnaire gaussienne centrée telle que Var(X 0 ) = 1. Pour tout l Z, on note γ X (l) = E(X 0 X l ). S n = 1 ( n Σ n 1 l=0 X l) pour tout n 1.

Notion de longue mémoire X = (X l ) l Z série temporelle stationnaire gaussienne centrée telle que Var(X 0 ) = 1. Pour tout l Z, on note γ X (l) = E(X 0 X l ). S n = 1 ( n Σ n 1 l=0 X l) pour tout n 1. Var(S n ) = 1 n + 2 n 2 n 2 (n l)γ X (l). l=0

Notion de longue mémoire X = (X l ) l Z série temporelle stationnaire gaussienne centrée telle que Var(X 0 ) = 1. Pour tout l Z, on note γ X (l) = E(X 0 X l ). S n = 1 ( n Σ n 1 l=0 X l) pour tout n 1. Var(S n ) = 1 n + 2 n 2 n 2 (n l)γ X (l). l=0 l N γ X (l) < n 1/2 S n asymptotiquement gaussien : CLT vérifié.

Notion de longue mémoire X = (X l ) l Z série temporelle stationnaire gaussienne centrée telle que Var(X 0 ) = 1. Pour tout l Z, on note γ X (l) = E(X 0 X l ). S n = 1 ( n Σ n 1 l=0 X l) pour tout n 1. Var(S n ) = 1 n + 2 n 2 n 2 (n l)γ X (l). l=0 l N γ X (l) < n 1/2 S n asymptotiquement gaussien : CLT vérifié. Deux cas : l N γ X (l) sommable ou non sommable.

Notion de longue mémoire X = (X l ) l Z série temporelle stationnaire. Cas l N γ X (l) <, série temporelle X à mémoire courte.

Notion de longue mémoire X = (X l ) l Z série temporelle stationnaire. Cas l N γ X (l) <, série temporelle X à mémoire courte. Cas l N γ X (l) =, série temporelle X à mémoire longue.

Paramètre de mémoire Soit X = (X l ) l Z une série temporelle stationnaire (centrée). Paramètre de mémoire =mesure du degré de longue dépendance d une série temporelle :.

Paramètre de mémoire Soit X = (X l ) l Z une série temporelle stationnaire (centrée). Paramètre de mémoire =mesure du degré de longue dépendance d une série temporelle :. Définition basée sur les propriétés au second ordre de X. Deux définitions possibles.

Paramètre de mémoire Soit X = (X l ) l Z une série temporelle stationnaire (centrée). Paramètre de mémoire =mesure du degré de longue dépendance d une série temporelle :. Définition basée sur les propriétés au second ordre de X. Deux définitions possibles.

Paramètre de mémoire Soit X = (X l ) l Z une série temporelle stationnaire (centrée). Paramètre de mémoire =mesure du degré de longue dépendance d une série temporelle :. Définition basée sur les propriétés au second ordre de X. Deux définitions possibles. Une basée sur la décroissance à l infini de la fonction γx.

Paramètre de mémoire Soit X = (X l ) l Z une série temporelle stationnaire (centrée). Paramètre de mémoire =mesure du degré de longue dépendance d une série temporelle :. Définition basée sur les propriétés au second ordre de X. Deux définitions possibles. Une basée sur la décroissance à l infini de la fonction γx. Une basée sur le comportement de la densité spectrale f X de X en 0.

Paramètre de mémoire Soit X = (X l ) l Z une série temporelle stationnaire (centrée). Paramètre de mémoire =mesure du degré de longue dépendance d une série temporelle :. Définition basée sur les propriétés au second ordre de X. Deux définitions possibles. Une basée sur la décroissance à l infini de la fonction γx. Une basée sur le comportement de la densité spectrale f X de X en 0. Dans les bons cas, définitions équivalentes (théorèmes taubériens) mais pas toujours le cas.

Paramètre de mémoire Définition 1 X processus stationnaire, d < 1/2. d paramètre de mémoire de X au sens de la covariance si : γ X (h) L 1 (h)h 2d 1, quand h, où L 1 ( ) fonction à variation lente à l infini, i.e si pour tout a > 0, lim h L 1 (ah)/l 1 (h) = 1. X à mémoire longue si 0 < d < 1/2 et à mémoire courte si d < 0.

Paramètre de mémoire Exemple Prix du pétrole : Janvier 97 à Juin 2010. (Mostafei Sakhabakhash, Int.Journ.Acad.Res.(2011)).

Paramètre de mémoire Exemple Autocorrélogramme empirique. γ X (h) h 0.25 quand h, d 0.34.

Paramètre de mémoire Définition 2 X série temporelle stationnaire admettant une densité spectrale f X, d < 1/2. d paramètre de mémoire de X au sens de la densité spectrale si f X (λ) λ 2d L 2 (1/ λ ), quand λ 0, où L 2 ( ) est une fonction à variation lente à l infini. X à mémoire longue si 0 < d < 1/2 et à mémoire courte si d < 0.

Les M(d) processus Objectif estimation introduction d une classe générale de processus : les M(d) processus par Hurvich Ray (1995).

Les M(d) processus Objectif estimation introduction d une classe générale de processus : les M(d) processus par Hurvich Ray (1995). Classe qui comprend un grand nombre de modèles classiques (ARFIMA, FBM, FGN).

Les M(d) processus Objectif estimation introduction d une classe générale de processus : les M(d) processus par Hurvich Ray (1995). Classe qui comprend un grand nombre de modèles classiques (ARFIMA, FBM, FGN). Modèles pertinents pour de nombreuses séries macro-économiques et financières.

Les M(d) processus Objectif estimation introduction d une classe générale de processus : les M(d) processus par Hurvich Ray (1995). Classe qui comprend un grand nombre de modèles classiques (ARFIMA, FBM, FGN). Modèles pertinents pour de nombreuses séries macro-économiques et financières. Deux cas à distinguer : séries temporelles stationnaires et séries temporelles à accroissements stationnaires d ordre K 1.

Estimation : les M(d) processus (cas stationnaire) X = (X l ) l Z série temporelle stationnaire admettant une densité spectrale f X, d < 1/2. X est un M(d) processus si f X (λ) = λ 2d f (λ), où f fonction paire, bornée et positive à l origine (L 2 Cte).

Estimation : les M(d) processus (cas stationnaire) X = (X l ) l Z série temporelle stationnaire admettant une densité spectrale f X, d < 1/2. X est un M(d) processus si f X (λ) = λ 2d f (λ), où f fonction paire, bornée et positive à l origine (L 2 Cte). Paramètre de mémoire de X =d.

Estimation : les M(d) processus (cas non stationnaire) K entier tel que K X stationnaire. X est un M(d) processus si f K X (λ) = 1 e iλ 2(d K) f (λ), où f fonction paire, bornée et positive à l origine.

Estimation : les M(d) processus (cas non stationnaire) K entier tel que K X stationnaire. X est un M(d) processus si f K X (λ) = 1 e iλ 2(d K) f (λ), où f fonction paire, bornée et positive à l origine. f X (λ) = 1 e iλ 2K f K X (λ) appelée densité spectrale généralisée de X.

Estimation : les M(d) processus (cas non stationnaire) K entier tel que K X stationnaire. X est un M(d) processus si f K X (λ) = 1 e iλ 2(d K) f (λ), où f fonction paire, bornée et positive à l origine. f X (λ) = 1 e iλ 2K f K X (λ) appelée densité spectrale généralisée de X. f X (λ) λ 2d quand λ 0.

Estimation : les M(d) processus (cas non stationnaire) K entier tel que K X stationnaire. X est un M(d) processus si f K X (λ) = 1 e iλ 2(d K) f (λ), où f fonction paire, bornée et positive à l origine. f X (λ) = 1 e iλ 2K f K X (λ) appelée densité spectrale généralisée de X. f X (λ) λ 2d quand λ 0. Paramètre de mémoire de X = d.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) Processus ARMA : mémoire courte.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) Processus ARMA : mémoire courte. Généralisation de ces modèles introduite par Granger Joyeux (1980) : modèles ARFIMA à mémoire longue.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) Processus ARMA : mémoire courte. Généralisation de ces modèles introduite par Granger Joyeux (1980) : modèles ARFIMA à mémoire longue. d ( 1/2, 1/2), (p, q) N 2. (BX ) l = X l 1.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) Processus ARMA : mémoire courte. Généralisation de ces modèles introduite par Granger Joyeux (1980) : modèles ARFIMA à mémoire longue. d ( 1/2, 1/2), (p, q) N 2. (BX ) l = X l 1. (ξ l ) l Z bruit blanc de variance finie σ.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) (X l ) l Z ARFIMA(p, d, q) si φ(b)x l = θ(b) d ξ l.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) (X l ) l Z ARFIMA(p, d, q) si φ(b)x l = θ(b) d ξ l. d = (I B) d : opérateur d intégration fractionnaire.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) (X l ) l Z ARFIMA(p, d, q) si φ(b)x l = θ(b) d ξ l. d = (I B) d : opérateur d intégration fractionnaire. φ(b) = 1 + φ 1 B + + φ p B p avec φ p 0, θ(b) = 1 + θ 1 B + + θ q B q avec θ q 0, φ(b),θ(b) pas de zeros en commun + racines en dehors du cercle unité.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) 1000 observations simulées d un ARFIMA(1,d,0) (d = 0.4, φ 1 = 0.5, σ = 1). Fig.: (a) : correspond aux observations, (b) a l auto covariance empirique.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) Densité spectrale λ ( π, π), f X (λ) = σ2 2π 1 e iλ 2d θ(e iλ ) 2 φ(e iλ ) 2.

Premier exemple: les processus ARFIMA (Granger Joyeux, 1980 puis Hosking, 1981) Densité spectrale λ ( π, π), f X (λ) = σ2 2π 1 e iλ 2d θ(e iλ ) 2 φ(e iλ ) 2. Paramètre de mémoire = d.

Second exemple: le mouvement Brownien fractionnaire (FBM) {B H (k)} k Z version discrétisée du Mouvement Brownien Fractionnaire usuel (MBF) {B H (t)} t R d indice de Hurst H (0, 1). MBF à accroissements stationnaires (K = 1).

Second exemple: le mouvement Brownien fractionnaire (FBM) {B H (k)} k Z version discrétisée du Mouvement Brownien Fractionnaire usuel (MBF) {B H (t)} t R d indice de Hurst H (0, 1). MBF à accroissements stationnaires (K = 1). Densité spectrale généralisée : f BH (λ) = k Z λ + 2kπ 2H 1.

Second exemple: le mouvement Brownien fractionnaire (FBM) {B H (k)} k Z version discrétisée du Mouvement Brownien Fractionnaire usuel (MBF) {B H (t)} t R d indice de Hurst H (0, 1). MBF à accroissements stationnaires (K = 1). Densité spectrale généralisée : f BH (λ) = k Z λ + 2kπ 2H 1. D où f BH (λ) = λ 2H 1 f (λ) avec f (λ) = 2 sin(λ/2) λ 2H+1 + 2 sin(λ/2) 2H+1 k 0 λ+2kπ 2H 1.

Second exemple: le mouvement Brownien fractionnaire (FBM) {B H (k)} k Z version discrétisée du Mouvement Brownien Fractionnaire usuel (MBF) {B H (t)} t R d indice de Hurst H (0, 1). MBF à accroissements stationnaires (K = 1). Densité spectrale généralisée : f BH (λ) = k Z λ + 2kπ 2H 1. D où f BH (λ) = λ 2H 1 f (λ) avec f (λ) = 2 sin(λ/2) λ 2H+1 + 2 sin(λ/2) 2H+1 k 0 Parametre de mémoire du MBF d indice de Hurst H : d = H + 1/2 (1/2, 3/2). λ+2kπ 2H 1.

Second exemple: le mouvement Brownien fractionnaire (FBM) Une trajectoire du MBF d indice de Hurst H sur [0, 1]. H = 0.3, 0.5, 0.8 (codes de J.F.Coeurjolly).

Approche Objectif : Estimation du paramètre de longue mémoire d une série temporelle.

Approche Objectif : Estimation du paramètre de longue mémoire d une série temporelle. Outil : la transformée en ondelettes discrète.

La transformée en ondelettes discrète Analyse multi résolution à support compact : deux fonctions à support compact ϕ, ψ de L 2 (R).

La transformée en ondelettes discrète Analyse multi résolution à support compact : deux fonctions à support compact ϕ, ψ de L 2 (R). Hypothèse : ψ a M moments nuls, ie t m ψ(t)dt = 0, m {0,, M 1}, t M ψ(t)dt 0. R R

La transformée en ondelettes discrète Analyse multi résolution à support compact : deux fonctions à support compact ϕ, ψ de L 2 (R). Hypothèse : ψ a M moments nuls, ie t m ψ(t)dt = 0, m {0,, M 1}, t M ψ(t)dt 0. R R Coefficients d ondelettes de F L 2 (R) W (F ) j,k = F (t)ψ j,k (t)dt, où ψ j,k (t) = 2 j/2 ψ(2 j t k). R pour tous (j, k) Z 2.

La transformée en ondelettes discrète Analyse multi résolution à support compact : deux fonctions à support compact ϕ, ψ de L 2 (R). Hypothèse : ψ a M moments nuls, ie t m ψ(t)dt = 0, m {0,, M 1}, t M ψ(t)dt 0. R R Coefficients d ondelettes de F L 2 (R) W (F ) j,k = F (t)ψ j,k (t)dt, où ψ j,k (t) = 2 j/2 ψ(2 j t k). R pour tous (j, k) Z 2. Dans L 2 (R), F = (j,k) Z 2 W (F ) j,k ψ j,k décomposition temps/fréquence de F.

La transformée en ondelettes discrète d une série temporelle x(t) = l X lϕ(t l).

La transformée en ondelettes discrète d une série temporelle x(t) = l X lϕ(t l). Coefficients d ondelettes de X W (X ) j,k = x(t)ψ j,k (t)dt = R l h j,2 j k lx l = (h j, X ) 2 j k, avec h j (m) = R φ(t + m)ψ j,0(t)dt.

La transformée en ondelettes discrète d une série temporelle x(t) = l X lϕ(t l). Coefficients d ondelettes de X W (X ) j,k = x(t)ψ j,k (t)dt = R l h j,2 j k lx l = (h j, X ) 2 j k, avec h j (m) = R φ(t + m)ψ j,0(t)dt. Fonction de transfert du filtre associé à la transformée en ondelettes discrète ĥ j (λ) = m h j (m)e imλ.

Propriétés de ĥj On a représenté λ 2 j/2 ĥ j (2 j λ) pour différentes valeurs de j. (ϕ, ψ sont les ondelettes de Daubechies).

Ondelettes et paramètre de mémoire : cas linéaire Un exemple Cas MBF {B H (t)} t R. Variance des coefficients d ondelettes liée à d = H + 1/2 : E[ W B H j,k 2 ] = C2 2j(H+1/2) = C2 2jd.

Ondelettes et paramètre de mémoire : cas linéaire Un exemple Si X série temporelle gaussienne ou linéaire, comportement asymptotique des coefficients d ondelettes similaire à celui du MBF.

Ondelettes et paramètre de mémoire : cas linéaire Un exemple Si X série temporelle gaussienne ou linéaire, comportement asymptotique des coefficients d ondelettes similaire à celui du MBF. Quand j E[ W X j,k 2 ] C(f (0), d)2 2jd.

Ondelettes et paramètre de mémoire : cas linéaire Construction d un estimateur Estimation du paramètre de longue mémoire : basée sur la variance empirique des coefficients d ondelettes S n,j = 1 n n 1 ( k=0 W (X ) j,k ) 2, où n 2 j N, N : nombre des observations.

Ondelettes et paramètre de mémoire : cas linéaire Construction d un estimateur Estimation du paramètre de longue mémoire : basée sur la variance empirique des coefficients d ondelettes S n,j = 1 n n 1 ( k=0 W (X ) j,k ) 2, où n 2 j N, N : nombre des observations. Résultat attendu S n,j E[ W X j,k 2 ] C(f (0), ψ)2 2jd.

Ondelettes et paramètre de mémoire : cas linéaire Construction d un estimateur (Abry Veicht, 1998) (w 0,, w U L ) poids tels que U L j=0 w j = 0, U L j=0 jw j = 1/(2 log(2)). On définit alors U d n,j = w j log(s n,j ). j=l

Ondelettes et paramètre de mémoire : cas linéaire Propriétés de l estimateur dans le cas gaussien/linéaire (Moulines Roueff Taqqu (2007), Roueff Taqqu (2009)) Hypothèses : conditions sur M + décroissance en Fourier du filtre. S n,j estimateur consistant et asymptotiquement normal de E( W j,0 2 ).

Ondelettes et paramètre de mémoire : cas linéaire Propriétés de l estimateur dans le cas gaussien/linéaire (Moulines Roueff Taqqu (2007), Roueff Taqqu (2009)) Hypothèses : conditions sur M + décroissance en Fourier du filtre. S n,j estimateur consistant et asymptotiquement normal de E( W j,0 2 ). dn,j estimateur consistant et asymptotiquement normal de d.

Ondelettes et paramètre de mémoire : cas linéaire Propriétés de l estimateur dans le cas gaussien/linéaire (Moulines Roueff Taqqu (2007), Roueff Taqqu (2009)) Bonnes propriétés de l estimation par ondelettes : Faible complexité numérique du calcul des coefficients d ondelettes d un échantillon.

Ondelettes et paramètre de mémoire : cas linéaire Propriétés de l estimateur dans le cas gaussien/linéaire (Moulines Roueff Taqqu (2007), Roueff Taqqu (2009)) Bonnes propriétés de l estimation par ondelettes : Faible complexité numérique du calcul des coefficients d ondelettes d un échantillon. Estimation robuste. Taux de convergence optimal.

Ondelettes et paramètre de mémoire : cas linéaire Propriétés de l estimateur dans le cas gaussien/linéaire (Moulines Roueff Taqqu (2007), Roueff Taqqu (2009)) Bonnes propriétés de l estimation par ondelettes : Faible complexité numérique du calcul des coefficients d ondelettes d un échantillon. Estimation robuste. Taux de convergence optimal. Variance de l estimateur faible.

Ondelettes et paramètre de mémoire : cas linéaire Propriétés de l estimateur dans le cas gaussien/linéaire (Moulines Roueff Taqqu (2007), Roueff Taqqu (2009)) Bonnes propriétés de l estimation par ondelettes : Faible complexité numérique du calcul des coefficients d ondelettes d un échantillon. Estimation robuste. Taux de convergence optimal. Variance de l estimateur faible. Permet de traiter les cas non stationnaires sans prétraitement des données.

Ondelettes et paramètre de mémoire : cas linéaire Propriétés de l estimateur dans le cas gaussien/linéaire (Moulines Roueff Taqqu (2007), Roueff Taqqu (2009)) Bonnes propriétés de l estimation par ondelettes : Faible complexité numérique du calcul des coefficients d ondelettes d un échantillon. Estimation robuste. Taux de convergence optimal. Variance de l estimateur faible. Permet de traiter les cas non stationnaires sans prétraitement des données. Permet de gérer le cas où on a une tendance polynomiale.

Au delà des séries temporelles linéaires Objectif : cas de séries temporelles non linéaire de la forme G(X ) où G L 2 (R, e x2 /2 dx), X série temporelle gaussienne.

Au delà des séries temporelles linéaires Objectif : cas de séries temporelles non linéaire de la forme G(X ) où G L 2 (R, e x2 /2 dx), X série temporelle gaussienne. Même estimateur que dans le cas linéaire. Comportement asymptotique?

Au delà des séries temporelles linéaires Objectif : cas de séries temporelles non linéaire de la forme G(X ) où G L 2 (R, e x2 /2 dx), X série temporelle gaussienne. Même estimateur que dans le cas linéaire. Comportement asymptotique? Cas connu: processus de Rosenblatt (G H 2 ) (Bardet et Tudor, 2010).

Rappels de calcul stochastique (W (t)) processus de Wiener classique. W ([a, b]) = W (b) W (a). f S q si f = c i1,,i q 1 Ai1 A iq où c i1,,i q = 0 si i l = i k, ensembles A i B(R) supposés disjoints deux à deux.

Rappels de calcul stochastique (W (t)) processus de Wiener classique. W ([a, b]) = W (b) W (a). f S q si f = c i1,,i q 1 Ai1 A iq où c i1,,i q = 0 si i l = i k, ensembles A i B(R) supposés disjoints deux à deux. I q (f ) = f (x)dw (x 1 ) dw (x q ) = c i1,,i q W (A i1 ) W (A iq ) R q

Rappels de calcul stochastique (W (t)) processus de Wiener classique. W ([a, b]) = W (b) W (a). f S q si f = c i1,,i q 1 Ai1 A iq où c i1,,i q = 0 si i l = i k, ensembles A i B(R) supposés disjoints deux à deux. I q (f ) = f (x)dw (x 1 ) dw (x q ) = c i1,,i q W (A i1 ) W (A iq ) R q I q isométrie de S q dans L 2 (Ω) étendue à L 2 (R q ) par densité.

Décomposition en chaos de Wiener Ecriture unique pour tout X L 2 (Ω) X = + q=0 I q (f q ), où f q L 2 (R q, R) décomposition en chaos de Wiener de X.

Décomposition en chaos de Wiener Ecriture unique pour tout X L 2 (Ω) X = + q=0 I q (f q ), où f q L 2 (R q, R) décomposition en chaos de Wiener de X. Si X variable aléatoire gaussienne à valeurs dans le premier chaos de Wiener, : X = I 1 (f 1 ), f 1 L 2 (R).

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Processus de Rosenblatt d indice de Hurst H (1/2, 1) Z H (t) = t t 0 où y R 2 L H (y; t) = 1 [0,t] 2(y) y 1 y 2 0 L H (y 1, y 2 ; t)dw (y 1 )dw (y 2 ) = I 2 (L H (y 1, y 2 ; t)), 2 ( (yi i=1 u ) 1/2 H (u yi ) H 3/2 ) du.

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Processus de Rosenblatt d indice de Hurst H (1/2, 1) Z H (t) = t t 0 où y R 2 L H (y; t) = 1 [0,t] 2(y) y 1 y 2 0 L H (y 1, y 2 ; t)dw (y 1 )dw (y 2 ) = I 2 (L H (y 1, y 2 ; t)), 2 ( (yi i=1 u ) 1/2 H (u yi ) H 3/2 ) du. Propriétés principales : autosimilaire d exposant H, à accroissements stationnaires + mêmes moments d ordre 1 et 2 qu un MBF d indice de Hurst H.

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Processus de Rosenblatt d indice de Hurst H (1/2, 1) Z H (t) = t t 0 où y R 2 L H (y; t) = 1 [0,t] 2(y) y 1 y 2 0 L H (y 1, y 2 ; t)dw (y 1 )dw (y 2 ) = I 2 (L H (y 1, y 2 ; t)), 2 ( (yi i=1 u ) 1/2 H (u yi ) H 3/2 ) du. Propriétés principales : autosimilaire d exposant H, à accroissements stationnaires + mêmes moments d ordre 1 et 2 qu un MBF d indice de Hurst H. Paramètre de longue mémoire : d = H + 1/2.

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Processus de Rosenblatt à valeurs dans le chaos d ordre 2.

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Processus de Rosenblatt à valeurs dans le chaos d ordre 2. Coefficients d ondelettes du processus de Rosenblatt W Z j,k = I 2(f j,k ).

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Processus de Rosenblatt à valeurs dans le chaos d ordre 2. Coefficients d ondelettes du processus de Rosenblatt W Z j,k = I 2(f j,k ). Décomposition en chaos Wiener de la variance empirique déduite de la formule d Ito I 2 (f )I 2 (g) = I 4 (f g) + I 2 (f 1 g) + E[I 2 (f )I 2 (g)], où (f 1 g)(t 1, t 2 ) = R f (t 1, s)g(t 2, s)ds.

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Décomposition en chaos de Wiener de la variance empirique où T (0) n,j S n,j = T (4) n,j + T (2) n,j + T (0) j,n, = E(S n,j ) = E( W j,0 2 ) : terme déterministe, T (2) n,j = 1/n k I 2(f j,k 1 f j,k ) : terme dans le chaos d ordre 2, T (4) n,j = 1/n k I 4(f j,k f j,k ) : terme dans le chaos d ordre 4.

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Hypothèse :M > 1.

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Hypothèse :M > 1. Terme T (2) n,j asymptotiquement Rosenblatt : quand j, n n 3/2 d 2 2jd T (2) n,j = n 1 H 2 j(2h+1) T (2) fidi n,j R 1 (H). où R 1 (H) variable de Rosenblatt.

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Hypothèse :M > 1. Terme T (2) n,j asymptotiquement Rosenblatt : quand j, n n 3/2 d 2 2jd T (2) n,j = n 1 H 2 j(2h+1) T (2) fidi n,j R 1 (H). où R 1 (H) variable de Rosenblatt. Terme T (4) n,j asymptotiquement négligeable par rapport à T (2) n,j. Quand j, n ( ) ( ) lim n 1 2 2 2jd E[ T (4) n,j n,j 2 ] 1 2 = lim n 1 2 2 j(2h+1) E[ T (4) n,j n,j 2 ] 1 2 < +.

Le cas du processus de Rosenblatt (Bardet Tudor, 2010) Théorème Hypothèses: M > 1+lien entre n et 2 j. Quand n + et n 1 H 2 2jd (S n,j E[S n,j ]) fidi R 1 (H) n 1 H (log(s n,j )/(j log(2)) d) fidi R 2 (H) où R 1 (H), R 2 (H) deux variables de Rosenblatt.

Un cas non linéaire plus général Généralisation au cas de séries temporelles non linéaires. {Y (l)} l Z telle que pour un certain K N K Y = G(X ) où X = (X l ) l série temporelle gaussienne stationnaire de paramètre de longue dépendance d et G L 2 (R, e x2 /2 dx).

Un cas non linéaire plus général G L 2 (R, e x2 /2 dx), décomposition en série d Hermite de G : G = c q q! H q, q où q c2 q/q! < +, H q q-ième polynôme d Hermite.

Un cas non linéaire plus général G L 2 (R, e x2 /2 dx), décomposition en série d Hermite de G : G = c q q! H q, q où q c2 q/q! < +, H q q-ième polynôme d Hermite. Rang d Hermite de G q 0 = min{q, c q 0}.

Un cas non linéaire plus général G L 2 (R, e x2 /2 dx), décomposition en série d Hermite de G : G = c q q! H q, q où q c2 q/q! < +, H q q-ième polynôme d Hermite. Rang d Hermite de G q 0 = min{q, c q 0}. Point clé : on doit gérer des sommes infinies.

Hypothèses δ(q) = qd + (1 q)/2 : paramètre de longue mémoire de (H q (X l )) l.

Hypothèses δ(q) = qd + (1 q)/2 : paramètre de longue mémoire de (H q (X l )) l. Hypothèses : d > 1/4, q 0 2, pour tout λ > 0, c q = o(e λq ).

Résultat principal q 1 = min{q, c q c q+1 0} (q 1 = + si {q, c q c q+1 0} = ). 1. Si q 1 = + ou n2 j(2q 0 2q 1 1) 0 quand j, n ( n 1 2d 2 2j(δ(q 0)+K) ( S n,j+m E( W j+m,0 2 ) )) fidi (R m ) m Z m Z où R m variable de Rosenblatt. 2. Si q 1 < 1/(1 2d) et n2 j(2q 0 2q 1 1) quand j, n (n ( 1 2d 2 2 j(δ(q 1)+δ(q 1 +1)+2K) S n,j+m E W j+m,0 2)) fidi (G m ) m m Z où G m variable aléatoire gaussienne. 3. Si q 1 < 1/(1 2d) et n2 j(2q 0 2q 1 1) C 0 > 0, quand j, n, S n,j asymptotiquement combinaison d une variable de Rosenblatt et d une variable gaussienne.

Comportement asymptotique de la variance empirique Commentaires Trois comportements possibles : S n,j asymptotiquement gaussienne ou asymptotiquement Rosenblatt ou une combinaison des deux.

Comportement asymptotique de la variance empirique Commentaires Trois comportements possibles : S n,j asymptotiquement gaussienne ou asymptotiquement Rosenblatt ou une combinaison des deux. Comportement asymptotique du scalogramme lié au rang d Hermite de G mais aussi à un autre indice q 1.

Comportement asymptotique de la variance empirique Commentaires Trois comportements possibles : S n,j asymptotiquement gaussienne ou asymptotiquement Rosenblatt ou une combinaison des deux. Comportement asymptotique du scalogramme lié au rang d Hermite de G mais aussi à un autre indice q 1. Quantité n2 j(2q 0 2q 1 1) : moyen pour comparer les deux renormalisations possibles.

Comportement asymptotique de la variance empirique Commentaires Trois comportements possibles : S n,j asymptotiquement gaussienne ou asymptotiquement Rosenblatt ou une combinaison des deux. Comportement asymptotique du scalogramme lié au rang d Hermite de G mais aussi à un autre indice q 1. Quantité n2 j(2q 0 2q 1 1) : moyen pour comparer les deux renormalisations possibles. Cas q 0 = 1 à part (travail en cours).

Comportement asymptotique de la variance empirique Exemple 1 : G = H q0 avec d > 1/4 et q 0 2 Rang d Hermite q 0, q 1 = +.

Comportement asymptotique de la variance empirique Exemple 1 : G = H q0 avec d > 1/4 et q 0 2 Rang d Hermite q 0, q 1 = +. Premier cas du théorème. Quand n, j, S n,j asymptotiquement Rosenblatt.

Comportement asymptotique de la variance empirique Exemple 1 : G = H q0 avec d > 1/4 et q 0 2 Rang d Hermite q 0, q 1 = +. Premier cas du théorème. Quand n, j, S n,j asymptotiquement Rosenblatt. Cas q 0 = 1: notre théorème ne peut être appliqué. Scalogramme S n,j asymptotiquement gaussien (connu).

Comportement asymptotique de la variance empirique Exemple 1 : G = H q0 avec d > 1/4 et q 0 2 Rang d Hermite q 0, q 1 = +. Premier cas du théorème. Quand n, j, S n,j asymptotiquement Rosenblatt. Cas q 0 = 1: notre théorème ne peut être appliqué. Scalogramme S n,j asymptotiquement gaussien (connu). Cas q 0 = 2 : processus de Rosenblatt.

Comportement asymptotique de la variance empirique Exemple 2 : G = H q0 + H q0 +1 avec d > 1/4 et q 0 2 Rang d Hermite de G : q 0, q 1 = q 0.

Comportement asymptotique de la variance empirique Exemple 2 : G = H q0 + H q0 +1 avec d > 1/4 et q 0 2 Rang d Hermite de G : q 0, q 1 = q 0. Comportement asymptotique de S n,j depend de la limite de 2 j n, quand j, n.

Comportement asymptotique de la variance empirique Exemple 2 : G = H q0 + H q0 +1 avec d > 1/4 et q 0 2 Rang d Hermite de G : q 0, q 1 = q 0. Comportement asymptotique de S n,j depend de la limite de 2 j n, quand j, n. Coefficients d ondelettes de Y : W j,k = W (q 0) j,k + W (q 0+1) j,k, où W (q 0) j,k, W (q 0+1) j,k dans chaos d ordre q 0 et q 0 + 1.

Comportement asymptotique de la variance empirique Exemple 2 : G = H q0 + H q0 +1 avec d > 1/4 et q 0 2 Rang d Hermite de G : q 0, q 1 = q 0. Comportement asymptotique de S n,j depend de la limite de 2 j n, quand j, n. Coefficients d ondelettes de Y : W j,k = W (q 0) j,k + W (q 0+1) j,k, où W (q 0) j,k, W (q 0+1) j,k dans chaos d ordre q 0 et q 0 + 1. ( Wj,k 2 = [W (q 0) j,k ]2 + [W (q 0+1) j,k ] 2) ( ) + 2W (q 0) j,k W (q 0+1) j,k.

Comportement asymptotique de la variance empirique Exemple 2 : G = H q0 + H q0 +1 avec d > 1/4 et q 0 2 Terme [W (q 0) j,k ]2 : se comporte comme dans le cas G = H q0, asymptotiquement Rosenblatt.

Comportement asymptotique de la variance empirique Exemple 2 : G = H q0 + H q0 +1 avec d > 1/4 et q 0 2 Terme [W (q 0) j,k ]2 : se comporte comme dans le cas G = H q0, asymptotiquement Rosenblatt. Terme [W (q 0+1) j,k ] 2 asymptotiquement négligeable.

Comportement asymptotique de la variance empirique Exemple 2 : G = H q0 + H q0 +1 avec d > 1/4 et q 0 2 Terme [W (q 0) j,k ]2 : se comporte comme dans le cas G = H q0, asymptotiquement Rosenblatt. Terme [W (q 0+1) j,k ] 2 asymptotiquement négligeable. Terme W (q 0) j,k W (q 0+1) j,k asymptotiquement gaussien.

Comportement asymptotique de la variance empirique Exemple 2 : G = H q0 + H q0 +1 avec d > 1/4 et q 0 2 Terme [W (q 0) j,k ]2 : se comporte comme dans le cas G = H q0, asymptotiquement Rosenblatt. Terme [W (q 0+1) j,k ] 2 asymptotiquement négligeable. Terme W (q 0) j,k W (q 0+1) j,k asymptotiquement gaussien. Les trois cas envisagés dans le théorème peuvent se produire.

Travail en cours Cas q 0 = 1 à faire.

Travail en cours Cas q 0 = 1 à faire. Quatre termes à comparer : deux termes gaussiens, un terme dans le chaos d ordre 2 et un terme qui vit dans le chaos d ordre q m0 1 où q m0 = inf {q, q 1 2 et c q c 1 0}.

Travail en cours Cas q 0 = 1 à faire. Quatre termes à comparer : deux termes gaussiens, un terme dans le chaos d ordre 2 et un terme qui vit dans le chaos d ordre q m0 1 où q m0 = inf {q, q 1 2 et c q c 1 0}. Variance empirique peut donc être asymptotiquement dans un chaos d ordre supérieur à 2.

Bibliographie P.Flandrin.On the spectrum of FBM. IEEE Trans.Inf.Theory IT 35/1 197 199 (1989) J.M. Bardet and C. Tudor. A wavelet analysis of the Rosenblatt process: chaos expansion and estimation of the self-similarity parameter. To appear in Stoch.Proc.Appl.(2010). M.Clausel, F.Roueff, M.S.Taqqu, C. Tudor. Large scale behavior of wavelet coefficients of non-linear subordinated processes with long memory. Submitted. M.Clausel, F.Roueff, M.S.Taqqu, C. Tudor. Asymptotic behavior of the scalogram of a non linear time series. In preparation.