Théorie du chaos multiplicatif et application à l étude de la mesure MRM lognormale. 15 novembre 2010



Documents pareils
3. Conditionnement P (B)

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Le modèle de Black et Scholes

Modèles et Méthodes de Réservation

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

Programmes des classes préparatoires aux Grandes Ecoles

Simulation de variables aléatoires

Programmation linéaire

Probabilités III Introduction à l évaluation d options

Espérance conditionnelle

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Chapitre 2 Le problème de l unicité des solutions

Équation de Langevin avec petites perturbations browniennes ou

Cours d Analyse. Fonctions de plusieurs variables

Intégration et probabilités TD1 Espaces mesurés

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Théorème du point fixe - Théorème de l inversion locale

Introduction à l approche bootstrap

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

3 Approximation de solutions d équations

Exercice : la frontière des portefeuilles optimaux sans actif certain

TABLE DES MATIERES. C Exercices complémentaires 42

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Mesures gaussiennes et espaces de Fock

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

4. Martingales à temps discret

Intégration et probabilités TD1 Espaces mesurés Corrigé

3. Caractéristiques et fonctions d une v.a.

Polynômes à plusieurs variables. Résultant

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Apprentissage non paramétrique en régression

Sujet 4: Programmation stochastique propriétés de fonction de recours

Produits de crédit en portefeuille

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

Continuité en un point

Intégrale de Lebesgue

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Chapitre 3. Les distributions à deux variables

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Théorie de la mesure. S. Nicolay

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

FIMA, 7 juillet 2005

Le modèle de régression linéaire

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

M2 IAD UE MODE Notes de cours (3)

1 Complément sur la projection du nuage des individus

Chapitre 7 : Intégration sur un intervalle quelconque

Limites finies en un point

Modélisation de séries financières par un modèle multifractal. Céline Azizieh

Image d un intervalle par une fonction continue

Programmation linéaire

Théorie de la Mesure et Intégration

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

Amphi 3: Espaces complets - Applications linéaires continues

Correction de l examen de la première session

Modélisation géostatistique des débits le long des cours d eau.

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

Théorie des probabilités

Texte Agrégation limitée par diffusion interne

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Résolution d équations non linéaires

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

MA6.06 : Mesure et Probabilités

Que faire lorsqu on considère plusieurs variables en même temps?

Analyse en Composantes Principales

Le théorème des deux fonds et la gestion indicielle

Fonctions de plusieurs variables

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

Un modèle stochastique du taux d intérêt implicite en microcrédit

Calcul différentiel. Chapitre Différentiabilité

Attitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Finance, Navier-Stokes, et la calibration

Chapitre 2. Matrices

PROBABILITES ET STATISTIQUE I&II

Analyse de la variance Comparaison de plusieurs moyennes

Introduction à l étude des Corps Finis

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Principe de symétrisation pour la construction d un test adaptatif

Optimisation des fonctions de plusieurs variables

Économetrie non paramétrique I. Estimation d une densité

Loi binomiale Lois normales

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Table des matières. Avant-propos. Chapitre 2 L actualisation Chapitre 1 L intérêt Chapitre 3 Les annuités III. Entraînement...

Travaux dirigés d introduction aux Probabilités

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

STATISTIQUES. UE Modélisation pour la biologie

Transcription:

Théorie du chaos multiplicatif et application à l étude de la mesure MRM lognormale 15 novembre 2010

Table des matières 1 Rappel sur les Processus Gaussiens 2 Théorie du chaos multiplicatif gaussien de Kahane 3 Une application du chaos multiplicatif gaussien : la MRM lognormale 4 Quelques propriétés de la MRM lognormale

Définition d un vecteur gaussien Définition Un vecteur aléatoire X = (X 1,, X n ), à valeurs dans R n, est un vecteur gaussien si pour tout vecteur (λ 1,, λ n ) R n, la combinaison linéaire n i=1 λ ix i est une variable gaussienne. En particulier, pour tout i, la variable aléatoire X i est une variable gaussienne : attention, la réciproque n est pas vrai! On introduit : le vecteur des espérances µ = (E[X i ]) 1 i n. le vecteur des covariances K = (E[(X i µ i )(X j µ j )]) 1 i,j n.

Définition d un processus gaussien Proposition Le vecteur gaussien X = (X 1,, X n ) a pour transformée de Fourier : E[e iξ.x ] = e iξ.µ 1 t 2 ξkξ, ξ = (ξ 1,, ξ n ). Définition Un processus aléatoire X = (X t ) t I est un processus gaussien si pour tout sous ensemble (t 1,, t n ) de I, le vecteur (X t1,, X tn ) est un vecteur gaussien.

Noyaux de type positif Définition Une matrice (K i,j ) 1 i,j, n est de type positive si pour tout vecteur ξ = (ξ 1,, ξ n ) on a : t ξkξ = 1 i,j n K i,j ξ i ξ j 0. Définition Une noyau (K(s, t)) s,t I est une fonction K : I I R. Un noyau est de type positif si pour tout sous ensemble (t 1,, t n ) de I, la matrice (K(t i, t j )) 1 i,j, n est de type positive.

Noyaux de type positif et processus gaussiens Il est facile de vérifier que pour tout vecteur gaussien X, la matrice de covariance K = (E[(X i µ i )(X j µ j )]) 1 i,j n est de type positive. Nous admettrons la réciproque suivante (énoncée de manière très générale pour les processus) : Théorème Un noyau K : I I R est type positif si et seulement si il existe un processus gaussien X = (X i ) i I centré tel que : s, t I, K(s, t) = E[X s X t ].

Indépendance des composantes d un vecteur gaussien Dans le cas gaussien, il est extrêmement facile de vérifier l indépendance de deux variables : Proposition Soit X = (X 1,, X n ) un vecteur gaussien centré. Les vecteurs (X i1,, X ik ) et (X j1,, X jk ) sont indépendants si et seulement si : l, l E[X il X jl ] = 0.

Intégration par partie d un vecteur gaussien La formule suivante (IPP) est d une grande utilité pour faire des calculs avec un vecteur gaussien : Proposition (Intégration par parties) Soit X = (Z, X 1,, X n ) un vecteur gaussien centré et F : R n R une fonction C 1. Alors, on a : E[ZF (X 1,, X n )] = n i=1 E[ZX i ]E[ F x i (X 1,, X n )] De cette formule, on va déduire les principes de comparaisons suivants :

Principes de comparaison Proposition Soit deux vecteurs gaussiens X = (X 1,, X n ) et Y = (Y 1,, Y n ) centrés tels que : i, j E[X i X j ] E[Y i Y j ]. Alors, pour tout vecteur (p 1,, p n ) R n + et toute fonction convexe ϕ, on a : E[ϕ( n i=1 p i e X i E[X 2 i ] 2 )] E[ϕ( n p i e Y i E[Y 2 i ] 2 )] i=1

Principes de comparaison Corollaire Soit deux vecteurs gaussiens X = (X 1,, X n ) et Y = (Y 1,, Y n ) centrés tels que : i, E[Xi 2 ] = E[Yi 2 ]. i j, E[X i X j ] E[Y i Y j ]. Alors, pour toute fonction croissante F : R R +, on a : E[F ( sup Y i )] E[F ( sup X i )]. 1 i n 1 i n

Noyaux de type σ-positif La théorie du chaos multiplicatif gaussien a été élaboré par J.P. Kahane dans l article fondateur : Sur le chaos multiplicatif, Annales Scientifiques et Mathematiques Quebec). C est une théorie générale dont le modèle limite lognormal est un cas particluier. Cette théorie s appuie sur la notion de noyau de type σ-positif : Définition Soit K : R R R + {+ } un noyau généralisé. On dit que K est un noyau de type σ-positif si il existe une suite de noyaux K n : R R R + positifs, de type positif et continus tels que : s, t, K(s, t) = n 1 K n (s, t).

Noyaux de type σ-positif : quelques remarques Remarque La décomposition d un noyau de type σ-positif en somme de noyaux K n n est pas nécessairement unique : il peut exister une autre suite (K n) n 1 tel que K = n 1 K n Remarque Comme chaque K n est de type positif, par les résultats de la section précédente, on peut considérer un processus gaussien centré (X n (x)) x R tel que X n a pour covariance le noyau K n. Si on suppose les processus X n indépendants alors X 1 + + X n a pour covariance K 1 + K n.

Théorie du chaos multiplicatif gaussien de Kahane On peut énoncer la définition (théorème) qui définit le chaos multiplicatif : Définition (Théorème, Kahane, 88) Soit K un noyau de type σ-positif qui s exprime comme somme de noyaux K n ( positifs, de type positif et continus). Soit X n des processus gaussiens indépendants de covariance K n. Si l on note Y n = X 1 + + X n alors la suite de mesures aléatoires m n définies par : E[Yn(x)] Yn(x) m n (A) = e 2 dx, A B(R d ) A converge p.s. vers une mesure aléatoire m. La loi de la mesure m ne dépend pas de la décompostion (K n ) n 1. On appelle m le chaos multiplicatif gaussien associé à K.

Une application du chaos multiplicatif gaussien : la MRM lognormale La mesure MRM (Multifractal Random measure) lognormale est le chaos multiplicatif gaussien associé au noyau K(s, t) = λ 2 ln + ( T t s ). Il n est pas immédiat de vérifier que ln+ T. est de type σ-positif. Nous allons utiliser la construction en cône pour définir la MRM. Cette construction fait appel à la notion de mesure gaussienne sur un espace mesuré : Définition Soit A B(R n ) un sous ensemble borélien de R d. On considère une mesure ν sur B. On appelle mesure gaussienne associée à ν le champ gaussien centré (X (A)) A B(A) de covariance : E[X (A)X (B)] = ν(a B).

Une application du chaos multiplicatif gaussien : la MRM lognormale On introduit µ la mesure gaussienne sur R R + associée à la mesure ν(ds, dy) = dsdy y 2. On definit le cône C(t) dans R R + : C(t) = {(s, y) R R + ; t s y T 2 On definit également le cône tronqué C ɛ (t) dans R R + : C ɛ (t) = {(s, y) R R + ; ɛ < t s y T 2 }. }.

Une application du chaos multiplicatif gaussien : la MRM lognormale On introduit le champ gaussien ω ɛ (t) = µ(c ɛ (t)). Il est facile de vérifier que ω ɛ est un processus gaussien centré de corrélations : { (ln E[ωsω ɛ t] ɛ T ɛ = + 1 t s ɛ ) pour t s ɛ, ln + sinon. T t s On définit donc la MRM lognormale M = limm ɛ avec : ɛ 0 M ɛ [0, t] = σ e λωɛ s λ2 2 E[(ωɛ s ) 2] ds, t 0 [0,t]

Quelques propriétés de la MRM lognormale : non dégérescence de la limite Nous admettrons le résultat suivant : Théorème (Kahane, 1985) La mesure aléatoire M est différente de 0 si et seulement si λ 2 < 2. Dans ce qui suit, on suppose que λ 2 < 2.

Quelques propriétés de la MRM lognormale : invariance d échelle stochastique Théorème (Invariance d échelle stochastique) La mesure M satisfait une propriété d invariance d échelle généralisée. Si c < 1, alors on a : (M[0, ct]) 0 t T = (distribution) ceω 1/c λ 2 2 ln 1 c (M[0, t])0 t T, où Ω 1/c est une variable gaussienne centrée de variance λ 2 ln( 1 c ) et indépendante de M. Une forme de cette équation fut en premier découverte en 1990 dans le cadre de la turbulence (Castaing, Gagne, Hopfinger : Velocity probability density functions of high Reynolds number turbulence, Physica D).

Quelques propriétés de la MRM lognormale : existence de moments et intermittence On introduit la fonction de structure ζ : ζ(q) = (1 + λ2 λ2 )q 2 2 q2 Corollaire Pour tout t < T et q R +, E[M[0, t] q ] = ( c T )ζ(q) E[M[0, T ] q ], Nous admettrons que pour q > 1, on a E[M[0, T ] q ] < si et seulement si ζ(q) > 1.

Quelques propriétés de la MRM lognormale : invariance d échelle intégrale Théorème (Invariance d échelle intégrale) La mesure M satisfait une propriété d invariance d échelle généralisée par changement du paramètre de cutoff. Si T < T, alors on a : (M T λ [0, t]) 0 t T = (distribution) eω T /T 2 2 ln T T (M T [0, t]) 0 t T, où Ω T /T est une gaussienne centrée de variance λ 2 ln( T T ) et indépendante de M. Conséquence : si la fenêtre d observation de M T est de longueur inférieure à T alors il est impossible de déterminer σ et T (Problème mal posé). Idée : faire tendre T pour se débarasser de σ et T!