Filtrage stochastique non linéaire par la théorie de représentation des martingales



Documents pareils
Le modèle de Black et Scholes

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Corrigé

Résumé des communications des Intervenants

Équation de Langevin avec petites perturbations browniennes ou

Programmes des classes préparatoires aux Grandes Ecoles

Texte Agrégation limitée par diffusion interne

3 Approximation de solutions d équations

Limites finies en un point


La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Probabilités III Introduction à l évaluation d options

Modèles et Méthodes de Réservation

Continuité d une fonction de plusieurs variables

Mesures gaussiennes et espaces de Fock

Théorème du point fixe - Théorème de l inversion locale

3. Conditionnement P (B)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Principe de symétrisation pour la construction d un test adaptatif

Approximations variationelles des EDP Notes du Cours de M2

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Polynômes de Tchebychev

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Espérance conditionnelle

Moments des variables aléatoires réelles

Processus aléatoires avec application en finance

Cours d Analyse. Fonctions de plusieurs variables

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

4. Martingales à temps discret

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

NON-LINEARITE ET RESEAUX NEURONAUX

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Dérivées d ordres supérieurs. Application à l étude d extrema.

DIPLOME D'ETUDES APPROFONDIES EN ECONOMIE ET FINANCE THEORIE DES MARCHES FINANCIERS. Semestre d hiver

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Programmation linéaire

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc

Image d un intervalle par une fonction continue

Fonctions de plusieurs variables

Simulation de variables aléatoires

Table des matières. I Mise à niveau 11. Préface

La fonction exponentielle

Température corporelle d un castor (une petite introduction aux séries temporelles)

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Résolution d équations non linéaires

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Calcul différentiel. Chapitre Différentiabilité

Calcul différentiel sur R n Première partie

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

de calibration Master 2: Calibration de modèles: présentation et simulation d

Théorie des probabilités

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Maîtrise universitaire ès sciences en mathématiques

Chapitre 2 Le problème de l unicité des solutions

Calcul Stochastique pour la finance. Romuald ELIE

Continuité et dérivabilité d une fonction

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Amphi 3: Espaces complets - Applications linéaires continues

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

MATHS FINANCIERES. Projet OMEGA

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Cours d analyse numérique SMI-S4

Master of Science en mathématiques

Attitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014

Théorie de l estimation et de la décision statistique

Chp. 4. Minimisation d une fonction d une variable

Correction de l examen de la première session

MCMC et approximations en champ moyen pour les modèles de Markov

Théorie de la Mesure et Intégration

Quantification Scalaire et Prédictive


Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Produits de crédit en portefeuille

Intégrale de Lebesgue

Sites web éducatifs et ressources en mathématiques

M2 IAD UE MODE Notes de cours (3)

0 h(s)ds et h [t = 1 [t, [ h, t IR +. Φ L 2 (IR + ) Φ sur U par

Soutenance de stage Laboratoire des Signaux et Systèmes

Correction du Baccalauréat S Amérique du Nord mai 2007

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Résolution de systèmes linéaires par des méthodes directes

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.

Master of Science en mathématiques

TABLE DES MATIERES. C Exercices complémentaires 42

Chapitre 2. Matrices

Finance, Navier-Stokes, et la calibration

CAPTEURS - CHAINES DE MESURES

Echantillonnage Non uniforme

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE


Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Théorie de la Mesure et Intégration

Transcription:

Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de Grenoble 51, rue des Mathématiques, 3841-Grenoble cedex 9 France email: adriana.climescu@imag.fr Résumé A partir de l étude d une équation de filtrage associée à un bruit modélisé par une infinité des mouvements browniens généralisés, on montre qu une condition suffisante pour l existence d une forme explicite de l estimateur du signal au sens des moindres carrés est l équivalence des mesures induites par le signal observé et le bruit. On montre que l estimateur admet une représentation en fonction de la dérivée de Radon-Nikodym des deux mesures. En utilisant un théorème de représentation des martingales et l orthogonalité des polynômes de Hermite par rapport à la mesure gaussienne, on construit son approximation en moyenne quadratique. On obtient ainsi un algorithme d extraction du signal par un filtre non linéaire. Mots clés: filtrage stochastique, processus d innovation, martingales, polynômes de Hermite Abstract Based on the study of a filtering equation associated with a noise modelled by an infinity of generalized Brownian motions, it is shown that a sufficient condition for the existence of an explicit form for the least mean square estimator of the signal is the equivalence of the measures induced by the observation and the noise. It is shown that the estimator admits a representation depending on the Radon-Nikodym derivative of the two measures. Its approximation on quadratic mean is built by means of a martingales representation theorem and the orthogonality of Hermite polynomials with respect to the Gaussian measure. Hence, an algorithm of signal extraction by a non linear filter is done. Keywords: stochastic filtering, innovation process, martingales, Hermite polynomials 1 Introduction Un cas particulier de la théorie du filtrage non linéaire est celui où l observation, le bruit et le signal à estimer sont liés par une équation différentielle stochastique, soit Z ω, t) = Σ B dx) S ω, u) + B ω, t), t [, 1] 1

B = B 1, B 2,...) : Ω [, 1] IR est le processus stochastique modélisant le bruit, dont les composantes sont des mouvements browniens généralisés indépendants. Chaque B n, t), t [, 1], suit une loi normale N, β n t)), où β n est une fonction monotone non décroissante et continue. β n désigne aussi la mesure induite sur [, 1] par la fonction de même sigle. Σ B = diag β 1, β 2,...) représente la matrice de covariance de B. L observation est modélisée par le processus Z : Ω [, 1] IR, et le signal transmis par le processus S : Ω [, 1] IR. B, Z et S sont des processus définis sur Ω, A, P ), un espace de probabilité qui a été enrichi d une filtration notée A = {A t A, t [, 1]}. La particularité de l approche est qu on ne peut pas supposer, pour A, que les conditions habituelles sont satisfaites. 1 En généralisant un résultat classique de filtrage stochastique donné par Mémin 1974) pour le mouvement brownien standard, on peut montrer que E [S, t) σ t Z)] = ŜZ, ), t) P p.s. est l estimateur de S, t) au sens des moindres carrés et qu il satisfait une équation différentielle stochastique qui n est pas de type Itô, Z, t) = Σ B dx) Ŝ Z, ), u) + BZ, t), P p.s. 1) car Ŝ dépend du passé. Cette équation est appelée équation de filtrage, BZ, t) étant un processus d innovation. C est l existence d un tel processus qui fait l objet de l étude de l équation de filtrage. Dans la section suivante on montre qu une condition suffisante pour qu un tel processus existe est l existence de la fonction de vraisemblance entre la mesure induite par le signal reçu et celle induite par le bruit. A partir de ce résultat, on donne une procédure de construction d une approximation en moyenne quadratique pour Ŝ, en utilisant le lien entre la mesure gaussienne et les polynômes de Hermite. 2 La fondation analytique G désigne l ensemble des trajectoires des processus B et Z qui est soit C[, 1], le produit d une famille dénombrable de copies de C[, 1], muni de la distance min { 1, sup t [,1] c i 1t) c i 2t) } δc 1, c 2 ) =, i=1 2 i soit C [, 1]; l 2 ), l ensemble des fonctions continues c : [, 1] l 2 muni de la distance c 1, c 2 ) = sup t [,1] c 1 t) c 2 t) l2. G désigne l ensemble des boréliens de G. Soit H, H), 1 Les raisons sont analogues à celles invoquées par Von Weizsäker et G. Winkler 199) car les résultats à obtenir ici sont basés sur l obtention de vraisemblances. De plus, sur les espaces de trajectoires, les tribus naturelles ne sont pas, a priori, continues à droite. 2

l espace mesurable associé, selon le cas, soit à H = IR IN, soit à H = l 2. On note d H la distance naturelle de H. ev t : G H est l évaluation définie par ev t g) = g t) H. Si P X est la loi sur G induite par un processus X, on obtient, par rapport à cette loi, un processus { ev X t, t [, 1] }, à partir de la relation, valable pour des boréliens H i H, 1 i n Définition P X g G : ev X t i g) H i, 1 i n ) = P ω Ω : X ω, t i ) H i, 1 i n). Une solution faible de l équation 1) est un couple P W, W ) tel que P W soit une probabilité sur G, G), et W soit un mouvement brownien généralisé relativement à G, G, G, P W ), de variance Σ B, qui ait la propriété que, presque sûrement, relativement à P W, On définit ev P W g, t) = Σ B dx) f g, x) + W g, t). L 2 [ β ] = { f = f 1, f 2,...) : [, 1] IR, n=1 1 } fnx)β 2 n dx) <. Soit N PB G) la famille des ensembles de G qui sont négligeables relativement à P B. G P B t désigne alors la tribu engendrée par G t et N PB G). On dispose alors du lemme suivant. Lemme La filtration G P B est continue à droite. Démonstration: G est la filtration naturelle du processus d évaluation ev. Par rapport à P B, ce processus est un mouvement brownien, et donc fortement markovien, d après Von Weizsäker et G. Winkler 199). La continuité à droite de la filtration augmentée G P B est une conséquence de la proprieté de Markov. Proposition Soit Z un processus à trajectoires dans G, défini sur la base Ω, A, A, P ), tel que P Z et P B soient équivalentes. Il existe alors un processus progressivement mesurable Ŝ, défini sur la base ) G, G P B, G P B, P Z, et un mouvement brownien généralisé W Z, défini sur la base Ω, σ 1 Z), σ Z), P ), de covariance Σ B, tels que l on ait, presque sûrement, relativement à P, et Z, t) = Σ B dx) Ŝ Z, ), x) + W Z, t), 2) P B g G : Ŝ g, ) 2 L 2[ β ] < ) = P Z g G : Ŝ g, ) 2 L 2[ β ] < ) = 1. 3

Démonstration: La filtration G PB étant continue à droite, la martingale E PB [ dpz dp B ] G P B t a une modification M t continue à droite d après Von Weizsäker et G. Winkler 199). Le théorème de représentation des martingales d une filtration brownienne dans la version obtenue par l auteur 1999) assure alors que M g, t) = 1 + où h est un processus prévisible pour G P B, tel que h g, x), ev B g, dx), P B g G : h g, ) 2 L 2[β] < ) = 1. La notation, désigne l intégrale stochastique par rapport à une infinité de mouvements browniens généralisés. Cette représentation entraîne que M est un processus continu à droite, et presque sûrement continu, relativement à P B. Soit T g) = inf {t [, 1] : {M g, t) = } ou {M g, t ) = }}. M a, presque sûrement, relativement à P B des trajectoires sur [T, 1] qui sont nulles. Mais, à cause de l hypothèse d équivalence, M 1 >, presque sûrement, relativement à P B. On a donc que P B g G : inft [,1] M g, t) > ) = 1. L expression ln [M t ] a ainsi un sens, presque sûrement, relativement à P B. Une version adéquate de la formule d Itô permet alors d écrire soit On définit alors et on a que ln [M t ] = h g, x) M g, x), evp B g, dx) 1 2 I h g, ) 2 [,t], M g, ) L 2[β] h g, x) M g, t) = exp M g, x), evp B g, dx) 1 2 2 I h g, ) [,t] M g, ). L 2[β] Ŝ g, ) 2 L 2[ β ] = i=1 1 Ŝ g, t) = h g, t) M g, t) h 2 ) i g, x) M 2 g, x) dβ ix) 1/ inf M 2 g, t) h g, ) 2 t [,1] L 2[ β ]. 4

On obtient ainsi l égalité P B g G : f g, ) 2 L 2[β] < ) = 1, et dans cette dernière relation, on peut remplacer P B par P Z, puisque ces mesures sont équivalentes. Cette propriété de P Z, et le fait d avoir E PB [M, 1)] = 1, assurent conformément à un résultat de la thèse 1999), qu il existe une solution faible unique de l équation Z, t) = On pose alors, sur la base G, G P B, G P B, P B ), Σ B dx) Ŝ Z, ), x) + B, t). P W dg) = M g, 1) P B dg), W g, x) = Σ B dx) Ŝ g, x) + evb g, t). Le théorème de Girsanov dit que W est, relativement à P W, un mouvement brownien généralisé, de covariance Σ B. M, 1) étant une version de la dérivée dp Z /dp B, P W = P Z. La démonstration est complète si l on pose W Z = W Z. Note: On peut montrer que si l hypothèse P Z P B est satisfaite, alors il existe un processus Ŝ et un mouvement brownien W Z verifiant l equation 2) et tel que P Z g G : Ŝ g, ) 2 L 2[β] < ) = 1. 3 Une approximation en moyenne quadratique Soit Q un sous ensemble dénombrable et dense de [, 1] qui contient s =. On désigne par Q l = {s = < s 1 < s 2 <... s l } le sous ensemble de Q contenant les premiers l +1 éléments et par F l la tribu engendrée par la famille {B n s i ) B n s j ), i, j = 1, 2,..., l, n IN }. Soit L 2 [F l, P ] l ensemble des processus F l -mesurables et de carré P-intégrable. Le théorème suivant donne une procédure de construction d une approximation en moyenne quadratique pour Ŝ, l estimateur du signal transmis. C est un algorithme d extraction du signal par un filtre non linéaire. On introduit la famille des polynômes de Hermite définis par où k IN, t [, T ] et z IR. Théorème H k t, z) = 1 ) ) z 2 k z 2 k! t)k exp 2t z exp, k 2t Sous les hypothèses de la Proposition précédente, le processus Ŝ est la limite en moyenne quadratique d une suite des processus Ŝl L 2 [F l, P ] définis par Ŝ l ω, t) = h ) lω, t) h 1 Mω, t) = l ω, t) Mω, t), h2 l ω, t) Mω, t),..., hn l ω, t) Mω, t),... 5

où pour t [s j 1, s j ) avec h n l ω, t) = a k,l φ n k,jω, t), k=k 1,k 2,...,k l ):maxi k i >)=j) φ n k,jω, t) = G n k,jh kj,n 1 β n t) β n s j 1 ), B n ω, t) B n ω, s j 1 )) i n H kj,i β i t) β i s j 1 ), B n ω, t) B n ω, s j 1 )), G n k,j étant des variables aléatoires définies par G n k,j = j 1 q=1 et a k,l des scalaires obtenus par H kq,n β n s q ) β n s q 1 ), B n, s q ) B n, s q 1 )) [ ] l l a k,l = E M, t) 1) H ki,n β n s i ) β n s i 1 ), B n, s i ) B n, s i 1 )). n=1 i=1 Démonstration: Par la Proposition précédente il suffit de montrer que la suite X l, t) = 1 + h l, u), B, du) converge en moyenne quadratique vers M, t) quand l. Cela découle du fait que pour l IN et s i [, 1], i = 1, 2,..., l fixés, la famille des variables aléatoires { l } l H ki,n β n s i ) β n s i 1 ), B n, s i ) B n, s i 1 )), k = k i ) 1 i l IN l n=1 i=1 forme un système orthogonal complet dans l espace L 2 [F l, P ]. Bibliographie [1] Climescu-Haulica, A. 1999) Calcul stochastique appliqué aux problèmes de détection des signaux aléatoires, thèse, Ecole Polytechnique Fédérale de Lausanne [2] Mémin, J. 1974) Sur quelques problèmes fondamentaux de la théorie du filtrage, thèse, Université de Rennes [3] Von Weizsäker, H. et Winkler, G. 199) Stochastic Integrals, Vieweg, Wiesbaden 6