Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de Grenoble 51, rue des Mathématiques, 3841-Grenoble cedex 9 France email: adriana.climescu@imag.fr Résumé A partir de l étude d une équation de filtrage associée à un bruit modélisé par une infinité des mouvements browniens généralisés, on montre qu une condition suffisante pour l existence d une forme explicite de l estimateur du signal au sens des moindres carrés est l équivalence des mesures induites par le signal observé et le bruit. On montre que l estimateur admet une représentation en fonction de la dérivée de Radon-Nikodym des deux mesures. En utilisant un théorème de représentation des martingales et l orthogonalité des polynômes de Hermite par rapport à la mesure gaussienne, on construit son approximation en moyenne quadratique. On obtient ainsi un algorithme d extraction du signal par un filtre non linéaire. Mots clés: filtrage stochastique, processus d innovation, martingales, polynômes de Hermite Abstract Based on the study of a filtering equation associated with a noise modelled by an infinity of generalized Brownian motions, it is shown that a sufficient condition for the existence of an explicit form for the least mean square estimator of the signal is the equivalence of the measures induced by the observation and the noise. It is shown that the estimator admits a representation depending on the Radon-Nikodym derivative of the two measures. Its approximation on quadratic mean is built by means of a martingales representation theorem and the orthogonality of Hermite polynomials with respect to the Gaussian measure. Hence, an algorithm of signal extraction by a non linear filter is done. Keywords: stochastic filtering, innovation process, martingales, Hermite polynomials 1 Introduction Un cas particulier de la théorie du filtrage non linéaire est celui où l observation, le bruit et le signal à estimer sont liés par une équation différentielle stochastique, soit Z ω, t) = Σ B dx) S ω, u) + B ω, t), t [, 1] 1
B = B 1, B 2,...) : Ω [, 1] IR est le processus stochastique modélisant le bruit, dont les composantes sont des mouvements browniens généralisés indépendants. Chaque B n, t), t [, 1], suit une loi normale N, β n t)), où β n est une fonction monotone non décroissante et continue. β n désigne aussi la mesure induite sur [, 1] par la fonction de même sigle. Σ B = diag β 1, β 2,...) représente la matrice de covariance de B. L observation est modélisée par le processus Z : Ω [, 1] IR, et le signal transmis par le processus S : Ω [, 1] IR. B, Z et S sont des processus définis sur Ω, A, P ), un espace de probabilité qui a été enrichi d une filtration notée A = {A t A, t [, 1]}. La particularité de l approche est qu on ne peut pas supposer, pour A, que les conditions habituelles sont satisfaites. 1 En généralisant un résultat classique de filtrage stochastique donné par Mémin 1974) pour le mouvement brownien standard, on peut montrer que E [S, t) σ t Z)] = ŜZ, ), t) P p.s. est l estimateur de S, t) au sens des moindres carrés et qu il satisfait une équation différentielle stochastique qui n est pas de type Itô, Z, t) = Σ B dx) Ŝ Z, ), u) + BZ, t), P p.s. 1) car Ŝ dépend du passé. Cette équation est appelée équation de filtrage, BZ, t) étant un processus d innovation. C est l existence d un tel processus qui fait l objet de l étude de l équation de filtrage. Dans la section suivante on montre qu une condition suffisante pour qu un tel processus existe est l existence de la fonction de vraisemblance entre la mesure induite par le signal reçu et celle induite par le bruit. A partir de ce résultat, on donne une procédure de construction d une approximation en moyenne quadratique pour Ŝ, en utilisant le lien entre la mesure gaussienne et les polynômes de Hermite. 2 La fondation analytique G désigne l ensemble des trajectoires des processus B et Z qui est soit C[, 1], le produit d une famille dénombrable de copies de C[, 1], muni de la distance min { 1, sup t [,1] c i 1t) c i 2t) } δc 1, c 2 ) =, i=1 2 i soit C [, 1]; l 2 ), l ensemble des fonctions continues c : [, 1] l 2 muni de la distance c 1, c 2 ) = sup t [,1] c 1 t) c 2 t) l2. G désigne l ensemble des boréliens de G. Soit H, H), 1 Les raisons sont analogues à celles invoquées par Von Weizsäker et G. Winkler 199) car les résultats à obtenir ici sont basés sur l obtention de vraisemblances. De plus, sur les espaces de trajectoires, les tribus naturelles ne sont pas, a priori, continues à droite. 2
l espace mesurable associé, selon le cas, soit à H = IR IN, soit à H = l 2. On note d H la distance naturelle de H. ev t : G H est l évaluation définie par ev t g) = g t) H. Si P X est la loi sur G induite par un processus X, on obtient, par rapport à cette loi, un processus { ev X t, t [, 1] }, à partir de la relation, valable pour des boréliens H i H, 1 i n Définition P X g G : ev X t i g) H i, 1 i n ) = P ω Ω : X ω, t i ) H i, 1 i n). Une solution faible de l équation 1) est un couple P W, W ) tel que P W soit une probabilité sur G, G), et W soit un mouvement brownien généralisé relativement à G, G, G, P W ), de variance Σ B, qui ait la propriété que, presque sûrement, relativement à P W, On définit ev P W g, t) = Σ B dx) f g, x) + W g, t). L 2 [ β ] = { f = f 1, f 2,...) : [, 1] IR, n=1 1 } fnx)β 2 n dx) <. Soit N PB G) la famille des ensembles de G qui sont négligeables relativement à P B. G P B t désigne alors la tribu engendrée par G t et N PB G). On dispose alors du lemme suivant. Lemme La filtration G P B est continue à droite. Démonstration: G est la filtration naturelle du processus d évaluation ev. Par rapport à P B, ce processus est un mouvement brownien, et donc fortement markovien, d après Von Weizsäker et G. Winkler 199). La continuité à droite de la filtration augmentée G P B est une conséquence de la proprieté de Markov. Proposition Soit Z un processus à trajectoires dans G, défini sur la base Ω, A, A, P ), tel que P Z et P B soient équivalentes. Il existe alors un processus progressivement mesurable Ŝ, défini sur la base ) G, G P B, G P B, P Z, et un mouvement brownien généralisé W Z, défini sur la base Ω, σ 1 Z), σ Z), P ), de covariance Σ B, tels que l on ait, presque sûrement, relativement à P, et Z, t) = Σ B dx) Ŝ Z, ), x) + W Z, t), 2) P B g G : Ŝ g, ) 2 L 2[ β ] < ) = P Z g G : Ŝ g, ) 2 L 2[ β ] < ) = 1. 3
Démonstration: La filtration G PB étant continue à droite, la martingale E PB [ dpz dp B ] G P B t a une modification M t continue à droite d après Von Weizsäker et G. Winkler 199). Le théorème de représentation des martingales d une filtration brownienne dans la version obtenue par l auteur 1999) assure alors que M g, t) = 1 + où h est un processus prévisible pour G P B, tel que h g, x), ev B g, dx), P B g G : h g, ) 2 L 2[β] < ) = 1. La notation, désigne l intégrale stochastique par rapport à une infinité de mouvements browniens généralisés. Cette représentation entraîne que M est un processus continu à droite, et presque sûrement continu, relativement à P B. Soit T g) = inf {t [, 1] : {M g, t) = } ou {M g, t ) = }}. M a, presque sûrement, relativement à P B des trajectoires sur [T, 1] qui sont nulles. Mais, à cause de l hypothèse d équivalence, M 1 >, presque sûrement, relativement à P B. On a donc que P B g G : inft [,1] M g, t) > ) = 1. L expression ln [M t ] a ainsi un sens, presque sûrement, relativement à P B. Une version adéquate de la formule d Itô permet alors d écrire soit On définit alors et on a que ln [M t ] = h g, x) M g, x), evp B g, dx) 1 2 I h g, ) 2 [,t], M g, ) L 2[β] h g, x) M g, t) = exp M g, x), evp B g, dx) 1 2 2 I h g, ) [,t] M g, ). L 2[β] Ŝ g, ) 2 L 2[ β ] = i=1 1 Ŝ g, t) = h g, t) M g, t) h 2 ) i g, x) M 2 g, x) dβ ix) 1/ inf M 2 g, t) h g, ) 2 t [,1] L 2[ β ]. 4
On obtient ainsi l égalité P B g G : f g, ) 2 L 2[β] < ) = 1, et dans cette dernière relation, on peut remplacer P B par P Z, puisque ces mesures sont équivalentes. Cette propriété de P Z, et le fait d avoir E PB [M, 1)] = 1, assurent conformément à un résultat de la thèse 1999), qu il existe une solution faible unique de l équation Z, t) = On pose alors, sur la base G, G P B, G P B, P B ), Σ B dx) Ŝ Z, ), x) + B, t). P W dg) = M g, 1) P B dg), W g, x) = Σ B dx) Ŝ g, x) + evb g, t). Le théorème de Girsanov dit que W est, relativement à P W, un mouvement brownien généralisé, de covariance Σ B. M, 1) étant une version de la dérivée dp Z /dp B, P W = P Z. La démonstration est complète si l on pose W Z = W Z. Note: On peut montrer que si l hypothèse P Z P B est satisfaite, alors il existe un processus Ŝ et un mouvement brownien W Z verifiant l equation 2) et tel que P Z g G : Ŝ g, ) 2 L 2[β] < ) = 1. 3 Une approximation en moyenne quadratique Soit Q un sous ensemble dénombrable et dense de [, 1] qui contient s =. On désigne par Q l = {s = < s 1 < s 2 <... s l } le sous ensemble de Q contenant les premiers l +1 éléments et par F l la tribu engendrée par la famille {B n s i ) B n s j ), i, j = 1, 2,..., l, n IN }. Soit L 2 [F l, P ] l ensemble des processus F l -mesurables et de carré P-intégrable. Le théorème suivant donne une procédure de construction d une approximation en moyenne quadratique pour Ŝ, l estimateur du signal transmis. C est un algorithme d extraction du signal par un filtre non linéaire. On introduit la famille des polynômes de Hermite définis par où k IN, t [, T ] et z IR. Théorème H k t, z) = 1 ) ) z 2 k z 2 k! t)k exp 2t z exp, k 2t Sous les hypothèses de la Proposition précédente, le processus Ŝ est la limite en moyenne quadratique d une suite des processus Ŝl L 2 [F l, P ] définis par Ŝ l ω, t) = h ) lω, t) h 1 Mω, t) = l ω, t) Mω, t), h2 l ω, t) Mω, t),..., hn l ω, t) Mω, t),... 5
où pour t [s j 1, s j ) avec h n l ω, t) = a k,l φ n k,jω, t), k=k 1,k 2,...,k l ):maxi k i >)=j) φ n k,jω, t) = G n k,jh kj,n 1 β n t) β n s j 1 ), B n ω, t) B n ω, s j 1 )) i n H kj,i β i t) β i s j 1 ), B n ω, t) B n ω, s j 1 )), G n k,j étant des variables aléatoires définies par G n k,j = j 1 q=1 et a k,l des scalaires obtenus par H kq,n β n s q ) β n s q 1 ), B n, s q ) B n, s q 1 )) [ ] l l a k,l = E M, t) 1) H ki,n β n s i ) β n s i 1 ), B n, s i ) B n, s i 1 )). n=1 i=1 Démonstration: Par la Proposition précédente il suffit de montrer que la suite X l, t) = 1 + h l, u), B, du) converge en moyenne quadratique vers M, t) quand l. Cela découle du fait que pour l IN et s i [, 1], i = 1, 2,..., l fixés, la famille des variables aléatoires { l } l H ki,n β n s i ) β n s i 1 ), B n, s i ) B n, s i 1 )), k = k i ) 1 i l IN l n=1 i=1 forme un système orthogonal complet dans l espace L 2 [F l, P ]. Bibliographie [1] Climescu-Haulica, A. 1999) Calcul stochastique appliqué aux problèmes de détection des signaux aléatoires, thèse, Ecole Polytechnique Fédérale de Lausanne [2] Mémin, J. 1974) Sur quelques problèmes fondamentaux de la théorie du filtrage, thèse, Université de Rennes [3] Von Weizsäker, H. et Winkler, G. 199) Stochastic Integrals, Vieweg, Wiesbaden 6