Filtrage Bayésien et Approximation Particulaire

Dimension: px
Commencer à balayer dès la page:

Download "Filtrage Bayésien et Approximation Particulaire"

Transcription

1 École Nationale Supérieure de Techniques Avancées Filière : Finance quantitative Module : Automatique avancée Filtrage Bayésien et Approximation Particulaire version provisoire du 10 septembre 2007 François Le Gland IRISA / INRIA Rennes

2

3 i Objectif du cours Le filtrage consiste à estimer de façon récursive un état caché au vu d observations. Le domaine d application principal est la localisation, la navigation et la poursuite de mobiles, dans le domaine militaire, mais aussi en robotique mobile, en vision par ordinateur, en communications sans fil (GSM en extérieur, WiFi en indoor), où il s agit de combiner : un modèle a priori de déplacement du mobile, des mesures issues de capteurs, et éventuellemnent une base de mesures de références, disponibles par exemples sous la forme d une carte numérique (modèle numérique de terrain, carte de couverture, etc.). Le problème de filtrage possède une solution explicite, appelée filtre de Kalman, dans le cas particulier des systèmes linéaires gaussiens. Dans le cas plus général des modèles de Markov cachés, des méthodes de simulations efficaces sont apparues récemment, sous le nom de filtrage particulaire. L objectif de ce cours est de présenter différents algorithmes de filtrage particulaire, de les mettre en œuvre dans le cadre de travaux pratiques, et de démontrer quelques résultats de convergence en utilisant le cadre très général de l approximation particulaire des flots de Feynman Kac.

4 ii

5 Table des matières 1 Introduction stimation bayésienne Cadre gaussien Systèmes linéaires gaussiens 11 3 Filtrage de Kalman Filtre de Kalman Filtre de Kalman linéarisé, filtre de Kalman étendu Au delà des systèmes linéaires gaussiens Systèmes non linéaires à bruits non gaussiens Modèles de Markov cachés Chaînes de Markov à paramètres markoviens Chaînes de Markov partiellement observées Borne de Cramér Rao a posteriori 33 6 Filtrage bayésien Modèles de Markov cachés Chaînes de Markov partiellement observées Généralisation : flots de Feynman Kac Modèle A Modèle B iii

6 iv TABL DS MATIÈRS 8 Méthodes de Monte Carlo Acceptation / rejet Échantillonnage pondéré Redistribution (échantillonnage selon un mélange fini) Approximations particulaires Échantillonnage pondéré (SIS) Échantillonnage / ré échantillonnage (SIR) Ré échantillonnage adaptatif Filtres de Kalman en interaction Systèmes conditionnellement linéaires gaussiens Flot paramétré Flot mixte Approximation particulaire stimation d erreur Théorème central limite Échantillonnage pondéré (SIS) Échantillonnage / ré échantillonnage (SIR) A Inversion matricielle 101 B Intégrales gaussiennes 105 C Inégalités 109 D Théorème central limite 113

7 Chapitre 1 Introduction Le filtrage consiste à estimer l état d un système dynamique, c est à dire évoluant au cours du temps, à partir d observations partielles, généralement bruitées. Typiquement, on dispose d une suite Y 1, Y 2,, Y n d observations, obtenues après traitement préalable du signal brut recueilli au niveau des capteurs. Chaque observation Y n est reliée à l état inconnu X n par une relation du type Y n = h(x n ) + V n, où V n est un bruit, qui modélise l erreur d observation. Pour aller plus loin, il est nécessaire de définir plus précisément la notion de bruit. 1.1 stimation bayésienne Dans de nombreux cas, la prise en compte de l information a priori peut se ramener au problème statique suivant : étant donnés deux vecteurs aléatoires X et Y, qu apporte le fait d observer la réalisation Y = y sur la connaissance que l on a de X? Soit X et Y deux variables aléatoires à valeurs dans et dans F respectivement, et soit φ une application mesurable définie sur à valeurs dans R p. Par définition, un estimateur de φ(x) à partir de l observation de Y est un vecteur aléatoire ψ(y ), où ψ est une application mesurable définie sur F à valeurs dans R p (par abus de notation, la variable aléatoire ψ(y ) sera également notée ψ). stimateur MMS Soit ψ un estimateur de φ(x) sachant Y. Naturellement ψ = ψ(y ) n est pas égal à φ(x) : une mesure de l écart entre l estimateur et la vraie valeur est fournie par la matrice (de dimension p p) de corrélation d erreur dont la trace [ (ψ(y ) φ(x))(ψ(y ) φ(x)) ], (1.1) trace [ (ψ(y ) φ(x))(ψ(y ) φ(x)) ] = ψ(y ) φ(x) 2, 1

8 2 CHAPITR 1. INTRODUCTION est l erreur quadratique moyenne. L estimateur du minimum d erreur quadratique moyenne (MMS, pour minimum mean square error) de φ(x) sachant Y est un estimateur φ tel que [ ( φ(y ) φ(x))( φ(y ) φ(x)) ] [ (ψ(y ) φ(x))(ψ(y ) φ(x)) ], au sens des matrices symétriques, pour tout autre estimateur ψ. La Proposition 1.1 ci dessous montre que cet estimateur est obtenu à l aide de la distribution de probabilité conditionnelle de X sachant Y = y, définie à partir de la distribution de probabilité jointe de (X, Y ) par la décomposition P[X dx, Y dy] = P[X dx Y = y] P[Y dy]. (1.2) Proposition 1.1 Soit X et Y deux variables aléatoires à valeurs dans et F respectivement, et soit φ une application mesurable définie sur à valeurs dans R p. L estimateur MMS de φ(x) sachant Y est la moyenne conditionnelle de φ(x) sachant Y, i.e. φ(y) = [φ(x) Y = y] = φ(x) P[X dx Y = y]. Preuve. Pour tout estimateur ψ, la décomposition entraîne ψ(y ) φ(x) = φ(y ) φ(x) + ψ(y ) φ(y ), [ (ψ(y ) φ(x))(ψ(y ) φ(x)) ] = = [ ( φ(y ) φ(x))( φ(y ) φ(x)) ] + [ (ψ(y ) φ(y ))(ψ(y ) φ(y )) ] + [ (ψ(y ) φ(y ))( φ(y ) φ(x)) ] + [ ( φ(y ) φ(x))(ψ(y ) φ(y )) ], et on remarque que [ (ψ(y ) φ(y ))( φ(y ) φ(x)) ] = = = F F (ψ(y) φ(y))( φ(y) φ(x)) P[X dx, Y dy] (ψ(y) φ(y))( φ(y) φ(x)) P[X dx Y = y] P[Y dy] = F(ψ(y) φ(y)) { ( φ(y) φ(x)) P[X dx Y = y] } P[Y dy] = 0, par définition de φ(y). On a donc [ (ψ(y ) φ(x))(ψ(y ) φ(x)) ] = = [ ( φ(y ) φ(x))( φ(y ) φ(x)) ] + [ (ψ(y ) φ(y ))(ψ(y ) φ(y )) ] [ ( φ(y ) φ(x))( φ(y ) φ(x)) ], au sens des matrices symétriques, avec égalité pour ψ = φ.

9 1.1. STIMATION BAYÉSINN 3 Remarque 1.2 Compte tenu que le vecteur aléatoire ( φ(y ) φ(x)) est centré, la matrice de corrélation d erreur est aussi la matrice de covariance d erreur, dans le cas particulier de l estimateur φ. Borne de Cramér Rao a posteriori On suppose à présent que = R m, c est à dire que X et Y sont des variables aléatoires à valeurs dans R m et F respectivement, et soit φ une application mesurable définie sur R m à valeurs dans R p. Le biais de l estimateur ψ de φ(x) sachant Y est défini par b(ψ, x) = [ψ(y ) X = x] φ(x). On suppose que la distribution de probabilité jointe des vecteurs aléatoires X et Y possède une densité P[X dx, Y dy] = p(x, y) dx λ(dy), sur R m F, suffisamment régulière par rapport à la variable x R m, avec les deux factorisations alternatives p(x, y) = p(x y) p(y) = p(y x)p(x), en termes de distributions de probabilités conditionnelles et marginales, et en particulier P[X dx] = p(x) dx avec p(x) = p(x, y) λ(dy). On suppose que 2 Rm { 2 x2p(x, y) λ(dy)dx = x 2 p(x, y) λ(dy) } dx = p (x)dx = 0. F R m R m F F Proposition 1.3 Si le biais b(ψ, x) = [ψ(y ) X = x] φ(x) = de l estimateur ψ vérifie R m (b(ψ, x)p(x)) dx = 0, F (ψ(y) φ(x))p(y x) λ(dy), alors la matrice de covariance de l erreur d estimation (ψ(y ) φ(x)) est minorée (au sens des matrices symétriques) par la relation suivante C = [ (ψ(y ) φ(x))(ψ(y ) φ(x)) ] M J 1 M. Dans cette formule, la matrice d information J (de dimension m m) et la matrice de sensibilité M (de dimension p m) ne dépendent pas de l estimateur ψ, et sont définies par J = [ 2 x 2 log p(x, Y )] et M = [φ (X)], respectivement, et la matrice d information J est supposée inversible.

10 4 CHAPITR 1. INTRODUCTION Preuve. Par définition b(ψ, x)p(x) = (ψ(y) φ(x))p(y x)p(x) λ(dy) = F F (ψ(y) φ(x))p(x, y) λ(dy), et la matrice jacobienne (de dimension p m) associée vérifie (b(ψ, x)p(x)) = φ (x) p(x, y) λ(dy) + (ψ(y) φ(x)) p(x, y) λ(dy) F F x = φ (x)p(x) + (ψ(y) φ(x)) log p(x, y) p(x, y) λ(dy). x n intégrant par rapport à la variable x R m, il vient (b(ψ, x)p(x)) dx R m = φ (x)p(x)dx + R m R m = [φ (X)] + [ (ψ(y ) φ(x)) log p(x, Y )], x et pour tout estimateur ψ tel que B(ψ) = 0, on a donc F F (ψ(y) φ(x)) log p(x, y) p(x, y) λ(dy)dx x [ (ψ(y ) φ(x)) log p(x, Y )] = M, x où la matrice M ne dépend pas de ψ. D autre part, il résulte de l identité 2 1 log p(x, y) = x2 p(x, y) entre matrices de dimension m m, que [ ( log p(x, Y )) x et par hypothèse on a donc log p(x, Y )] = x 2 x2p(x, y) ( log p(x, y)) x R m [ ( log p(x, Y )) x F log p(x, y), x 2 x 2p(x, y) λ(dy)dx [ 2 log p(x, Y )], x2 log p(x, Y )] = J. x On introduit ensuite le vecteur aléatoire ψ(y ) φ(x) C Z = et on vérifie que [Z Z ] = ( log p(x, Y )) x M M. J Compte tenu que la matrice symétrique [Z Z ] est semi définie positive, il résulte du Lemme A.3 d inversion matricielle que le complément de Schur = C M J 1 M est également une matrice semi définie positive, c est à dire que C M J 1 M.

11 1.1. STIMATION BAYÉSINN 5 Remarque 1.4 Par définition de l estimateur MMS, on a nécessairement [ (ψ(y ) φ(x))(ψ(y ) φ(x)) ] [ ( φ(y ) φ(x))( φ(y ) φ(x)) ] M J 1 M, pour tout estimateur ψ, et la borne la plus à gauche est atteinte pour ψ = φ. La borne donnée par l estimateur MMS est donc plus fine que la borne de Cramér Rao a posteriori, mais aussi plus difficile à calculer : le plus souvent en effet on ne dispose pas de l expression de l estimateur MMS, mais l expression des matrices J et M est assez facile à obtenir. La borne de Cramér Rao a posteriori peut même être assez grossière et atteinte par aucun estimateur, et on déduit de l encadrement ci dessus que si la borne de Cramér Rao a posteriori est atteinte, alors elle est nécessairement atteinte pour l estimateur MMS ψ = φ. xemple 1.5 Soit X et V deux vecteurs aléatoires gaussiens indépendants, de moyenne X et 0, et de matrice de covariance Q X et Q V, respectivement, et on pose Y = h(x) + V. Si les matrices de covariance Q X et Q V sont inversibles, alors on a p(y x) exp{ 1 2 (y h(x)) Q 1 V (y h(x)) }, et de sorte que p(x) exp{ 1 2 (x X) Q 1 X (x X) }, log p(x, y) = log p(y x) log p(x) et 2 = 1 2 (y h(x)) Q 1 V (y h(x)) (x X) Q 1 X (x X) + cste, x 2 log p(x, y) = (h (x)) Q 1 V d où l expression de la matrice de Fisher compte tenu que J = [ 2 x 2 log p(x, Y )] = [(h (X)) Q 1 V h (x) + (y h(x)) Q 1 V h (x) + Q 1 X, = [(h (X)) Q 1 V h (X)] + Q 1 X, [V Q 1 V h (X)] = 0. h (X)] + [V Q 1 V h (X)] + Q 1 X Dans le cas particulier où l application h(x) = H x est linéaire, on obtient J = H Q 1 V H + Q 1 X et J 1 = Q X Q X H (H Q X H + Q V ) 1 H Q X, d après le Lemme A.1 d inversion matricielle.

12 6 CHAPITR 1. INTRODUCTION 1.2 Cadre gaussien Dans le cas particulier des vecteurs aléatoires gaussiens, le résultat général obtenu ci dessus peut être précisé de la façon suivante. Proposition 1.6 Soit Z = (X, Y ) un vecteur aléatoire gaussien de dimension m + d, de moyenne et de matrice de covariance X Z = et Q Z = Ȳ respectivement. Si la matrice Q Y est inversible, alors la densité conditionnelle p X Y =y (x) du vecteur aléatoire X sachant Y = y, est une densité gaussienne de moyenne et de matrice de covariance Q X Q Y X X(y) = X + Q XY Q 1 Y (y Ȳ ), R = Q X Q XY Q 1 Y Q Y X, Q XY complément de Schur de la matrice Q Y dans la matrice bloc Q Z. Q Y, Remarque 1.7 On vérifie aisément que 0 R Q X, au sens des matrices symétriques (la majoration est immédiate et la minoration résulte du Lemme A.3), c est à dire que l utilisation de l information supplémentaire Y = y, ne peut que réduire l incertitude que l on a sur le vecteur aléatoire X. n outre, la matrice R ne dépend pas de y, et peut donc être calculée avant même de disposer de la valeur prise par l observation Y. Remarque 1.8 Soit X = X(Y ) l estimateur du minimum de variance de X sachant Y. Compte tenu que X = X + Q XY Q 1 Y (Y Ȳ ), dépend de façon affine du vecteur aléatoire Y, on en déduit que (X, X, Y ) est un vecteur aléatoire gaussien, comme transformation affine du vecteur aléatoire gaussien Z = (X, Y ). xemple 1.9 Soit X et V deux vecteurs aléatoires gaussiens indépendants, de moyenne X et 0, et de matrice de covariance Q X et Q V, respectivement, et on pose Y = H X + V. Le vecteur aléatoire Z = (X, Y ) est alors gaussien, de moyenne et de matrice de covariance X Z = et Q Z = Q X H X H Q X Q X H H Q X H + Q V,

13 1.2. CADR GAUSSIN 7 respectivement. Si la matrice Q V est inversible, alors a fortiori la matrice Q Y = H Q X H + Q V est inversible, et il découle de la Proposition 1.6 que la densité conditionnelle p X Y (x) du vecteur aléatoire X sachant Y, est une densité gaussienne de moyenne et de matrice de covariance déterministe X(Y ) = X + Q X H (H Q X H + Q V ) 1 (Y H X), R = Q X Q X H (H Q X H + Q V ) 1 H Q X, complément de Schur de la matrice Q Y = H Q X H + Q V dans la matrice bloc Q Z. Si en outre la matrice Q X est inversible, alors il découle du Lemme A.1 d inversion matricielle que la matrice R est inversible, et R 1 = H Q 1 V H + Q 1 X = J, d après l expression obtenue dans l xemple 1.5 pour la matrice de Fisher. Dans ce cas particulier, la borne de Cramér Rao a posteriori est donc atteinte, puisque [ ( X(Y ) X)( X(Y ) X) ] = R = J 1. Pour finir, on peut montrer directement la relation J = R 1 sans utiliser l expression obtenue dans l xemple 1.5. n effet, si la matrice R est inversible, ce qui est garanti dès que les matrices Q X et Q V sont inversibles, alors on a de sorte que et p(x y) exp{ 1 2 (x X(y)) R 1 (x X(y))}, log p(x y) = 1 2 (x X(y)) R 1 (x X(y)) + cste, 2 x 2 log p(x y) = R 1, et on retrouve bien l expreesion de la matrice de Fisher J = [ 2 x 2 log p(x Y )] = R 1. Preuve de la Proposition 1.6 (cas particulier). On donne une première démonstration, dans le cas où la matrice bloc Q Z est inversible. Dans ce cas, les lois des vecteurs aléatoires gaussiens Y et Z ont chacune une densité, et par définition p X Y =y (x) = p X,Y (x, y) p Y (y) = 1 ( 2π) exp { 1 m+d 2 det Q (z Z) Q 1 } Z (z Z) Z 1 ( 2π) exp { 1 d 2 det Q (y Ȳ ) Q 1 Y (y Ȳ ) }, Y avec z = (x, y). Il résulte du Lemme A.3 d inversion matricielle que detq Z = detr det Q Y, et I 0 R 1 0 I Q XY Q 1 Q 1 Z = Y. Q 1 Y Q XY I 0 Q 1 Y 0 I

14 8 CHAPITR 1. INTRODUCTION Compte tenu que I Q XY Q 1 Y 0 I x X (x X) Q XY Q 1 Y (y Ȳ ) = = x X(y), y Ȳ y Ȳ y Ȳ on obtient (z Z) Q 1 Z (z Z) = (x X(y)) R 1 (x X(y)) + (y Ȳ ) Q 1 Y (y Ȳ ), et p X Y =y (x) = 1 ( 2π) m det R exp{ 1 2 (x X(y)) R 1 (x X(y)) }, ce qui montre le résultat. Preuve de la Proposition 1.6 (cas général). Dans le cas où la matrice bloc Q Z n est pas nécessairement inversible, on montre que la fonction caractéristique de la loi conditionnelle du vecteur aléatoire X sachant Y est égale à exp{i u X 1 2 u Ru}, c est à dire que la loi conditionnelle du vecteur aléatoire X sachant Y est une loi gaussienne de moyenne X et de matrice de covariance R. On vérifie que [ exp{i v Y } exp{i u X 1 2 u R u} ] = exp{i u X i u Q XY Q 1 Y Ȳ 1 2 u R u} [ exp{i v Y } exp{i u Q XY Q 1 Y Y } ] = exp{i u X i u Q XY Q 1 Y Ȳ 1 2 u R u} Φ Y (v + Q 1 Y Q Y X u) = exp{i u X i u Q XY Q 1 Y Ȳ 1 2 u Q X u u Q XY Q 1 Y Q Y X u + i (v + u Q XY Q 1 Y )Ȳ 1 2 (v + u Q XY Q 1 Y )Q Y (v + Q 1 = exp{i u X + i v Ȳ 1 2 u Q X u u Q XY v 1 2 v Q Y v} Y Q Y X u)} = Φ X,Y (u, v) = [ exp{i v Y } exp{i u X} ], et compte tenu que v R d est arbitraire, on obtient [ exp{i u X} Y ] = exp{i u X 1 2 u R u}.

15 1.2. CADR GAUSSIN 9 Conclusion Il est donc important de disposer d une information a priori sur l état inconnu X n, par exemple de disposer d une équation d état décrivant l évolution de X n quand n varie. On considérera deux types de modèles : les systèmes linéaires gaussiens, les chaînes de Markov à espace d état fini, et dans chacun de ces deux cas, il sera possible de résoudre exactement le problème de filtrage de façon optimale, par la mise en œuvre : du filtre de Kalman, dans le cas des systèmes linéaires gaussiens, des équations forward backward de Baum, ou de l algorithme de Viterbi, dans le cas des chaînes de Markov à état fini. Ces deux cas peuvent être vus comme des cas particuliers de modèles beaucoup plus généraux : les chaînes de Markov à espace d état quelconque (fini, dénombrable, continu, hybride, etc.), et dans ce cas il ne sera pas possible de résoudre exactement le problème de filtrage de façon optimale, qui s exprime pourtant très simplement en termes de flots de Feynman Kac, et il faudra avoir recours à la mise en œuvre de méthodes de résolution approchées, en l occurrence : de filtres particulaires, c est à dire de méthodes de Monte Carlo avec interaction.

16 10 CHAPITR 1. INTRODUCTION

17 Chapitre 2 Systèmes linéaires gaussiens On considère une suite d états cachés {X k } à valeurs dans R m, vérifiant X k = F k X k 1 + f k + G k W k, (2.1) où {X k } et {W k } prennent respectivement leurs valeurs dans R m et R p, et une suite d observations {Y k } à valeurs dans R d, vérifiant et on suppose que Y k = H k X k + h k + V k, (2.2) la condition initiale X 0 est gaussienne, de moyenne X 0 et de covariance Q X 0, la suite {W k } est un bruit blanc gaussien, de matrice de covariance Q W k, la suite {V k } est un bruit blanc gaussien, de matrice de covariance Q V k, les suites {W k } et {V k } et la condition initiale X 0 sont mutuellement indépendants. La signification du modèle (2.1) est la suivante même si l état X k 1 = x est connu exactement à l instant (k 1), on peut seulement dire que l état X k à l instant k est incertain, et distribué comme un vecteur aléatoire gaussien, de moyenne F k x + f k et de matrice de covariance G k Q W k G k, si l état X k 1 est incertain à l instant (k 1), et distribué comme un vecteur aléatoire gaussien, de moyenne X k 1 et de matrice de covariance Q X k 1, alors cette incertitude se propage à l instant k : même en absence de bruit, c est à dire même si G k = 0, l état X k à l instant k est incertain, et distribué comme un vecteur aléatoire gaussien, de moyenne F k Xk 1 + f k et de matrice de covariance F k Q X k F k. 11

18 12 CHAPITR 2. SYSTÈMS LINÉAIRS GAUSSINS Proposition 2.1 La suite {Z k = (X k, Y k )} est un processus aléatoire gaussien à valeurs dans R m+d. n particulier à l instant k, le vecteur aléatoire Z k est gaussien, de moyenne et de matrice de covariance respectivement, avec X k Ȳ k et Q X k Q Y X k Q XY k Q Y k, X k = F k Xk 1 + f k et Ȳ k = H k Xk + h k, et Q X k = F k Q X k 1 F k + G k Q W k G k, QXY k = Q X k H k et Q Y k = H k Q X k H k + QV k. Preuve. Comme sortie d un système linéaire à entrées gaussiennes, la suite {Z k } est un processus aléatoire gaussien. n effet, pour tout instant n, il existe une matrice A n et un vecteur a n de dimensions appropriées tels que Z 0 Z 1. Z n = X 0 Y 0 X 1 Y 1. X n Y n = A n X 0 W 1. W n V 1. V n + a n. D après les hypothèses le vecteur aléatoire (X 0, W 1,, W n, V 1,, V n ) est gaussien, donc le vecteur aléatoire (Z 0, Z 1,, Z n ) est gaussien, comme transformation affine d un vecteur aléatoire gaussien. Par ailleurs, d après (2.1) et d après (2.2) Par différence de sorte que X k = [X k ] = F k [X k 1 ] + f k + G k [W k ] = F k Xk 1 + f k, Ȳ k = [Y k ] = H k [X k ] + h k + [V k ] = H k Xk + h k. X k X k = F k (X k 1 X k 1 ) + G k W k et Y k Ȳk = H k (X k X k ) + V k, Q X k = [ (X k X k ) (X k X k ) ] = [ (F k (X k 1 X k 1 ) + G k W k ) (F k (X k 1 X k 1 ) + G k W k ) ] = F k [ (X k 1 X k 1 ) (X k 1 X k 1 ) ] F k + G k [W k W k ] G k + F k [ (X k 1 X k 1 )W k ] G k + G k [W k (X k 1 X k 1 ) ] F k = F k Q X k 1 F k + G k Q W k G k,

19 13 où on a utilisé dans la dernière égalité le fait que (X k 1 X k 1 ) est indépendant de W k, donc [ (X k 1 X k 1 )Wk ] = 0. Par ailleurs Q XY k = [ (X k X k ) (Y k Ȳk) ] = [ (X k X k ) (H k (X k X k ) + V k ) ] = [ (X k X k ) (X k X k ) ] H k + [ (X k X k )V k ] = Q X k H k, où on a utilisé dans la dernière égalité le fait que (X k X k ) est indépendant de V k, donc [ (X k X k )Vk ] = 0. Finalement Q Y k = [ (Y k Ȳk) (Y k Ȳk) ] = [ (H k (X k X k ) + V k ) (H k (X k X k ) + V k ) ] = H k [ (X k X k ) (X k X k ) ] H k + [V k V k ] + H k [ (X k X k )V k ] + [V k (X k X k ) ] H k = H k Q X k H k + QV k, où on a encore utilisé dans la dernière égalité le fait que (X k X k ) est indépendant de V k, donc [ (X k X k )Vk ] = 0.

20 14 CHAPITR 2. SYSTÈMS LINÉAIRS GAUSSINS

21 Chapitre 3 Filtrage de Kalman Le problème de filtrage (en temps discret) se présente en général de la manière suivante : on considère {X k }, un processus (dont les caractéristiques statistiques sont connues) représentant l état d un système non observé. A l instant k, on recueille une observation Y k qui est formée d un signal (i.e. une fonction h(x k ) de l état X k ) et d un bruit additif V k : Y k = h(x k ) + V k. Les caractéristiques statistiques du bruit de mesure {V k } sont également supposées connues. A l instant k, on dispose de l information Y 0:k = (Y 0,, Y k ) et le but est d obtenir le plus d information possible sur l état du système X k (on veut, par exemple, pouvoir calculer un estimateur X k de X k ). On a vu en 1.1 que la solution est de calculer la loi conditionnelle de X k sachant Y 0:k. Dans le cas des systèmes décrits au Chapitre 2, on est dans un cadre gaussien et l évolution de cette loi conditionnelle (déterminée par sa moyenne et sa matrice de covariance) est régie par un système dynamique (le filtre de Kalman Bucy) simple à mettre en œuvre, voir en 3.1. Dans tous les autres cas (non linéaires), l évolution de cette loi conditionnelle est determinée par un tout autre type de systèmes souvent impossibles à utiliser en pratique. Mais les techniques développées dans le cas linéaire peuvent s étendre au cas non linéaire par des méthodes de linéarisation, voir en 3.2. Les filtres ainsi obtenus sont très souvent utilisés en pratique mais ont parfois des performances peu satisfaisantes. 3.1 Filtre de Kalman On considère un système linéaire du type (2.1) (2.2), c est à dire X k = F k X k 1 + f k + G k W k, (3.1) Y k = H k X k + h k + V k, (3.2) avec les hypothèses faites au Chapitre 2. A l instant k, on dispose de l information Y 0:k = (Y 0, Y 1,, Y k ). 15

22 16 CHAPITR 3. FILTRAG D KALMAN L objectif est d estimer le vecteur aléatoire X k à partir de Y 0:k, de façon optimale et récursive. Si on adopte le critère du minimum de variance, il s agit d après le paragraphe 1.1 de calculer la loi conditionnelle du vecteur aléatoire X k sachant Y 0:k. Comme le cadre est gaussien, il suffit de calculer la moyenne et la matrice de covariance X k = [X k Y 0:k ] et P k = [(X k X k ) (X k X k ) Y 0:k ]. On définit également les quantités suivantes X k = [X k Y 0:k 1 ] et P k = [(X k X k ) (X k X k ) Y 0:k 1 ]. D après la remarque 1.7, les matrices de covariances conditionnelles P k et P k des observations, c est à dire que ne dépendent pas P k = [(X k X k ) (X k X k ) ] et P k = [(X k X k ) (X k X k ) ]. Supposons connue la loi conditionnelle du vecteur aléatoire X k 1 sachant Y 0:k 1. Pour calculer la loi conditionnelle du vecteur aléatoire X k sachant Y 0:k, on procède en deux étapes. Dans l étape de prédiction, on calcule la loi conditionnelle du vecteur aléatoire X k sachant les observations passées Y 0:k 1, ce qui est facile à partir de l équation (3.1). Dans l étape de correction, on utilise la nouvelle observation Y k. n particulier, on considère la composante de l observation Y k qui apporte une information nouvelle par rapport aux observations passées Y 0:k 1, c est à dire D après l équation (3.2), on a I k = Y k [Y k Y 0:k 1 ]. I k = Y k (H k [X k Y 0:k 1 ] + h k + [V k Y 0:k 1 ]) = Y k (H k X k + h k), compte tenu que V k et Y 0:k 1 sont indépendants. Lemme 3.1 Le processus {I k } est un processus gaussien à valeurs dans R d, appelé processus d innovation. n particulier, I k est un vecteur aléatoire gaussien de dimension d, de moyenne nulle et de matrice de covariance indépendant de Y 0:k 1. Q I k = H k P k H k + QV k, Preuve. D après la Remarque 1.8, l observation prédite [Y k Y 0:k 1 ] dépend de façon affine des observations passées (Y 0, Y 1,, Y k 1 ), et donc l innovation I k dépend de façon affine des observations (Y 0, Y 1,, Y k ). On en déduit que (I 0, I 1,, I k ) est un vecteur aléatoire

23 3.1. FILTR D KALMAN 17 gaussien, comme transformation affine d un vecteur aléatoire gaussien. Pour la même raison, (Y 0, Y 1,, Y k 1, I k ) est un vecteur aléatoire gaussien, et compte tenu que [I k Y 0:k 1 ] = 0, par définition, le vecteur aléatoire I k est indépendant de Y 0:k 1. D après l équation (3.2), on a et on en déduit que Q I k = [I k I k ] I k = Y k (H k X k + h k) = H k (X k X k ) + V k, = [(H k (X k X k ) + V k) (H k (X k X k ) + V k) ] = H k [(X k X k ) (X k X k ) ] H k + [V k (X k X k ) ] H k +H k [(X k X k )V k ] + [V k V k ] = H k P k H k + QV k. Dans cette dernière égalité, on a utilisé le fait que (X k X k ) est indépendant de V k, donc [(X k X k )V k ] = 0. Remarque 3.2 On a également [(X k X k ) I k ] = [(X k X k ) (H k (X k X k ) + V k) ] = [(X k X k )(X k X k ) ] H k + [(X k X k )V k ] = P k H k. Remarque 3.3 Compte tenu que la distribution de probabilité conditionnelle de Y k sachant Y 0:k 1 est gaussienne, de moyenne H k X k +h k et de matrice Q I k inversible, on obtient l expression suivante L n = = 1 q det Q I k exp{ 1 2 (Y k H k X k h k) (Q I k ) 1 (Y k H k X k h k) } 1 q det Q I k exp{ 1 2 I k (QI k ) 1 I k }, pour la vraisemblance du modèle, a une constante multiplicative près.

24 18 CHAPITR 3. FILTRAG D KALMAN Théorème 3.4 (Filtre de Kalman Bucy) On suppose que la matrice de covariance Q V k est inversible, pour tout instant k. Alors { X k } et {P k } sont définis par les équations suivantes X k = F k X k 1 + f k, et P k = F k P k 1 F k + G k Q W k G k, X k = X k + K k [Y k (H k X k + h k)], où la matrice P k = [I K k H k ] P k, K k = P k H k [H k P k H k + QV k ] 1, est appelée gain de Kalman, et avec les initialisations X 0 = X 0 = [X 0 ], P 0 = QX 0 = cov(x 0 ). Remarque 3.5 La suite {P k } ne dépend pas des observations, ni des coefficients {f k } et {h k }. lle peut donc être pré calculée, en particulier dans le cas simple où les coefficients {F k }, {G k }, {H k }, {Q W k } et {QV k } sont constants, c est à dire où pour tout k 0. F k = F, G k = G, H k = H, Q W k = QW, Q V k = QV, Remarque 3.6 Si les coefficients F k, f k et G k dans l équation (2.1) et les coefficients H k et h k dans l équation (2.2) dépendent des observations Y 0:k 1, alors la suite {Z k = (X k, Y k )}, et a fortiori la suite {X k }, n est plus gaussienne, mais conditionnellement à Y 0:k 1 le couple (X k, Y k ) est gaussien. On dit que la suite {X k } est conditionnellement gaussienne, et on vérifie facilement que la loi conditionnelle de X k sachant Y 0:k est gaussienne, de moyenne X k et de matrice de covariance P k données encore par les équations du Théorème 3.4. Preuve. On procède en plusieurs étapes. Le point central est la Proposition 1.6 qui sera constamment utilisée. xpression de X 0 et P 0 en fonction de X 0 et P 0 : Le vecteur aléatoire (X 0, Y 0 ) est gaussien, de moyenne et de matrice de covariance données par X 0 Q X 0 Q X 0 H 0 et, H 0 X0 + h 0 H 0 Q X 0 H 0 Q X 0 H 0 + QV 0 respectivement. D après la Proposition 1.6, la loi de X 0 sachant Y 0 est gaussienne, de moyenne X 0 = X 0 + Q X 0 H0 [H 0 Q X 0 H0 + Q V 0 ] 1 [Y 0 (H 0 X0 + h 0 )], et de matrice de covariance P 0 = Q X 0 Q X 0 H0 [H 0 Q X 0 H0 + Q V 0 ] 1 H 0 Q X 0.

25 3.1. FILTR D KALMAN 19 xpression de X k et P k en fonction de X k 1 et P k 1 : Le vecteur aléatoire (X k, Y 0,, Y k 1 ) est gaussien, et d après la Proposition 1.6, la loi de X k sachant Y 0:k 1 est gaussienne, de moyenne X k et de matrice de covariance P k. D après l équation (3.1), c est à dire X k = F k X k 1 + f k + G k W k, on a X k = [X k Y 0:k 1 ] = F k [X k 1 Y 0:k 1 ] + f k + G k [W k Y 0:k 1 ] = F k Xk 1 + f k, compte tenu que W k et Y k 1 sont indépendants. Par différence X k X k = F k (X k 1 X k 1 ) + G k W k, de sorte que P k = [(X k X k ) (X k X k ) ] = [(F k (X k 1 X k 1 ) + G k W k ) (F k (X k 1 X k 1 ) + G k W k ) ] = F k [(X k 1 X k 1 ) (X k 1 X k 1 ) ] F k + G k [W k (X k 1 X k 1 ) ] F k +F k [(X k 1 X k 1 )W k ] G k + G k [W k W k ] G k = F k P k 1 F k + G k Q W k G k. Dans cette dernière égalité, on a utilisé le fait que (X k 1 X k 1 ) est indépendant de W k, donc [(X k 1 X k 1 )Wk ] = 0. xpression de X k et P k en fonction de X k et P k : Le vecteur aléatoire (X k, Y 0,, Y k ) est gaussien, et d après la Proposition 1.6, la loi de X k sachant Y 0:k est gaussienne, de moyenne X k et de matrice de covariance déterministe P k. D après le Lemme 3.1 X k = [X k Y 0:k ] = X k + [X k X k Y 0:k] = X k + [X k X k Y 0:k 1, I k ] Par différence = X k + [X k X k I k]. X k X k = (X k X k ) ( X k X k ) = (X k X k ) [X k X k I k],

26 20 CHAPITR 3. FILTRAG D KALMAN de sorte que P k = [ (X k X k ) (X k X k ) ] = [ ((X k X k ) [X k X k I k]) ((X k X k ) [X k X k I k]) ]. Il suffit donc de calculer la moyenne conditionnelle et la matrice de covariance conditionnelle du vecteur aléatoire (X k X k ) sachant I k. Le vecteur aléatoire (X k X k, I k) est un vecteur aléatoire gaussien, de moyenne nulle et de matrice de covariance P k P k H k. H k P k H k P k H k + QV k Si la matrice Q V k est inversible, alors a fortiori la matrice QI k = H k P k H k + QV k et d après la Proposition 1.6, on a immédiatement est inversible, X k = X k + P k H k [H k P k H k + QV k ] 1 I k, et ce qui termine la démonstration. P k = P k P k H k [H k P k H k + QV k ] 1 H k P k, 3.2 Filtre de Kalman linéarisé, filtre de Kalman étendu On considère un système non linéaire X k = b k (X k 1 ) + σ k (X k 1 )W k, Y k = h k (X k ) + V k, (3.3) où {X k }, {Y k }, {W k }, {V k } prennent respectivement leurs valeurs dans R m, R d, R p et R d, et où les fonctions b k, σ k et h k sont définies sur R m, à valeurs dans R m, R m p et R d respectivement. On suppose que les fonctions b k et h k sont dérivables. {W k } et {V k } sont des bruits blancs gaussiens (de covariances respectives Q W k et Q V k ) indépendants entre eux et indépendants de la condition initiale X 0. Pour le système (3.3), la plupart des propriétés obtenues au Chapitre 2 ne sont plus vraies. n particulier le processus {Z k = (X k, Y k )} solution de (3.3) n est pas gaussien, et les moments conditionnels de X k sachant Y 0:k ne peuvent pas être calculés de manière simple. n linéarisant le système (3.3) autour d une suite déterministe donnée, ou bien autour de l estimateur courant, on peut obtenir des algorithmes sous optimaux, qui sont décrits ci dessous. Dans les chapitres suivants, on abandonnera ce point de vue, et on s attachera d abord à caractériser la loi conditionnelle de l état caché sachant les observations, soit par une représentation probabiliste, soit par une équation récurrente dans l espace des distributions de probabilité, et on proposera ensuite des approximations numériques reposant sur méthodes de simulation de type Monte Carlo.

27 3.2. FILTR D KALMAN LINÉARISÉ, FILTR D KALMAN ÉTNDU 21 Filtre de Kalman linéarisé On se donne une suite (déterministe) { x k } à valeurs dans R m, appelée trajectoire nominale (on peut prendre par exemple x k comme une approximation de la moyenne de X k ). La méthode consiste à linéariser les fonctions b k et σ k autour de x k 1, c est à dire b k (x) b k ( x k 1 ) + b k ( x k 1)(x x k 1 ) et σ k (x) σ k ( x k 1 ), et la fonction h k autour de x k, c est à dire Le système (3.3) est alors remplacé par h k (x) h k ( x k ) + h k ( x k)(x x k ). X k = F k (X k 1 x k 1 ) + f k + G k W k, Y k = H k (X k x k ) + h k + V k, avec F k = b k ( x k 1), f k = b k ( x k 1 ), G k = σ k ( x k 1 ), H k = h k ( x k) et h k = h k ( x k ). On applique alors exactement le filtre de Kalman Bucy à ce nouveau système, d où l algorithme sous optimal suivant X k = b k( x k 1 ) + b k ( x k 1)( X k 1 x k 1 ), et P k = b k ( x k 1)P k 1 (b k ( x k 1)) + σ k ( x k 1 )Q W k (σ k( x k 1 )), X k = X k + K k [ Y k h k ( x k)( X k x k) h k ( x k )], P k = [I K k h k ( x k)] P k, avec la matrice de gain K k = P k h k ( x k) [ h k ( x k)p k (h k ( x k)) + Q V k ] 1. A la place de la première et la troisième de ces équations, on peut utiliser X k = b k( X k 1 ), X k = X k + K k [Y k h k ( X k )]. On choisit l initialisation X 0 et P 0 de telle sorte que N( X 0, P 0 de la loi de X 0. ) soit une bonne approximation

28 22 CHAPITR 3. FILTRAG D KALMAN Filtre de Kalman étendu Au lieu de linéariser autour d une trajectoire nominale déterministe { x k }, on peut utiliser l estimateur courant, au vu de la Remarque 3.6. La méthode consiste à linéariser les fonctions b k et σ k autour de X k 1, c est à dire b k (x) b k ( X k 1 ) + b k ( X k 1 )(x X k 1 ) et σ k (x) σ k ( X k 1 ), et à linéariser la fonction h k autour de X k, c est à dire Le système (3.3) est alors remplacé par h k (x) h k ( X k ) + h k ( X k )(x X k ). X k = F k (X k 1 X k 1 ) + f k + G k W k, Y k = H k (X k X k ) + h k + V k, avec F k = b k ( X k 1 ), f k = b k ( X k 1 ), G k = σ k ( X k 1 ), H k = h k ( X k ) et h k = h k ( X k ). On applique alors exactement le filtre de Kalman Bucy à ce nouveau système, d où l algorithme sous optimal suivant X k = b k( X k 1 ), et P k = b k ( X k 1 )P k 1 (b k ( X k 1 )) + σ k ( X k 1 )Q W k (σ k( X k 1 )), X k = X k + K k [Y k h k ( X k )], avec la matrice de gain P k = [I K k h k ( X k )] P k, K k = P k (h k ( X k )) [h k ( X k )P k (h k ( X k )) + Q V k ] 1. On choisit l initialisation X 0 et P 0 de telle sorte que N( X 0, P 0 de la loi de X 0. ) soit une bonne approximation Remarque 3.7 Dans cet algorithme, la suite {P k } dépend des observations, et ne peut donc pas être pré calculée.

29 Chapitre 4 Au delà des systèmes linéaires gaussiens 4.1 Systèmes non linéaires à bruits non gaussiens Il s agit de la classe la plus générale de modèles d état, et c est aussi un cas particulier de la classe plus générale des modèles de Markov cachés (pour lesquels l espace d état peut être très général). On considère donc une suite d états cachés {X k } à valeurs dans R m, vérifiant X k = f k (X k 1, W k ) avec W k p W k (dw), (4.1) avec des entrées bruitées {W k } à valeurs dans R p, pas nécessairement gaussiennes, et une condition initiale X 0 η 0 (dx) pas nécessairement gaussienne, et une suite d observations {Y k } à valeurs dans R d, vérifiant Y k = h k (X k ) + V k avec V k qk V (v)dv, (4.2) avec des bruits d observation {V k } additifs, à valeurs dans R d, pas nécessairement gaussiens, mais de loi qk V (v)dv absolument continue par rapport à la mesure de Lebesgue dv. Les bruits blancs {W k } et {V k } sont indépendants entre eux et indépendants de la condition initiale X 0. On ne suppose pas que les fonctions f k et h k sont dérivables. Pour la suite, il sera suffisant de faire l hypothèse suivante : pour tout instant k il est facile de simuler un vecteur aléatoire selon la loi p W k (dw) de W k, la loi du vecteur aléatoire V k admet une densité qk V (v) qu il est facile d évaluer pour tout v R d. Proposition 4.1 La suite {X k } est une chaîne de Markov à valeurs dans R m, c est à dire que la loi conditionnelle par rapport au passé P[X k dx X 0:k 1 ] = P[X k dx X k 1 ], 23

30 24 CHAPITR 4. AU DLÀ DS SYSTÈMS LINÉAIRS GAUSSINS ne dépend que du passé immédiat, avec les probabilités de transition P[X k dx X k 1 = x] = Q k (x, dx ), défini par Q k φ(x) = [ φ(x k ) X k 1 = x] = φ(f k (x, w)) p W k (dw), R p pour toute fonction test φ mesurable bornée, définie sur R m. Preuve. Compte tenu que W k est indépendant de X 0:k 1, on a [ φ(x k ) X 0:k 1 ] = [ φ(f k (X k 1, W k )) X 0:k 1 ] = R p φ(f k (X k 1, w)) p W k (dw), pour toute fonction φ mesurable bornée définie sur R m. Clairement, le résultat ne dépend que de X k 1, c est à dire que [ φ(x k ) X 0:k 1 ] = [ φ(x k ) X k 1 ], et [ φ(x k ) X k 1 = x] = φ(f k (x, w)) p W k (dw). R p Remarque 4.2 Si f k (x, w) = b k (x) + w, et si la loi p W k (dw) de W k admet une densité encore notée p W k (w), c est à dire si pw k (dw) = pw k (w)dw, alors Q k (x, dx ) = p W k (x b k (x))dx c est à dire que le noyau Q k (x, dx ) admet une densité. n effet, le changement de variable x = b k (x) + w donne immédiatement Q k φ(x) = φ(b k (x) + w) p W k (w)dw = φ(x ) p W k (x b k (x))dx, R m R m pour toute fonction test φ mesurable bornée, définie sur R m. Remarque 4.3 n général, le noyau Q k (x, dx ) n admet pas de densité. n effet, conditionnellement à X k 1 = x, le vecteur aléatoire X k appartient nécessairement au sous ensemble M(x) = {x R m : il existe w R p tel que x = f k (x, w)}, et dans le cas où p < m ce sous ensemble M(x) est généralement, sous certaines hypothèses de régularité, une sous variété différentielle de dimension p dans l espace R m. Il ne peut donc pas y avoir de densité pour la loi Q k (x, dx ) du vecteur aléatoire X k. Proposition 4.4 La suite {Y k } vérifie l hypothèse de canal sans mémoire, c est à dire que pour tout instant n

31 4.1. SYSTÈMS NON LINÉAIRS À BRUITS NON GAUSSINS 25 conditionnellement aux états cachés X 0:n les observations Y 0:n sont mutuellement indépendantes, ce qui se traduit par P[Y 0:n dy 0:n X 0:n ] = P[Y k dy k X 0:n ], pour tout k = 0,, n, la loi conditionnelle de Y k sachant X 0:n ne dépend que de X k, ce qui se traduit par P[Y k dy k X 0:n ] = P[Y k dy k X k ], avec les probabilités d émission et on définit la fonction de vraisemblance P[Y k dy X k = x] = q V k (y h k(x))dy, g k (x) = q V k (Y k h k (x)), qui mesure l adéquation d un état quelconque x R m avec l observation Y k. n d autres termes, la loi conditionnelle jointe des observations Y 0:n sachant les états cachés X 0:n vérifie P[Y 0:n dy 0:n X 0:n = x 0:n ] = qk V (y k h k (x k )) dy 0 dy n. xemple 4.5 Dans le cas particulier où le bruit additif V k est un vecteur aléatoire gaussien centré et de matrice de covariance identité, alors la probabilité d émission P[Y k dy X k = x] = 1 (2π) d/2 exp{ 1 2 y h k(x) 2 } dy, est absolument continue, et la fonction de vraisemblance, définie à une constante multiplicative près, est donnée par g k (x) = exp{ 1 2 Y k h k (x) 2 }.

32 26 CHAPITR 4. AU DLÀ DS SYSTÈMS LINÉAIRS GAUSSINS Preuve. Pour toute famille Ψ 0,, Ψ n de fonctions mesurables bornées définies sur R d, et compte tenu que les vecteurs aléatoires V 0,, V n sont mutuellement indépendants et indépendants du vecteur aléatoire X 0:n, on a [Ψ 0 (Y 0 ) Ψ n (Y n ) X 0:n ] = [Ψ 0 (h 0 (X 0 ) + V 0 ) Ψ n (h n (X n ) + V n ) X 0:n ] = R d Ψ 0 (h 0 (X 0 ) + v 0 ) Ψ n (h n (X n ) + v n ) P[V 0:n dv 0:n ] R d = Ψ k (h k (X k ) + v k ) P[V k dv k ] R d = = R d Ψ k (h k (X k ) + v k ) q V k (v k)dv k R d Ψ k (y k ) q V k (y k h k (X k ))dy k }{{} P[Y k dy k X k ] = [Ψ k (Y k ) X k ]. 4.2 Modèles de Markov cachés Plus généralement, on peut aussi considérer un modèle de Markov caché où les états cachés {X k } forment une chaîne de Markov à valeurs dans un espace qui peut être très général, par exemple un espace hybride continu / discret, un sous ensemble défini par des contraintes, une variété différentielle, un graphe, etc., de noyaux de transition et de loi initiale P[X k dx X k 1 = x] = Q k (x, dx ), P[X 0 dx] = η 0 (dx), et où les observations {Y k } vérifient l hypothèse de canal sans mémoire, c est à dire que pour tout instant n conditionnellement aux états cachés X 0:n les observations Y 0:n sont mutuellement indépendantes, ce qui se traduit par P[Y 0:n dy 0:n X 0:n ] = P[Y k dy k X 0:n ], pour tout k = 0,, n, la loi conditionnelle de Y k sachant X 0:n ne dépend que de X k, ce qui se traduit par P[Y k dy X 0:n ] = P[Y k dy X k ],

33 4.3. CHAÎNS D MARKOV À PARAMÈTRS MARKOVINS 27 avec la probabilité d émission P[Y k dy X k = x] = g k (x, y)λ F k (dy), où la mesure positive λ F k (dy) définie sur F ne dépend pas de l état caché x, et par abus de notation on définit la fonction de vraisemblance g k (x) = g k (x, Y k ), qui mesure l adéquation d un état quelconque x avec l observation Y k. La situation est complètement décrite par le diagramme suivant X k 1 X k X k+1 Y k 1 Y k Y k+1 où les flèches représentent la dépendance entre variables aléatoires. n d autres termes, la loi conditionnelle jointe des observations Y 0:n sachant les états cachés X 0:n vérifie P[Y 0:n dy 0:n X 0:n = x 0:n ] = g k (x k, y k ) λ F 0 (dy 0 ) λ F n (dy n ). Ce modèle peut paraître très abstrait à première vue, mais pour la suite il suffira que l hypothèse suivante soit vérifiée : pour tout instant k = 1,, n il est facile de simuler pour tout x, un vecteur aléatoire selon la loi Q k (x, dx ), il est facile d évaluer pour tout x, la fonction de vraisemblance g k (x ). 4.3 Chaînes de Markov à paramètres markoviens Certains problèmes sont décrits par une chaîne de Markov {Y k }, et pour disposer d une plus grande possibilité de modélisation on propose de faire dépendre les noyaux de transitions d une suite de variables aléatoires latentes {X k }, formant elle même une chaîne de Markov. Cette situation se rencontre par exemple dans les modèles à volatilité stochastique, et à la différence de la situation précédente, l estimation de la suite latente n est pas un objectif en soi. Dans ces modèles, les états cachés {X k } forment une chaîne de Markov à valeurs dans un espace, de noyaux de transition et de loi initiale P[X k dx X k 1 = x] = Q k (x, dx ), P[X 0 dx] = η 0 (dx), et conditionnellement aux états cachés, les observations {Y k } forment une chaîne de Markov à valeurs dans F, c est à dire que pour tout instant n

34 28 CHAPITR 4. AU DLÀ DS SYSTÈMS LINÉAIRS GAUSSINS conditionnellement aux états cachés X 0:n les observations Y 0:n forment une chaîne de Markov, ce qui se traduit pour tout k = 1,, n, par P[Y k dy Y 0:k 1, X 0:n ] = P[Y k dy Y k 1, X 0:n ], pour k = 0, la loi conditionnelle de Y 0 sachant X 0:n ne dépend que de X 0, ce qui se traduit par P[Y 0 dy X 0:n ] = P[Y 0 dy X 0 ], avec la probabilité initiale P[Y 0 dy X 0 = x] = g 0 (x, y)λ F 0 (dy), où la mesure positive λ F 0 (dy) définie sur F ne dépend pas de l état caché x, et par abus de notation on définit la fonction de vraisemblance g 0 (x) = g 0 (x, Y 0 ), qui mesure l adéquation d un état quelconque x avec l observation initiale Y 0, pour tout k = 1,, n, la loi conditionnelle de Y k sachant Y k 1 et X 0:n ne dépend que de Y k 1 et de X k, ce qui se traduit par avec la probabilité d émission P[Y k dy k Y k 1, X 0:n ] = P[Y k dy k Y k 1, X k ], P[Y k dy Y k 1 = y, X k = x ] = g k (x, y, y )λ F k (y, dy ), où la mesure positive λ F k (y, dy ) définie sur F ne dépend pas de l état caché x, et par abus de notation on définit la fonction de vraisemblance g k (x ) = g k (x, Y k 1, Y k ), qui mesure l adéquation d un état quelconque x avec les observations successives Y k 1 et Y k. La situation est complètement décrite par le diagramme suivant X k 1 X k X k+1 Y k 1 Y k Y k+1 où les flèches représentent la dépendance entre variables aléatoires. n d autres termes, la loi conditionnelle jointe des observations Y 0:n sachant les états cachés X 0:n vérifie P[Y 0:n dy 0:n X 0:n = x 0:n ] = g 0 (x 0, y 0 ) λ F 0 (dy 0 ) = [g 0 (x 0, y 0 ) g k (x k, y k 1, y k ) λ F k (y k 1, dy k ) g k (x k, y k 1, y k )] λ F 0 (dy 0 ) λ F k (y k 1, dy k ).

35 4.4. CHAÎNS D MARKOV PARTILLMNT OBSRVÉS Chaînes de Markov partiellement observées ncore plus généralement, on peut considérer un modèle où les états cachés {X k } ne forment plus nécessairement une chaîne de Markov, mais où conjointement états cachés et observations {Z k } avec Z k = (X k, Y k ) pour tout instant k, forment une chaîne de Markov à valeurs dans F, de loi initiale P[X 0 dx, Y 0 dy] = γ 0 (y, dx) λ F 0 (dy), (4.3) où la mesure positive λ F 0 (dy) définie sur F, ne dépend pas de l état caché x, et de probabilités de transition P[X k dx, Y k dy X k 1 = x, Y k 1 = y] = R k (y, y, x, dx ) λ F k (y, dy ), (4.4) où la mesure positive λ F k (y, dy ) définie sur F, dépend de l observation précédente y F mais ne dépend pas de la transition cachée (x, x ). n d autres termes, la loi jointe des états cachés X 0:n et des observations Y 0:n vérifie P[X 0:n dx 0:n, Y 0:n dy 0:n ] = γ 0 (y 0, dx 0 ) λ F 0 (dy 0 ) = [γ 0 (y 0, dx 0 ) R k (y k 1, y k, x k 1, dx k ) λ F k (y k 1, dy k ) R k (y k 1, y k, x k 1, dx k )] λ F 0 (dy 0 ) Ce modèle général inclut comme cas particulier λ F k (y k 1, dy k ). les modèles de Markov cachés, avec γ 0 (y, dx) = η 0 (dx)g 0 (x, y) et R k (y, x, dx ) = Q k (x, dx )g k (x, y ), les modèles auto régressifs à paramètres markoviens, avec γ 0 (y, dx) = η 0 (dx)g 0 (x, y) et R k (y, y, x, dx ) = Q k (x, dx )g k (x, y, y ). n toute généralité, les mesures positives γ 0 (y, dx) et les noyaux positifs R k (y, y, x, dx ) peuvent être factorisés comme γ 0 (y, dx) = W 0 (y, x)p 0 (y, dx) et R k (y, y, x, dx ) = W k (y, y, x, x ) P k (y, y, x, dx ), respectivement, c est à dire comme le produit d une fonction de pondération positive W 0 (y, x) ou W k (y, y, x, x ), et d une distribution de probabilité p 0 (y, dx) ou d un noyau markovien P k (y, y, x, dx ).

36 30 CHAPITR 4. AU DLÀ DS SYSTÈMS LINÉAIRS GAUSSINS Une telle factorisation n est évidemment pas unique, mais il existe toujours au moins la factorisation donnée par γ 0 (y, dx) γ 0 (y, dx) = γ 0 (y, ), γ }{{} 0 (y, ) }{{} ĝ 0 (y) η 0 (y, dx) et R k (y, y, x, dx ) = R k (y, y, x, ) } {{ } ĝ k (x, y, y ) R k (y, y, x, dx ) R k (y, y,, x, ) }{{} Q k (y, y, x, dx ) avec l interprétation suivante : en intégrant (4.3) par rapport à x, on obtient d où on déduit que P[Y 0 dy] = ĝ 0 (y) λ F 0 (dy), P[X 0 dx Y 0 = y] = η 0 (y, dx), et en intégrant (4.4) par rapport à x, on obtient d où on déduit que P[Y k dy X k 1 = x, Y k 1 = y] = ĝ k (x, y, y ) λ F k (y, dy ), P[X k dx X k 1 = x, Y k 1 = y, Y k = y ] = Q k (y, y, x, dx ), et la situation est complètement décrite par le diagramme suivant X k 1 X k X k+1 Y k 1 Y k Y k+1 où les flèches représentent la dépendance entre variables aléatoires. Dans le cas particulier des modèles de Markov cachés, cette décomposition fait intervenir la probabilité d émission où la fonction positive P[Y k dy X k 1 = x] = ĝ k (x, y )λ F k (dy ), ĝ k (x, y ) = Q k (x, dx )g k (x, y ), dépend de x mais pas de x F, et peut être interprétée pour tout état x et pour toute observation y F comme une mesure quantitative du recouvrement entre l application x g k (x, y ) et la distribution de probabilité Q k (x, dx ),

37 4.4. CHAÎNS D MARKOV PARTILLMNT OBSRVÉS 31 et la transition de probabilité P[X k dx X k 1 = x, Y k = y ] = Q k (y, x, dx ), où le noyau markovien Q k (y, x, dx ) dépend de l observation y F, et la situation est complètement décrite par le diagramme suivant X k 1 X k X k+1 Y k 1 Y k Y k+1 où les flèches représentent la dépendance entre variables aléatoires. xemple 4.6 On considère un système non linéaire avec des bruits gaussiens additifs et une fonction d observation linéaire X k = f k (X k 1 ) + σ k (X k 1 )W k, Y k = H k X k + h k + V k, où la condition initiale X 0 est une variable aléatoire gaussienne de moyenne X 0 et de matrice de covariance Q X 0, et où les suites {W k} et {V k } sont des bruits blancs gaussiens indépendants, indépendants de la condition initiale X 0, de matrices de covariance Q W k et Q V k respectivement, avec Q V k inversible. Il résulte de la Proposition 1.6 que conditionnellement à Y 0 = y, la variable aléatoire X 0 est gaussienne, de moyenne m 0 (y) = X 0 + Q X 0 H0 [H 0 Q X 0 H0 + Q V 0 ] 1 (y H 0 X0 h 0 ), et de matrice de covariance P 0 = Q X 0 Q X 0 H0 [H 0 Q X 0 H0 + Q V 0 ] 1 H 0 Q X 0, de sorte qu il est facile de simuler une variable aléatoire selon la distribution de probabilité η 0 (y, dx) = Γ(dx, m 0 (y), P 0 ), pour tout y F. Grâce à la linéarité de la fonction d observation, on a X k = f k (X k 1 ) + σ k (X k 1 )W k, Y k = H k f k (X k 1 ) + h k + H k σ k (X k 1 )W k + V k,

38 32 CHAPITR 4. AU DLÀ DS SYSTÈMS LINÉAIRS GAUSSINS d où on déduit que conditionnellement à X k 1 = x, le vecteur aléatoire (X k, Y k ) est gaussien, de moyenne et de matrice de covariance f k (x) Σ k (x) Σ k (x)h k et, H k f k (x) + h k H k Σ k (x) H k Σ k (x)hk + QV k respectivement, avec Σ k (x) = σ k (x)q W k σ k (x). Compte tenu que la matrice QV k est inversible, la matrice H k Σ k (x)hk + QV k est inversible a fortiori, et il résulte de la Proposition 1.6 que conditionnellement à X k 1 = x, la variable aléatoire Y k est gaussienne, de moyenne H k f k (x) + h k et de matrice de covariance inversible H k Σ k (x)hk + QV k, de sorte qu il est facile d évaluer la fonction positive pour tout x et tout y F, ĝ k (x, y ) = q(y H k f k (x) h k, H k Σ k (x)h k + QV k ), conditionnellement à (X k 1 = x, Y k = y ) la variable aléatoire X k est gaussienne, de moyenne m k (y, x) = f k (x) + Σ k (x)h k [H k Σ k (x)h k + QV k ] 1 (y H k f k (x) h k ), et de matrice de covariance P k (x) = Σ k (x) Σ k (x)h k [H k Σ k (x)h k + QV k ] 1 H k Σ k (x), de sorte qu il est facile de simuler une variable aléatoire selon la distribution de probabilité pour tout x et tout y F. Q k (y, x, dx ) = Γ(dx, m k (y, x), P k (x)),

39 Chapitre 5 Borne de Cramér Rao a posteriori Pour évaluer la performance des algorithmes numériques de filtrage non linéaire, y compris les nombreuses variantes du filtrage particulaire, il est utile de disposer d une borne inférieure sur l erreur commise par un estimateur quelconque de l état caché. S il s agit d estimer un paramètre fixe, il est bien connu que la matrice d information de Fisher associée au modèle statistique permet d obtenir une telle borne inférieure, sous le nom de borne de Cramér Rao. Dans le cas du filtrage bayésien, il s agit d estimer un paramètre aléatoire (et dynamique), à savoir la suite des états cachés, pour lequel on dispose d un modèle a priori : dans ce cadre bayésien, on peut utiliser la notion de borne de Cramér Rao a posteriori, pour laquelle des algorithmes de calcul récursifs efficaces ont été obtenus. On considère le modèle général d une chaîne de Markov partiellement observée, et on suppose qu il existe pour k = 0, une densité jointe initiale P[X 0 dx, Y 0 dy] = r 0 (x, y)dx λ F 0 (dy), pour tout k = 1,, n, des densités de transition On peut poser dans ce cas P[X k dx, Y k dy X k 1 = x, Y k 1 = y] = r k (y, y, x, x )dx λ F k (y, dy ), X 0:n = (X 0,, X n ) et Y 0:n = (Y 0,, Y n ), et se ramener au problème statique considéré dans la Proposition 1.3 ci dessus pour l estimation du vecteur aléatoire φ(x 0:n ) = X n, sachant Y 0:n. Théorème 5.1 Sous les hypothèses de la Proposition 1.3, la matrice de corrélation de l erreur d estimation (ψ(y 0:n ) X n ) est minorée par la relation suivante [ (ψ(y 0:n ) X n ) (ψ(y 0:n ) X n ) ] J 1 n, 33

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Raisonnement probabiliste

Raisonnement probabiliste Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

I Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème...

I Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème... TABLE DES MATIÈRES 5 Table des matières I Stabilité, Commandabilité et Observabilité 11 1 Introduction 13 1.1 Un exemple emprunté à la robotique................... 13 1.2 Le plan...................................

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Résolution de systèmes linéaires par des méthodes directes

Résolution de systèmes linéaires par des méthodes directes Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou

Plus en détail

Intérêt du découpage en sous-bandes pour l analyse spectrale

Intérêt du découpage en sous-bandes pour l analyse spectrale Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

MCMC et approximations en champ moyen pour les modèles de Markov

MCMC et approximations en champ moyen pour les modèles de Markov MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008) Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut

Plus en détail

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours MSUR T INTÉGRATION N UN DIMNSION Notes de cours André Giroux Département de Mathématiques et Statistique Université de Montréal Mai 2004 Table des matières 1 INTRODUCTION 2 1.1 xercices.............................

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

CAPTEURS - CHAINES DE MESURES

CAPTEURS - CHAINES DE MESURES CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

OM 1 Outils mathématiques : fonction de plusieurs variables

OM 1 Outils mathématiques : fonction de plusieurs variables Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

TP N 57. Déploiement et renouvellement d une constellation de satellites

TP N 57. Déploiement et renouvellement d une constellation de satellites TP N 57 Déploiement et renouvellement d une constellation de satellites L objet de ce TP est d optimiser la stratégie de déploiement et de renouvellement d une constellation de satellites ainsi que les

Plus en détail

Utilisation d informations visuelles dynamiques en asservissement visuel Armel Crétual IRISA, projet TEMIS puis VISTA L asservissement visuel géométrique Principe : Réalisation d une tâche robotique par

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

aux différences est appelé équation aux différences d ordre n en forme normale.

aux différences est appelé équation aux différences d ordre n en forme normale. MODÉLISATION ET SIMULATION EQUATIONS AUX DIFFÉRENCES (I/II) 1. Rappels théoriques : résolution d équations aux différences 1.1. Équations aux différences. Définition. Soit x k = x(k) X l état scalaire

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun

Plus en détail

Introduction à la théorie des files d'attente. Claude Chaudet Claude.Chaudet@enst.fr

Introduction à la théorie des files d'attente. Claude Chaudet Claude.Chaudet@enst.fr Introduction à la théorie des files d'attente Claude Chaudet Claude.Chaudet@enst.fr La théorie des files d'attente... Principe: modélisation mathématique de l accès à une ressource partagée Exemples réseaux

Plus en détail

Systèmes de transmission

Systèmes de transmission Systèmes de transmission Conception d une transmission série FABRE Maxime 2012 Introduction La transmission de données désigne le transport de quelque sorte d'information que ce soit, d'un endroit à un

Plus en détail

Modélisation et simulation

Modélisation et simulation Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.

Plus en détail

Température corporelle d un castor (une petite introduction aux séries temporelles)

Température corporelle d un castor (une petite introduction aux séries temporelles) Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature

Plus en détail

Intelligence artificielle et les défis en robotique mobile et autonome

Intelligence artificielle et les défis en robotique mobile et autonome Intelligence artificielle et les défis en robotique mobile et autonome Éric Beaudry http://planiart.usherbrooke.ca/~eric/ Étudiant au doctorat en informatique Laboratoires Planiart et Laborius 13 février

Plus en détail

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d Laboratoire de Mécanique et Ingénieriesnieries EA 3867 - FR TIMS / CNRS 2856 ER MPS Modélisation stochastique d un d chargement d amplitude variable à partir de mesures Application à l approche fiabiliste

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

1 Définition de la non stationnarité

1 Définition de la non stationnarité Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

Probabilités avancées. Florin Avram

Probabilités avancées. Florin Avram Probabilités avancées Florin Avram 24 janvier 2014 Table des matières 1 Mise en scène discrète 3 1.1 Espace des épreuves/résultats possibles, événements, espace probabilisé, mesure de probabilités, variables

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Statistiques Descriptives à une dimension

Statistiques Descriptives à une dimension I. Introduction et Définitions 1. Introduction La statistique est une science qui a pour objectif de recueillir et de traiter les informations, souvent en très grand nombre. Elle regroupe l ensemble des

Plus en détail

Modélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé

Modélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé 1 TGR Modélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé Simon Munier Institut des Sciences et Industries du Vivant et de l'environnement (AgroParisTech)

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières

Plus en détail

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option

Plus en détail

Circuits RL et RC. Chapitre 5. 5.1 Inductance

Circuits RL et RC. Chapitre 5. 5.1 Inductance Chapitre 5 Circuits RL et RC Ce chapitre présente les deux autres éléments linéaires des circuits électriques : l inductance et la capacitance. On verra le comportement de ces deux éléments, et ensuite

Plus en détail

Résumé des communications des Intervenants

Résumé des communications des Intervenants Enseignements de la 1ere semaine (du 01 au 07 décembre 2014) I. Titre du cours : Introduction au calcul stochastique pour la finance Intervenante : Prof. M hamed EDDAHBI Dans le calcul différentiel dit

Plus en détail

DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES

DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES Agence fédérale pour la Sécurité de la Chaîne alimentaire Administration des Laboratoires Procédure DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES Date de mise en application

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

NON-LINEARITE ET RESEAUX NEURONAUX

NON-LINEARITE ET RESEAUX NEURONAUX NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Calcul Stochastique pour la finance. Romuald ELIE

Calcul Stochastique pour la finance. Romuald ELIE Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

Théorèmes du Point Fixe et Applications aux Equations Diérentielles

Théorèmes du Point Fixe et Applications aux Equations Diérentielles Université de Nice-Sophia Antipolis Mémoire de Master 1 de Mathématiques Année 2006-2007 Théorèmes du Point Fixe et Applications aux Equations Diérentielles Auteurs : Clémence MINAZZO - Kelsey RIDER Responsable

Plus en détail

Calcul intégral élémentaire en plusieurs variables

Calcul intégral élémentaire en plusieurs variables Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Intégration sur des espaces produits

Intégration sur des espaces produits Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure

Plus en détail

de calibration Master 2: Calibration de modèles: présentation et simulation d

de calibration Master 2: Calibration de modèles: présentation et simulation d Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe

Plus en détail

CHAPITRE 5. Stratégies Mixtes

CHAPITRE 5. Stratégies Mixtes CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,

Plus en détail

Soutenance de stage Laboratoire des Signaux et Systèmes

Soutenance de stage Laboratoire des Signaux et Systèmes Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud

Plus en détail

Équations non linéaires

Équations non linéaires Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et

Plus en détail

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée

Plus en détail

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2 Chapitre 8 Fonctions de plusieurs variables 8.1 Généralités sur les fonctions de plusieurs variables réelles Définition. Une fonction réelle de n variables réelles est une application d une partie de R

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Mesures de dépendance pour la séparation aveugle de sources. Application aux mélanges post non linéaires

Mesures de dépendance pour la séparation aveugle de sources. Application aux mélanges post non linéaires Mesures de dépendance pour la séparation aveugle de sources. Application aux mélanges post non linéaires Sophie Achard To cite this version: Sophie Achard. Mesures de dépendance pour la séparation aveugle

Plus en détail

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions. Problèmes mathématiques de la mécanique/mathematical problems in Mechanics Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions. Cristinel Mardare Laboratoire

Plus en détail

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun 9 L E Ç O N Marches aléatoires Niveau : Terminale S Prérequis : aucun 1 Chaînes de Markov Définition 9.1 Chaîne de Markov I Une chaîne de Markov est une suite de variables aléatoires (X n, n N) qui permet

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Projet de Traitement du Signal Segmentation d images SAR

Projet de Traitement du Signal Segmentation d images SAR Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail