Université de Rennes 1 Master Recherche SISEA



Documents pareils
Simulation de variables aléatoires

Température corporelle d un castor (une petite introduction aux séries temporelles)

Programmes des classes préparatoires aux Grandes Ecoles

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Programmation linéaire

MÉTHODE DE MONTE CARLO.

Théorème du point fixe - Théorème de l inversion locale

3. Conditionnement P (B)

STATISTIQUES. UE Modélisation pour la biologie

2 TABLE DES MATIÈRES. I.8.2 Exemple... 38

Différentiabilité ; Fonctions de plusieurs variables réelles

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

NOTATIONS PRÉLIMINAIRES

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

Résolution de systèmes linéaires par des méthodes directes

Exercice : la frontière des portefeuilles optimaux sans actif certain

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Exercices Corrigés Premières notions sur les espaces vectoriels

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Fonctions de plusieurs variables

Théorèmes de Point Fixe et Applications 1

Etude des propriétés empiriques du lasso par simulations

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

OM 1 Outils mathématiques : fonction de plusieurs variables

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

de calibration Master 2: Calibration de modèles: présentation et simulation d

Texte Agrégation limitée par diffusion interne

Espérance conditionnelle

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Calcul différentiel. Chapitre Différentiabilité

Cours d initiation à la programmation en C++ Johann Cuenin

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Correction de l examen de la première session

3 Approximation de solutions d équations

Structures algébriques

Que faire lorsqu on considère plusieurs variables en même temps?

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Modélisation du comportement habituel de la personne en smarthome

Cours de méthodes de scoring

Résolution d équations non linéaires

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Moments des variables aléatoires réelles

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Probabilités conditionnelles Exercices corrigés

Principe de symétrisation pour la construction d un test adaptatif

Lagrange, où λ 1 est pour la contrainte sur µ p ).

Cours d Analyse. Fonctions de plusieurs variables

Modélisation aléatoire en fiabilité des logiciels

Équation de Langevin avec petites perturbations browniennes ou

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Probabilités sur un univers fini

Intégrales doubles et triples - M

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Correction du baccalauréat ES/L Métropole 20 juin 2014

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Théorie et codage de l information

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes


Introduction à l étude des Corps Finis

Compter à Babylone. L écriture des nombres

Statistiques d ordre supérieur pour le traitement du signal

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Comment l utiliser? Manuel consommateur

Chapitre 3. Les distributions à deux variables

Représentation géométrique d un nombre complexe

Mesures de dépendance pour la séparation aveugle de sources. Application aux mélanges post non linéaires

Continuité et dérivabilité d une fonction

Chapitre 2 Le problème de l unicité des solutions

Probabilités sur un univers fini

Enjeux mathématiques et Statistiques du Big Data

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Loi d une variable discrète

Extrait du poly de Stage de Grésillon 1, août 2010

Modèle GARCH Application à la prévision de la volatilité

Intégration et probabilités TD1 Espaces mesurés

Évaluation de la régression bornée

Cours d analyse numérique SMI-S4

Expérience 3 Formats de signalisation binaire

Cours 02 : Problème général de la programmation linéaire

Apprentissage non paramétrique en régression

Centre d'etudes Nucléaires de Fontenay-aux-Roses Direction des Piles Atomiques Département des Etudes de Piles

Procédure d installation de mexi backup

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

LABO 5 ET 6 TRAITEMENT DE SIGNAL SOUS SIMULINK

Dérivées d ordres supérieurs. Application à l étude d extrema.

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

Couples de variables aléatoires discrètes

Apprentissage Automatique

Cours de Mécanique du point matériel

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Transcription:

Université de Rennes 1 Master Recherche SISEA Examen du cours UE S3-2 Filtre de Kalman et modèles de Markov cachés Jeudi 28 janvier 2010, 10:00 à 12:00 Problème : L objectif de ce problème est d établir les équations du filtre de Kalman, dans le cas plus général d un système linéaire observé dans un bruit additif défini par un modèle ARMA (auto regressive moving average) gaussien. Plus spécifiquement, on suppose que les états cachés sont à valeurs dans R m et vérifient la relation récurrente X k = F X k 1 + GW k, où la suite {W k } est un bruit blanc gaussien, de moyenne nulle et de matrice de covariance Q W k, et où la condition initiale X 0 est un vecteur aléatoire gaussien, de moyenne X 0 et de matrice de covariance Q X 0, les observations sont à valeurs dans R d et sont reliées aux états cachés par Y k = H X k + V k, où {V k } est une suite de vecteurs aléatoires dépendants à valeurs dans R d, définie par le modèle ARMA(p,q) V k + A 1 V k 1 + + A p V k p = B 0 e k + B 1 e k 1 + + B q e k q, paramétré par les matrices A 1,,A p et B 0,B 1,,B q, où la suite {e k } est un bruit blanc gaussien à valeurs dans R d, de moyenne nulle et de matrice de covariance Q E k inversible, et où le vecteur aléatoire (V p,,v 1 ) qui permet de démarrer la récurrence est gaussien. On suppose que les conditions initiales X 0 et (V 1,,V p ) et les suites {W k } et {e k } sont mutuellement indépendantes. On suppose aussi que la matrice B 0 est inversible (de sorte que finalement la matrice de covariance du vecteur aléatoire gaussien B 0 e k est inversible). 1

(i) Montrer que la suite {(X k,y k )} est gaussienne. Il en résulte que la distribution conditionnelle de l état caché X k sachant les observations passées (Y 0,,Y k ) est une distribution gaussienne, mais quelle hypothèse du cours n est pas vérifiée ici, qui empêche d appliquer directement les équations du filtre de Kalman? On admet qu il existe une représentation d état pour le bruit d observation, de la forme U k = AU k 1 + B e k 1, V k = C U k + B 0 e k, où la suite {U k } est à valeurs dans R rd, où la condition initiale U 0 est un vecteur aléatoire gaussien indépendant de la suite {e k }, et où A, B et C sont des matrices de dimension rd rd, rd d et d rd, respectivement, avec r = max(p, q). Dans cette représentation d état, la matrice A dépend des matrices A 1,,A p du modèle ARMA et la matrice B dépend des matrices A 1,,A p et B 0,B 1,,B q du modèle ARMA, mais on se contente ici de supposer l existence de la représentation d état proposée. (ii) On définit la nouvelle variable d état Z k = (X k,u k ). Montrer que les nouveaux états cachés ainsi définis vérifient la relation récurrente Z k = F(A)Z k 1 + M(B)e k 1 + LW k, où on donnera l expression des matrices F(A), M(B) et L ainsi définies. (iii) Montrer que les observations sont reliées aux nouveaux états cachés par Y k = H(C)Z k + B 0 e k, où on donnera l expression de la matrice H(C) ainsi définie. (iv) Montrer que la suite {(Z k,y k )} est gaussienne. Il en résulte que la distribution conditionnelle du nouvel état caché Z k sachant les observations passées (Y 0,,Y k ) est une distribution gaussienne, mais quelle hypothèse du cours n est pas vérifiée ici, qui empêche d appliquer directement les équations du filtre de Kalman? (v) Montrer qu on peut écrire le modèle ( ), ( ) sous la forme Z k = F(A,B,C)Z k 1 + M(B 0,B)Y k 1 + LW k, ( ) ( ) Y k = H(C)Z k + B 0 e k, où on donnera l expression des matrices F(A,B,C) et M(B 0,B) ainsi définies. On pourra par exemple utiliser l équation ( ) exprimée à l instant (k 1) pour obtenir e k 1 en fonction de Y k 1 et Z k 1, et reporter dans ( ) l expression obtenue. 2

Bien que l observation apparaisse dans l équation d état, on est maintenant capable de calculer récursivement le vecteur moyenne Ẑk et la matrice de covariance Σ k de la distribution conditionnelle du nouvel état caché Z k sachant les observations passées Y 0:k = (Y 0,,Y k ). On introduira aussi le vecteur moyenne Ẑ k et la matrice de covariance Σ k de la distribution conditionnelle du nouvel état caché Z k sachant les observations passées Y 0:k 1 = (Y 0,,Y k 1 ). Dans les questions suivantes, il s agira juste d adapter les démonstrations vues en cours, en prenant soin d indiquer en quoi la présence de l observation dans l équation d état modifie les équations. en fonc- (vi) Exprimer le vecteur moyenne Ẑ k et la matrice de covariance Σ k tion de Ẑk 1 et de Σ k 1. (vii) En introduisant la suite des innovations, exprimer le vecteur moyenne Ẑk et la matrice de covariance Σ k en fonction de Ẑ k et de Σ k. (viii) Comment exprimer très simplement le vecteur moyenne X k et la matrice de covariance P k de la distribution conditionnelle de l état caché X k sachant les observations passées Y 0:k = (Y 0,,Y k ), en fonction de Ẑk et de Σ k? 3

Exercice : L objectif de cet exercice est de montrer que les équations de Baum obtenues pour les modèles de Markov cachés avec des observations indépendantes conditionnellement aux états cachés, peuvent se généraliser facilement au cas où les observations forment une chaîne de Markov conditionnellement aux états cachés. On considère une chaîne de Markov {X k } à espace d état fini E = {1,,N}, de loi initiale P[X 0 = i] = ν i pour tout i E. et de matrice de transition P[X k = j X k 1 = i] = π i,j pour tout i,j E. La suite {X k } n est pas observée directement, mais on observe la suite {Y k } à valeurs dans R d, définie par Y k = h(x k,y k 1 ) + V k, où la suite {V k } est un bruit blanc, avec une densité P[V k dv] = q V k (v)dv, et où la condition initiale Y 0 possède une densité P[Y 0 dy] = g 0 (y)dy. On suppose que la condition initiale Y 0 et les suites {X k } et {V k } sont mutuellement indépendantes. (i) Donner l expression des densités d émission P[Y k dy X k = j,y k 1 = y] = g j (y,y )dy, pour tout y,y R d et pour tout j E. (ii) Montrer que conditionnellement aux états cachés (X 0,,X n ) les observations (Y 0,,Y n ) forment une chaîne de Markov, dont la distribution de probabilité de transition ne dépend que de l état caché à la fin de la transition, et peut donc s exprimer à l aide de la densité d émission introduite à la question (i), c est à dire que la loi conditionnelle jointe peut se factoriser de la façon suivante P[Y 0 dy 0,,Y n dy n X 0 = i 0,,X n = i n ] = P[Y 0 dy 0 ] n P[Y k dy k X k = i k,y k 1 = y k 1 ] k=1 n = g(y 0 ) dy 0 g i k (y k 1,y k ) dy k, k=1 pour tout y 0,,y n R d et pour tout i 0,,i n E. 4

On pose p k = (p i k ) avec p i k = P[X k = i Y 0:k ] pour tout i E. Dans la question suivante, il s agira juste d adapter la démonstration vue en cours, en prenant soin d indiquer en quoi la présence de l observation précédente dans la densité d émission modifie les équations. (iii) Donner l équation de Baum vérifiée par la suite {p k }. 5