Filtre de Kalman pour le suivi Version alpha (powerpoint+tableau noir)

Documents pareils
Quantification Scalaire et Prédictive

MABioVis. Bio-informatique et la

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

MCMC et approximations en champ moyen pour les modèles de Markov

Modélisation aléatoire en fiabilité des logiciels

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Algèbre 40 Analyse Stat. 1 - IES : Probabilités discrètes et calcul intégral 29,5 6 Stat. 2 - IES : Probabilités générales 54 8 UE1-02 M-E-IS

données en connaissance et en actions?

Intelligence artificielle et les défis en robotique mobile et autonome

Comparatif entre Matrox RT.X2 et Adobe Premiere Pro CS3 (logiciel seul)

La nouvelle planification de l échantillonnage

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Filtrage stochastique non linéaire par la théorie de représentation des martingales

4.2 Unités d enseignement du M1

I. Cas de l équiprobabilité

Relever les défis des véhicules autonomes

Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires

Raisonnement probabiliste

Intérêt du découpage en sous-bandes pour l analyse spectrale

Limitations of the Playstation 3 for High Performance Cluster Computing

TP N 57. Déploiement et renouvellement d une constellation de satellites

Probabilités III Introduction à l évaluation d options

CAPTEURS - CHAINES DE MESURES

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

Annexe 6. Notions d ordonnancement.

Simulation de variables aléatoires

Utilisation du logiciel ImageJ gratuit

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

1 Définition de la non stationnarité

Cours d algorithmique pour la classe de 2nde

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Programmation linéaire

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

Estimation et tests statistiques, TD 5. Solutions

L'intelligence en mouvement. Caméras AUTODOME 7000 avec fonction de suivi intelligent

Analyse de la bande passante

Créative Cloud - Perfectionnement

Echantillonnage Non uniforme

Résumé des communications des Intervenants

Projet de Traitement du Signal Segmentation d images SAR

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés


NON-LINEARITE ET RESEAUX NEURONAUX

Soutenance de stage Laboratoire des Signaux et Systèmes

Master IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008

Arbres binaires de décision

P.L.U. Plan Local d'urbanisme PRESCRIPTION D'ISOLEMENT ACOUSTIQUE AU VOISINAGE DES INFRASTRUCTURES TERRESTRES DOCUMENT OPPOSABLE

Commande Prédictive. J. P. Corriou. LSGC-ENSIC-CNRS, Nancy. corriou@ensic.inpl-nancy.fr

Introduction à la théorie des files d'attente. Claude Chaudet

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Introduction aux systèmes temps réel. Iulian Ober IRIT

Fonctions de plusieurs variables

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Étude sur les taux de revalorisation des contrats individuels d assurance vie au titre de 2013 n 26 mai 2014

PRECISION - REJET DE PERTURBATIONS T.D. G.E.I.I.

Présentation BAI -CITC

ESIEA PARIS

Cyber-base du Pays Martégal. Atelier «Découverte de l ordinateur»

Aspects théoriques et algorithmiques du calcul réparti L agglomération

Web Science. Master 1 IFI. Andrea G. B. Tettamanzi. Université de Nice Sophia Antipolis Département Informatique andrea.tettamanzi@unice.

3. SPÉCIFICATIONS DU LOGICIEL. de l'expression des besoins à la conception. Spécifications fonctionnelles Analyse fonctionnelle et méthodes

= constante et cette constante est a.

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Tests de comparaison de moyennes. Dr Sahar BAYAT MASTER 1 année UE «Introduction à la biostatistique»

Incertitude et variabilité : la nécessité de les intégrer dans les modèles

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Data Mining. Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

L'astrophotographie au Cercle

Expérience 3 Formats de signalisation binaire

ArtemiS 12 HEAD Data Portal 2.0 HEAD Recorder

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

1/5. piazza invest 1

Multichronomètre SA10 Présentation générale

Le Contrat à Durée Déterminée d Insertion (CDDI)

Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS

Programmation Linéaire - Cours 1

Contrôle par commande prédictive d un procédé de cuisson sous infrarouge de peintures en poudre.

Systèmes de communications numériques 2

Analyse Sémantique de Nuages de Points 3D et d Images dans les Milieux Urbains

K. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre Palaiseau

Recherche d'images par le contenu Application au monitoring Télévisuel à l'institut national de l'audiovisuel

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #12

Institut Informatique de gestion. Communication en situation de crise

Traitement d un AVI avec Iris

Probabilités sur un univers fini

FICHE UE Licence/Master Sciences, Technologies, Santé Mention Informatique

Introduction au Data-Mining

Les algorithmes de fouille de données

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

PROGRAMME DES FORMATIONS 2015

TABLE DES MATIERES. C Exercices complémentaires 42

Introduction à l approche bootstrap

Machines virtuelles Cours 1 : Introduction

Types d ordres particuliers

Robotique Mobile. David Filliat

Cours 02 : Problème général de la programmation linéaire

La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

Transcription:

Filtre de Kalman pour le suivi Version alpha (powerpoint+tableau noir) Filtre de Kalman 1

Le suivi? Suivre = inférer le mouvement d'un objet à partir d'une séquence d'images. Applications : Capture du mouvement : Enregistrement des mouvements pour restitution ( avatars) ou analyse (Mouvement dancé (S. Boukir)) Reconnaissance à partir du mouvement : caractériser un objet à partir de son déplacement (lent ou rapide, rectiligne ou sinueux ) (aqu@thèque) Suivi d'objet pour l' identifier : recherche d' attributs discriminants (aqu@thèque) Surveillance : -détection d'intrusion -détection de mouvements inhabituels : prévention d'accidents dans les aéroports par identifications de motifs (séquences) répétitifs. Militaire : détection du mouvement et prédiction de la position Filtre de Kalman 2

Introduction Exemple 1 : Estimer la position (centre de gravité) d un objet sur une image Une 1ère méthode (détection de contour) Une 2ème méthode (seuillage) Comment tenir compte, au mieux, des 2 infos? -Les 2 sont aussi précises : -une seule fiable : la prendre seule -Entre les 2 : moyenne pondérée Comment pondérer? Filtre de Kalman 3

Pondération? précision poids imprécision variance précision 1/variance Choix des distributions (et des variances)? «expérience», «modèle» : Bayésien Filtre de Kalman 4

gain innovation Filtre de Kalman 5

Pondération Filtre de Kalman 6

Exemple 2 : Estimer la position (centre de gravité) d un objet sur une image Une seule méthode prédiction à partir d un modèle de déplacement Imprécision sur la vitesse Sans observations la variance augmente à chaque image!! Filtre de Kalman 7

Exemple 3 : Estimer la position (centre de gravité) d un objet sur une image Une 1ère méthode (détection de contour) Une 2ème méthode prédiction à partir d un modèle de déplacement Comment tenir compte, au mieux, des 2 infos? On prédit la position puis on corrige par l observation Filtre de Kalman 8

Suivre! Faire du suivi c est résoudre essentiellement 3 problèmes : Prédire : nous avons les observations aux instants (= images) 0 t-1 que peut-on prévoir à t? Associer les données (data association) : parmi toutes les observations à l instant t lesquelles nous renseignent effectivement sur l état de l' objet? (problème de distraction de l algorithme) Corriger : prise en compte simultanée de l' observation à l instant t et de la prédiction. Filtre de Kalman 9

Modèles espace-état Ces modèles font la distinction entre les variables : Observées ( le signal) = mesures Cachées (état interne) = états Constitués de : équations de mesure : -variables observées = variables cachées + bruit bruit d'observation (de mesure) -variables cachées = variables cachées + bruit bruit de processus (d' innovation) Hypothèses complémentaires : -les 2 équations sont linéaires -les bruits sont : -Blancs (le plus souvent gaussien) =Indépendants entre eux et avec les variables d états Filtre de Kalman 10

Rappels de probabilités Définition des probabilités conditionnelles : Bayes Filtre de Kalman 11

Bayes C'est une forme couramment utilisée en statistiques bayésiennes : Hypothèse mesure (evidence) Information contextuelle Filtre de Kalman 12

Bayes 2 Probabilité a posteriori Probabilité a posteriori = Constante de normalisation Car indépendante de l hypothèse Vraisemblance de l observation Filtre de Kalman 13

Distribution prédictive Filtre de Kalman 14

Quelques rappels sur les distributions normales ENTIEREMENT DETERMINEE PAR MOYENNE ET VARIANCE Quelques propriétés : Le produit de 2 distributions normales est normal Filtre de Kalman 15

Quelques rappels sur les distributions normales ENTIEREMENT DETERMINEE PAR MOYENNE ET VARIANCE MOYENNE = MODE = MEDIANE Filtre de Kalman 16

Quelques rappels sur les distributions normales Quelques propriétés : Le produit de 2 distributions normales est normal avec Filtre de Kalman 17

Position du problème Notations : état observations Pour chercher la meilleure approximation de l état x t, on peut : Prédire : utiliser les observations passées Lisser : utiliser les observations passées,présentes et futures filter : utiliser les observations passées et présentes Filtre de Kalman 18

Markov Hypothèse Markovienne : L état courant ne dépend que de l état précedent L observation courante ne dépend que de l état courant C est une hypothèse très (toujours?) faite en suivi. - Peu sembler restrictive mais pas tant que ça en fait : l état courant contient l information des étapes précédentes Filtre de Kalman 19

Prédiction/correction On cherche l état courant sachant les observations de l instant 0 à t Bayes 2 Par hypothèse ne dépend que de Connu par hypothèse Distribution prédictive? Par hypothèse ne dépend que de Filtre de Kalman 20

Prédiction/correction D où le schéma très simple («récursif») et très général : t t-1 On peut propager la probabilité conditionnelle a posteriori (si on la connaît à t=0) Mais le problème n est pas simple dans le cas général : forme et paramètres (s il existe une forme paramétrique ) à déterminer Dans le cas général : méthode d échantillonnage + Monte-Carlo i.e. Condensation (filtrage particulaire) en t.i. Filtre de Kalman 21

Un cas particulier Comme le cas général est difficile, on fait des hypothèses : On connaît la distribution (modèle) et ses paramètres a priori à t=0 On sait comment l état interne (caché) produit l observation : C est une fonction linéaire Distributions normales + fonction linéaire => normales Distributions normales normales récursivement (produit) Filtre de Kalman 22

Rudolf Emil KALMAN -Né en 1930 en Hongrie -Etudiant au MIT (1953-54) -Thèse en 1957 (Université de Columbia) -Article fondateur pour «le» filtre 1960 Kalman, R.E. A new approach to linear ltering and prediction problems. Transactions of the ASME - Journal of Basic Engineering, 82 (Series D):35-45, 1960. Modèle espace-état -Actuellement à la retraite Filtre de Kalman 23

Filtre de KALMAN (discret) Estime un état à l instant! États non observés directement, Observations à l instant, Les matrices Q et R sont fixées pour l instant Filtre de Kalman 24

Filtre de KALMAN (discret), donc, donc Il faut en estimer la moyenne et la covariance Filtre de Kalman 25

Filtre de KALMAN t =0 Prédiction de la moyenne Prédiction de la covariance t t+1 Calcul du gain M.a.j. de la moyenne M.a.j. de la covariance Filtre de Kalman 26

Filtre de Kalman Remarques : Les matrices A,B,Q,R et P sont définies semi-positives : la forme est préférable (car toujours def. Positive) à la forme : Filtre de Kalman 27

Filtre de Kalman Filtre optimal récursif de traitement de données : Du point de vue des probabilités (Bayes) utilise l ensemble des informations Distributions normales : moyenne=mode=médiane C est le «meilleur» estimateur ponctuel Le même résultat peut-être obtenu en cherchant l estimateur de max. de vraisemblance (BLUE=Best Linear Unbiased Estimator) Récursif : Utilise les données à t et les résultats à t-1 stockage minimal de données Filtre de Kalman 28

Exemple Estimation d une constante (50 tirages) : Peu sensible R optimal Filtre de Kalman 29

Exemple Estimation d une constante (50 tirages) : Q doit être choisi «petit» Le filtre colle aux données Filtre de Kalman 30

Exemple Estimation d une constante (50 tirages) : Convergence ralentie Filtre de Kalman 31

Exemple Estimation d une constante (50 tirages) : Colle au données Filtre de Kalman 32

Evolution du gain Décroît très rapidement Indépendant des observations Filtre de Kalman 33

Evolution de P Décroît très rapidement Filtre de Kalman 34

Evolution de P Décroît très rapidement Indépendant des observations K et P peuvent être calculés hors ligne Filtre de Kalman 35

Exemple 2d Un objet en mouvement sur un plan 2d à vitesse constante (plus bruit) On observe seulement la position : Filtre de Kalman 36

Exemple 2d Ellipses=P Filtre de Kalman 37

Filtre de KALMAN adaptatif Équations espace-état :,, sont fixés initialement donc sont indépendants du temps Les algorithmes qui estiment ces états à chaque instant sont dits «adaptatifs» Il n existe pas d algorithme «optimal» dans le cas général Filtre de Kalman 38

Filtre de KALMAN adaptatif Équations espace-état : toujours fixé initialement,, Adaptatif En utilisant l innovation : Somme de gaussiennes En prenant l espérance : e.s.b Filtre de Kalman 39

Filtre de KALMAN adaptatif En prenant la variance : Somme v.a. indep. V(AX)=A.V(X).A T donc estimation où peut-être estimé «classiquement» Filtre de Kalman 40

Filtre de KALMAN adaptatif où Remarques : - le filtre n est plus optimal - Q est parfois fixé à une valeur faible puis décroissante->0 Attention : on place alors toute la confiance dans la prédiction - si on utilise ces estimateurs il faut stocker la séquence complète on peut les mettre à jour itérativement : schéma itératif sur la moyenne et la variance - il existe de nombreuses variantes qui estime TOUS les paramètres : Q,R mais aussi A et B problèmes de stabilité? Filtre de Kalman 41

Zone de recherche Kalman utilise un modèle et des observations. Problème : En traitement d image comment trouver l objet? Le filtre de Kalman ne dit rien sur la façon d obtenir les mesures mais il peut nous guider..? t t+1 Classiquement fait en 2 étapes : -préselection (gating) des objets = zone de recherche -choix de l objet le plus probable = Probabilistic Data Association (PDA) Filtre de Kalman 42

Association de données On utilise les innovations Distance de Mahalanobis entre une prédiction et une observation On défini la zone de recherche par la distance à la prédiction Filtre de Kalman 43

Association de données Il faut fixer un seuil sur d 2 = somme de n carré de v.a. normales Chi2 à n d.d.l. Région critique : risque (ex: 5%,10%) d 0 2 On rejette une observation si d 2 est «trop grand». Filtre de Kalman 44

Association de données En résumé : la zone de recherche est définie par une distance (de Mahalanobis) maximale (cf. chi2) autour de la prédiction Réduction du temps de calcul Zone ellipsoïdale prédiction Distance max. Filtre de Kalman 45

Filtre de KALMAN étendu Filtre de Kalman optimal dans le cas linéaire Gaussien: - bruits gaussiens + fonctions, linéaires. - Dans le cas où les fonctions de mesures et d états ne sont plus linéaire il ne peut pas s appliquer (pas de formulation matricielle pour A,B) Utiliser une approximation de Taylor pour les fonctions autour de la moyenne (prédite ou corrigée) Filtre de Kalman 46

Linéarisation Séries de Taylor - en 1D : au premier ordre - en nd : Jacobien de f Filtre de Kalman 47

Linéarisation avec Jacobien Exemple : Filtre de Kalman 48

Filtre de KALMAN étendu Estime un état à l instant, Observations à l instant,! f et g sont des fonctions non linéaires dérivables Filtre de Kalman 49

Linéarisation avec h Esperance nulle D où l équation linéaire A Idem pour g Filtre de Kalman 50

Filtre de KALMAN étendu t =0 Prédiction de la moyenne Prédiction de la covariance t t+1 Calcul du gain M.a.j. de la moyenne M.a.j. de la covariance Filtre de Kalman 51