Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57



Documents pareils
Détection des points d intérêt et Segmentation des images RGB-D. Présentée par : Bilal Tawbe. Semaine de la recherche de l UQO

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :


Traitement bas-niveau

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Apprentissage Automatique

Recherche d'images par le contenu Application au monitoring Télévisuel à l'institut national de l'audiovisuel

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Projet de Traitement du Signal Segmentation d images SAR

N. Paparoditis, Laboratoire MATIS

Intérêt du découpage en sous-bandes pour l analyse spectrale

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Extraction d informations stratégiques par Analyse en Composantes Principales

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar

Géométrie discrète Chapitre V

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Sujet de thèse : Suivi d objets en mouvement dans une séquence vidéo

Opérations de base sur ImageJ

Hiver 2013 IMN 259. Introduction à l analyse d images. Par Pierre-Marc Jodoin

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Mesure agnostique de la qualité des images.

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Les atouts et faiblesses des caméras TEP dédiées, TEP corps entier, TEP-CT, TEMP pour la quantification

RIE LE RENDU THEO. 2 e trim ÉTAPE DE FINITION BOÎTE DE DIALOGUE. remarques

Utilisation des Points d Intérêts Couleurs pour le Suivi d Objets

Object Removal by Exemplar-Based Inpainting

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Optimisation, traitement d image et éclipse de Soleil

Statistiques Descriptives à une dimension

Les algorithmes de base du graphisme

Fête de la science Initiation au traitement des images

Introduction à l approche bootstrap

PROBABILITES ET STATISTIQUE I&II

Projet Matlab/Octave : segmentation d'un ballon de couleur dans une image couleur et insertion d'un logo

Maps Tableau de bord avec MindManager et Power Markers

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Travaux pratiques avec RapidMiner

Bases de données multimédia I - Introduction

1 Complément sur la projection du nuage des individus

Programmes des classes préparatoires aux Grandes Ecoles

INF6304 Interfaces Intelligentes

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

données en connaissance et en actions?

MAP 553 Apprentissage statistique

Reconnaissance et suivi de visages et implémentation en robotique temps-réel

Algorithme des fourmis appliqué à la détection et au suivi de contours dans une image

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Infolettre #18 : Les graphiques avec Excel 2010

INTRODUCTION AU DATA MINING

Programme scientifique Majeure INTELLIGENCE NUMERIQUE. Mentions Image et Réalité Virtuelle Intelligence Artificielle et Robotique

Reconnaissance de gestes : approches 2D & 3D

SudoClick Reconnaissance de grilles de sudoku pour téléphones portables

Une fréquence peut-elle être instantanée?

Business Intelligence avec Excel, Power BI et Office 365

Business Intelligence

SLAM Visuel 3D pour robot mobile autonome

Immersion - Vision 3D dans la RV.

La visio-conférence holographique : Pourquoi? Comment?

Master IMA - UMPC Paris 6 RDMM - Année Fiche de TP

La segmentation à l aide de EG-SAS. A.Bouhia Analyste principal à la Banque Nationale du Canada. Chargé de cours à l UQAM

La classification automatique de données quantitatives

Les images et les animations sur le web. Guérineau Chloé BTS2 Année 2001/2012

NON-LINEARITE ET RESEAUX NEURONAUX

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

TABLE DES MATIERES. C Exercices complémentaires 42

de calibration Master 2: Calibration de modèles: présentation et simulation d

Analyse d images. Edmond.Boyer@imag.fr. Edmond Boyer UFRIMA 1

Vérification audiovisuelle de l identité

Introduction au datamining

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

Programme de formation Photoshop : Initiation 24 heures de formation (3 jours) 1/2

F210. Automate de vision hautes fonctionnalités. Caractèristiques. Algorithmes vectoriels

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

N avez-vous jamais rêvé d une nouvelle façon de faire un film? gettyimages.fr/film. Guide de l utilisateur

Le traitement du 5ème concours A.I.P. pour l objet SH2-155 de Franck JOBARD

FUSION DE CARTES DE PROFONDEURS EN PHOTOGRAMMETRIE ARCHITECTURALE

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Logiciel XLSTAT version rue Damrémont PARIS

Détection d activité à l aide de Kinect 2.0

Analyse Sémantique de Nuages de Points 3D et d Images dans les Milieux Urbains

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Différentiabilité ; Fonctions de plusieurs variables réelles

Préparé au Laboratoire d Analyse et d Architecture des Systèmes du CNRS

Aquitaine Thermographie

Détection de têtes dans un nuage de points 3D à l aide d un modèle de mélange sphérique

Comparaison de Relevés 3D issus de plusieurs Systèmes de Numérisation

Enjeux mathématiques et Statistiques du Big Data

Synthèse d'images I. Venceslas BIRI IGM Université de Marne La

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Quantification Scalaire et Prédictive

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

MESURE ET PRECISION. Il est clair que si le voltmètre mesure bien la tension U aux bornes de R, l ampèremètre, lui, mesure. R mes. mes. .

Table des matières. I Mise à niveau 11. Préface

IMAGES NUMÉRIQUES MATRICIELLES EN SCILAB

Simulation de variables aléatoires

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

Transcription:

Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57

La représentation d objets Plan de la présentation 1 La représentation d objets Modèles de forme et d apparence 2 Modèles géométriques 3 SIFT 4 Modèles d apparence 5 Choix du modèle Chapitre 4.1 - La modélisation d objet 2 / 57

La représentation d objets Modèles de forme et d apparence Introduction Applications du suivi d objet : Reconnaissance par le mouvement : Classification d objets basé sur le comportement Surveillance automatique : Détection de dangers ou évènements suspects, traffic automobile Interaction visuelle : Interface humain-machine (ex : kinect) Navigation automatique : Plannification de trajet par la vidéo (ex : google car) Chapitre 4.1 - La modélisation d objet 3 / 57

La représentation d objets Modèles de forme et d apparence Introduction Le suivi d objet : On veut estimer la trajectoire d un objet dans le plan image alors qu il bouge dans une scène Un moniteur d objet (tracker) assigne un étiquette à l objet suivi dans toutes les images de la vidéo Un moniteur peut aussi fournir des informations de forme, d action, d orientation, de mémoire temporelle, etc. La tâche se sépare en deux catégories : La modélisation de l objet à suivre ; L algorithme de suivi basé sur le modèle. Chapitre 4.1 - La modélisation d objet 4 / 57

La représentation d objets Modèles de forme et d apparence Introduction Peut être complexe : Basé sur le mouvement apparent ; Bruit, changement d illumination ; Déformation d objets, occlusion ; Doit être en temps réel. Mais on peut imposer des contraintes : Petits mouvements ; Changements de vitesses non-brusques ; Connaissance a priori de notre objet. Chapitre 4.1 - La modélisation d objet 5 / 57

La représentation d objets Représentation des objets Modèles de forme et d apparence On classe les types de modélisation en deux classes distinctes : Modèle géométrique (de forme) : Modèle iconique (d apparence) : Description du contenu en terme de couleur, de texture, de mouvement,... Chapitre 4.1 - La modélisation d objet 6 / 57

Modèles géométriques Plan de la présentation 1 La représentation d objets 2 Modèles géométriques Modèle "bounding-box" Modèle de contours, silhouette, squelette Application : Kinect Points d intérêt 3 SIFT 4 Modèles d apparence 5 Choix du modèle Chapitre 4.1 - La modélisation d objet 7 / 57

Modèles géométriques Modèle "bounding-box" Modèle d approximation géométriques Approximation par formes géométriques Les objets sont représentés par des triangles, élipses, carrés,... Le mouvement est considéré constant pour tout l objet et est facilement paramétrisable (affine, projection,...) Peut être utilisé pour suivre des objets déformables, même s il n est pas adapté pour ça. Chapitre 4.1 - La modélisation d objet 8 / 57

Modèles géométriques Modèle de contours, silhouette, squelette Modèle d approximation géométriques Modèle de contours/silhouettes Le modèle des contours/silhouettes est très utile pour décrire l allure du mouvement d objets non rigides. Contour d un objet Frontière de l objet Silhouette d un objet Intérieur de l objet Permet s adapter aux changements de la taille des différentes composantes des objets suivis. Chapitre 4.1 - La modélisation d objet 9 / 57

Modèle articulé Modèles géométriques Modèle de contours, silhouette, squelette Modèle articulé Ce modèle permet d associer une primitive géométrique pour chaque membre d un objet articulé en mouvement. La relation entre les différentes parties, ainsi que les articulations les reliant, sont gouvernées par des lois de la mécanique du mouvement. Chapitre 4.1 - La modélisation d objet 10 / 57

Modèle squelettique Modèles géométriques Modèle de contours, silhouette, squelette Modèle squelettique Le squelette d un objet peut être généré en appliquant la transformation de l axe médian pour la silhouette de l objet. Modèle intermédiaire entre le modèle des contours/silhouettes et le modèle articulé. Peut être analysé pour la reconnaissance des actions d objets, et aussi pour la synthèse du mouvement. Chapitre 4.1 - La modélisation d objet 11 / 57

Modèles géométriques Application : Kinect Exemple de modélisation géométrique : Kinect Kinect La kinect permet d obtenir facilement un carte de profondeur de la scène à l aide d une caméra à infra-rouge. La carte de profondeur nous permet d obtenir la silhouette des joueurs (6 personnes détecté, 2 que l on peut suivre). Chapitre 4.1 - La modélisation d objet 12 / 57

Modèles géométriques Application : Kinect Exemple de modélisation géométrique : Kinect Kinect La kinect permet d obtenir facilement un carte de profondeur de la scène à l aide d une caméra à infra-rouge. La carte de profondeur nous permet d obtenir la silhouette des joueurs (6 personnes détectés, 2 que l on peut suivre). Chapitre 4.1 - La modélisation d objet 13 / 57

Modèles géométriques Application : Kinect Exemple de modélisation géométrique : Kinect Chapitre 4.1 - La modélisation d objet 14 / 57

Modèles géométriques Application : Kinect Exemple de modélisation géométrique : Kinect Kinect Des 6 joueurs détectables, on peut tracker que deux joueurs en simultané. Pour ce faire on utilise un hybride du modèle articulé et modèle squelettique. Chapitre 4.1 - La modélisation d objet 15 / 57

Modèles géométriques Application : Kinect Exemple de modélisation géométrique : Kinect Kinect Des 6 joueurs détectables, on peut tracker que deux joueurs en simultané. Pour ce faire on utilise un hybride du modèle articulé et modèle squelettique. Chapitre 4.1 - La modélisation d objet 16 / 57

Modèles géométriques Application : Kinect Exemple de modélisation géométrique : Kinect Kinect On utilise le modèle articulé afin de pouvoir classifier les mouvements de chaque joueur : saut, bras levé, accroupi, etc. On observe principalement l angle entre les articulations. Chapitre 4.1 - La modélisation d objet 17 / 57

Modèles géométriques Points d intérêt Représentation par les points d intérêts Points d intérêt Les points d intérêt peuvent être des coins d objets, des points de fuites, etc. Ces points peuvent être détectés en utilisant, par exemple, le détecteur de Harris ou SIFT. En général, pour chaque frame : 1 On détecte les points d intérêt de la scène ; 2 On fait une mise en correspondance frame par frame en des points de l objet avec les points de la scène. Chapitre 4.1 - La modélisation d objet 18 / 57

Modèles géométriques Points d intérêt Avantages/Inconvénients des points d intérêts Avantages : Sélection partielle de l objet. Robustesse aux transformations de l image ou de l objet. Robustesse aux occlusions. Inconvénients : Temps de calcul de l extraction de point. Temps de calcul de la mise en correspondance. Chapitre 4.1 - La modélisation d objet 19 / 57

SIFT Plan de la présentation 1 La représentation d objets 2 Modèles géométriques 3 SIFT Introduction Multi-résolution et différence de Gaussienne (DoG) Localisation de points d intérêt Primitive d orientation et construction de descripteur SURF 4 Modèles d apparence 5 Choix du modèle Chapitre 4.1 - La modélisation d objet 20 / 57

SIFT Introduction Motivation Pour fin de mise en correspondance de points d intérêt, on voudrait trouver une primitive qui possèderait les caractéristiques suivantes : Invariant à la mise à échelle ; Invariant à la rotation ; Invariant à l illumination ; Invariant au point de vue. Chapitre 4.1 - La modélisation d objet 21 / 57

Survol de l algorithme SIFT Introduction Chapitre 4.1 - La modélisation d objet 22 / 57

Espace multi-résolution SIFT Multi-résolution et différence de Gaussienne (DoG) Chapitre 4.1 - La modélisation d objet 23 / 57

Espace multi-résolution SIFT Multi-résolution et différence de Gaussienne (DoG) À chaque résolution (octave), on applique un flou gaussiens aux images avec des valeur d écart-type différentes. Par exemple, pour un octave, on peut généré huit images flous : Chapitre 4.1 - La modélisation d objet 24 / 57

SIFT Différence de Gaussienne (DoG) Multi-résolution et différence de Gaussienne (DoG) Pour trouver les extremums de ces gaussiennes, on doit trouver le laplacien des gaussiennes. Une bonne approximation est la différence de gaussienne, qui permet de trouver les contours de notre image : Chapitre 4.1 - La modélisation d objet 25 / 57

Pyramide DoG SIFT Multi-résolution et différence de Gaussienne (DoG) Chapitre 4.1 - La modélisation d objet 26 / 57

Pyramide DoG SIFT Multi-résolution et différence de Gaussienne (DoG) Chapitre 4.1 - La modélisation d objet 27 / 57

SIFT Extremums à partir des DoG Localisation de points d intérêt Pour localiser des points d intérêt potentiel, on trouve les points extrêmes dans un voisinage 3x3x3 des DoG : 3x3 au DoG courant, 3x3 au DoG précédent et 3x3 au DoG suivant. On effectue cette opération un octave à la fois, pour tous les octaves. Chapitre 4.1 - La modélisation d objet 28 / 57

SIFT Localisation de points d intérêt Raffinement de la position des extremums Pour un octave, les DoG me nous donneront pas exactement les même points d intérêts potentiel.en fittant les points du cube 3x3x3 dans une fonction quadratique, on peut arriver à identifier l emplacement sous-pixel du point d intérêt extremum des DoG au pixel (x, y) : Chapitre 4.1 - La modélisation d objet 29 / 57

SIFT Élimination des faux extremums Localisation de points d intérêt De la même façon que le détecteur de Harris (Chapitre 4.1), on identifie, à l aide du Hessien, les points qui sont des coins et on élimine les contours. De plus, on effectue un seuil pour les extremums ayant un bas niveau de contraste dans l espace multi-résolution (et non l espace DoG). Chapitre 4.1 - La modélisation d objet 30 / 57

Orientation SIFT Primitive d orientation et construction de descripteur On détermine l orientation principale d un point d intérêt en utilisant le gradient des DoG pour chaque octave : m(x, y) = (D(x ( + 1, y) D(x 1, y)) 2 + (D(x, ) y + 1) D(x, y 1)) D(x + 1, y) D(x 1, y) θ(x, y) = tan 1 D(x, y + 1) D(x, y 1) En utilisant une fenêtre centrée sur le point d intérêt, on calcule, pour chaque point, l angle et l intensité du gradient, que l on intègre à un histogramme d angle binarisé. Chapitre 4.1 - La modélisation d objet 31 / 57

Orientation SIFT Primitive d orientation et construction de descripteur On ajoute le gradient à l histogramme seulement si la norme dépasse un certain seuil. On garde alors la meilleur orientation principale de l histogramme. Chapitre 4.1 - La modélisation d objet 32 / 57

SIFT Primitive d orientation et construction de descripteur Résumé partiel Donc jusqu à maintenant, on a : Des points d intérêts ; Leur orientation principale. On voudrait alors obtenir les même points d intérêt, même avec des mises à échelle, rotation, illumination différentes. Chapitre 4.1 - La modélisation d objet 33 / 57

SIFT Primitive d orientation et construction de descripteur Descripteur local (signature) Prenons l image originale I s dans l espace multi-résolution. On effectue alors les opérations suivantes : 1 On échantillonne les gradients de I s dans une matrice 16x16 ; 2 On crée, de la même façon que précédemment, des histogrammes d orientation (8 bins) pour chaque partie 4x4 de la matrice. 3 8 orientations x 4x4 vecteur d histogramme = 128 dimensions! Comment tenir compte des changements d illumination? On normalise les vecteurs de descripteurs d orientation! Chapitre 4.1 - La modélisation d objet 34 / 57

SIFT SURF SURF SURF vs SIFT Les points SURF sont une variante plus rapide (et plus robuste) des points SIFT. En résumé : On remplace les informations de gradient par les ondelettes de Haar du voisinage ; On approxime la matrice hessienne de la détection de point par des opération entières. Chapitre 4.1 - La modélisation d objet 35 / 57

Modèles d apparence Plan de la présentation 1 La représentation d objets 2 Modèles géométriques 3 SIFT 4 Modèles d apparence Patches/modèle Modèle probabiliste (Histogramme) Modèle de texture (Matrice co-occurence Descripteurs locaux Figures propres 5 Choix du modèle Chapitre 4.1 - La modélisation d objet 36 / 57

Modèles d apparence Modèle de l apparence Les modèles d apparence d objets permettent de décrire le contenu des objets en terme de primitives basées sur l intensité : couleur, texture, mouvement etc. La plupart des modèles se basent sur la distribution spatiale de la caractéristique visuelle considérée pour modéliser l apparence. Chapitre 4.1 - La modélisation d objet 37 / 57

Modèles d apparence Modèle de l apparence Quelques modèles d apparence : Patche/modèle : Représentation directe en couleur ou niveau de gris de l objet à suivre. Histogramme (probabiliste) : Représente la probabilité d obtenir la valeur de la primitive dans l objet. (Peut être approximé par les mixtures de gaussienne). Matrice de co-occurence (texture) : Matrice qui, pour chaque pixel, représente l information de son voisinage. Chapitre 4.1 - La modélisation d objet 38 / 57

Patche/modèle Modèles d apparence Patches/modèle Patche/modèle : Utile lorsqu apparié à un modèle "bounding-box", on utilise directement l image à l intérieur de celle-ci pour la comparer au modèle précédent ou à une banque d image. Chapitre 4.1 - La modélisation d objet 39 / 57

Modèles d apparence Histogramme (probabiliste) Modèle probabiliste (Histogramme) Histogramme et densité de probabilité : Au lieu d utiliser directement la couleur, on peut observer la distribution de celle-ci dans son ensemble, sans tenir compte de l arrangement spatial. On peut utiliser un modèle non-paramétrique, l histogramme, ou une fonction de densité probabiliste (PDF) tel les mixtures de gaussiennes. Chapitre 4.1 - La modélisation d objet 40 / 57

Modèles d apparence Matrice de co-occurence Modèle de texture (Matrice co-occurence Matrice de co-occurence (texture) Outre l analyse du domaine de Fourier, La matrice de co-occurrence peut être calculée pour chaque voisinage d un pixel à l intérieur de l objet suivi. Supposons que la valeur d intensité des pixels est dans l intervalle {0, 1,..., m}. On peut calculer la matrice de co-occurence de distance d et une orientation θ représentant le voisinage observé : Chapitre 4.1 - La modélisation d objet 41 / 57

Modèles d apparence Matrice de co-occurence Modèle de texture (Matrice co-occurence La valeur de p(i, j) dans la matrice C contient la fréquence d occurrence des deux intensités i et j sur des pixels (x, y), (x, y ). C(d, θ) = p(0, 0) p(0, 1)... p(0, j)... p(0, m) p(1, 0) p(1, 1)... p(1, j)... p(1, m)...... p(i, 0) p(i, 1)... p(i, j)... p(i, m)...... p(m, 0) p(m, 1)... p(m, j)... p(m, m) Chapitre 4.1 - La modélisation d objet 42 / 57

Modèles d apparence Matrice de co-occurence Modèle de texture (Matrice co-occurence En principe, on calcule la matrice pour 4 ou 8 direction, à une distance de 1 et 2 pixels. On combine ensuite les matrices pour en former qu,une seule. C. Plusieurs caractéristiques de texture peuvent être extraites. Voici quelques exemples : j Energie = i [p(i, j)]2 Entropie = i j p(i, j)log (p(i, j)) Constrast = i j (i j)2 p(i, j) Moment d inertie = i j 1 1+(i j) 2 p(i, j) Chapitre 4.1 - La modélisation d objet 43 / 57

Descripteur locaux Modèles d apparence Descripteurs locaux Descripteur locaux Suite à une segmentation de l image, on peut décrire chaque objet ou chaque partie d objets segmentés par une des primitives précédentes. Particulièrement adapté au modèle articulé. Chapitre 4.1 - La modélisation d objet 44 / 57

Modèles d apparence Figures propres Figures propres Supposons que nous avons une base de donnée d images (ex : des images de visage). On cherche à classifier un objets en se basant sur cette base d images : Chapitre 4.1 - La modélisation d objet 45 / 57

Modèles d apparence Figures propres Figures propres Une recherche exhaustive parmi cette base de donnée serait trop longue. On voudrait réduire l espace de recherche : Nous exprimerons notre requête dans une sous-espace de la base d image. Nous utiliserons l analyse en composante principale! Chapitre 4.1 - La modélisation d objet 46 / 57

Modèles d apparence Figures propres ACP (cas général à deux dimensions) Figures propres Soit un très grand ensemble d images de deux pixels (dimensions) sans lien sémantique (bleu). Supposons que nous voulons effectuer une recherche de visage. Nous ne choisirons que les images de visage (fort lien sémantique) : Chapitre 4.1 - La modélisation d objet 47 / 57

Modèles d apparence Figures propres ACP (cas général à deux dimensions) Figures propres L ACP nous permet d effectuer un changement de base représentatif des données en utilisant les valeurs et vecteurs propres de l ensemble de donnée. La force du lien entre les images nous permet d abandonner la composante (dimension) faible (v 2 ). Moins de données à traiter ; Très efficace dans un cas à N dimensions. Chapitre 4.1 - La modélisation d objet 48 / 57

Modèles d apparence Figures propres Algorithme de l ACP (N-dimensions) Figures propres On cherche la base orthonormée v représentant le mieux les données : v = 1 M r=1 = uk T AAT M u k M ) 2 (uk T (x x) (1) On construit une matrice contenant toutes les images S Les M images x (vecteurs colonne de N pixels); On calcule l image moyenne de toutes les images x Moyenne des M images; On soustrait l image moyenne de toutes les images A Les M images x x; On calcule la matrice de covariance AA T E AAT M ; Extraction des vecteurs (v) et valeurs (λ) propres par SVD v, λ SVD(E); En seuillant les λ, on peut ne conserver que les v principaux représentant l ensemble de donnée. Chapitre 4.1 - La modélisation d objet 49 / 57

Figures propres ACP (cas dans l espace d image) Modèles d apparence Figures propres Images N M R N M ; Une image Un point dans l espace (I(0, 0) I(0, 1) I(1, 1)... ). 1 L ACP nous permet d exprimer les images par une combinaison d images clés. 2 L ACP nous donne des images représentatives de l espace 3 Filtrer les vecteurs propres nous permet d obtenir un sous-espace réduit. Chapitre 4.1 - La modélisation d objet 50 / 57

Modèles d apparence Figures propres Figures propres ACP et figures propres v = u T k AAT M u k L ACP extrait les vecteurs propres ( v 1, v 2,..., v K ) de AAT M. Chacun de ces vecteurs est une direction dans le sous-espace de figures. Chapitre 4.1 - La modélisation d objet 51 / 57

Modèles d apparence Figures propres Figures propres Projection d une image dans le sous-espace de figures propres Soit x une image d entrée. On projette alors l image centrée-réduite (x x) sur chacun des vecteurs propres ( v). On forme alors une combinaison linéaire de figures propres nous permettant de calculer la projection de x sur le sous-espace de figures propres. Chapitre 4.1 - La modélisation d objet 52 / 57

Modèles d apparence Figures propres Figures propres Projection d une image dans le sous-espace de figures propres Entrées: x, y r, T 1, T 2 : Image à classée x, r images de la base de donnée y, Seuil d appartenance T 1, Seuil de ressemblance T 2 On construit le sous-espace des figures propres v et son image moyenne x v, x PCA en utilisant les r images y; On calcule les K coefficient a r i des vecteurs propres v en projetant l image y r x (y r centrée-réduite) pour tous les Images y r de la base de donnée y faire a r { ( y r x ) v 1,..., ( y r x ) v K }; Soit x l image à classifier, on calcule les K coefficient a i des vecteurs propres v en projetant l image x x (x centrée-réduite) a {(x x) v 1,..., (x x) v K }; On détermine s il fait parti du sous-espace des figures si x ( x + a 1 v 1 + + a K v K ) < T 1 alors C est une figure. Est-elle très ressemblante à une figure y r? pour tous les Images y r de la base de donnée y faire si a a K < T 2 alors x est associé à la figure y r ; Chapitre 4.1 - La modélisation d objet 53 / 57

Choix du modèle Plan de la présentation 1 La représentation d objets 2 Modèles géométriques 3 SIFT 4 Modèles d apparence 5 Choix du modèle Sélection du modèle géométrique et d apparence Chapitre 4.1 - La modélisation d objet 54 / 57

Choix du modèle Sélection du modèle géométrique et d apparence Le choix du modèle Le choix du modèle géométrique On choisit le modèle de forme selon l application : Une représentation par points est idéal pour suivre des objets petit dans une grande scène ou qui a beaucoup d occlusion. (ex : oiseau) Une représentation par forme géométrique est plus approprié à de gros objets à déformation faible (ex : voiture) Une représentation par silhouette, contour, modèle articulé est adapté à des mouvemenents complexes ou de la reconnaissance d actions (ex : kinect) Chapitre 4.1 - La modélisation d objet 55 / 57

Choix du modèle Sélection du modèle géométrique et d apparence Le choix du modèle Le choix du modèle d apparence On détermine le modèle d apparence en fonction de la facilité à distinguer l objet des autres ou de la scène par rapport à celle-ci. On choisit l espace de couleur qui nous facilite la tâche. On choisit un modèle de texture lorque celle-ci se démarque des autres. Une représentation par points augmentés (ex : SIFT, SURF) permet de combiner à la fois des aspects d apparence et de position. Chapitre 4.1 - La modélisation d objet 56 / 57

Choix du modèle Sélection du modèle géométrique et d apparence La détection de l objet La détection de l objet par rapport à la scène On utilise les images directements, sans traitement ; On apprend le background pour segmenter facilement les objets ; On segmente la scène (depth map ou segmentation spatiale) afin de détecter des objets à suivre ; On utilise une représententation en points des objets et la scène au complet. Chapitre 4.1 - La modélisation d objet 57 / 57