Modélisation de l!environnement par vision en robotique mobile



Documents pareils
Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies

Préparé au Laboratoire d Analyse et d Architecture des Systèmes du CNRS

N. Paparoditis, Laboratoire MATIS

Géométrie discrète Chapitre V


Traitement bas-niveau

Programme scientifique Majeure INTELLIGENCE NUMERIQUE. Mentions Image et Réalité Virtuelle Intelligence Artificielle et Robotique

Environnement Architecture de controle. Décisions

FUSION DE CARTES DE PROFONDEURS EN PHOTOGRAMMETRIE ARCHITECTURALE

Comparaison de Relevés 3D issus de plusieurs Systèmes de Numérisation

Robotique Mobile. David Filliat

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12

Algorithme des fourmis appliqué à la détection et au suivi de contours dans une image

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Object Removal by Exemplar-Based Inpainting

Gnuplot. Chapitre Lancer Gnuplot. 3.2 Options des graphes

Prédiction de couverture de champ radioélectrique pour les réseaux radiomobiles : L apport du Système d Information Géographique ArcInfo 8

Introduction à la robotique Licence 1ère année /2012

Plan présentation RATP

Synthèse d'images I. Venceslas BIRI IGM Université de Marne La

Franck VAUTIER, Jean-Pierre TOUMAZET, Erwan ROUSSEL, Marlène FAURE, Mohamed ABADI, Marta FLOREZ, Bertrand DOUSTEYSSIER

LIDAR LAUSANNE Nouvelles données altimétriques sur l agglomération lausannoise par technologie laser aéroporté et ses produits dérivés

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Immersion - Vision 3D dans la RV.

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR

Intelligence artificielle et les défis en robotique mobile et autonome

Analyse d images. Edmond.Boyer@imag.fr. Edmond Boyer UFRIMA 1

Introduction au datamining

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar

Présenta)on des ac)vités de recherche de l équipe PR du laboratorie MIS

Projet de Traitement du Signal Segmentation d images SAR

Dense Reconstruction Method s for Active Vision

Les algorithmes de base du graphisme

Opérations de base sur ImageJ

3 Approximation de solutions d équations

Fonctions de plusieurs variables

Acquérir et intégrer des données géographiques

Cartographie Mobile à MINES ParisTech

Apprentissage Automatique

Valorisation Patrimoine Historique

Art Graphique & Patrimoine Savoir faire et technologie au service du patrimoine

Activités de modélisation 3D Exploitation de certains produits ESRI

TP SIN Traitement d image

Toolbox d étalonnage pour Kinect : Application à la fusion d une Kinect et d un télémètre laser

Etablissement de cartes de vent sur le pourtour méditerranéen par simulation numérique

TP Blender n 2 : Importation d un modèle SketchUp et animation

INF6304 Interfaces Intelligentes

3 - Description et orbite d'un satellite d'observation

Territoire3D. Descriptif de contenu. Institut Géographique National. Date du Document : Mars 2011

Compte-rendu Réunion générale. Grenoble, le 29 juin 2011 URBASIS

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Introduction à MATLAB R

SLAM Visuel 3D pour robot mobile autonome

UNIVERSITÉ DE MONTRÉAL APPRENTISSAGE DE MODÈLES PROBABILISTES POUR LA VISION STÉRÉOSCOPIQUE EN TEMPS RÉEL

Société de Geo-engineering

Figure 3.1- Lancement du Gambit

Introduction à l informatique temps réel Pierre-Yves Duval (cppm)

Analyse Sémantique de Nuages de Points 3D et d Images dans les Milieux Urbains

Support de TD ArcGIS Introduction à l automatisation et au développement avec ArcGIS 10.1 JEAN-MARC GILLIOT e année ingénieur

Relever les défis des véhicules autonomes

Traitement numérique de l'image. Raphaël Isdant

Notice d Utilisation du logiciel Finite Element Method Magnetics version 3.4 auteur: David Meeker

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Big Data et Graphes : Quelques pistes de recherche

Big Data et Graphes : Quelques pistes de recherche

Chapitre 2 : Systèmes radio mobiles et concepts cellulaires

données en connaissance et en actions?

Raisonnement probabiliste

GMEC1311 Dessin d ingénierie. Chapitre 1: Introduction

Segmentation d'images à l'aide d'agents sociaux : applications GPU

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

RESERVOIR MONITORING A PARTIR D IMAGES SATELLITES APPLICATIONS POUR LES ACTIVITÉS AMONT DE SONATRACH EN ALGÉRIE

Infolettre #18 : Les graphiques avec Excel 2010

Simulation d'un examen anthropomorphique en imagerie TEMP à l iode 131 par simulation Monte Carlo GATE

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

AOMS : UN NOUVEL OUTIL DE PHOTOGRAMMÉTRIE

Renforcement des trois compétences : compréhension orale, expression orale et expression écrite à partir de documents et vidéos.

Multivac Vision System (MVS) : Détection visuelle d objets et inspection qualité. * Le meilleur de l emballage

Communications immersives : Enjeux et perspectives

3. Artefacts permettant la mesure indirecte du débit

Présentation du sujet de thèse Schémas temporels hybrides fondés sur les SVMs pour l analyse du comportement du conducteur

Détection des points d intérêt et Segmentation des images RGB-D. Présentée par : Bilal Tawbe. Semaine de la recherche de l UQO

La (les) mesure(s) GPS

L ORDINATEUR. Les composants. La carte mère. Le processeur. Fréquence

Caractérisation de défauts par Magnétoscopie, Ressuage, Courants de Foucault

Transmission d informations sur le réseau électrique

Robotique, intelligence arti ficielle et artistique les 14 et 15 octobre à Toulouse

pcon.planner 6 Préparer et présenter une implantation en toute simplicité

Commande Optimale Appliquée à un Robot Mobile

Calculs Computional fluide dynamiques (CFD) des serres à membrane de Van der Heide

Hiver 2013 IMN 259. Introduction à l analyse d images. Par Pierre-Marc Jodoin

ÉTUDE DE L EFFICACITÉ DE GÉOGRILLES POUR PRÉVENIR L EFFONDREMENT LOCAL D UNE CHAUSSÉE

C.F.A.O. : Conception et Fabrication Assistées par Ordinateur.

Le logiciel de gestion intégré conçu pour les Promoteurs Immobilier

Modélisation et Simulation

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

ANALYSE DU MOUVEMENT HUMAIN PAR VISION ARTIFICIELLE POUR CONSOLES DE JEUX VIDÉOS

Transcription:

Modélisation de l!environnement par vision en robotique mobile Simon Lacroix Robotics and Interactions group LAAS/CNRS, Toulouse

Robots Industriel Dans les laboratoires

robots

et robots.

De l!automatique à l!autonomie Automatique : Tâche bien définie ( réguler variable, suivre trajectoire ) Lien direct entre perception et action Autonomie : Tâche plus générale ( atteindre position, surveiller zone ) Mise en oeuvre de processus décisionnels! Boucle perception / Décision / Action Décision Plus : Intégration des fonctions Apprentissage Interaction avec opérateurs Interactions avec autres robots Perception Action

Un exemple : robotique d!exploration planétaire Contraintes sur les communications Informations limitées au sol! autonomie indispensable Jusqu à 45 minutes Tâche fondamentalle : navigation autonome : Atteindre position Première approche : «"réactive"» Seconde approche : «"délibérative"»

Perception pour la robotique Perception : «Acquisition et représentation des informations sur l environnement et le robot lui-même» Aujourd hui : vision pour Besoins : Planification d actions (déplacements) Planification de tâches (et notamment tâches de perception) Localisation du robot Exécution d action (de déplacements) Interaction avec l opérateur, reconnaissance d objets

Perception pour la robotique Perception : «Acquisition et représentation des informations sur l environnement et le robot lui-même» Besoins : Planification d actions (déplacements) Planification de tâches (et notamment tâches de perception) Localisation du robot Exécution d action (de déplacements) Interaction avec l opérateur, reconnaissance d objets

Fil conducteur Introduction Modélisation d environnement par vision Localisation par vision Modélisation et localisation simultanées

Fil conducteur Introduction Modélisation d environnement par vision Quels modèles sont nécessaires? Pourquoi la vision? Stéréovision Exemples d algorithmes de modélisation Localisation par vision Modélisation et localisation simultanées

Modélisation d!environnement Pour planifier des mouvements et déplacements! évaluation/quantification des actions de déplacement Modèle numérique de terrain z = f(x,y) sur grille cartesienne Modèle probabiliste d!obstacles P(Obst) sur grille cartesienne (modèle robocentrique)

Modélisation d!environnement Pour réaliser des mouvements! Détection d!éléments sur lesquels s!asservir (plus ou moins complexes) Données brutes Segmentées Interprétées Par classification de couleur/texture Exploitation pour l!asservissement de déplacements

Modélisation d!environnement Pour réaliser des mouvements! Détection d!éléments sur lesquels s!asservir (plus ou moins complexes) Données brutes Segmentées Interprétées Par classification de couleur/texture Exploitation pour l!asservissement de déplacements

Modélisation d!environnement Pour se localiser! Missions définies en terme de localisation ( aller à, explorer/surveiller zone )! Pour assurer la cohérence spatiale des modèles! Pour assurer l!exécution des déplacements planifiés Notion d!amer

Modélisation d!environnement Au delà de l!autonomie du mouvement, pour planifier / exécuter des tâches :! De perception, d!exploration, de surveillance, dans un contexte multi-robots Graphe topologique (avec éventuellement informations sémantiques) Représentation volumique (pour calculs de visibilité)

Modélisation d!environnement Bilan : Pour planifier des mouvements et déplacements Pour réaliser des mouvements Pour se localiser Pour planifier / exécuter des tâches Traversabilité Orthoimages Amers Supports de navigation! Différents modèles organisés en «"couches"» MNT

Pourquoi la vision? Perception : «Acquisition et représentation des informations sur l environnement» Télémètre ultrasons Imageur radar

Pourquoi la vision? Perception : «Acquisition et représentation des informations sur l environnement» Télémètre laser («"nappe plane"») Télémètre laser («"3D"»)

Pourquoi la vision? Perception : «Acquisition et représentation des informations sur l environnement» Télémètre laser («"3D"»)

Pourquoi la vision? Perception : «Acquisition et représentation des informations sur l environnement» Télémètre laser («"3D scannerless"»)

Pourquoi la vision? Perception : «Acquisition et représentation des informations sur l environnement» Cameras : bas coût, légères et peu gourmandes en énergie Micro UAVs Perçoivent des données : Dans un volume Très loin Très precisément 1024 x 1024 pixels 60º x 60º FOV 0.06 º pixel resolution (1.0 cm at 10.0 m) La perte de profondeur n!est (presque) plus une difficulté Les images contiennent un énorme volume d!informations Un corpus très conséquent a été développé en vision par ordinateur

Stéréovision Du grec «"stéréo"», solide, espace : «"Perception de l!espace par vision"» Premier moyen de mesure des distances à distance

Stéréovision Du grec «"stéréo"», solide, espace : «"Perception de l!espace par vision"» Premier moyen de mesure des distances à distance b % Stéréovision = triangulation B c # a %= Bsin# (1/tg + 1/tg# )

Stéréovision Deux moyens différents de faire de la stéréovision : 1. Stéréovision binoculaire Deux caméras Base de triangulation fixe et connue («"calibrée"») Nombreuses variantes Dispositifs commerciaux

Stéréovision Deux moyens différents de faire de la stéréovision : 2. Stéréovision en mouvement Une seule caméra en déplacement Base de triangulation variable, à estimer

Stéréovision binoculaire En deux dimensions (2 caméras linéaires) : Centre des images # Image gauche d Image droite Camera gauche b Camera droite 2 angles, une distance : Disparité! Deux problèmes à résoudre : 1. Estimation de la géométrie du système 2. Mise en correspondance d!éléments entre les deux images

Stéréovision binoculaire En trois dimensions (2 caméras matricielles) : p1 p2 Image gauche Image droite 4 angles, une transformation 3D (3 angles et 3 distances)

Modèle géométrique d!une caméra Modèle «"sténopé"» («"œil étroit"») Projection perspective Modèle géométrique : (u,v) = P(x,y,z)

Modèle géométrique d!une caméra Détermination des paramètres du modèle : calibrage Principe 1. Acquisition d!une série d!images d!une mire de calibrage connue 2. Extraction de points particuliers dans les images 3. Appariements entre points image et points de la mire 4. Application d!une technique de minimisation Exemples de mires Problème maîtrisé, quelques outils disponibles en ligne

Géométrie de la stéréovision P P 1 P 2 p l x O l z y p r p r1 p r2 z x y O r

Géométrie de la stéréovision Q P Q r x O l z y p l p r Q l z x y O r

Géométrie de la stéréovision R Lines épipolaires x O l z y z x y O r Epipôles! Notion de géométrie épipolaire

Géométrie de la stéréovision Caméras convergentes : Mouvement parallèle au plan image

Géométrie de la stéréovision Caméra en rapprochement :

Géométrie de la stéréovision Contrainte épipolaire : I d m g C g I g Cd Ligne épipolaire pour le point m g. Contrainte épipolaire : le correspondant d un pixel de I g se trouve dans I d sur la ligne épipolaire définie par C d, C g et m g Si x g et x d sont images d un même point 3D alors : F est la matrice fondamentale x Fx t d g = 0

Le problème : Mise en correspondance?

Problème «"mal posé"» : Mise en correspondance Bruit, ambiguïtés, imprécisions (variations radiométriques) Difficulté très variable selon : Le «"contenu"» des images (zones homogènes, textures, contours ) Le type des images (noir&blanc, couleur, IR ) Le type d!environnement (indoor, outdoor, structuré ou non, terrestre, aérien, ) Les différences de point de vue Les occultations Problème de grande dimension

Mise en correspondance Que mettre en correspondance? Régions Segments Contours Pixels image gauche image droite Lien entre mise en correspondance et géométrie : Si géométrie connue, mise en correspondance facilitée Si primitives mises en correspondances, possibilité de déterminer la géométrie

Stéréovision binoculaire dense Objectif : mettre en correspondance l!ensemble des pixels d!une paire stéréoscopique Première étape : rectification des images Application d!une transformation au couple d!images afin que les lignes épipolaires soient parallèles aux lignes des images. e e (revient a rejeter les épipoles a l infini) Pourquoi rectifier les images? Faciliter les traitements de mise en correspondance Faciliter la triangulation

Stéréovision binoculaire dense Première étape : rectification des images Avant Après

Stéréovision binoculaire dense Deuxième étape : mettre en correspondance les pixels 0 9 9 0 9 4 6 9 8 6 7 8 2 9 7 3 6 3 Left line 5 7 9 1 0 3 6 8 5 6 9 3 6 9 4 7 5 3 Right line??? Principe : pour chaque pixel de I g, trouver le pixel de I d qui lui correspond Après rectification : recherche du pixel sur la même ligne Simple comparaison de pixels un à un : trop ambiguë! comparaison de voisinages 3 4 5 6 3 7 6 8 9 0 9 8 8 9 7 6 2 3 5 6 6 5 7 0 9 8 7 6 3 6 4 7 6 8 0 6 9 8 6 2 7 8 4 6 7 4 5 3 1 9 4 7 6 5 6 6 8 8 0 9 7 8 8 7 6 3 2 5 7 6 5 7 1 9 7 7 6 2 5 4 8 6 7 0 6 7 9 6 3 7 8 4 5 7 7 5 3 1!? 2 +1 M

Stéréovision binoculaire dense Deuxième étape : mettre en correspondance les pixels Comparaison directes des radiométries : + M + M 1 =! y x=! M y=! M scorep (, p2) I ( u1! x, v1! y)! I ( u2! x, v2 score + M + M 1, p2) = 1 1 2 2 ) x= M y= M ( p!! ( ) 2 I ( u x, v y) I ( u x, v y ) SAD SSD! ZNCC : score( p 1, p 2 ) = 1 N # x,y score( p 1, p 2 ) = I(u 1 x,v 1 y)i(u 2 x,v 2 y) 1 N # x,y 1 # I(u N 2 1 x,v 1 y) # I(u 2 x,v 2 y) 1 2 I(u 1 " x,v 1 " y)i(u 2 " x,v 2 " y) " µ 1 µ 2 $ 1 $ 2 x,y x,y

Stéréovision binoculaire dense Deuxième étape : mettre en correspondance les pixels Un tout autre moyen (non-paramétrique) de mesurer la ressemblance : 1. Transformée «"Census"» : Générer un mot de bits par comparaisons successives de la luminance du pixel central avec celles de pixels voisins 125 137 151 127 195 199 121 201 207 125 1 127 121 201 207 199 151 127 < 195 207 & 195 1 1 0 0 0 1 137 1 2. Comparaison de deux pixels individuels : distance de Hamming 0 0 0 1 1 1 0 0 0 0 1 1 0 1 0 1 0 0 1 0 1 0 0 1 Distance = 3 3. Calcul des scores sur une fenêtre (idem scores paramétriques)

Stéréovision binoculaire dense Deuxième étape : mettre en correspondance les pixels Exemples de courbes de scores! Cas de faibles textures!

Stéréovision binoculaire dense Deuxième étape : mettre en correspondance les pixels Motifs répétitifs! Ocultations!

Stéréovision binoculaire dense Deuxième étape : mettre en correspondance les pixels Trop de seuils (paramètres), difficilement gérable! Application de la contrainte d unicité d gd (x g,y g ) = u ssi d gd (x g,y g ) = - d dg (x g + u,y g )!

Stéréovision binoculaire dense Deuxième étape : mettre en correspondance les pixels Trop de seuils (paramètres), difficilement gérable! Application de la contrainte d unicité d gd (x g,y g ) = u ssi d gd (x g,y g ) = - d dg (x g + u,y g )!

Stéréovision binoculaire dense Troisème étape : triangulation Images rectifiées : on se ramène à une triangulation dans le plan Centre des images Image gauche Z Image droite Camera gauche b Camera droite Z = b d Disparité

Stéréovision binoculaire dense Complexité algorithmique : cubique! Disparités Colonnes Lignes 1:1 1:2 1:4 1:8 ZNCC (ms) Census (ms)rectif (ms) 59150 5320 560 70 40840 4600 470 70 300 60 10 1 image size (pixel) 572x768 286x384 142x192 70x96! Développement d une approche pyramidale : focalisation du domaine de recherche des disparités

Stéréovision binoculaire dense Difficultés 1. grossissement des obstacles 2. Vaguelettes Image gauche Points 3D 3. Lissage des discontinuités 4. Absence de données 5. Calibration

Fil conducteur Introduction Modélisation d environnement par vision Quels modèles sont nécessaires? Pourquoi la vision? Stéréovision Exemples d algorithmes de modélisation

Modèle de traversabilité 1. Discrétisation de la zone perçue 2. Étiquetage probabiliste

Modèle de traversabilité 1. Discrétisation de la zone perçue 2. Étiquetage probabiliste Pixels corrélés Classes déterminées (vue du dessus) Classes déterminées (reprojection dans l image)

Modèle de traversabilité 3. Fusion des probabilités lors des déplacements

Introduction de la texture Modèle de traversabilité

Modèle numérique de terrain DEM: z = f ( x, y) on a regular Cartesian grid Ground rover case: Varying resolution Imprecision on the data uncertainties in the values

Modèle numérique de terrain Data uncertainties, vertical features and overheads: occupancy 3D grid Simulation results on a 2D profile: One acquisition Fusion of 36 acquisitions Update strategy Bayes Dempster-Shafer

Modèle numérique de terrain 3D grids require huge memory current solutions: 1. Simple averaging 2. Weighted averaging Elevations are fused with a weight proportional to their uncertainty

Modèle de traversabilité : autre approche Sur la base d un MNT, évaluation des positions acceptables

Modèle de traversabilité : autre approche Sur la base d un MNT, évaluation des positions acceptables

Fil conducteur Introduction Modélisation d environnement par vision Quels modèles sont nécessaires? Pourquoi la vision? Stéréovision Exemples d algorithmes de modélisation Localisation par vision Modélisation et localisation simultanées

Fil conducteur Introduction Modélisation d environnement par vision Localisation par vision Le problème de la localisation Localisation en robotique mobile Odométrie visuelle Modélisation et localisation simultanées