Université des Sciences et Technologies de Lille 1 UFR Informatique. Projet scientifique de Master 2 Image, Vision, Interaction.

Dimension: px
Commencer à balayer dès la page:

Download "Université des Sciences et Technologies de Lille 1 UFR Informatique. Projet scientifique de Master 2 Image, Vision, Interaction."

Transcription

1 Université des Sciences et Technologies de Lille 1 UFR Informatique Projet scientifique de Master 2 Image, Vision, Interaction Année 2012/1013 Reconstruction de scène réaliste via Kinect c Amélioration du rendu des textures plaquées dans une scène observée avec une Kinect c et reconstruite avec PCL Réalisé par : Sébastien Guillaume Marc Poulmane Dauster Amberg

2 Remerciements Nous remercions les enseignants qui nous ont suivi pendant toute la durée du projet, pour leurs conseils et leurs soutiens dans les moments difficiles. Olivier Damien Ludovic Géry François Losson Marchal Macaire Casiez Cabestaing Nous remercions également nos collègues de la promotion IVI. Philippe Alix Cyprien Kevin Jacquet Goguey Cuvillier Pollaert

3 Table des matières 1 Introduction Contexte Les caméras de profondeur et la reconstruction 3D Kinect c Point Cloud Library KinFu et KinFu Large Scale Libfreenect Problématique Objectifs État de l art Présentation de la Kinect c Caractéristiques techniques Caméra de profondeur Kinect Fusion Opérations principales Pipeline de Kinect Fusion PCL, KinFu et KinFu LargeScale Point Cloud Library (PCL) KinFu KinFu LargeScale Kintinuous RGB-D mapping Contribution Étude et amélioration du signal RGB Étude de l impact de la balance des blancs, de la correction de couleur et de l exposition sur la qualité de l image RGB Contrôle des paramètres d acquisitions des images dans KinFu LargeScale Etude et amélioration du plaquage des textures Etude de l impact de la résolution de la matrice TSDF Étude de la dérive de la pose estimée avec les scènes Blender Amélioration de l algorithme de plaquage des textures Résultat Résultats et validations Comparaison de notre méthode de plaquage de texture avec celle de KinFu Les limites de notre méthode Conclusion Rappel de la problématique Récapitulation des contributions et des résultats Vers d autres solutions

4 Table des figures 1 Déformation dans la reconstruction 3D Textures incohérentes Exemple Kinect Fusion Vision des infra-rouges de la Kinect Calcul de la disparité Filtrage bilétérale Image de profondeur Stockage de la surface du modèle Visibilité de texture Problème d alignement Correction de la trajectoire Rendu KinFu avec auto-exposition Protocole d acquisition Scène texturée sans auto-exposition Débordement de texture sur les objets voisins Impact de la résolution de la matrice TSDF Impact de la résolution de la matrice TSDF sur une scène réelle Problèmes d alignement de texture Scène virtuelle sous Blender Déformation de perspective Débordement des contours Dérives de la pose caméra sur les axes de translation Erreur instantanée Scène virtuelle et modèle reconstruit Erreur sur un axe Minimisation du risque d erreur Effet de la méthode de tri Multi-Band Blending Hypothèse pour le débordement Pipeline Kinect Fusion

5 1 Introduction 1.1 Contexte La reconstruction 3D d une scène à l aide d outils d acquisition optique se développent de plus en plus depuis la dernière décennie. Il existe de nombreuses méthodes de reconstruction 3D dont certaines seront développées dans le chapitre «État de l art». La démocratisation de ces dispositifs optiques ont amené les chercheurs à trouver des solutions plus robustes en raison de leurs caractéristiques (i.e. faible résolution, bruit sur l image plus significatif...). D ailleurs le sujet de notre étude porte sur l utilisation d un des dispositifs optiques grand public, la Kinect c avec l appui d une bibliothèque dédiée au calcul des nuages de points : Point Cloud Library ( PCL). Cette dernière contient un module nommé KinFu, doté d outils pour la reconstruction de volumes et de textures. Nous verrons que les méthodes actuelles ne sont pas précises avec ce type de caméra de profondeur. Nous nous intéresserons ici à la qualité du rendu des textures dans la reconstruction, un critère selon nous des plus déterminant dans l appréciation d une scène 3D Les caméras de profondeur et la reconstruction 3D La reconstruction 3D permet de recréer un modèle 3D d une scène réelle. Elle peut être vue comme le pendant tridimensionnel des scanners 2D utilisés en bureautique. Il n existe pas à l heure actuelle de solution parfaite. Il y a deux familles de reconstruction 3D, l une est dite passive et l autre active. Dans les deux cas, un ou plusieurs capteurs optiques sont employés dans le processus. Ce qui diffère, ce sont les types de capteurs et les informations qu ils récupèrent. À noter que dans le cadre du projet, nous partons du principe que l espace de la scène est invariant dans le temps, c est-à-dire que les objets sont parfaitement immobiles. Lorsque ce n est pas le cas, on parle de reconstruction nonrigide. Ceci n entre pas dans le cadre du projet. La reconstruction passive se base sur des images couleur définies par les composantes Rouge, Verte (Green en anglais) et Bleue (RGB) de la scène. On la nomme passive car cette méthode consiste en une ou plusieurs caméras RGB qui se contentent de «regarder» la scène. À partir de ces informations, la scène est reconstruite soit par des images stéréoscopiques (association de deux images) ou par une vidéo. Cette méthode, bien que très simple et accessoirement peu onéreuse, a l inconvénient majeur d être très sensible aux phénomènes de la physique de la lumière comme le spéculaire et la réfraction. La reconstruction active implique l utilisation d émetteurs de rayonnement électromagnétiques (e.g. les lasers, les micro-ondes) ou même d onde mécanique comme les ultrasons. Grâce à la physique propre au rayonnement électromagnétique en utilisant des méthodes comme le temps de vol (Time-Of-Flight, TOF) ou la carte des disparités, on peut déterminer une distance entre le capteur et la surface rencontrée par le rayon. C est donc un émetteur à rayonnement électromagnétique ou onde, projetant dans plusieurs directions des rayons, formant des points dans la scène qui sont perçus par un ou des capteurs ayant la sensibilité au spectre adéquat. C est pourquoi on parle de reconstruction active, car une donnée supplémentaire est injectée dans la scène. Cette méthode est 3

6 bien plus précise mais plus complexe à mettre en place à cause de la calibration entre le capteur et l émetteur. La Kinect c possède une caméra RGB et une caméra de profondeur (émetteur/capteur infra-rouge), ce qui signifie que ces deux méthodes, en théorie, peuvent être mises en place. Dans le cadre du projet Kinect Fusion de Microsoft, il s agit bien d une reconstruction active Kinect c La Kinect c est un dispositif d acquisition optique développé par Microsoft en Elle est popularisée au sein du grand public par son usage dans le divertissement. La version pour PC avec son kit de développement, sortie l année suivante l a rendue également populaire dans la communauté scientifique ainsi que chez les développeurs indépendants. Le chapitre 2.1 détaillera les caractéristiques et le fonctionnement de la Kinect c Point Cloud Library PCL est un projet open source développé pour le traitement des nuages de points. Le framework comporte de nombreux modules ayant chacun un rôle dans la chaîne de traitement (e.g. la représentation d une image de profondeur) ou ayant des fonctions très spécifiques (e.g. le module gérant les octrees pour la recherche de points dans un nuage). PCL utilise OpenNI pour communiquer avec la Kinect c. Dans le cadre de notre projet de recherche, nous nous intéresserons à une partie spécifique seulement consacrée à Kinect c KinFu et KinFu Large Scale L une des composantes essentielle et principale du projet est KinFu et KinFu LargeScale. Ces modules de PCL sont basés sur les travaux Kinect Fusion de Microsoft [3, 5]. KinFu contient un ensemble d outils pour reconstruire un modèle 3D d une scène via la Kinect c. Il travaille sur un volume restreint de la scène. KinFu LargeScale est une extension de KinFu qui permet de reconstruire plusieurs volumes et donc des espaces plus grands. Il possède aussi un outil permettant de texturer le modèle reconstruit Libfreenect La bibliothèque Libfreenect a été développé par la communauté OpenKinect. Elle contient toutes les fonctions pour manipuler la Kinect c. La plupart des fonctions ont été déduites empiriquement. Elle permet de manipuler bien plus de fonctions du dispositif que OpenNI (pour les versions inférieures à la 2). 1.2 Problématique Le passage du monde physique continu à celui du numérique discret comporte des erreurs de précisions. Les démonstrations existantes mettent en évidence deux types d erreurs [2, 4] liées notamment aux bruits présents sur les données issues des caméras de profondeur et au manque de robustesse des algorithmes. La première est l erreur liée 4

7 au modèle. C est-à-dire que le modèle reconstruit n est pas totalement exact, il peut comporter des surfaces manquantes, des déformations d échelle ou des déplacements de géométrie, comme nous pouvons le voir dans la figure 1. Figure 1: Exemple de l acquisition 3D d un couloir. Mise en évidence de la dérive de la pose estimée et de la déformation du modèle dues à l algorithme de reconstruction et aux bruits présents sur les données Le second problème concerne les textures, en particulier des soucis d alignement et de cohérence entre les textures (figure 2). 5

8 Figure 2: Mise en évidence des débordements de textures et des discontinuités de luminance et de balance des blancs dans un modèle texturé. Notre problématique est d améliorer l algorithme de plaquage de texture de KinFu LargeScale pour le rendre plus efficace face à des modèles 3D imparfaits et de supprimer, ou du moins réduire, ces défauts. 1.3 Objectifs Plusieurs recherches ont été menées sur les caméras de profondeur et la reconstruction 3D temps réel de scène en utilisant un dispositif muni d une caméra de profondeur et d une caméra RGB [2, 3, 5]. Microsoft Research a développé une méthode similaire utilisant leur dispositif Kinect c [5]. Nous décrirons la méthode employée dans la partie 2. Cette méthode est celle implémentée dans KinFu. Avec le projet Kinect Fusion, les chercheurs de Microsoft ont pour objectif d étendre les possibilités offertes par la Kinect c. KinFu utilise la caméra de profondeur de la Kinect c afin de créer un modèle numérique en 3D de la scène observée. Comme nous pouvons le voir dans la figure 3 la caméra RGB de la Kinect c n est pas utilisée dans le projet d origine. 6

9 Figure 3: Capacités de Kinect Fusion. L image RGB n est pas utilisée. Sur la base d un modèle 3D construit à l aide de l algorithme Kinect Fusion, nous voulons y plaquer des images acquises lors de la capture pour le texturer. Il faut répondre aux problèmes suivants : Cette texture ne doit pas faire apparaître les bords de l image à laquelle elle est associée. Les paramètres d acquisition doit être invariant pendant toute la saisie. Il ne doit pas avoir de décalage de la texture par rapport au modèle. Nous souhaitons ainsi qu un modèle reconstruit, à partir d une scène ne présentant pas de reflet et n ayant pas de variation dans ses conditions d éclairage, gagne en uniformité et en cohérence. 2 État de l art 2.1 Présentation de la Kinect c Dans le cas qui nous concerne, la Kinect c, dispositif accessible au grand public et facilement manipulable, est adaptée à la reconstruction 3D de scènes en intérieur. Elle est bien moins coûteuse qu un scanner 3D et c est ce qui a favorisé l émergence d une communauté très active autour de ce dispositif. Cependant ses avantages sont contrebalancées par la faible définition des images, la présence de bruits dans l image et la basse fréquence d acquisition entraînant une faible qualité des données. La Kinect c a d abord été conçu pour des interactions ludiques. Mais les données que la Kinect c est capable de gérer (par exemple carte de profondeur) apporte de nouveaux champs d application et de recherche dans le domaine de la reconstruction 3D [5]. Nous allons passer en revue les caractéristiques de la Kinect c [4] Caractéristiques techniques La Kinect c de Microsoft dispose d un capteur optique de profondeur constitué d un émetteur infra-rouge et d une caméra infra-rouge, ainsi que d une caméra RGB. Les deux 7

10 caméras ont des définitions d image différentes ( pixels pour la caméra RGB et pixels pour la caméra de profondeur) pour une fréquence d acquisition de 30 images par seconde Caméra de profondeur La caméra de profondeur permet d acquérir des mesures de distance. Celles-ci sont obtenu grâce à un émetteur infra-rouge qui projette dans la scène des faisceaux de lumières infra-rouges. La lumière est ensuite perçue par une caméra infra-rouge. Comme nous pouvons le voir dans la figure 4, les faisceaux projetés par l émetteur infra-rouge forment un motif de points particulier. Figure 4: Vision infra-rouge. Le réseau de points projeté par la Kinect c sert à déterminer les distances avec les surfaces de la scène. Ce motif, généré aléatoirement en usine, est connu par la Kinect c. Il sert à effectuer un calcul de corrélation entre le motif obtenu et le motif généré, afin d obtenir une carte des disparités. Un point de la carte des disparités est obtenu par triangulation entre les positions de la caméra infra-rouge, l émetteur infra-rouge et le point observé dans la scène. 8

11 Figure 5: Mesure de la valeur de disparité d [4]. Mise en évidence de la corrélation entre motif observé (Object plane) et le motif de référence (Reference Plane). La figure 5 représente la relation entre la distance à un point k de l objet et le capteur ainsi que la mesure de la disparité. A partir de cette information nous cherchons à déterminer les coordonnées dans l espace (XYZ) du point k. La distance Z k, qui corerespond à la distance au plan de l objet visé, se calcule avec l équation suivante : Z k = Z Z 0 fb d (1) Z 0, f et b sont des constantes qui peuvent être obtenues à partir de l étape de calibration. Les coordonnées X 0 et Y 0 peuvent être obtenues par les formules suivantes : X k = Z k f (x k x 0 + δx) (2) Y k = Z k f (y k y 0 + δy) (3) Où x k et y k sont les coordonnées images, x 0 et y 0 sont les coordonnées du point principale et δx et δy sont la correction de la distorsion de la lentille. Ainsi une carte de profondeur de la scène est obtenue à chaque acquisition. Elle est représentée par une image dans laquelle chaque pixel possède une valeur correspondant à la distance entre la caméra infra-rouge et le point observé. 2.2 Kinect Fusion Kinect Fusion est un algorithme permettant la reconstruction de modèles 3D à partir d une caméra de profondeur en temps réel. Afin de pouvoir l expliquer clairement, nous commencerons par détailler les opérations utilisées puis nous reviendrons sur les étapes de cet algorithme. 9

12 2.2.1 Opérations principales Filtre bilatéral de la carte de profondeur La carte de profondeur comporte des erreurs sous forme de bruits. Kinect Fusion réalise une correction par filtrage bilatéral. Ce filtre calcule pour un pixel donné sa nouvelle valeur en faisant la somme des valeurs de tous les pixels de l image pondérés suivant deux critères : la distance entre deux pixels dont l influence suit une fonction gaussienne ; la similarité entre deux pixels qui est la distance entre les valeurs de deux pixels. Ce filtre tend donc à se comporter comme un filtre gaussien dans une zone unie mais conserve les bordures. Figure 6: À gauche, l image d origine. À droite, l image corrigée par filtrage bilatérale. De la carte de profondeur au nuage de points La toute première étape consiste à établir une carte de profondeur suivant le fonctionnement que nous avons vu au début du document 2.1. Cette carte de profondeur se présente comme une image bitmap 16 bits en niveaux de gris (figure 7). La valeur du pixel indique sa profondeur. Plus le pixel a une valeur élevée, plus le point est éloigné de la caméra de profondeur et inversement, plus le pixel a une valeur faible plus le point est proche. Un pixel noir (valeur 0) signifie qu aucune mesure n a pu être faite. Les coordonnées x et y du pixel donnent sa position en abscisse et en ordonnée. 10

13 Figure 7: À gauche, la scène reconstruite par KinFu LargeScale. À droite, l image de profondeur en niveau de gris. Le nuage de points est reconstruit en prenant en compte de la résolution (w, h) de la caméra infra-rouge. Un pixel de coordonnées (x, y) T de valeur z (en mètre) est rétroprojeté : ( ) (2 x ) 1 x w z (2 y y ) 1 (4) h 1 Iterative Closest Point Iterative Closest Point (ICP) consiste à trouver dans le modèle en cours la position et l orientation du nuage de points courant qui minimisent la différence de distances des points avec ceux d un autre nuage. Comme son nom l indique, il s agit d une méthode itérative. Une première transformation est donnée puis itérativement, l algorithme trouve une meilleure position et rotation par une approche des moindres carrés. Il faut noter que la méthode part du principe qu il existe une correspondance possible parce que le mouvement de la caméra entre deux acquisitions est faible puisqu il s agit de calcul en temps réel. Pour calculer une itération dans ICP, nous avons besoin de deux carte de profondeur, une à l instant t qui est la dernière carte de profondeur et une autre à l instant t-1 qui est générée d après le modèle suivant la dernière estimation de pose. L appairage entre les deux cartes de profondeur est fait suivant : le pixel p i (x i,y i ) dans cette image correspond au pixel p i (x i,y i) dans la nouvelle carte de profondeur (dans la nouvelle saisie). La distance d erreur est calculée avec une méthode appelée «point-to-plane error». Pour chaque couple de points que nous avons déterminé, nous calculons la distance entre le point du modèle est la tangente du point du nouveau nuage de point. Afin d en améliorer la robustesse et la rapidité, nous avons trois définitions différentes de la carte de profondeur dont deux sont de plus basses résolution que l original. Nous générons un nuage de points à partir de la carte de profondeur de plus faible définition. L algorithme ICP est appliqué à ce nuage de points afin d avoir une première estimation. Lorsque l algorithme a convergé, nous passons au nuage de points généré de définition 11

14 supérieur et l algorithme ICP est rappliqué. Ce schéma est reproduit une troisième fois sur la carte d origine, à savoir celle de plus haute définition. Une fois la transformation optimale entre le nuage de point courant et le modèle est estimée, nous en déduisons le mouvement de caméra entre les deux instants t et t 1 en inversant la matrice de transformation précédemment trouvée. Matrice TSDF La matrice Truncated Signed Distance Function (TSDF) représente la distance signée entre un point et la surface la plus proche, où les valeurs négatives sont à l intérieur de l objet. Cette distance est ensuite tronquée pour qu elle soit comprise entre -1 et 1 inclus. La matrice TSDF est un cube de dimensions métriques déterminées. Ce cube est divisé en un nombre de voxels connu. Nous avons le même nombre de voxels sur chaque axe du cube. Elle est la structure utilisée dans Kinect Fusion pour contenir le modèle en cours de reconstruction. Chaque voxel de ce cube contient la TSDF entre centre et la surface la plus proche. La surface des objets est l iso-surface en 0 (figure 8). Cette matrice est stockée en mémoire graphique pour permettre sa mise à jour en temps réel. Figure 8: Principe de fonctionement d une matrice TSDF dans Kinect Fusion. 2.3 Pipeline de Kinect Fusion L algorithme Kinect Fusion (annexe 30) commence par acquérir la carte de profondeur de la Kinect c. Afin de limiter l impact du bruit, la carte de profondeur est filtrée au moyen d un filtre bilatéral(2.2.1). De cette image filtrée est générée une pyramide gaussienne à trois niveaux où la définition de l image est diminuée à chaque fois par quatre. De ces trois images de profondeurs est déduit trois nuages de points suivant la méthode énoncée plus haut (2.2.1). Une information de normale est aussi associée à chaque point pour préparer le calcul de distance fait dans ICP Lors de la première itération de Kinect Fusion, la trajectoire de la caméra est initialisé avec une pose initiale (habituellement (1.5, 1.5, 0.3) T pour une matrice TSDF de 12

15 dimensions mètres). Le nuage de points de plus haute définition est ensuite utilisé pour mettre à jour la valeur des voxels de la matrice TSDF. Concernant les itérations suivantes, une estimation de pose est faite entre les trois nuages de points courants et trois nuages de points générés à partir du modèle en cours de construction. La nouvelle pose est d abord assumée être égale à l ancienne, puis déterminée par ICP. La matrice TSDF est finalement mise à jour par moyenne pondérée. 2.4 PCL, KinFu et KinFu LargeScale Maintenant que nous avons vu le fonctionnement de la Kinect c et Kinect Fusion, nous allons voir son implémentation avec la bibliothèque PCL Point Cloud Library (PCL) PCL est un projet open-source sous licence BSD à grande échelle pour le traitement des nuages de points dans un environnement 3D. Ce projet est développé et financé par de grands groupes industriels et de recherche à travers le monde. Il contient de nombreux modules permettant d effectuer différentes opérations comme le filtrage, la reconstruction, la segmentation, etc... Il est utilisable sur toutes les plateformes courantes (Windows, Mac OS et Linux) KinFu KinFu est l implémentation sous PCL du projet de recherche Kinect Fusion d une équipe de recherche de Microsoft afin de réaliser la reconstruction 3D avec la Kinect c KinFu LargeScale La communauté du projet PCL a étendu les possibilités de KinFu afin de reconstruire des scènes de très grandes tailles et de plaquer les textures dans le modèle reconstruit. Il s agit de KinFu LargeScale (KinFu à grande échelle). Reconstruction de l ensemble du modèle KinFu reconstruit la scène dans un modèle ayant un espace fini. Cet espace est un cube d une taille définie par l utilisateur. Au début de l acquisition, il n y a donc qu un seul cube. KinFu LargeScale ajoute de nouveaux espaces cubiques dès que nécessaire lorsque la caméra se déplace dans le cube courant et dépasse le seuil de changement de volume. Afin de réduire les imprécisions, ce cube est divisé en voxels (pixel volumétrique). Le nombre de voxels définit la résolution. Chaque voxel stocke une distance signée entre le lui et la surface la plus proche détecté par la Kinect c. Cette valeur est bornée pour être comprise entre -1 et 1. Une valeur positive indique le voxel est devant la surface. Une valeur négative indique que le voxel est derrière une surface. Plus le voxel se trouve proche de la surface, plus cette valeur approche 0. La valeur 1 indique donc que c est du vide. Cette technique se nomme Truncated Surface Distance Function (TSDF). Le modèle visuel est reconstruit par un algorithme de type marching-cube. Lorsqu une partie de la scène est acquise à nouveau, les valeurs des voxels concernées sont mises à jour par un calcul de moyenne pondérée. Le modèle est visualisé avec un algorithme de ray-casting. 13

16 Lors du dépassement du seuil de changement de volume, les données présentes dans le volume en cours sont copiés dans un modèle monde et le volume est ensuite centrée sur la caméra. Reconstruction de la texture Au cours de l acquisition de la du modèle 3D et à intervalle de temps paramétrable, une image RGB est acquise par la caméra RGB. Cette image est associée à une pose de la caméra dans l espace, à savoir les 6 degrés de liberté (translations et rotations). Nous obtenons un ensemble numéroté de fichiers PNG (Portable Network Graphics) associés à un fichier texte contenant les paramètres extrinsèques de la caméra. Ces images sont utilisées comme texture lors de la reconstruction du modèle. Pour chaque caméra, le modèle est placé de manière à être dans la bonne position et rotation relativement à la caméra. Ensuite, pour chaque face du modèle, la texture est projetée, si elle existe (figure 9). S il n y a aucune occlusion entre la face et la caméra, chaque sommet reçoit des coordonnées de textures. Les faces dont aucune texture n est projetée sont associées à une texture vide. Figure 9: Le modèle doit être placé relativement à la pose de telle manière à ce que la position et la rotation relative avec la caméra soit identique qu au moment de l acquisition. Ensuite, la texture est tout simplement projetée sur chaque face entièrement visible Kintinuous Comme KinFu, Kintinous se base sur les travaux de Kinect Fusion. Il se présente comme une solution modulaire où chaque partie travaille en parallèle [?]. Une fenêtre d espace du TSDF est mise à jour à partir d un certain seuil de distance entre la position d origine de la caméra dans cet espace du volume de la matrice TSDF et la position actuelle de la caméra. Cela lui confère une meilleure robustesse sur des espaces très grands. L une des composantes, Fast Odometry from Vision (FOVIS), permet de diminuer la dérive spatiale. La version actuelle ne prend pas en compte la fermeture de boucle comme pour RGB-D mapping. 14

17 2.4.5 RGB-D mapping Le RGB-D mapping, décrit dans l article [2], utilise conjointement les données RGB, et de profondeur pour l estimation de la scène. Il fait apparaître la notion de «surfels». Ce sont des patches colorés qui s adaptent selon la résolution des données. Dans le cas de KinFu, nous utilisons un plaquage de textures associés à une pose caméra. Dans l image RGB courante et précédente, nous extrayons des points d intérêt que nous mettons en correspondance avec un algorithme de type ICP qui prend en compte les composantes couleurs. Le processus est accéléré par un algorithme de type RANdom Sample And Concensus servant à extraire une caractéristique parmi un ensemble de donnée éparse. L une des problématiques à laquelle la technique RGB-D mapping répond est l alignement globale du modèle (figure 11). En effet, lors de l acquisition d une scène avec KinFu, un problème de cohérence est constatée lorsque nous revenons à la position de départ (figure 10). Cette technique permet de détecter une boucle à partir des images RGB. Lorsqu on détecte une boucle, c est à dire quand deux images RGB ont des caractéristiques identiques, un alignement globale est appliquée à toute la scène afin de préserver la cohérence. Les erreurs d alignement sont imputées à l ICP et sont perceptibles sur des scènes de grandes tailles. Figure 10: Sur l image de gauche, nous avons un bouclage et nous observons sur les bords une partie du modèle qui ne devrait pas s y trouver. Sur l image de droite, la carte de profondeur telle observée par la Kinect c. 15

18 Figure 11: Sur l image de gauche, la trajectoire de la caméra estimée. Sur l image de droite, la trajectoire de la caméra corrigée après la détection de la boucle Contribution Étude et amélioration du signal RGB Étude de l impact de la balance des blancs, de la correction de couleur et de l exposition sur la qualité de l image RGB Nous avions besoin de déterminer quels paramètres entrent en jeu dans l acquisition des images et qui entrainent de forte variation de lumière d une image à l autre. La figure 12 illustre ces variations entre deux acquisitions d images successives. Figure 12: Rendu KinFu avec auto-exposition. Mise en évidence de la variation des conditions d acquisition des images au cours du temps Nous avons fait varier les paramètres disponibles avec Libfreenect qui ont un rapport direct avec la qualité de l image RGB. Pour déterminer les plus significatifs dans la qualité 16

19 des images obtenues (auto-exposition, correction de couleur et la balance des blancs), nous avons effectué des tests d acquisition. Auto-exposition Correction de couleur Balance des blancs avec changement au cours du temps aucun changement aucun changement sans aucun changement aucun changement désaturation des couleurs Table 1: Evaluation des changements entre deux images lors d une acquisition avec ou sans les différents paramètres disponibles dans Libfreenect La conclusion que nous pouvons établir à ce niveau est que seule l auto-exposition varie dynamiquement au cours de l acquisition avec la Kinect c qui est la principale cause de discontinuité dans les textures. Ainsi le seul paramètre intéressant à contrôler Contrôle des paramètres d acquisitions des images dans KinFu LargeScale Dans la volonté de gérer les paramètres d acquisition des textures plus finement, nous avons substitué la bibliothèque OpenNI par la bibliothèque Libfreenect. En effet, la version actuellement supportée d OpenNI (version 1.5) ne permet pas modifier l exposition. Nous avons mis en place un premier protocole (figure 13) afin de pouvoir convertir les données RGB et les données de profondeur acquise par le biais de Libfreenect dans un format exploitable par KinFu LargeScale. Notre première approche à consister à substituer les images acquises par défaut dans KinFu LargeScale par les images obtenues avec Libfreenect. Cette technique demande de réaliser deux acquisitions de la même scène. Elle n est donc pas exploitable dans les conditions attendues d utilisation de KinFu. C est-àdire un utilisateur se déplaçant librement dans la scène, un tel parcours est impossible à reproduire deux fois de suite. Figure 13: Technique d acquisition utilisant Libfreenect dans le processus de création de scène texturé La méthode définie ci-dessus (figure 13) nous a permis d effectuer plusieurs acquisitions. Comme attendu, la désactivation de l auto-exposition permet d avoir des textures sans discontinuité de luminance (figure 14). 17

20 Figure 14: Scène texturée sans auto-exposition. Mise en évidence de la continuité en luminosité de la texture appliquée au modèle Nous avons par la suite amélioré la méthode d acquisition présentée plus haut dans cette sous-section afin de n avoir plus qu une seule étape d acquisition des données RGB et profondeur. Cette méthode est décrite dans le rapport technique. 3.2 Etude et amélioration du plaquage des textures Nous avons maintenant une texture continue en luminance sur notre modèle mais cela ne suffit pas car des défauts subsistent (figure 15). Afin de mieux les comprendre, nous avons traité deux hypothèses : comme une basse résolution de la matrice TSDF entraine une moins bonne conservation des angles et des coins des objets, cela pourrait provoquer le débordement des textures. Les imprécisions de l estimation de la pose entraine des défauts d alignement entre les textures et le maillage. Figure 15: Débordement de texture sur les objets voisins 18

21 3.2.1 Etude de l impact de la résolution de la matrice TSDF Contexte Notre première hypothèse a été que la trop basse résolution du modèle est en partie la cause des débordements de textures. En effet, la scène étant rendu avec un algorithme proche du «marching cube», les coins des objets sont arrondis. Nous avons donc supposé que l augmentation de la résolution de la matrice TSDF permettrait une meilleur conservation (par exemple, une erreur plus faible) des angles et donc pourrait permettre d éviter les débordements de texture. L exemple suivant (figure 16) montre l impact d une résolution faible du modèle et les déformations que cela entraine sur sa géométrie. Figure 16: Impact de la résolution de la matrice TSDF. Mise en évidence de la déformation du modèle après reconstruction Procédure Notre protocole a été de faire plusieurs reconstructions du modèle 3D en faisant varier la résolution de la matrice TSDF sur le même jeu de données. Nous avons pris trois résolutions de matrices pour le cube : 384, 256, 128 voxels par cotés. Les figures suivantes montrent l impact visuel sur le décalage de texture au niveau du clavier (figure 17) : 19

22 (a) Résolution de 128 voxels de côtés (b) Résolution de 256 voxels de côtés (c) Résolution de 384 voxels de côtés Figure 17: Impact de la résolution de la matrice TSDF sur une scène réelle Résultat Contrairement à nos attentes, l augmentation de la résolution de la matrice TSDF, entrainant une amélioration de la conservation des angles, ne semble pas résoudre le débordement des textures, ni même réduire ce problème. Nous aurions souhaité faire des tests avec des résolutions supérieures mais notre matériel (carte graphique) ne nous le permettait pas. A ce stade, nous ne pouvons pas conclure qu une matrice TSDF avec une résolution nettement supérieure aurait pu éviter ce genre de débordement Étude de la dérive de la pose estimée avec les scènes Blender Dans de nombreuses scènes reconstruites, nous constatons un décalage de textures dues à des erreurs d estimation de pose des caméras (figure 18). À chaque image RGB 20

23 acquise pour la texture, il est associé une pose caméra. C est une position relative à celle de départ. L estimation de pose est directement liée à l estimation ICP qui établit la correspondance spatiale d un nuage de points et un autre. Nous avons émis l hypothèse que l estimation de la pose (ICP) peut être faussée. Figure 18: Problèmes d alignement de texture dans une scène virtuelle sous Blender Contexte Nous avions alors besoin de vérifier comment se comporte l ICP en fonction des mouvements de la caméra et ainsi comparer la vraie valeur à celle trouvée par l ICP. Afin d avoir une maîtrise totale sur le mouvement de la caméra et le contenu de la scène, nous avons opté pour la réalisation d une scène sous Blender. En maîtrisant le mouvement de la caméra, nous connaissons à chaque instant la pose de la caméra. En maîtrisant la scène, nous nous assurons de son invariance dans le temps. Pour rappel, KinFu LargeScale est implémenté dans le cadre de la reconstruction rigide. L outil PCL pour capturer une scène est capable d interpréter en entrée des nuages de points. Nous utilisons en l occurrence une version spéciale de Blender appelée Blensor 1 capable d exporter un modèle au format PCD en simulant une Kinect c pour la caméra de la scène. La scène Blender provient du site thefree3dmodels.com (figure 19). Nous avons choisi cette scène en raison de sa topographie. Elle se constitue d un ensemble de parallélépipèdes imbriqués les uns sur les autres formant des cas simples pour l algorithme ICP. Par ailleurs, les motifs quadrillés caractéristiques des façades des immeubles nous permettent de visualiser facilement comment les textures sont appliquées. 1. http ://www.blensor.org/ 21

24 Figure 19: Scène virtuelle sous Blender Procédure Nous avons placé dans la scène Blender une caméra. Elle est animée par une simple translation couplée à une rotation sur l axe Y. Nous avons également une autre caméra avec une seule translation et aucune rotation. Chaque instant, un nuage de points et une image RGB est généré. Les nuages de points sont ensuite envoyés dans notre outil de conversion (décrit dans le rapport technique) afin qu ils soient lisibles par PCL qui à son tour prend ces nuages en entrée pour former les maillages finaux. Le mouvement de la caméra démarre avec une légère accélération et finit une légère décélération afin de connaître également l influence de la vitesse dans la précision de l ICP. Résultats Visuellement, la reconstruction semble correcte. La silhouette de la ville est reconnaissable. Cependant, lors de l affichage de la texture, des problèmes apparaissent. Les textures sont déformées à certains endroits notamment lorsqu il s agit de coins concaves (figure 20). Cela est notamment dû à la perspective. Lorsque la texture est projetée, celle-ci est conforme à un point de vue mais pas à un autre. La projection des textures sont sensibles à la perspective. 22

25 (a) La texture aux coins de l immeuble sont corrects de ce point de vu. (b) Dans un autre point de vu, la texture n est plus correcte. Figure 20: Déformation de perspective Il y a également du débordement de texture (figure 21). Cela arrive à cause des contours de maillages. Quand la texture est projetée sur le maillage, chaque pixel peut être associé ou non à un triangle. Or sur un contour, un pixel est à la fois sur un maillage et autre. Cette erreur de précision fait que certaines surfaces ont la couleur de bordures d un autre maillage. Figure 21: Débordement de texture des contours d une maillage À certains endroits du maillage, il y a des coupures dans la texture. C est-à-dire qu une 23

26 texture ne recouvre pas totalement certaines surfaces (figure 18). Nous avons récupéré les valeurs de la pose caméra à chaque instant sous Blender (figure 22) et celle calculée par PCL. Nous avons pu établir des graphes pour constater la dérive de l estimation de pose. Plus la caméra se déplace et plus la dérive augmente (figure 24). Cette croissance est quasi-linéaire par rapport au mouvement de la caméra. Figure 22: Dérives de la pose caméra sur chacun des axes de translation dans le temps 24

27 Figure 23: Erreurs instantanées et distance entre l estimation et la réalité Figure 24: Scène virtuelle en bleue et le modèle reconstruit en rouge superposée. Cette capture d écran montre les bâtiments les plus éloignées de la première pose caméra. Dans la figure 25, nous pouvons voir en évidence deux pics sur la dérive en X et en Y. Ces pics interviennent exactement au déclenchement d un déplacement de l espace de travail de la matrice KinFu LargeScale. Ce phénomène n explique pas les coupures de textures car les cubes n intersectent pas avec ces coupures. En revanche, le graphe (figure 25) montre que plus la vitesse est grande, plus la dérive est importante. Nous rappelons que la caméra démarre avec une accélération progressive et s arrête avec une décélération progressive. La dérive se produit même sur les axes où il n y a aucun mouvement. 25

28 Figure 25: Erreur de la pose caméra sur chacun des axes pour une caméra ayant un mouvement de translation sur un seul axe (X) L ICP n est pas totalement précis cependant la plupart des textures sont présentes et recouvrent les surfaces auxquelles elles sont associées. Les problèmes liés à la perspectives ne sont pas dues à l ICP et nous avons vu que les problèmes de coupures n ont pas de lien avec l ICP non plus. Cependant nous avons démontré qu ICP entraine une dérive de l estimation ce qui entraine des déformations sur le maillage Amélioration de l algorithme de plaquage des textures Compte tenu de nos études, nous n avons pas réussi à déterminer un facteur qui entrainerait des problèmes de débordement ou de décalage dans les textures plaquées au modèle. Nous savons cependant que l estimation de pose dérive. Nous avons donc chercher à mettre en place un système de tri entre les images à plaquer pour chaque face du maillage. Le critère de tri devrait favoriser les images entrainant potentiellement le moins de débordement et de décalage. Ce risque peut être diminué en choisissant l image proposant l angle d incidence le plus droit pour une face donnée 26. La droite formée par le centre de la caméra et le barycentre de la face et la normale de cette face doivent être le plus aligné possible. 26

29 Figure 26: Impact de l erreur de pose sur le décalage de texture pour un pixel central. En noir : Pose réel de la caméra et plaquage de son pixel central. En rouge : Estimation de la pose faite par KinFu et plaquage de son pixel central. Pour une même erreur dans l estimation de pose, le décalage de texture est minimal lorsque la face texturée est face à la caméra (l erreur est inférieur sur la face (A) à l erreur sur la face (B)). Nous avons implémenté ce tri dans l outil de plaquage des textures de KinFu LargeScale. Nous avons fait en sorte que le critère soit facilement modifiable dans le code. 4 Résultat 4.1 Résultats et validations Comparaison de notre méthode de plaquage de texture avec celle de KinFu Comme nous l avons vu, l exposition est automatique dans le processus d acquisition des images au sein de l implémentation actuelle de KinFu. Nous avons choisi de supprimer l ajustement automatique du temps d exposition pour garantir la continuité en luminance des textures dans le modèle 3D final. Nous avons améliorer l algorithme de sélection de textures pour chacune des faces. Comme nous pouvons le voir dans la figure 14, les frontières visibles entre deux textures issues d images différentes sont correctement supprimées. 27

30 (a) texturation sans tri proposé par PCL (b) texturation avec un tri Figure 27: Les jeux de données utilisés sont strictement identiques Le critère mis en évidence dans la partie précédente (3.2.3) permet d avoir un résultat nettement plus précis. Lors de la reconstruction d une scène réelle, l amélioration est bien plus significative Les limites de notre méthode Problème de sur et sous-exposition L exposition étant constante au cours du temps, nous nous retrouvons avec des problèmes de surexpositions et de sous-exposition (figure 28) correspondant aux variations d intensité de lumière (par exemple la lumière du jour). Une piste a étudier pour palier à ce genre de problèmes serait de remettre l exposition automatique et de compenser les différences par un contrôle plus fins des paramètres de la caméra RGB et d y associer une méthode de mélange de texture [1]. 28

31 (a) Avant correction (b) Après correction Figure 28: Compensation des variations d expositions avec du multi-band blending, une méthode efficace de mélange d image Problème liés au critère de tri des images Le critère utilisé est trop simple et ne permet pas de prendre en compte correctement un maillage bruité ou une surface avec des angles doux. Il faudrait se baser sur la normale du triangle que nous voulons texturer et de la normale de ses voisins pour le calcul d incidence. Il faudrait également compléter ce critère avec d autre comme la distance entre la caméra et le triangle, éviter des images floutées ou avec de faibles contrastes, forcer des triangles voisins à avoir la même image de plaqué. Voir la présentation faite dans la LC3D 2012, par Hannemann et Brock Short Survey of Texturing Methods for Meshes and Large Sets of Registered Images Problème de «débordement continu» Le plaquage de texture de la scène virtuelle suivant notre méthode a permis de mettre en avant le fait que le débordement de texture était potentiellement présent sur tous les contours. Cela nous permet de mieux comprendre cerner les paramètres en cause dans ce problème. Nous pensons que le problème qu étant donné que les contours des objets sur les images RGB sont crénelés de par la nature même des images là ou un maillage contient des contours droits. Un sommet du maillage peut donc très bien être visible car juste à coté d un contour d un objet. Néanmoins, ses coordonées UV peuvent être dans un pixel où la couleur n est pas celle de l objet auquel le sommet appartient à cause des bordures crénelées des images RGB. 29

32 Figure 29: Le sommet de la face lointaine Nous proposons comme test à effectuer pour confirmer cette hypothèse la texturation d un maillage avec peu de faces et de le comparer avec des versions texturées du même maillage où chaque face seraient subdivisée plusieurs fois. Si notre hypothèse est vrai, l effet de débordement serait plus apparent 5 Conclusion 5.1 Rappel de la problématique La Kinect c a rendu la reconstruction 3D accessible. Des outils comme PCL, Libfreenect ou encore OpenNI permettent de faciliter l usage des dispositifs d acquisition servant à la reconstruction 3D. Cependant, le passage du monde physique au numérique introduit des erreurs. Des algorithmes permettent de les corriger mais il n existe aucune solution parfaite. Le modèle reconstruit n est pas conforme dans la forme (le maillage) et l apparence (la texture). Après lecture de la littérature et observation des démonstrations, nous nous sommes penchés sur les problèmes qui touchent les textures. Nous y trouvons des problèmes d alignement par rapport au maillage et de cohérence entre les textures. Notre objectif a donc été d étudier ces problèmes et de proposer une amélioration. 5.2 Récapitulation des contributions et des résultats Nous avons étudié les problèmes en essayant nous-même la librairie PCL. L autoexposition est responsable des discontinuités de luminance et de balance des blancs entre textures. En conservant les mêmes paramètres d acquisition, nous nous assurons d avoir une meilleure continuité de luminance. Cependant, certaines textures peuvent être surexposées ou sous-exposées. 30

33 L estimation de pose a été étudié dans une scène virtuelle et a permis de mettre en évidence sa dérive. Ceci a justifié la proposition d un algorithme de sélection de textures selon l angle formée par la normale de la face et la droite passant par le centre optique de la caméra et le barycentre de cette face. 5.3 Vers d autres solutions Nous avons également vu des solutions sur lesquelles nous aurions souhaitées approfondir davantage. Il s agit d une part de Kintinuous [6] qui se présente comme une version enrichie de KinFu LargeScale. Il dérive moins, il résiste mieux aux surfaces planes et il texture en temps réel. Il s agit aussi de RGB-D mapping [2] pour sa précision dans l estimation de la pose renforcée par la détection de fermeture de boucle. 31

34 Glossary PCL Point Cloud Library. Blender Application libre de modélisation et d animation 3D. caméra de profondeur Dispositif d acquisition de la profondeur sous forme d une matrice 2D. Les données de profondeur représentent la distance entre l optique et les surfaces dans la scéne. C est une combinaison entre des capacités matérielles (acqusition optique) et des capacités logicielles (déterminer les distnaces). Le produit est une carte de profondeur.. caméra RGB Dispositif d aquisition d image couleurs codant les couleurs dans l espace Rouge, Vert, Bleu. carte de profondeur Une carte de profondeur est une image qui contient des informations relatives à la distance des objets de la scène par rapport à la caméra.. coordonées UV Coordonées 2D d un point dans une texture.. ICP Iterative Closest Point. Kinect Fusion Algorithme proposé à l ISMAR 2011 par Microsoft Research [5] permettant la reconstruction temps réel d une scène via une Kinect c. KinFu Implémentation dans PCL de Kinect Fusion. KinFu LargeScale Extension de KinFu qui permet de gérer une scène plus grande et de plaquer les textures. Libfreenect Librairie open-source développée par la communauté OpenKinect afin de permettre des manipulations bas niveaux avec la Kinect c.. maillage Ensemble de sommets, arêtes et faces qui permettent de définir la forme d un ou plusieurs objet dans un espace â trois dimensions.. OpenNI Consortium chargé de promouvoir et standardiser les dispositifs, les librairies et les frameworks pour le développement d application à interactions dites «naturelles», c est-à-dire des interactions dont l utilisateur n a pas à utiliser explicitement un dispositif pour communiquer avec le système. La librairie OpenNI facilite la communication bas niveaux avec les dispositifs.. PNG (Portable Network Graphics) Format d image compressée sans perte. RANdom Sample And Concensus Algorithme extrayant une caractéristique parmi un ensemble de donnée éparse. Il supprime les données les plus éloignées de l ensemble (en anglais, outliers).. RGB images couleur définies par les composantes Rouge, Verte (Green en anglais) et Bleue. scanner 3D Dispositif d acquisition capable de capter les informations de surface d un volume et de reconstruire le modèle 3D complet de l objet scanné. Les scanners 3D actuels sont souvent des appareils lourds et coûteux.. 32

35 surfel Le surfel représente un ensemble de points. Il est déterminé par une taille, une orientation (de face), une taille et une couleur. C est une mesure de confiance qui augmente à mesure que le surfel est vu de différents points de vue.. temps de vol (Time-Of-Flight, TOF) Ensemble de méthodes qui permettent de mesurer le temps mis par un objet, particule ou onde pour atteindre une distance en traversant un milieu donnée. Ces méthodes peuvent être aussi utilisées pour mesurer la distance parcourue ou la vitesse acquise par l objet.. TSDF Truncated Signed Distance Function. voxel (volumetric pixel) L espace se définit comme une grille tridimenqionnelle et le voxel est une analogie du pixel de l espace bidimentionel. A l instar des pixels un voxel ne posséde pas de coordonnés dans l espace 3D. C est l encodage du fichier qui définit leur emplacement. Le voxel stocke un ensemble d informations (colorimétriques, voire temporelles, et facultativement, une taille relative à l unité utilisée ou d autres informations telles qu une matière).. Références [1] M. Brown and D.G. Lowe. Automatic panoramic image stitching using invariant features. International Journal of Computer Vision, 74(1) :59 73, [2] P. Henry, M. Krainin, E. Herbst, X. Ren, and D. Fox. Rgb-d mapping : Using kinectstyle depth cameras for dense 3d modeling of indoor environments. The International Journal of Robotics Research, 31(5) : , [3] S. Izadi, D. Kim, O. Hilliges, D. Molyneaux, R. Newcombe, P. Kohli, J. Shotton, S. Hodges, D. Freeman, A. Davison, et al. Kinectfusion : Real-time 3d reconstruction and interaction using a moving depth camera. In Proceedings of the 24th annual ACM symposium on User interface software and technology, pages ACM, [4] K. Khoshelham. Accuracy analysis of kinect depth data. In ISPRS workshop laser scanning, volume 38, page 1, [5] R.A. Newcombe, A.J. Davison, S. Izadi, P. Kohli, O. Hilliges, J. Shotton, D. Molyneaux, S. Hodges, D. Kim, and A. Fitzgibbon. Kinectfusion : Real-time dense surface mapping and tracking. In Mixed and Augmented Reality (ISMAR), th IEEE International Symposium on, pages IEEE, [6] T. Whelan, M. Kaess, M.F. Fallon, H. Johannsson, J.J. Leonard, and J.B. McDonald. Kintinuous : Spatially extended KinectFusion. In RSS Workshop on RGB-D : Advanced Reasoning with Depth Cameras, Sydney, Australia, Jul

36 Annexe 34

Exemples d'activités sur les images numériques

Exemples d'activités sur les images numériques Annexe 1 1 Accès aux composantes RVB d un pixel dans GIMP Pour agrandir l image : touche Ctrl maintenue enfoncée tout en tournant la molette de la souris, ou bien menu Affichage > Zoom > 1600 % Dans la

Plus en détail

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR Mickaël Bergem 25 juin 2014 Maillages et applications 1 Table des matières Introduction 3 1 La modélisation numérique de milieux urbains

Plus en détail

SLAM Visuel Embarqué sur un Robot Quadrupède

SLAM Visuel Embarqué sur un Robot Quadrupède Résumé du mémoire de soutenance pour le Diplôme d Ingénieur INSA de Strasbourg - Spécialité Mécatronique - Et le Master des sciences de l université de Strasbourg - Mention Imagerie, Robotique et Ingénierie

Plus en détail

Cahier. des charges. T.E.R. : Modélisation architecturale basée photo/vidéo. reconstruction intérieure basée profondeur

Cahier. des charges. T.E.R. : Modélisation architecturale basée photo/vidéo. reconstruction intérieure basée profondeur Cahier T.E.R. : Modélisation architecturale basée photo/vidéo reconstruction intérieure basée profondeur des charges Renaud Jean-Christophe Naville Vincent Explicitation du contexte Dans le cadre de notre

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

ALGORITHMES POUR LA VISUALISATION SCIENTIFIQUE

ALGORITHMES POUR LA VISUALISATION SCIENTIFIQUE BAZEILLE Stéphane MOUGEL Baptiste IUP3 ALGORITHMES POUR LA VISUALISATION SCIENTIFIQUE EN Année 2003/2004 1 TABLE DES MATIERES Home... 3 Introduction.... 3 Marching Square... 4 Algorithme....4 Programmation...4

Plus en détail

La visio-conférence holographique : Pourquoi? Comment?

La visio-conférence holographique : Pourquoi? Comment? La visio-conférence holographique : Pourquoi? Comment? Francis Felix Labo LSIS / Arts & Métiers Paritech (ENSAM) 2 Cours des Arts et Métiers 13100 Aix-en-Provence Thierry Henocque AIP-Primeca Dauphiné

Plus en détail

INFOGRAPHIE. Rapport du Projet de dessin 2D et 3D

INFOGRAPHIE. Rapport du Projet de dessin 2D et 3D Institut Galilée INFO 1 : Yohan ROUSSET Stéphane FOURNIER INFOGRAPHIE Rapport du Projet de dessin 2D et 3D Superviseur : R. MALGOUYRES Année 2008-2009 2 Table des matières I. Introduction... 4 II. Dessin

Plus en détail

Sujet E3A 2012 Physique (Seulement) Option MP

Sujet E3A 2012 Physique (Seulement) Option MP Sujet E3A 2012 Physique (Seulement) ption MP Première partie : Caméra de contrôle des plaques d immatriculation A / Propagation de la lumière A1. Question de cours : position de Bessel La position de Bessel

Plus en détail

Introduction à la Vision 3D

Introduction à la Vision 3D à la Vision 3D David Fofi Le2i UMR CNRS 6306 IUT Le Creusot Les applications présentées sont le fruit d une collaboration entre le Le2i et le laboratoire VICOROB de l Université de Gérone (Espagne). Les

Plus en détail

IMN459 - Fondements de la vision par ordinateur

IMN459 - Fondements de la vision par ordinateur IMN459 - Fondements de la vision par ordinateur Chapitre 1 Introduction 1. Acquisition IMN117 2. Traitement IMN259 Scène 3D Caméra optique Une ou plusieurs images 2D Caractéristiques bas niveaux (contours,

Plus en détail

Chapitre 1 Introduction

Chapitre 1 Introduction Chapitre 1 Introduction La réalité augmentée assistée par ordinateur est un domaine émergeant, qui progresse rapidement. Son principe est de mélanger le monde réel et le monde virtuel. De nombreuses applications

Plus en détail

Enveloppes convexes dans le plan

Enveloppes convexes dans le plan ÉCOLE POLYTECHNIQUE ÉCOLES NORMALES SUPÉRIEURES ÉCOLE SUPÉRIEURE DE PHYSIQUE ET DE CHIMIE INDUSTRIELLES CONCOURS D ADMISSION FILIÈRE MP HORS SPÉCIALITÉ INFO FILIÈRE PC COMPOSITION D INFORMATIQUE B (XECLR)

Plus en détail

IMAGE NUMÉRIQUE IMAGE NUMÉRIQUE

IMAGE NUMÉRIQUE IMAGE NUMÉRIQUE 1. Signal analogique et signal numérique 2. Image matricielle - notion de pixel 2.1 La définition 2.2 La résolution 3. Image numérique 3.1 Image en niveaux de gris 3.2 Image en couleurs 4. Formats d image

Plus en détail

Opérations de base sur ImageJ

Opérations de base sur ImageJ Opérations de base sur ImageJ TPs d hydrodynamique de l ESPCI, J. Bico, M. Reyssat, M. Fermigier ImageJ est un logiciel libre, qui fonctionne aussi bien sous plate-forme Windows, Mac ou Linux. Initialement

Plus en détail

Maintien des personnes âgées à domicile

Maintien des personnes âgées à domicile Maintien des personnes âgées à domicile Enjeux scientifiques et technologiques liés à la vision par ordinateur Christian Wolf http://liris.cnrs.fr/christian.wolf Introduction Sommaire Les données et les

Plus en détail

Freestyle : Sculpting Meshes with Self-Adaptive Topology

Freestyle : Sculpting Meshes with Self-Adaptive Topology Freestyle : Sculpting Meshes with Self-Adaptive Topology Rapport Recette Étudiants : Charles Garibal, Maxime Robinot, Mathieu Dachy Tuteur : Loïc Barthe 20/02/2015 1 I) Introduction Rappel : Objectif du

Plus en détail

Esiee 2008 Buzer. Guide d utilisation. Scanner LPX-600

Esiee 2008 Buzer. Guide d utilisation. Scanner LPX-600 Esiee 2008 Buzer Guide d utilisation Scanner LPX-600 Principes de base Scan à balayage rotatif L objet est placé sur un plateau rotatif. Le système de mesure se déplace uniquement en hauteur. L objet va

Plus en détail

Visualisation 3D sur un Smartphone

Visualisation 3D sur un Smartphone Visualisation 3D sur un Smartphone Réalisé par: Bouhajja Lamia Daikhi Rahma Encadré par : Madame Ben Azouz Zouhour SOMMAIRE : I. Introduction Générale générale II. Objectif du projet III. Rendu 3D IV.

Plus en détail

Introduction. L ouverture du diaphragme. video studio débutant. www.coursphoto.eu

Introduction. L ouverture du diaphragme. video studio débutant. www.coursphoto.eu www.coursphoto.eu video studio débutant L exposition Introduction Une image bien exposée est une image ni trop clair ni trop sombre. Trois paramètres entre en jeux : - La vitesse d obturation - L ouverture

Plus en détail

Synthèse d'images I. Venceslas BIRI IGM Université de Marne La

Synthèse d'images I. Venceslas BIRI IGM Université de Marne La Synthèse d'images I Venceslas BIRI IGM Université de Marne La La synthèse d'images II. Rendu & Affichage 1. Introduction Venceslas BIRI IGM Université de Marne La Introduction Objectif Réaliser une image

Plus en détail

TP SIN Traitement d image

TP SIN Traitement d image TP SIN Traitement d image Pré requis (l élève doit savoir): - Utiliser un ordinateur Objectif terminale : L élève doit être capable de reconnaître un format d image et d expliquer les différents types

Plus en détail

Projet ESINSA 5 TRAITEMENT D IMAGE. Active Contours without Edges for Vector-Valued Images. Par Nicolas Brossier et Cyril Cassisa

Projet ESINSA 5 TRAITEMENT D IMAGE. Active Contours without Edges for Vector-Valued Images. Par Nicolas Brossier et Cyril Cassisa Projet ESINSA 5 TRAITEMENT D IMAGE Active Contours without Edges for Vector-Valued Images Par Nicolas Brossier et Cyril Cassisa Page 1 sur 14 Abstract Pour ce projet, nous implémentons un algorithme de

Plus en détail

Les mathématiques et le traitement de l image Kévin Polisano

Les mathématiques et le traitement de l image Kévin Polisano Les mathématiques et le traitement de l image Kévin Polisano [ Doctorant au Laboratoire ] Jean Kuntzmann et CNRS N hésitez pas à lever la main! pour m interrompre! Qu est-ce qu une image numérique? Source

Plus en détail

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 2 Discrimination Invariance Expressions faciales Age Pose Eclairage 11/12/2012 3 Personne Inconnue Identité

Plus en détail

Imagerie 3D et mathématiques

Imagerie 3D et mathématiques Imagerie 3D et mathématiques Jacques-Olivier Lachaud Laboratoire de Mathématiques CNRS / Université de Savoie Fête de la Science, 13/10/2013 Galerie Eurêka Image et perception Synthèse d image 3D Imagerie

Plus en détail

Analyse d images. Edmond.Boyer@imag.fr. Edmond Boyer UFRIMA 1

Analyse d images. Edmond.Boyer@imag.fr. Edmond Boyer UFRIMA 1 Analyse d images Edmond.Boyer@imag.fr Edmond Boyer UFRIMA 1 1 Généralités Analyse d images (Image Analysis) : utiliser un ordinateur pour interpréter le monde extérieur au travers d images. Images Objets

Plus en détail

Comment coder une image en langage binaire? Michel Futtersack, Faculté de Droit, Université Paris Descartes

Comment coder une image en langage binaire? Michel Futtersack, Faculté de Droit, Université Paris Descartes Comment coder une image en langage binaire? Michel Futtersack, Faculté de Droit, Université Paris Descartes Les deux grands types d'images numériques Image matricielle (bitmap) Image vectorielle Image

Plus en détail

Corrections chromatiques de l image

Corrections chromatiques de l image Corrections chromatiques de l image 1. Réglages en amont 2. Utilisation d un histogramme et de la palette infos 3. Réglage du point blanc - point noir 4. Réglage du gamma, correction tonale Pour quadri

Plus en détail

Propriétés des images numériques Contraintes sur l interprétation

Propriétés des images numériques Contraintes sur l interprétation Propriétés des images numériques Contraintes sur l interprétation M.LOUYS, Traitement d images et problèmes inverses Master Astrophysique, Observatoire de Strasbourg, 2013 Propriétés générales d une image

Plus en détail

Figure 6.3: Possibilité d exprimer son talent

Figure 6.3: Possibilité d exprimer son talent SÉANCE 6 Création de schémas 6.1 Présentation du logiciel «Draw» est un logiciel de dessin vectoriel et de PAO (Publication Assistée par Ordinateur). Avec ce logiciel, il vous est possible de créer divers

Plus en détail

Localisation s y s - 8 4 4 m o d u l e 7. Méthodes passives. Plan du module. Méthodes passives. Objectifs d un système de vision numérique

Localisation s y s - 8 4 4 m o d u l e 7. Méthodes passives. Plan du module. Méthodes passives. Objectifs d un système de vision numérique Objectifs d un système de vision numérique Localisation s y s - 8 4 4 m o d u l e 7 Identifier Localiser Méthodes passives Plan du module Stéréoscopie Gradient d éclairement Méthodes actives Temps de vol

Plus en détail

Analyse d images en vidéosurveillance embarquée dans les véhicules de transport en commun

Analyse d images en vidéosurveillance embarquée dans les véhicules de transport en commun des s Analyse d images en vidéosurveillance embarquée dans les véhicules de transport en commun Sébastien Harasse thèse Cifre LIS INPG/Duhamel le 7 décembre 2006 1 Système de surveillance des s Enregistreur

Plus en détail

Images numériques. Notions et contenus. évaluée

Images numériques. Notions et contenus. évaluée Images numériques Thème Notions et contenus Compétence travaillée ou évaluée Résumé Mots clefs Académie Référence Auteur Transmettre et stocker de l information Caractéristiques d une image numérique :

Plus en détail

pour la Réalité Augmentée

pour la Réalité Augmentée Analyse d Image 3D pour la Réalité Augmentée Jean-Marc Vezien vezien@limsi.fr Master Recherche RV&A Janvier 2011 La 3D comment? Les capteurs et les techniques pour l acquisition de la 3D Capteurs actifs

Plus en détail

UNE APPROCHE FONCTIONNELLE EN VISION PROTHETIQUE : ETUDE PRELIMINAIRE DANS LE CONTEXTE DE LA MOBILITE

UNE APPROCHE FONCTIONNELLE EN VISION PROTHETIQUE : ETUDE PRELIMINAIRE DANS LE CONTEXTE DE LA MOBILITE UNE APPROCHE FONCTIONNELLE EN VISION PROTHETIQUE : ETUDE PRELIMINAIRE DANS LE CONTEXTE DE LA MOBILITE Auteurs : Abstract : Ces travaux s inscrivent dans le cadre plus général de la réalisation d une prothèse

Plus en détail

ENSEIRB-MATMECA PG-113 2014. TP6: Optimisation au sens des moindres carrés

ENSEIRB-MATMECA PG-113 2014. TP6: Optimisation au sens des moindres carrés ENSEIRB-MATMECA PG-113 014 TP6: Optimisation au sens des moindres carrés Le but de ce TP est d implémenter une technique de recalage d images qui utilise une méthode vue en cours d analyse numérique :

Plus en détail

Utilisation d informations visuelles dynamiques en asservissement visuel Armel Crétual IRISA, projet TEMIS puis VISTA L asservissement visuel géométrique Principe : Réalisation d une tâche robotique par

Plus en détail

Guide de développement d un fichier NEF avec Nikon Capture NX

Guide de développement d un fichier NEF avec Nikon Capture NX Guide de développement d un fichier NEF avec Nikon Capture NX A Exposer correctement au moment de la prise de vue La première étape se situe au moment de la prise de vue. Car tout ne peut pas se rattraper

Plus en détail

Rapport de ANRT. Hongliu CAO Salah GHAMIZI Matthias LLOYD. Candidat(s) Seul ou en équipe. Nom(s) et prénom(s)

Rapport de ANRT. Hongliu CAO Salah GHAMIZI Matthias LLOYD. Candidat(s) Seul ou en équipe. Nom(s) et prénom(s) Rapport de ANRT Candidat(s) Seul ou en équipe Nom(s) et prénom(s) Hongliu CAO Salah GHAMIZI Matthias LLOYD Résumé du projet... 1 Introduction... 2 1. Agrandir l'image... 3 2. Caculer le moyenne... 3 3.Détection

Plus en détail

INTERFÉROMÈTRE DE MICHELSON

INTERFÉROMÈTRE DE MICHELSON INTERFÉROMÈTRE DE MICHELSON ATTENTION! LASER ET LAMPE À MERCURE : DANGER! - Ne jamais regarder directement le faisceau Laser, sous peine de brûlures irréversibles de la rétine. - Ne jamais regarder directement

Plus en détail

Simulations de Monte Carlo en finance : Pricer d option

Simulations de Monte Carlo en finance : Pricer d option Emma Alfonsi, Xavier Milhaud - M2R SAF Simulations de Monte Carlo en finance : Pricer d option Sous la direction de M. Pierre Alain Patard ISFA - Mars 2008 . 1 Table des matières 1 Introduction 4 2 Un

Plus en détail

PHYSIQUE. 5 e secondaire. Optique PHY-5041-2 DÉFINITION DU DOMAINE D EXAMEN

PHYSIQUE. 5 e secondaire. Optique PHY-5041-2 DÉFINITION DU DOMAINE D EXAMEN PHYSIQUE 5 e secondaire Optique PHY-5041-2 DÉFINITION DU DOMAINE D EXAMEN MAI 1999 Quebec PHYSIQUE 5 e secondaire Optique PHY-5041-2 DÉFINITION DU DOMAINE D EXAMEN MAI 1999 Direction de la formation générale

Plus en détail

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Régis Boulet Charlie Demené Alexis Guyot Balthazar Neveu Guillaume Tartavel Sommaire Sommaire... 1 Structure

Plus en détail

L espace de travail de Photoshop

L espace de travail de Photoshop L espace de travail de Photoshop 1 Au cours de cette leçon, vous apprendrez à : ouvrir les fichiers Photoshop ; sélectionner et employer certains des outils dans le panneau Outils ; définir les options

Plus en détail

Chapitre 4 : Modélisation 3D

Chapitre 4 : Modélisation 3D Chapitre 4 : Modélisation 3D Modélisation 3D et Synthèse Fabrice Aubert fabrice.aubert@lifl.fr Master Informatique 2014-2015 F. Aubert (MS2) M3DS/ 4 - Modélisation 3D 2014-2015 1 / 44 1 Introduction F.

Plus en détail

Transmission d informations sur le réseau électrique

Transmission d informations sur le réseau électrique Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en

Plus en détail

Les animations par interpolation

Les animations par interpolation Les animations par interpolation Avec Unity, il est possible d animer les gameobject (modèles 3d, caméra, lumière...) sans avoir recours à la programmation. Ce document présente les techniques de base

Plus en détail

Photogrammétrie, modélisation et drones.

Photogrammétrie, modélisation et drones. U.E. - C2 Technologies numériques Lundi 1 juin 2015 Olivier Bouet Photogrammétrie, modélisation et drones. Dépôt des résumés sur http://numerique.tech.fr La photogrammétrie Définitions La photogrammétrie

Plus en détail

ELECTROMAGNETISM EXEMPLES

ELECTROMAGNETISM EXEMPLES EXEMPLES 1. Représentation globale du champ électrique 2. Graphiques et export CSV sous Microsoft Excel 3. Configuration de Helmholtz 4. Condensateur plan 5. Limaille de fer autour d une bobine 6. Trajectoire

Plus en détail

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée

Plus en détail

«Vers une méthode rapide de l évaluation de la tendreté»

«Vers une méthode rapide de l évaluation de la tendreté» Matthieu ALRIC - matthieu.alric@adiv.fr Chargé d Etudes en Génie Mécanique et Robotique «Vers une méthode rapide de l évaluation de la tendreté» Développement d un système robotique équipé de capteurs

Plus en détail

L image numérique Notions de base 1/2

L image numérique Notions de base 1/2 L image numérique Notions de base 1/2 Qu est-ce qu une image numérique? C est une image composée d un certain nombre de pixels. Le pixel est le plus petit élément constituant une image. Chaque pixel contient

Plus en détail

Analyse d images introduction

Analyse d images introduction L3, option Image Analyse d images introduction http ://perception.inrialpes.fr/people/boyer/teaching/l3/ Elise Arnaud - Edmond Boyer Université Joseph Fourier / INRIA Rhône-Alpes elise.arnaud@inrialpes.fr

Plus en détail

VIVEZ l EXPERIENCE de l appareil photo G4

VIVEZ l EXPERIENCE de l appareil photo G4 VIVEZ l EXPERIENCE de l appareil photo G4 6 Caractéristiques photos du LG G4 01 Plus de 50 réglages disponibles (ISO, balance des blancs, vitesse, etc.) Mode Manuel 02 03 04 05 06 Plus performant que ses

Plus en détail

6.1 Méthode des champs de potentiel

6.1 Méthode des champs de potentiel Chapitre 6 Évitement d obstacles L évitement d obstacles est un comportement de base présent dans quasiment tous les robots mobiles. Il est indispensable pour permettre au robot de fonctionner dans un

Plus en détail

Logiciel. de Surveillance. Vidéo Numérique. par Réseau Ethernet

Logiciel. de Surveillance. Vidéo Numérique. par Réseau Ethernet Logiciel de Surveillance Vidéo Numérique par Réseau Ethernet Guy COLIN et Dominique DELABRE Sommaire : ATTENTION...3 Installation du logiciel...5 Présentation de la fenêtre principale...6 Configuration

Plus en détail

Groupe Eyrolles, 2006, ISBN : 2-212-11959-3

Groupe Eyrolles, 2006, ISBN : 2-212-11959-3 Groupe Eyrolles, 2006, ISBN : 2-212-11959-3 annexe B Piano Corner, (c) 2005 par Zsolt Stefan : http://deeppixel.uw.hu/gallery.html YafRay, le moteur de rendu photoréaliste Dès sa création, par une équipe

Plus en détail

PROJET DE FIN D ÉTUDES Asservissement visuel d un robot parallèle à câbles pour la réalisation d une fresque verticale de grande taille

PROJET DE FIN D ÉTUDES Asservissement visuel d un robot parallèle à câbles pour la réalisation d une fresque verticale de grande taille Résumé de PFE PROJET DE FIN D ÉTUDES Asservissement visuel d un robot parallèle à câbles pour la réalisation d une fresque verticale de grande taille Introduction Dans le domaine de la robotique, la robotique

Plus en détail

Deuxième partie : Optique

Deuxième partie : Optique Deuxième partie : Optique Introduction Exemples de questions Comment fonctionne un projecteur de dias? Qu est-ce que la mise au point d un appareil photo? Comment la lumière peut-elle être guidée dans

Plus en détail

TP MSO Synthèse d images: Lancé de rayons CPE

TP MSO Synthèse d images: Lancé de rayons CPE TP MSO Synthèse d images: Lancé de rayons CPE durée-4h 2011 FIGURE 1 Étapes de l algorithme de lancé de rayons. De gauche à droite : équation du calcul d intersection; image des intersections; ordonnancement

Plus en détail

Prétraitement et traitement des images planétaires sous Iris

Prétraitement et traitement des images planétaires sous Iris Prétraitement et traitement des images planétaires sous Iris Les étapes du processus de prétraitement et traitement 1. Conversion d un fichier avi en pic ou fit 2. Normalisation de l Offset sur les couches

Plus en détail

Document 1 : modélisation d un appareil photographique

Document 1 : modélisation d un appareil photographique PCSI1-Lycée Michelet 2014-2015 APPROCHE DOCUMENTAIRE : appareil photo numérique Extrait du programme : en comparant des images produites par un appareil photographique numérique, discuter l influence de

Plus en détail

Description technique et fonctionnelle du prototype

Description technique et fonctionnelle du prototype Description technique et fonctionnelle du prototype Le développement du prochain prototype technologique repose sur quatre axes : 1. Captation du panache en temps réel 2. Système de balayage laser, piloté

Plus en détail

Soutien illimité 7j/7 en maths: Coach, profs, exercices & annales, cours. Sujet de Bac 2013 Maths S Obligatoire & Spécialité - Liban

Soutien illimité 7j/7 en maths: Coach, profs, exercices & annales, cours. Sujet de Bac 2013 Maths S Obligatoire & Spécialité - Liban Sujet de Bac 2013 Maths S Obligatoire & Spécialité - Liban EXERCICE 1 : 4 Points Cet exercice est un questionnaire à choix multiples. Aucune justification n est demandée. Pour chacune des questions, une

Plus en détail

Mise en scène d un modèle dans l espace 3D

Mise en scène d un modèle dans l espace 3D CHAPITRE 3 Mise en scène d un modèle dans l espace 3D Blender permet de construire des espaces à la manière d une scène de théâtre. Pour cela, il présente dès l ouverture tout ce dont on a besoin : un

Plus en détail

Au programme. Vision par ordinateur: Formation d image et Photographie. Formation de l image. Introduction

Au programme. Vision par ordinateur: Formation d image et Photographie. Formation de l image. Introduction Au programme Vision par ordinateur: Formation d image et Photographie Sébastien Roy Jean-Philippe Tardif Marc-Antoine Drouin Département d Informatique et de recherche opérationnelle Université de Montréal

Plus en détail

Vision par ordinateur: Formation d image et Photographie

Vision par ordinateur: Formation d image et Photographie Vision par ordinateur: Formation d image et Photographie Sébastien Roy Jean-Philippe Tardif Marc-Antoine Drouin Département d Informatique et de recherche opérationnelle Université de Montréal Hiver 2007

Plus en détail

Leçon N 11 Traitement La couleur

Leçon N 11 Traitement La couleur Leçon N 11 Traitement La couleur 11 La couleur Tous ce qui vous environne a une couleur, mais c est la lumière qui vous permet de percevoir la couleur des objets qui vous entourent. 11.1 Le modèle TSL

Plus en détail

Un corrigé de l épreuve de mathématiques du baccalauréat blanc

Un corrigé de l épreuve de mathématiques du baccalauréat blanc Terminale ES Un corrigé de l épreuve de mathématiques du baccalauréat blanc EXERCICE ( points). Commun à tous les candidats On considère une fonction f : définie, continue et doublement dérivable sur l

Plus en détail

Vision industrielle Dispositif optique

Vision industrielle Dispositif optique Vision industrielle Dispositif optique Plan du cours L objectif La focale L ouverture La mise au point Qualité d image Choix de l objectif Cours de Vision Industrielle Nicolas Vandenbroucke 2 Constitution

Plus en détail

Extraction d informations stratégiques par Analyse en Composantes Principales

Extraction d informations stratégiques par Analyse en Composantes Principales Extraction d informations stratégiques par Analyse en Composantes Principales Bernard DOUSSET IRIT/ SIG, Université Paul Sabatier, 118 route de Narbonne, 31062 Toulouse cedex 04 dousset@irit.fr 1 Introduction

Plus en détail

Visibilité polygone à polygone :

Visibilité polygone à polygone : Introduction Visibilité polygone à polygone : calcul, représentation, applications Frédéric Mora Université de Poitiers - Laboratoire SIC 10 juillet 2006 1 La visibilité Introduction Contexte L espace

Plus en détail

Solution Vidéo Surveillance

Solution Vidéo Surveillance Solution Vidéo Surveillance Objectifs de la solution : Mettre sous surveillance électronique un lieu sensible de votre établissement : o L entrée du bureau d études o L entrée du stock de matière première

Plus en détail

Projet de modélisation et programmation C++ MMIS Triangulation d un ensemble de points scannés

Projet de modélisation et programmation C++ MMIS Triangulation d un ensemble de points scannés MMIS Triangulation d un ensemble de points scannés Cette seconde moitié du semestre est consacrée à la conception d un code orienté objet permettant de résoudre des problèmes relatifs à votre filière.

Plus en détail

TD : Codage des images

TD : Codage des images TD : Codage des images Les navigateurs Web (Netscape, IE, Mozilla ) prennent en charge les contenus textuels (au format HTML) ainsi que les images fixes (GIF, JPG, PNG) ou animée (GIF animée). Comment

Plus en détail

Fête de la science Initiation au traitement des images

Fête de la science Initiation au traitement des images Fête de la science Initiation au traitement des images Détection automatique de plaques minéralogiques à partir d'un téléphone portable et atelier propose de créer un programme informatique pour un téléphone

Plus en détail

Echantillonnage Non uniforme

Echantillonnage Non uniforme Echantillonnage Non uniforme Marie CHABERT IRIT/INP-ENSEEIHT/ ENSEEIHT/TéSASA Patrice MICHEL et Bernard LACAZE TéSA 1 Plan Introduction Echantillonnage uniforme Echantillonnage irrégulier Comparaison Cas

Plus en détail

cpgedupuydelome.fr -PC Lorient

cpgedupuydelome.fr -PC Lorient Première partie Modèle scalaire des ondes lumineuses On se place dans le cadre de l optique géométrique 1 Modèle de propagation 1.1 Aspect ondulatoire Notion d onde électromagnétique On considère une onde

Plus en détail

La Mire de Résolution SilverFast (USAF 1951)

La Mire de Résolution SilverFast (USAF 1951) La Mire de Résolution SilverFast (USAF 1951) Contenu 1. Introduction 2 2. La résolution d un scanner 2.1 ppp (dpi), qu est-ce exactement? 2 2.2 La construction d un scanner 2 2.3 Netteté de la haute résolution

Plus en détail

Projet 4ème année: Bras Robotique Contrôle du mouvement

Projet 4ème année: Bras Robotique Contrôle du mouvement Projet 4ème année: Bras Robotique Contrôle du mouvement TIAMIOU Adam BEN YOUNES Radhoane 1 Sommaire I. Présentation du contexte 3 II Travail effectué... 4 1.Interface de connexion avec le robot...4 2.Récupération

Plus en détail

Figure 2 : lumière visible.

Figure 2 : lumière visible. A LA DÉCOUVERTE DES IMAGES COULEUR. 1 OBJECTIF DE CE TRAVAIL. Le travail qui vous est proposé ici consiste à manipuler des images couleurs et à découvrir les liens qui unissent les espaces de représentation

Plus en détail

ispace&time ANR CONTINT 2010

ispace&time ANR CONTINT 2010 ispace&time ANR CONTINT 2010 Cartographie et rendu 4D de l'espace public avec simulations de flux piétons et voitures pour l'aménagement urbain: Le projet ANR ispace&time Journées Recherche IGN 24 avril

Plus en détail

Travaux pratiques de traitement d images

Travaux pratiques de traitement d images Travaux pratiques de traitement d images EI3 année 2009-2010 TP n 1 : Segmentation d images en régions p. 3 TP n 2 : Reconnaissance des formes p. 15 Vandenbroucke Nicolas R11 TP n 1 Segmentation d images

Plus en détail

Traitement numérique de l'image. Raphaël Isdant - 2009

Traitement numérique de l'image. Raphaël Isdant - 2009 Traitement numérique de l'image 1/ L'IMAGE NUMÉRIQUE : COMPOSITION ET CARACTÉRISTIQUES 1.1 - Le pixel: Une image numérique est constituée d'un ensemble de points appelés pixels (abréviation de PICture

Plus en détail

Chapitre 2. Les mécanismes optiques de l œil

Chapitre 2. Les mécanismes optiques de l œil Manuel pages 19 à 34 Choix pédagogiques Les conditions de visibilité d un objet étant posées et la présentation de l œil réalisée, il s agit d étudier maintenant les mécanismes optiques de fonctionnement

Plus en détail

Scanners d images. Mode d emploi. Table des matières. Logiciel de commande du scanner. Page 3 Quelle résolution pour mon image?

Scanners d images. Mode d emploi. Table des matières. Logiciel de commande du scanner. Page 3 Quelle résolution pour mon image? Scanners d images Mode d emploi Table des matières Page 1 Page 2 Choisir un scanner de bureau Logiciel de commande du scanner Page 3 Quelle résolution pour mon image? Page 4 Page 5 Page 6 Page 7 Ajuster

Plus en détail

Vision par ordinateur : Un tour d horizon. Adrien Bartoli LASMEA CNRS/UBP Clermont-Ferrand

Vision par ordinateur : Un tour d horizon. Adrien Bartoli LASMEA CNRS/UBP Clermont-Ferrand Vision par ordinateur : Un tour d horizon Adrien Bartoli LASMEA CNRS/UBP Clermont-Ferrand Séance II : Panoramas en environnement déformable Panoramas en environnement rigide Représentation minimale d un

Plus en détail

Travaux pratiques de Génie Informatique TP 2 & 3. séances, mais vous pouvez en faire plus. Essayer d aller le plus loin possible.

Travaux pratiques de Génie Informatique TP 2 & 3. séances, mais vous pouvez en faire plus. Essayer d aller le plus loin possible. 1 BUT DE LA SÉANCE. TRAVAUX PRATIQUES DE GÉNIE INFORMATIQUE Ces deuxième et troisième séances ont pour but de vous faire avancer dans la programmation sous Matlab. Vous y découvrez les fonctions, les sous-programmes

Plus en détail

OPTIQUE GEOMETRIQUE II.- THEORIE. Définition : L indice de réfraction n caractérise le milieu dans lequel se propage la lumière.

OPTIQUE GEOMETRIQUE II.- THEORIE. Définition : L indice de réfraction n caractérise le milieu dans lequel se propage la lumière. 31 O1 OPTIQUE GEOMETRIQUE I.- INTRODUCTION L optique est une partie de la physique qui étudie la propagation de la lumière. La lumière visible est une onde électromagnétique (EM) dans le domaine de longueur

Plus en détail

µrv : Realité Virtuelle

µrv : Realité Virtuelle µrv : Realité Virtuelle Edgar-Fernando ARRIAGA-GARCIA Charles-Henri BABIAUD Clément GRELLIER Quentin PETIT Jérôme Ricoeur Florent VIOLLEAU INSA Rennes 21 septembre 2011 1 / 15 Objectifs pour cette semaine

Plus en détail

Guide Utilisateur des Techniques Alternatives au Ressuage et à la Magnétoscopie

Guide Utilisateur des Techniques Alternatives au Ressuage et à la Magnétoscopie Guide Utilisateur des Techniques Alternatives au Ressuage et à la Magnétoscopie Fiche thématique A01 Les techniques alternatives au ressuage et à la magnétoscopie Cette fiche liste les techniques qui peuvent

Plus en détail

NOUVELLE INTERFACE POWERPOINT 2013

NOUVELLE INTERFACE POWERPOINT 2013 NOUVELLE INTERFACE POWERPOINT 2013 Barre de lancement rapide Onglets Groupe Fonctions Commande Lanceur boîte de dialogue(options) Ruban PROCEDURE D UTILISATION D UN MASQUE DE DIAPOSITIVE Nouveau document

Plus en détail

Installer GIMP 2.8.x 9. Lancer GIMP 2.8.x 11. L'environnement de GIMP 12. Définir les préférences 15. Paramétrer une tablette graphique 33

Installer GIMP 2.8.x 9. Lancer GIMP 2.8.x 11. L'environnement de GIMP 12. Définir les préférences 15. Paramétrer une tablette graphique 33 Généralités Installer GIMP 2.8.x 9 Lancer GIMP 2.8.x 11 L'environnement de GIMP 12 Préférences Définir les préférences 15 Paramétrer une tablette graphique 33 Interface et gestion des dialogues Les deux

Plus en détail

MVS Medical Visualisation Studio Version 1.0 Manuel utilisateur

MVS Medical Visualisation Studio Version 1.0 Manuel utilisateur MVS Medical Visualisation Studio Version 1.0 Manuel utilisateur Table des matières 1. Introduction... 3 2. Installation du logiciel... 3 3. Lancement du programme et ouverture d un fichier... 3 4. Manipulations

Plus en détail

en environnement intérieur pour l'indexation de vidéo issue de caméra portée

en environnement intérieur pour l'indexation de vidéo issue de caméra portée Reconstruction et localisation 3D en environnement intérieur pour l'indexation de vidéo issue de caméra portée H. Wannous, V. Dovgalecs, R. Mégret* IMS - Projet IMMED / ANR 09-BLAN BLAN-0165 0165-01 *remi.megret@ims-bordeaux.fr

Plus en détail

Formation 3DS Exercice 2 : Modélisation d objets simples. Fascicule 3DS Exercice 2 : Modélisation d objets simples

Formation 3DS Exercice 2 : Modélisation d objets simples. Fascicule 3DS Exercice 2 : Modélisation d objets simples Fascicule 3DS Exercice 2 : Formation CIREVE 2007 1 Coordonnées...3 Introduction...4 Création des chemins à partir d une image sous Photoshop ou Illustrator...4 1. Création du profil de la base...5 2. Configuration

Plus en détail

Profil du candidat et connaissances techniques à connaître/maîtriser

Profil du candidat et connaissances techniques à connaître/maîtriser Utilisation d algorithmes de deep learning pour la reconnaissance d iris. jonathan.milgram@morpho.com Dans ce cadre, l'unité de recherche et technologie a pour but de maintenir le leadership Au sein de

Plus en détail

Visualisation des lignes de crêtes apparentes de modèles 3D

Visualisation des lignes de crêtes apparentes de modèles 3D Visualisation des lignes de crêtes apparentes de modèles 3D HAEHNEL Jonathan Université de Strasbourg 17 mai 2013 Haehnel Jonathan Visualisation des lignes de crêtes apparentes de modèles 3D 17 mai 2013

Plus en détail