Université des Sciences et Technologies de Lille 1 UFR Informatique. Projet scientifique de Master 2 Image, Vision, Interaction.

Dimension: px
Commencer à balayer dès la page:

Download "Université des Sciences et Technologies de Lille 1 UFR Informatique. Projet scientifique de Master 2 Image, Vision, Interaction."

Transcription

1 Université des Sciences et Technologies de Lille 1 UFR Informatique Projet scientifique de Master 2 Image, Vision, Interaction Année 2012/1013 Reconstruction de scène réaliste via Kinect c Amélioration du rendu des textures plaquées dans une scène observée avec une Kinect c et reconstruite avec PCL Réalisé par : Sébastien Guillaume Marc Poulmane Dauster Amberg

2 Remerciements Nous remercions les enseignants qui nous ont suivi pendant toute la durée du projet, pour leurs conseils et leurs soutiens dans les moments difficiles. Olivier Damien Ludovic Géry François Losson Marchal Macaire Casiez Cabestaing Nous remercions également nos collègues de la promotion IVI. Philippe Alix Cyprien Kevin Jacquet Goguey Cuvillier Pollaert

3 Table des matières 1 Introduction Contexte Les caméras de profondeur et la reconstruction 3D Kinect c Point Cloud Library KinFu et KinFu Large Scale Libfreenect Problématique Objectifs État de l art Présentation de la Kinect c Caractéristiques techniques Caméra de profondeur Kinect Fusion Opérations principales Pipeline de Kinect Fusion PCL, KinFu et KinFu LargeScale Point Cloud Library (PCL) KinFu KinFu LargeScale Kintinuous RGB-D mapping Contribution Étude et amélioration du signal RGB Étude de l impact de la balance des blancs, de la correction de couleur et de l exposition sur la qualité de l image RGB Contrôle des paramètres d acquisitions des images dans KinFu LargeScale Etude et amélioration du plaquage des textures Etude de l impact de la résolution de la matrice TSDF Étude de la dérive de la pose estimée avec les scènes Blender Amélioration de l algorithme de plaquage des textures Résultat Résultats et validations Comparaison de notre méthode de plaquage de texture avec celle de KinFu Les limites de notre méthode Conclusion Rappel de la problématique Récapitulation des contributions et des résultats Vers d autres solutions

4 Table des figures 1 Déformation dans la reconstruction 3D Textures incohérentes Exemple Kinect Fusion Vision des infra-rouges de la Kinect Calcul de la disparité Filtrage bilétérale Image de profondeur Stockage de la surface du modèle Visibilité de texture Problème d alignement Correction de la trajectoire Rendu KinFu avec auto-exposition Protocole d acquisition Scène texturée sans auto-exposition Débordement de texture sur les objets voisins Impact de la résolution de la matrice TSDF Impact de la résolution de la matrice TSDF sur une scène réelle Problèmes d alignement de texture Scène virtuelle sous Blender Déformation de perspective Débordement des contours Dérives de la pose caméra sur les axes de translation Erreur instantanée Scène virtuelle et modèle reconstruit Erreur sur un axe Minimisation du risque d erreur Effet de la méthode de tri Multi-Band Blending Hypothèse pour le débordement Pipeline Kinect Fusion

5 1 Introduction 1.1 Contexte La reconstruction 3D d une scène à l aide d outils d acquisition optique se développent de plus en plus depuis la dernière décennie. Il existe de nombreuses méthodes de reconstruction 3D dont certaines seront développées dans le chapitre «État de l art». La démocratisation de ces dispositifs optiques ont amené les chercheurs à trouver des solutions plus robustes en raison de leurs caractéristiques (i.e. faible résolution, bruit sur l image plus significatif...). D ailleurs le sujet de notre étude porte sur l utilisation d un des dispositifs optiques grand public, la Kinect c avec l appui d une bibliothèque dédiée au calcul des nuages de points : Point Cloud Library ( PCL). Cette dernière contient un module nommé KinFu, doté d outils pour la reconstruction de volumes et de textures. Nous verrons que les méthodes actuelles ne sont pas précises avec ce type de caméra de profondeur. Nous nous intéresserons ici à la qualité du rendu des textures dans la reconstruction, un critère selon nous des plus déterminant dans l appréciation d une scène 3D Les caméras de profondeur et la reconstruction 3D La reconstruction 3D permet de recréer un modèle 3D d une scène réelle. Elle peut être vue comme le pendant tridimensionnel des scanners 2D utilisés en bureautique. Il n existe pas à l heure actuelle de solution parfaite. Il y a deux familles de reconstruction 3D, l une est dite passive et l autre active. Dans les deux cas, un ou plusieurs capteurs optiques sont employés dans le processus. Ce qui diffère, ce sont les types de capteurs et les informations qu ils récupèrent. À noter que dans le cadre du projet, nous partons du principe que l espace de la scène est invariant dans le temps, c est-à-dire que les objets sont parfaitement immobiles. Lorsque ce n est pas le cas, on parle de reconstruction nonrigide. Ceci n entre pas dans le cadre du projet. La reconstruction passive se base sur des images couleur définies par les composantes Rouge, Verte (Green en anglais) et Bleue (RGB) de la scène. On la nomme passive car cette méthode consiste en une ou plusieurs caméras RGB qui se contentent de «regarder» la scène. À partir de ces informations, la scène est reconstruite soit par des images stéréoscopiques (association de deux images) ou par une vidéo. Cette méthode, bien que très simple et accessoirement peu onéreuse, a l inconvénient majeur d être très sensible aux phénomènes de la physique de la lumière comme le spéculaire et la réfraction. La reconstruction active implique l utilisation d émetteurs de rayonnement électromagnétiques (e.g. les lasers, les micro-ondes) ou même d onde mécanique comme les ultrasons. Grâce à la physique propre au rayonnement électromagnétique en utilisant des méthodes comme le temps de vol (Time-Of-Flight, TOF) ou la carte des disparités, on peut déterminer une distance entre le capteur et la surface rencontrée par le rayon. C est donc un émetteur à rayonnement électromagnétique ou onde, projetant dans plusieurs directions des rayons, formant des points dans la scène qui sont perçus par un ou des capteurs ayant la sensibilité au spectre adéquat. C est pourquoi on parle de reconstruction active, car une donnée supplémentaire est injectée dans la scène. Cette méthode est 3

6 bien plus précise mais plus complexe à mettre en place à cause de la calibration entre le capteur et l émetteur. La Kinect c possède une caméra RGB et une caméra de profondeur (émetteur/capteur infra-rouge), ce qui signifie que ces deux méthodes, en théorie, peuvent être mises en place. Dans le cadre du projet Kinect Fusion de Microsoft, il s agit bien d une reconstruction active Kinect c La Kinect c est un dispositif d acquisition optique développé par Microsoft en Elle est popularisée au sein du grand public par son usage dans le divertissement. La version pour PC avec son kit de développement, sortie l année suivante l a rendue également populaire dans la communauté scientifique ainsi que chez les développeurs indépendants. Le chapitre 2.1 détaillera les caractéristiques et le fonctionnement de la Kinect c Point Cloud Library PCL est un projet open source développé pour le traitement des nuages de points. Le framework comporte de nombreux modules ayant chacun un rôle dans la chaîne de traitement (e.g. la représentation d une image de profondeur) ou ayant des fonctions très spécifiques (e.g. le module gérant les octrees pour la recherche de points dans un nuage). PCL utilise OpenNI pour communiquer avec la Kinect c. Dans le cadre de notre projet de recherche, nous nous intéresserons à une partie spécifique seulement consacrée à Kinect c KinFu et KinFu Large Scale L une des composantes essentielle et principale du projet est KinFu et KinFu LargeScale. Ces modules de PCL sont basés sur les travaux Kinect Fusion de Microsoft [3, 5]. KinFu contient un ensemble d outils pour reconstruire un modèle 3D d une scène via la Kinect c. Il travaille sur un volume restreint de la scène. KinFu LargeScale est une extension de KinFu qui permet de reconstruire plusieurs volumes et donc des espaces plus grands. Il possède aussi un outil permettant de texturer le modèle reconstruit Libfreenect La bibliothèque Libfreenect a été développé par la communauté OpenKinect. Elle contient toutes les fonctions pour manipuler la Kinect c. La plupart des fonctions ont été déduites empiriquement. Elle permet de manipuler bien plus de fonctions du dispositif que OpenNI (pour les versions inférieures à la 2). 1.2 Problématique Le passage du monde physique continu à celui du numérique discret comporte des erreurs de précisions. Les démonstrations existantes mettent en évidence deux types d erreurs [2, 4] liées notamment aux bruits présents sur les données issues des caméras de profondeur et au manque de robustesse des algorithmes. La première est l erreur liée 4

7 au modèle. C est-à-dire que le modèle reconstruit n est pas totalement exact, il peut comporter des surfaces manquantes, des déformations d échelle ou des déplacements de géométrie, comme nous pouvons le voir dans la figure 1. Figure 1: Exemple de l acquisition 3D d un couloir. Mise en évidence de la dérive de la pose estimée et de la déformation du modèle dues à l algorithme de reconstruction et aux bruits présents sur les données Le second problème concerne les textures, en particulier des soucis d alignement et de cohérence entre les textures (figure 2). 5

8 Figure 2: Mise en évidence des débordements de textures et des discontinuités de luminance et de balance des blancs dans un modèle texturé. Notre problématique est d améliorer l algorithme de plaquage de texture de KinFu LargeScale pour le rendre plus efficace face à des modèles 3D imparfaits et de supprimer, ou du moins réduire, ces défauts. 1.3 Objectifs Plusieurs recherches ont été menées sur les caméras de profondeur et la reconstruction 3D temps réel de scène en utilisant un dispositif muni d une caméra de profondeur et d une caméra RGB [2, 3, 5]. Microsoft Research a développé une méthode similaire utilisant leur dispositif Kinect c [5]. Nous décrirons la méthode employée dans la partie 2. Cette méthode est celle implémentée dans KinFu. Avec le projet Kinect Fusion, les chercheurs de Microsoft ont pour objectif d étendre les possibilités offertes par la Kinect c. KinFu utilise la caméra de profondeur de la Kinect c afin de créer un modèle numérique en 3D de la scène observée. Comme nous pouvons le voir dans la figure 3 la caméra RGB de la Kinect c n est pas utilisée dans le projet d origine. 6

9 Figure 3: Capacités de Kinect Fusion. L image RGB n est pas utilisée. Sur la base d un modèle 3D construit à l aide de l algorithme Kinect Fusion, nous voulons y plaquer des images acquises lors de la capture pour le texturer. Il faut répondre aux problèmes suivants : Cette texture ne doit pas faire apparaître les bords de l image à laquelle elle est associée. Les paramètres d acquisition doit être invariant pendant toute la saisie. Il ne doit pas avoir de décalage de la texture par rapport au modèle. Nous souhaitons ainsi qu un modèle reconstruit, à partir d une scène ne présentant pas de reflet et n ayant pas de variation dans ses conditions d éclairage, gagne en uniformité et en cohérence. 2 État de l art 2.1 Présentation de la Kinect c Dans le cas qui nous concerne, la Kinect c, dispositif accessible au grand public et facilement manipulable, est adaptée à la reconstruction 3D de scènes en intérieur. Elle est bien moins coûteuse qu un scanner 3D et c est ce qui a favorisé l émergence d une communauté très active autour de ce dispositif. Cependant ses avantages sont contrebalancées par la faible définition des images, la présence de bruits dans l image et la basse fréquence d acquisition entraînant une faible qualité des données. La Kinect c a d abord été conçu pour des interactions ludiques. Mais les données que la Kinect c est capable de gérer (par exemple carte de profondeur) apporte de nouveaux champs d application et de recherche dans le domaine de la reconstruction 3D [5]. Nous allons passer en revue les caractéristiques de la Kinect c [4] Caractéristiques techniques La Kinect c de Microsoft dispose d un capteur optique de profondeur constitué d un émetteur infra-rouge et d une caméra infra-rouge, ainsi que d une caméra RGB. Les deux 7

10 caméras ont des définitions d image différentes ( pixels pour la caméra RGB et pixels pour la caméra de profondeur) pour une fréquence d acquisition de 30 images par seconde Caméra de profondeur La caméra de profondeur permet d acquérir des mesures de distance. Celles-ci sont obtenu grâce à un émetteur infra-rouge qui projette dans la scène des faisceaux de lumières infra-rouges. La lumière est ensuite perçue par une caméra infra-rouge. Comme nous pouvons le voir dans la figure 4, les faisceaux projetés par l émetteur infra-rouge forment un motif de points particulier. Figure 4: Vision infra-rouge. Le réseau de points projeté par la Kinect c sert à déterminer les distances avec les surfaces de la scène. Ce motif, généré aléatoirement en usine, est connu par la Kinect c. Il sert à effectuer un calcul de corrélation entre le motif obtenu et le motif généré, afin d obtenir une carte des disparités. Un point de la carte des disparités est obtenu par triangulation entre les positions de la caméra infra-rouge, l émetteur infra-rouge et le point observé dans la scène. 8

11 Figure 5: Mesure de la valeur de disparité d [4]. Mise en évidence de la corrélation entre motif observé (Object plane) et le motif de référence (Reference Plane). La figure 5 représente la relation entre la distance à un point k de l objet et le capteur ainsi que la mesure de la disparité. A partir de cette information nous cherchons à déterminer les coordonnées dans l espace (XYZ) du point k. La distance Z k, qui corerespond à la distance au plan de l objet visé, se calcule avec l équation suivante : Z k = Z Z 0 fb d (1) Z 0, f et b sont des constantes qui peuvent être obtenues à partir de l étape de calibration. Les coordonnées X 0 et Y 0 peuvent être obtenues par les formules suivantes : X k = Z k f (x k x 0 + δx) (2) Y k = Z k f (y k y 0 + δy) (3) Où x k et y k sont les coordonnées images, x 0 et y 0 sont les coordonnées du point principale et δx et δy sont la correction de la distorsion de la lentille. Ainsi une carte de profondeur de la scène est obtenue à chaque acquisition. Elle est représentée par une image dans laquelle chaque pixel possède une valeur correspondant à la distance entre la caméra infra-rouge et le point observé. 2.2 Kinect Fusion Kinect Fusion est un algorithme permettant la reconstruction de modèles 3D à partir d une caméra de profondeur en temps réel. Afin de pouvoir l expliquer clairement, nous commencerons par détailler les opérations utilisées puis nous reviendrons sur les étapes de cet algorithme. 9

12 2.2.1 Opérations principales Filtre bilatéral de la carte de profondeur La carte de profondeur comporte des erreurs sous forme de bruits. Kinect Fusion réalise une correction par filtrage bilatéral. Ce filtre calcule pour un pixel donné sa nouvelle valeur en faisant la somme des valeurs de tous les pixels de l image pondérés suivant deux critères : la distance entre deux pixels dont l influence suit une fonction gaussienne ; la similarité entre deux pixels qui est la distance entre les valeurs de deux pixels. Ce filtre tend donc à se comporter comme un filtre gaussien dans une zone unie mais conserve les bordures. Figure 6: À gauche, l image d origine. À droite, l image corrigée par filtrage bilatérale. De la carte de profondeur au nuage de points La toute première étape consiste à établir une carte de profondeur suivant le fonctionnement que nous avons vu au début du document 2.1. Cette carte de profondeur se présente comme une image bitmap 16 bits en niveaux de gris (figure 7). La valeur du pixel indique sa profondeur. Plus le pixel a une valeur élevée, plus le point est éloigné de la caméra de profondeur et inversement, plus le pixel a une valeur faible plus le point est proche. Un pixel noir (valeur 0) signifie qu aucune mesure n a pu être faite. Les coordonnées x et y du pixel donnent sa position en abscisse et en ordonnée. 10

13 Figure 7: À gauche, la scène reconstruite par KinFu LargeScale. À droite, l image de profondeur en niveau de gris. Le nuage de points est reconstruit en prenant en compte de la résolution (w, h) de la caméra infra-rouge. Un pixel de coordonnées (x, y) T de valeur z (en mètre) est rétroprojeté : ( ) (2 x ) 1 x w z (2 y y ) 1 (4) h 1 Iterative Closest Point Iterative Closest Point (ICP) consiste à trouver dans le modèle en cours la position et l orientation du nuage de points courant qui minimisent la différence de distances des points avec ceux d un autre nuage. Comme son nom l indique, il s agit d une méthode itérative. Une première transformation est donnée puis itérativement, l algorithme trouve une meilleure position et rotation par une approche des moindres carrés. Il faut noter que la méthode part du principe qu il existe une correspondance possible parce que le mouvement de la caméra entre deux acquisitions est faible puisqu il s agit de calcul en temps réel. Pour calculer une itération dans ICP, nous avons besoin de deux carte de profondeur, une à l instant t qui est la dernière carte de profondeur et une autre à l instant t-1 qui est générée d après le modèle suivant la dernière estimation de pose. L appairage entre les deux cartes de profondeur est fait suivant : le pixel p i (x i,y i ) dans cette image correspond au pixel p i (x i,y i) dans la nouvelle carte de profondeur (dans la nouvelle saisie). La distance d erreur est calculée avec une méthode appelée «point-to-plane error». Pour chaque couple de points que nous avons déterminé, nous calculons la distance entre le point du modèle est la tangente du point du nouveau nuage de point. Afin d en améliorer la robustesse et la rapidité, nous avons trois définitions différentes de la carte de profondeur dont deux sont de plus basses résolution que l original. Nous générons un nuage de points à partir de la carte de profondeur de plus faible définition. L algorithme ICP est appliqué à ce nuage de points afin d avoir une première estimation. Lorsque l algorithme a convergé, nous passons au nuage de points généré de définition 11

14 supérieur et l algorithme ICP est rappliqué. Ce schéma est reproduit une troisième fois sur la carte d origine, à savoir celle de plus haute définition. Une fois la transformation optimale entre le nuage de point courant et le modèle est estimée, nous en déduisons le mouvement de caméra entre les deux instants t et t 1 en inversant la matrice de transformation précédemment trouvée. Matrice TSDF La matrice Truncated Signed Distance Function (TSDF) représente la distance signée entre un point et la surface la plus proche, où les valeurs négatives sont à l intérieur de l objet. Cette distance est ensuite tronquée pour qu elle soit comprise entre -1 et 1 inclus. La matrice TSDF est un cube de dimensions métriques déterminées. Ce cube est divisé en un nombre de voxels connu. Nous avons le même nombre de voxels sur chaque axe du cube. Elle est la structure utilisée dans Kinect Fusion pour contenir le modèle en cours de reconstruction. Chaque voxel de ce cube contient la TSDF entre centre et la surface la plus proche. La surface des objets est l iso-surface en 0 (figure 8). Cette matrice est stockée en mémoire graphique pour permettre sa mise à jour en temps réel. Figure 8: Principe de fonctionement d une matrice TSDF dans Kinect Fusion. 2.3 Pipeline de Kinect Fusion L algorithme Kinect Fusion (annexe 30) commence par acquérir la carte de profondeur de la Kinect c. Afin de limiter l impact du bruit, la carte de profondeur est filtrée au moyen d un filtre bilatéral(2.2.1). De cette image filtrée est générée une pyramide gaussienne à trois niveaux où la définition de l image est diminuée à chaque fois par quatre. De ces trois images de profondeurs est déduit trois nuages de points suivant la méthode énoncée plus haut (2.2.1). Une information de normale est aussi associée à chaque point pour préparer le calcul de distance fait dans ICP Lors de la première itération de Kinect Fusion, la trajectoire de la caméra est initialisé avec une pose initiale (habituellement (1.5, 1.5, 0.3) T pour une matrice TSDF de 12

15 dimensions mètres). Le nuage de points de plus haute définition est ensuite utilisé pour mettre à jour la valeur des voxels de la matrice TSDF. Concernant les itérations suivantes, une estimation de pose est faite entre les trois nuages de points courants et trois nuages de points générés à partir du modèle en cours de construction. La nouvelle pose est d abord assumée être égale à l ancienne, puis déterminée par ICP. La matrice TSDF est finalement mise à jour par moyenne pondérée. 2.4 PCL, KinFu et KinFu LargeScale Maintenant que nous avons vu le fonctionnement de la Kinect c et Kinect Fusion, nous allons voir son implémentation avec la bibliothèque PCL Point Cloud Library (PCL) PCL est un projet open-source sous licence BSD à grande échelle pour le traitement des nuages de points dans un environnement 3D. Ce projet est développé et financé par de grands groupes industriels et de recherche à travers le monde. Il contient de nombreux modules permettant d effectuer différentes opérations comme le filtrage, la reconstruction, la segmentation, etc... Il est utilisable sur toutes les plateformes courantes (Windows, Mac OS et Linux) KinFu KinFu est l implémentation sous PCL du projet de recherche Kinect Fusion d une équipe de recherche de Microsoft afin de réaliser la reconstruction 3D avec la Kinect c KinFu LargeScale La communauté du projet PCL a étendu les possibilités de KinFu afin de reconstruire des scènes de très grandes tailles et de plaquer les textures dans le modèle reconstruit. Il s agit de KinFu LargeScale (KinFu à grande échelle). Reconstruction de l ensemble du modèle KinFu reconstruit la scène dans un modèle ayant un espace fini. Cet espace est un cube d une taille définie par l utilisateur. Au début de l acquisition, il n y a donc qu un seul cube. KinFu LargeScale ajoute de nouveaux espaces cubiques dès que nécessaire lorsque la caméra se déplace dans le cube courant et dépasse le seuil de changement de volume. Afin de réduire les imprécisions, ce cube est divisé en voxels (pixel volumétrique). Le nombre de voxels définit la résolution. Chaque voxel stocke une distance signée entre le lui et la surface la plus proche détecté par la Kinect c. Cette valeur est bornée pour être comprise entre -1 et 1. Une valeur positive indique le voxel est devant la surface. Une valeur négative indique que le voxel est derrière une surface. Plus le voxel se trouve proche de la surface, plus cette valeur approche 0. La valeur 1 indique donc que c est du vide. Cette technique se nomme Truncated Surface Distance Function (TSDF). Le modèle visuel est reconstruit par un algorithme de type marching-cube. Lorsqu une partie de la scène est acquise à nouveau, les valeurs des voxels concernées sont mises à jour par un calcul de moyenne pondérée. Le modèle est visualisé avec un algorithme de ray-casting. 13

16 Lors du dépassement du seuil de changement de volume, les données présentes dans le volume en cours sont copiés dans un modèle monde et le volume est ensuite centrée sur la caméra. Reconstruction de la texture Au cours de l acquisition de la du modèle 3D et à intervalle de temps paramétrable, une image RGB est acquise par la caméra RGB. Cette image est associée à une pose de la caméra dans l espace, à savoir les 6 degrés de liberté (translations et rotations). Nous obtenons un ensemble numéroté de fichiers PNG (Portable Network Graphics) associés à un fichier texte contenant les paramètres extrinsèques de la caméra. Ces images sont utilisées comme texture lors de la reconstruction du modèle. Pour chaque caméra, le modèle est placé de manière à être dans la bonne position et rotation relativement à la caméra. Ensuite, pour chaque face du modèle, la texture est projetée, si elle existe (figure 9). S il n y a aucune occlusion entre la face et la caméra, chaque sommet reçoit des coordonnées de textures. Les faces dont aucune texture n est projetée sont associées à une texture vide. Figure 9: Le modèle doit être placé relativement à la pose de telle manière à ce que la position et la rotation relative avec la caméra soit identique qu au moment de l acquisition. Ensuite, la texture est tout simplement projetée sur chaque face entièrement visible Kintinuous Comme KinFu, Kintinous se base sur les travaux de Kinect Fusion. Il se présente comme une solution modulaire où chaque partie travaille en parallèle [?]. Une fenêtre d espace du TSDF est mise à jour à partir d un certain seuil de distance entre la position d origine de la caméra dans cet espace du volume de la matrice TSDF et la position actuelle de la caméra. Cela lui confère une meilleure robustesse sur des espaces très grands. L une des composantes, Fast Odometry from Vision (FOVIS), permet de diminuer la dérive spatiale. La version actuelle ne prend pas en compte la fermeture de boucle comme pour RGB-D mapping. 14

17 2.4.5 RGB-D mapping Le RGB-D mapping, décrit dans l article [2], utilise conjointement les données RGB, et de profondeur pour l estimation de la scène. Il fait apparaître la notion de «surfels». Ce sont des patches colorés qui s adaptent selon la résolution des données. Dans le cas de KinFu, nous utilisons un plaquage de textures associés à une pose caméra. Dans l image RGB courante et précédente, nous extrayons des points d intérêt que nous mettons en correspondance avec un algorithme de type ICP qui prend en compte les composantes couleurs. Le processus est accéléré par un algorithme de type RANdom Sample And Concensus servant à extraire une caractéristique parmi un ensemble de donnée éparse. L une des problématiques à laquelle la technique RGB-D mapping répond est l alignement globale du modèle (figure 11). En effet, lors de l acquisition d une scène avec KinFu, un problème de cohérence est constatée lorsque nous revenons à la position de départ (figure 10). Cette technique permet de détecter une boucle à partir des images RGB. Lorsqu on détecte une boucle, c est à dire quand deux images RGB ont des caractéristiques identiques, un alignement globale est appliquée à toute la scène afin de préserver la cohérence. Les erreurs d alignement sont imputées à l ICP et sont perceptibles sur des scènes de grandes tailles. Figure 10: Sur l image de gauche, nous avons un bouclage et nous observons sur les bords une partie du modèle qui ne devrait pas s y trouver. Sur l image de droite, la carte de profondeur telle observée par la Kinect c. 15

18 Figure 11: Sur l image de gauche, la trajectoire de la caméra estimée. Sur l image de droite, la trajectoire de la caméra corrigée après la détection de la boucle Contribution Étude et amélioration du signal RGB Étude de l impact de la balance des blancs, de la correction de couleur et de l exposition sur la qualité de l image RGB Nous avions besoin de déterminer quels paramètres entrent en jeu dans l acquisition des images et qui entrainent de forte variation de lumière d une image à l autre. La figure 12 illustre ces variations entre deux acquisitions d images successives. Figure 12: Rendu KinFu avec auto-exposition. Mise en évidence de la variation des conditions d acquisition des images au cours du temps Nous avons fait varier les paramètres disponibles avec Libfreenect qui ont un rapport direct avec la qualité de l image RGB. Pour déterminer les plus significatifs dans la qualité 16

19 des images obtenues (auto-exposition, correction de couleur et la balance des blancs), nous avons effectué des tests d acquisition. Auto-exposition Correction de couleur Balance des blancs avec changement au cours du temps aucun changement aucun changement sans aucun changement aucun changement désaturation des couleurs Table 1: Evaluation des changements entre deux images lors d une acquisition avec ou sans les différents paramètres disponibles dans Libfreenect La conclusion que nous pouvons établir à ce niveau est que seule l auto-exposition varie dynamiquement au cours de l acquisition avec la Kinect c qui est la principale cause de discontinuité dans les textures. Ainsi le seul paramètre intéressant à contrôler Contrôle des paramètres d acquisitions des images dans KinFu LargeScale Dans la volonté de gérer les paramètres d acquisition des textures plus finement, nous avons substitué la bibliothèque OpenNI par la bibliothèque Libfreenect. En effet, la version actuellement supportée d OpenNI (version 1.5) ne permet pas modifier l exposition. Nous avons mis en place un premier protocole (figure 13) afin de pouvoir convertir les données RGB et les données de profondeur acquise par le biais de Libfreenect dans un format exploitable par KinFu LargeScale. Notre première approche à consister à substituer les images acquises par défaut dans KinFu LargeScale par les images obtenues avec Libfreenect. Cette technique demande de réaliser deux acquisitions de la même scène. Elle n est donc pas exploitable dans les conditions attendues d utilisation de KinFu. C est-àdire un utilisateur se déplaçant librement dans la scène, un tel parcours est impossible à reproduire deux fois de suite. Figure 13: Technique d acquisition utilisant Libfreenect dans le processus de création de scène texturé La méthode définie ci-dessus (figure 13) nous a permis d effectuer plusieurs acquisitions. Comme attendu, la désactivation de l auto-exposition permet d avoir des textures sans discontinuité de luminance (figure 14). 17

20 Figure 14: Scène texturée sans auto-exposition. Mise en évidence de la continuité en luminosité de la texture appliquée au modèle Nous avons par la suite amélioré la méthode d acquisition présentée plus haut dans cette sous-section afin de n avoir plus qu une seule étape d acquisition des données RGB et profondeur. Cette méthode est décrite dans le rapport technique. 3.2 Etude et amélioration du plaquage des textures Nous avons maintenant une texture continue en luminance sur notre modèle mais cela ne suffit pas car des défauts subsistent (figure 15). Afin de mieux les comprendre, nous avons traité deux hypothèses : comme une basse résolution de la matrice TSDF entraine une moins bonne conservation des angles et des coins des objets, cela pourrait provoquer le débordement des textures. Les imprécisions de l estimation de la pose entraine des défauts d alignement entre les textures et le maillage. Figure 15: Débordement de texture sur les objets voisins 18

21 3.2.1 Etude de l impact de la résolution de la matrice TSDF Contexte Notre première hypothèse a été que la trop basse résolution du modèle est en partie la cause des débordements de textures. En effet, la scène étant rendu avec un algorithme proche du «marching cube», les coins des objets sont arrondis. Nous avons donc supposé que l augmentation de la résolution de la matrice TSDF permettrait une meilleur conservation (par exemple, une erreur plus faible) des angles et donc pourrait permettre d éviter les débordements de texture. L exemple suivant (figure 16) montre l impact d une résolution faible du modèle et les déformations que cela entraine sur sa géométrie. Figure 16: Impact de la résolution de la matrice TSDF. Mise en évidence de la déformation du modèle après reconstruction Procédure Notre protocole a été de faire plusieurs reconstructions du modèle 3D en faisant varier la résolution de la matrice TSDF sur le même jeu de données. Nous avons pris trois résolutions de matrices pour le cube : 384, 256, 128 voxels par cotés. Les figures suivantes montrent l impact visuel sur le décalage de texture au niveau du clavier (figure 17) : 19

22 (a) Résolution de 128 voxels de côtés (b) Résolution de 256 voxels de côtés (c) Résolution de 384 voxels de côtés Figure 17: Impact de la résolution de la matrice TSDF sur une scène réelle Résultat Contrairement à nos attentes, l augmentation de la résolution de la matrice TSDF, entrainant une amélioration de la conservation des angles, ne semble pas résoudre le débordement des textures, ni même réduire ce problème. Nous aurions souhaité faire des tests avec des résolutions supérieures mais notre matériel (carte graphique) ne nous le permettait pas. A ce stade, nous ne pouvons pas conclure qu une matrice TSDF avec une résolution nettement supérieure aurait pu éviter ce genre de débordement Étude de la dérive de la pose estimée avec les scènes Blender Dans de nombreuses scènes reconstruites, nous constatons un décalage de textures dues à des erreurs d estimation de pose des caméras (figure 18). À chaque image RGB 20

23 acquise pour la texture, il est associé une pose caméra. C est une position relative à celle de départ. L estimation de pose est directement liée à l estimation ICP qui établit la correspondance spatiale d un nuage de points et un autre. Nous avons émis l hypothèse que l estimation de la pose (ICP) peut être faussée. Figure 18: Problèmes d alignement de texture dans une scène virtuelle sous Blender Contexte Nous avions alors besoin de vérifier comment se comporte l ICP en fonction des mouvements de la caméra et ainsi comparer la vraie valeur à celle trouvée par l ICP. Afin d avoir une maîtrise totale sur le mouvement de la caméra et le contenu de la scène, nous avons opté pour la réalisation d une scène sous Blender. En maîtrisant le mouvement de la caméra, nous connaissons à chaque instant la pose de la caméra. En maîtrisant la scène, nous nous assurons de son invariance dans le temps. Pour rappel, KinFu LargeScale est implémenté dans le cadre de la reconstruction rigide. L outil PCL pour capturer une scène est capable d interpréter en entrée des nuages de points. Nous utilisons en l occurrence une version spéciale de Blender appelée Blensor 1 capable d exporter un modèle au format PCD en simulant une Kinect c pour la caméra de la scène. La scène Blender provient du site thefree3dmodels.com (figure 19). Nous avons choisi cette scène en raison de sa topographie. Elle se constitue d un ensemble de parallélépipèdes imbriqués les uns sur les autres formant des cas simples pour l algorithme ICP. Par ailleurs, les motifs quadrillés caractéristiques des façades des immeubles nous permettent de visualiser facilement comment les textures sont appliquées. 1. http ://www.blensor.org/ 21

24 Figure 19: Scène virtuelle sous Blender Procédure Nous avons placé dans la scène Blender une caméra. Elle est animée par une simple translation couplée à une rotation sur l axe Y. Nous avons également une autre caméra avec une seule translation et aucune rotation. Chaque instant, un nuage de points et une image RGB est généré. Les nuages de points sont ensuite envoyés dans notre outil de conversion (décrit dans le rapport technique) afin qu ils soient lisibles par PCL qui à son tour prend ces nuages en entrée pour former les maillages finaux. Le mouvement de la caméra démarre avec une légère accélération et finit une légère décélération afin de connaître également l influence de la vitesse dans la précision de l ICP. Résultats Visuellement, la reconstruction semble correcte. La silhouette de la ville est reconnaissable. Cependant, lors de l affichage de la texture, des problèmes apparaissent. Les textures sont déformées à certains endroits notamment lorsqu il s agit de coins concaves (figure 20). Cela est notamment dû à la perspective. Lorsque la texture est projetée, celle-ci est conforme à un point de vue mais pas à un autre. La projection des textures sont sensibles à la perspective. 22

25 (a) La texture aux coins de l immeuble sont corrects de ce point de vu. (b) Dans un autre point de vu, la texture n est plus correcte. Figure 20: Déformation de perspective Il y a également du débordement de texture (figure 21). Cela arrive à cause des contours de maillages. Quand la texture est projetée sur le maillage, chaque pixel peut être associé ou non à un triangle. Or sur un contour, un pixel est à la fois sur un maillage et autre. Cette erreur de précision fait que certaines surfaces ont la couleur de bordures d un autre maillage. Figure 21: Débordement de texture des contours d une maillage À certains endroits du maillage, il y a des coupures dans la texture. C est-à-dire qu une 23

26 texture ne recouvre pas totalement certaines surfaces (figure 18). Nous avons récupéré les valeurs de la pose caméra à chaque instant sous Blender (figure 22) et celle calculée par PCL. Nous avons pu établir des graphes pour constater la dérive de l estimation de pose. Plus la caméra se déplace et plus la dérive augmente (figure 24). Cette croissance est quasi-linéaire par rapport au mouvement de la caméra. Figure 22: Dérives de la pose caméra sur chacun des axes de translation dans le temps 24

27 Figure 23: Erreurs instantanées et distance entre l estimation et la réalité Figure 24: Scène virtuelle en bleue et le modèle reconstruit en rouge superposée. Cette capture d écran montre les bâtiments les plus éloignées de la première pose caméra. Dans la figure 25, nous pouvons voir en évidence deux pics sur la dérive en X et en Y. Ces pics interviennent exactement au déclenchement d un déplacement de l espace de travail de la matrice KinFu LargeScale. Ce phénomène n explique pas les coupures de textures car les cubes n intersectent pas avec ces coupures. En revanche, le graphe (figure 25) montre que plus la vitesse est grande, plus la dérive est importante. Nous rappelons que la caméra démarre avec une accélération progressive et s arrête avec une décélération progressive. La dérive se produit même sur les axes où il n y a aucun mouvement. 25

28 Figure 25: Erreur de la pose caméra sur chacun des axes pour une caméra ayant un mouvement de translation sur un seul axe (X) L ICP n est pas totalement précis cependant la plupart des textures sont présentes et recouvrent les surfaces auxquelles elles sont associées. Les problèmes liés à la perspectives ne sont pas dues à l ICP et nous avons vu que les problèmes de coupures n ont pas de lien avec l ICP non plus. Cependant nous avons démontré qu ICP entraine une dérive de l estimation ce qui entraine des déformations sur le maillage Amélioration de l algorithme de plaquage des textures Compte tenu de nos études, nous n avons pas réussi à déterminer un facteur qui entrainerait des problèmes de débordement ou de décalage dans les textures plaquées au modèle. Nous savons cependant que l estimation de pose dérive. Nous avons donc chercher à mettre en place un système de tri entre les images à plaquer pour chaque face du maillage. Le critère de tri devrait favoriser les images entrainant potentiellement le moins de débordement et de décalage. Ce risque peut être diminué en choisissant l image proposant l angle d incidence le plus droit pour une face donnée 26. La droite formée par le centre de la caméra et le barycentre de la face et la normale de cette face doivent être le plus aligné possible. 26

29 Figure 26: Impact de l erreur de pose sur le décalage de texture pour un pixel central. En noir : Pose réel de la caméra et plaquage de son pixel central. En rouge : Estimation de la pose faite par KinFu et plaquage de son pixel central. Pour une même erreur dans l estimation de pose, le décalage de texture est minimal lorsque la face texturée est face à la caméra (l erreur est inférieur sur la face (A) à l erreur sur la face (B)). Nous avons implémenté ce tri dans l outil de plaquage des textures de KinFu LargeScale. Nous avons fait en sorte que le critère soit facilement modifiable dans le code. 4 Résultat 4.1 Résultats et validations Comparaison de notre méthode de plaquage de texture avec celle de KinFu Comme nous l avons vu, l exposition est automatique dans le processus d acquisition des images au sein de l implémentation actuelle de KinFu. Nous avons choisi de supprimer l ajustement automatique du temps d exposition pour garantir la continuité en luminance des textures dans le modèle 3D final. Nous avons améliorer l algorithme de sélection de textures pour chacune des faces. Comme nous pouvons le voir dans la figure 14, les frontières visibles entre deux textures issues d images différentes sont correctement supprimées. 27

30 (a) texturation sans tri proposé par PCL (b) texturation avec un tri Figure 27: Les jeux de données utilisés sont strictement identiques Le critère mis en évidence dans la partie précédente (3.2.3) permet d avoir un résultat nettement plus précis. Lors de la reconstruction d une scène réelle, l amélioration est bien plus significative Les limites de notre méthode Problème de sur et sous-exposition L exposition étant constante au cours du temps, nous nous retrouvons avec des problèmes de surexpositions et de sous-exposition (figure 28) correspondant aux variations d intensité de lumière (par exemple la lumière du jour). Une piste a étudier pour palier à ce genre de problèmes serait de remettre l exposition automatique et de compenser les différences par un contrôle plus fins des paramètres de la caméra RGB et d y associer une méthode de mélange de texture [1]. 28

31 (a) Avant correction (b) Après correction Figure 28: Compensation des variations d expositions avec du multi-band blending, une méthode efficace de mélange d image Problème liés au critère de tri des images Le critère utilisé est trop simple et ne permet pas de prendre en compte correctement un maillage bruité ou une surface avec des angles doux. Il faudrait se baser sur la normale du triangle que nous voulons texturer et de la normale de ses voisins pour le calcul d incidence. Il faudrait également compléter ce critère avec d autre comme la distance entre la caméra et le triangle, éviter des images floutées ou avec de faibles contrastes, forcer des triangles voisins à avoir la même image de plaqué. Voir la présentation faite dans la LC3D 2012, par Hannemann et Brock Short Survey of Texturing Methods for Meshes and Large Sets of Registered Images Problème de «débordement continu» Le plaquage de texture de la scène virtuelle suivant notre méthode a permis de mettre en avant le fait que le débordement de texture était potentiellement présent sur tous les contours. Cela nous permet de mieux comprendre cerner les paramètres en cause dans ce problème. Nous pensons que le problème qu étant donné que les contours des objets sur les images RGB sont crénelés de par la nature même des images là ou un maillage contient des contours droits. Un sommet du maillage peut donc très bien être visible car juste à coté d un contour d un objet. Néanmoins, ses coordonées UV peuvent être dans un pixel où la couleur n est pas celle de l objet auquel le sommet appartient à cause des bordures crénelées des images RGB. 29

32 Figure 29: Le sommet de la face lointaine Nous proposons comme test à effectuer pour confirmer cette hypothèse la texturation d un maillage avec peu de faces et de le comparer avec des versions texturées du même maillage où chaque face seraient subdivisée plusieurs fois. Si notre hypothèse est vrai, l effet de débordement serait plus apparent 5 Conclusion 5.1 Rappel de la problématique La Kinect c a rendu la reconstruction 3D accessible. Des outils comme PCL, Libfreenect ou encore OpenNI permettent de faciliter l usage des dispositifs d acquisition servant à la reconstruction 3D. Cependant, le passage du monde physique au numérique introduit des erreurs. Des algorithmes permettent de les corriger mais il n existe aucune solution parfaite. Le modèle reconstruit n est pas conforme dans la forme (le maillage) et l apparence (la texture). Après lecture de la littérature et observation des démonstrations, nous nous sommes penchés sur les problèmes qui touchent les textures. Nous y trouvons des problèmes d alignement par rapport au maillage et de cohérence entre les textures. Notre objectif a donc été d étudier ces problèmes et de proposer une amélioration. 5.2 Récapitulation des contributions et des résultats Nous avons étudié les problèmes en essayant nous-même la librairie PCL. L autoexposition est responsable des discontinuités de luminance et de balance des blancs entre textures. En conservant les mêmes paramètres d acquisition, nous nous assurons d avoir une meilleure continuité de luminance. Cependant, certaines textures peuvent être surexposées ou sous-exposées. 30

33 L estimation de pose a été étudié dans une scène virtuelle et a permis de mettre en évidence sa dérive. Ceci a justifié la proposition d un algorithme de sélection de textures selon l angle formée par la normale de la face et la droite passant par le centre optique de la caméra et le barycentre de cette face. 5.3 Vers d autres solutions Nous avons également vu des solutions sur lesquelles nous aurions souhaitées approfondir davantage. Il s agit d une part de Kintinuous [6] qui se présente comme une version enrichie de KinFu LargeScale. Il dérive moins, il résiste mieux aux surfaces planes et il texture en temps réel. Il s agit aussi de RGB-D mapping [2] pour sa précision dans l estimation de la pose renforcée par la détection de fermeture de boucle. 31

34 Glossary PCL Point Cloud Library. Blender Application libre de modélisation et d animation 3D. caméra de profondeur Dispositif d acquisition de la profondeur sous forme d une matrice 2D. Les données de profondeur représentent la distance entre l optique et les surfaces dans la scéne. C est une combinaison entre des capacités matérielles (acqusition optique) et des capacités logicielles (déterminer les distnaces). Le produit est une carte de profondeur.. caméra RGB Dispositif d aquisition d image couleurs codant les couleurs dans l espace Rouge, Vert, Bleu. carte de profondeur Une carte de profondeur est une image qui contient des informations relatives à la distance des objets de la scène par rapport à la caméra.. coordonées UV Coordonées 2D d un point dans une texture.. ICP Iterative Closest Point. Kinect Fusion Algorithme proposé à l ISMAR 2011 par Microsoft Research [5] permettant la reconstruction temps réel d une scène via une Kinect c. KinFu Implémentation dans PCL de Kinect Fusion. KinFu LargeScale Extension de KinFu qui permet de gérer une scène plus grande et de plaquer les textures. Libfreenect Librairie open-source développée par la communauté OpenKinect afin de permettre des manipulations bas niveaux avec la Kinect c.. maillage Ensemble de sommets, arêtes et faces qui permettent de définir la forme d un ou plusieurs objet dans un espace â trois dimensions.. OpenNI Consortium chargé de promouvoir et standardiser les dispositifs, les librairies et les frameworks pour le développement d application à interactions dites «naturelles», c est-à-dire des interactions dont l utilisateur n a pas à utiliser explicitement un dispositif pour communiquer avec le système. La librairie OpenNI facilite la communication bas niveaux avec les dispositifs.. PNG (Portable Network Graphics) Format d image compressée sans perte. RANdom Sample And Concensus Algorithme extrayant une caractéristique parmi un ensemble de donnée éparse. Il supprime les données les plus éloignées de l ensemble (en anglais, outliers).. RGB images couleur définies par les composantes Rouge, Verte (Green en anglais) et Bleue. scanner 3D Dispositif d acquisition capable de capter les informations de surface d un volume et de reconstruire le modèle 3D complet de l objet scanné. Les scanners 3D actuels sont souvent des appareils lourds et coûteux.. 32

35 surfel Le surfel représente un ensemble de points. Il est déterminé par une taille, une orientation (de face), une taille et une couleur. C est une mesure de confiance qui augmente à mesure que le surfel est vu de différents points de vue.. temps de vol (Time-Of-Flight, TOF) Ensemble de méthodes qui permettent de mesurer le temps mis par un objet, particule ou onde pour atteindre une distance en traversant un milieu donnée. Ces méthodes peuvent être aussi utilisées pour mesurer la distance parcourue ou la vitesse acquise par l objet.. TSDF Truncated Signed Distance Function. voxel (volumetric pixel) L espace se définit comme une grille tridimenqionnelle et le voxel est une analogie du pixel de l espace bidimentionel. A l instar des pixels un voxel ne posséde pas de coordonnés dans l espace 3D. C est l encodage du fichier qui définit leur emplacement. Le voxel stocke un ensemble d informations (colorimétriques, voire temporelles, et facultativement, une taille relative à l unité utilisée ou d autres informations telles qu une matière).. Références [1] M. Brown and D.G. Lowe. Automatic panoramic image stitching using invariant features. International Journal of Computer Vision, 74(1) :59 73, [2] P. Henry, M. Krainin, E. Herbst, X. Ren, and D. Fox. Rgb-d mapping : Using kinectstyle depth cameras for dense 3d modeling of indoor environments. The International Journal of Robotics Research, 31(5) : , [3] S. Izadi, D. Kim, O. Hilliges, D. Molyneaux, R. Newcombe, P. Kohli, J. Shotton, S. Hodges, D. Freeman, A. Davison, et al. Kinectfusion : Real-time 3d reconstruction and interaction using a moving depth camera. In Proceedings of the 24th annual ACM symposium on User interface software and technology, pages ACM, [4] K. Khoshelham. Accuracy analysis of kinect depth data. In ISPRS workshop laser scanning, volume 38, page 1, [5] R.A. Newcombe, A.J. Davison, S. Izadi, P. Kohli, O. Hilliges, J. Shotton, D. Molyneaux, S. Hodges, D. Kim, and A. Fitzgibbon. Kinectfusion : Real-time dense surface mapping and tracking. In Mixed and Augmented Reality (ISMAR), th IEEE International Symposium on, pages IEEE, [6] T. Whelan, M. Kaess, M.F. Fallon, H. Johannsson, J.J. Leonard, and J.B. McDonald. Kintinuous : Spatially extended KinectFusion. In RSS Workshop on RGB-D : Advanced Reasoning with Depth Cameras, Sydney, Australia, Jul

36 Annexe 34

INFOGRAPHIE. Rapport du Projet de dessin 2D et 3D

INFOGRAPHIE. Rapport du Projet de dessin 2D et 3D Institut Galilée INFO 1 : Yohan ROUSSET Stéphane FOURNIER INFOGRAPHIE Rapport du Projet de dessin 2D et 3D Superviseur : R. MALGOUYRES Année 2008-2009 2 Table des matières I. Introduction... 4 II. Dessin

Plus en détail

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR Mickaël Bergem 25 juin 2014 Maillages et applications 1 Table des matières Introduction 3 1 La modélisation numérique de milieux urbains

Plus en détail

Esiee 2008 Buzer. Guide d utilisation. Scanner LPX-600

Esiee 2008 Buzer. Guide d utilisation. Scanner LPX-600 Esiee 2008 Buzer Guide d utilisation Scanner LPX-600 Principes de base Scan à balayage rotatif L objet est placé sur un plateau rotatif. Le système de mesure se déplace uniquement en hauteur. L objet va

Plus en détail

PHYSIQUE. 5 e secondaire. Optique PHY-5041-2 DÉFINITION DU DOMAINE D EXAMEN

PHYSIQUE. 5 e secondaire. Optique PHY-5041-2 DÉFINITION DU DOMAINE D EXAMEN PHYSIQUE 5 e secondaire Optique PHY-5041-2 DÉFINITION DU DOMAINE D EXAMEN MAI 1999 Quebec PHYSIQUE 5 e secondaire Optique PHY-5041-2 DÉFINITION DU DOMAINE D EXAMEN MAI 1999 Direction de la formation générale

Plus en détail

Enveloppes convexes dans le plan

Enveloppes convexes dans le plan ÉCOLE POLYTECHNIQUE ÉCOLES NORMALES SUPÉRIEURES ÉCOLE SUPÉRIEURE DE PHYSIQUE ET DE CHIMIE INDUSTRIELLES CONCOURS D ADMISSION FILIÈRE MP HORS SPÉCIALITÉ INFO FILIÈRE PC COMPOSITION D INFORMATIQUE B (XECLR)

Plus en détail

Cahier. des charges. T.E.R. : Modélisation architecturale basée photo/vidéo. reconstruction intérieure basée profondeur

Cahier. des charges. T.E.R. : Modélisation architecturale basée photo/vidéo. reconstruction intérieure basée profondeur Cahier T.E.R. : Modélisation architecturale basée photo/vidéo reconstruction intérieure basée profondeur des charges Renaud Jean-Christophe Naville Vincent Explicitation du contexte Dans le cadre de notre

Plus en détail

Introduction à la Vision 3D

Introduction à la Vision 3D à la Vision 3D David Fofi Le2i UMR CNRS 6306 IUT Le Creusot Les applications présentées sont le fruit d une collaboration entre le Le2i et le laboratoire VICOROB de l Université de Gérone (Espagne). Les

Plus en détail

ALGORITHMES POUR LA VISUALISATION SCIENTIFIQUE

ALGORITHMES POUR LA VISUALISATION SCIENTIFIQUE BAZEILLE Stéphane MOUGEL Baptiste IUP3 ALGORITHMES POUR LA VISUALISATION SCIENTIFIQUE EN Année 2003/2004 1 TABLE DES MATIERES Home... 3 Introduction.... 3 Marching Square... 4 Algorithme....4 Programmation...4

Plus en détail

PROJET DE FIN D ÉTUDES Asservissement visuel d un robot parallèle à câbles pour la réalisation d une fresque verticale de grande taille

PROJET DE FIN D ÉTUDES Asservissement visuel d un robot parallèle à câbles pour la réalisation d une fresque verticale de grande taille Résumé de PFE PROJET DE FIN D ÉTUDES Asservissement visuel d un robot parallèle à câbles pour la réalisation d une fresque verticale de grande taille Introduction Dans le domaine de la robotique, la robotique

Plus en détail

Figure 6.3: Possibilité d exprimer son talent

Figure 6.3: Possibilité d exprimer son talent SÉANCE 6 Création de schémas 6.1 Présentation du logiciel «Draw» est un logiciel de dessin vectoriel et de PAO (Publication Assistée par Ordinateur). Avec ce logiciel, il vous est possible de créer divers

Plus en détail

Projet ESINSA 5 TRAITEMENT D IMAGE. Active Contours without Edges for Vector-Valued Images. Par Nicolas Brossier et Cyril Cassisa

Projet ESINSA 5 TRAITEMENT D IMAGE. Active Contours without Edges for Vector-Valued Images. Par Nicolas Brossier et Cyril Cassisa Projet ESINSA 5 TRAITEMENT D IMAGE Active Contours without Edges for Vector-Valued Images Par Nicolas Brossier et Cyril Cassisa Page 1 sur 14 Abstract Pour ce projet, nous implémentons un algorithme de

Plus en détail

ENSEIRB-MATMECA PG-113 2014. TP6: Optimisation au sens des moindres carrés

ENSEIRB-MATMECA PG-113 2014. TP6: Optimisation au sens des moindres carrés ENSEIRB-MATMECA PG-113 014 TP6: Optimisation au sens des moindres carrés Le but de ce TP est d implémenter une technique de recalage d images qui utilise une méthode vue en cours d analyse numérique :

Plus en détail

Animation d un robot

Animation d un robot nimation d un robot IFT3355 : Infographie - TP #1 Jérémie Dumas Baptiste De La Robertie 3 février 2010 Université de Montréal Table des matières Introduction au problème 2 1 Transformations 2 1.1 Passage

Plus en détail

Mise en scène d un modèle dans l espace 3D

Mise en scène d un modèle dans l espace 3D CHAPITRE 3 Mise en scène d un modèle dans l espace 3D Blender permet de construire des espaces à la manière d une scène de théâtre. Pour cela, il présente dès l ouverture tout ce dont on a besoin : un

Plus en détail

Chapitre 1 Introduction

Chapitre 1 Introduction Chapitre 1 Introduction La réalité augmentée assistée par ordinateur est un domaine émergeant, qui progresse rapidement. Son principe est de mélanger le monde réel et le monde virtuel. De nombreuses applications

Plus en détail

Vision industrielle Dispositif optique

Vision industrielle Dispositif optique Vision industrielle Dispositif optique Plan du cours L objectif La focale L ouverture La mise au point Qualité d image Choix de l objectif Cours de Vision Industrielle Nicolas Vandenbroucke 2 Constitution

Plus en détail

Bibliothèque de Traitement d Images en Niveaux de Gris

Bibliothèque de Traitement d Images en Niveaux de Gris TP Bibliothèque de Traitement d Images en Niveaux de Gris Étudiants : Besnier Alexandre Taforeau Julien Version 1.2 Janvier 2008 2008 Rapport TP - Version 1.2 i Table des matières Introduction 1 1 Objectif

Plus en détail

IMN459 - Fondements de la vision par ordinateur

IMN459 - Fondements de la vision par ordinateur IMN459 - Fondements de la vision par ordinateur Chapitre 1 Introduction 1. Acquisition IMN117 2. Traitement IMN259 Scène 3D Caméra optique Une ou plusieurs images 2D Caractéristiques bas niveaux (contours,

Plus en détail

IMAGE NUMÉRIQUE IMAGE NUMÉRIQUE

IMAGE NUMÉRIQUE IMAGE NUMÉRIQUE 1. Signal analogique et signal numérique 2. Image matricielle - notion de pixel 2.1 La définition 2.2 La résolution 3. Image numérique 3.1 Image en niveaux de gris 3.2 Image en couleurs 4. Formats d image

Plus en détail

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme? Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version

Plus en détail

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme? Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version

Plus en détail

ELECTROMAGNETISM EXEMPLES

ELECTROMAGNETISM EXEMPLES EXEMPLES 1. Représentation globale du champ électrique 2. Graphiques et export CSV sous Microsoft Excel 3. Configuration de Helmholtz 4. Condensateur plan 5. Limaille de fer autour d une bobine 6. Trajectoire

Plus en détail

Extraction d informations stratégiques par Analyse en Composantes Principales

Extraction d informations stratégiques par Analyse en Composantes Principales Extraction d informations stratégiques par Analyse en Composantes Principales Bernard DOUSSET IRIT/ SIG, Université Paul Sabatier, 118 route de Narbonne, 31062 Toulouse cedex 04 dousset@irit.fr 1 Introduction

Plus en détail

Document 1 : modélisation d un appareil photographique

Document 1 : modélisation d un appareil photographique PCSI1-Lycée Michelet 2014-2015 APPROCHE DOCUMENTAIRE : appareil photo numérique Extrait du programme : en comparant des images produites par un appareil photographique numérique, discuter l influence de

Plus en détail

Chapitre cinq : Représentation des Images

Chapitre cinq : Représentation des Images Chapitre cinq : Représentation des Images Ce chapitre présente les bases pour la représentation des images et des sons. ~ 1 ~ 6. 6.1.1. Introduction Il existe plusieurs moyens de représenter des images.

Plus en détail

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Régis Boulet Charlie Demené Alexis Guyot Balthazar Neveu Guillaume Tartavel Sommaire Sommaire... 1 Structure

Plus en détail

Les animations par interpolation

Les animations par interpolation Les animations par interpolation Avec Unity, il est possible d animer les gameobject (modèles 3d, caméra, lumière...) sans avoir recours à la programmation. Ce document présente les techniques de base

Plus en détail

BURTE Julien/MONTES Olivier/ROGLIANO Théo TER :2015 ETERNITY II. Tuteur : Eric BOURREAU

BURTE Julien/MONTES Olivier/ROGLIANO Théo TER :2015 ETERNITY II. Tuteur : Eric BOURREAU BURTE Julien/MONTES Olivier/ROGLIANO Théo TER :2015 ETERNITY II Tuteur : Eric BOURREAU Eternity II est un puzzle de 256 pièces, où chaque pièce est formée de 4 couleurs et doit être assortie à sa voisine

Plus en détail

SLAM Visuel Embarqué sur un Robot Quadrupède

SLAM Visuel Embarqué sur un Robot Quadrupède Résumé du mémoire de soutenance pour le Diplôme d Ingénieur INSA de Strasbourg - Spécialité Mécatronique - Et le Master des sciences de l université de Strasbourg - Mention Imagerie, Robotique et Ingénierie

Plus en détail

Correction de l épreuve intermédiaire de mai 2009.

Correction de l épreuve intermédiaire de mai 2009. Licence de Gestion. 3ème Année Année universitaire 8-9 Optimisation Appliquée C. Léonard Correction de l épreuve intermédiaire de mai 9. Exercice 1 Avec les notations du cours démontrer que la solution

Plus en détail

Exemples d'activités sur les images numériques

Exemples d'activités sur les images numériques Annexe 1 1 Accès aux composantes RVB d un pixel dans GIMP Pour agrandir l image : touche Ctrl maintenue enfoncée tout en tournant la molette de la souris, ou bien menu Affichage > Zoom > 1600 % Dans la

Plus en détail

Scanners laser terrestres (laser scanning), successeur de la photogrammétrie terrestre

Scanners laser terrestres (laser scanning), successeur de la photogrammétrie terrestre Scanners laser terrestres (laser scanning), successeur de la photogrammétrie terrestre Olivier Feihl Directeur d Archéotech SA Partenaire scientifique agréé C2RMF (Centre de recherche et restauration des

Plus en détail

Figure 2 : lumière visible.

Figure 2 : lumière visible. A LA DÉCOUVERTE DES IMAGES COULEUR. 1 OBJECTIF DE CE TRAVAIL. Le travail qui vous est proposé ici consiste à manipuler des images couleurs et à découvrir les liens qui unissent les espaces de représentation

Plus en détail

Classes et templates C++

Classes et templates C++ Classes et templates C++ Ce TP propose une application des classes, des templates et du polymorphisme au travers du design de classes permettant de gérer des courbes de Bézier. Contents 1 Bézier unidimensionnelle

Plus en détail

Photogrammétrie, modélisation et drones.

Photogrammétrie, modélisation et drones. U.E. - C2 Technologies numériques Lundi 1 juin 2015 Olivier Bouet Photogrammétrie, modélisation et drones. Dépôt des résumés sur http://numerique.tech.fr La photogrammétrie Définitions La photogrammétrie

Plus en détail

6.1 Méthode des champs de potentiel

6.1 Méthode des champs de potentiel Chapitre 6 Évitement d obstacles L évitement d obstacles est un comportement de base présent dans quasiment tous les robots mobiles. Il est indispensable pour permettre au robot de fonctionner dans un

Plus en détail

Module ITC34 - Algorithmique et Programmation

Module ITC34 - Algorithmique et Programmation Module ITC34 - Algorithmique et Programmation TDs Algorithmique (trois séances) Benoît Darties - benoit.darties@u-bourgogne.fr Univ. Bourgogne Franche-Comté Année universitaire 2015-2016 Avant-propos :

Plus en détail

PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011

PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011 Projet 2009 2010 Biométrie 3D PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011 Département : TIC Mots clés : Biométrie, Analyse d images, Vision, Caméra thermique, Caméra temps de vol, Détection

Plus en détail

OPTIQUE GEOMETRIQUE II.- THEORIE. Définition : L indice de réfraction n caractérise le milieu dans lequel se propage la lumière.

OPTIQUE GEOMETRIQUE II.- THEORIE. Définition : L indice de réfraction n caractérise le milieu dans lequel se propage la lumière. 31 O1 OPTIQUE GEOMETRIQUE I.- INTRODUCTION L optique est une partie de la physique qui étudie la propagation de la lumière. La lumière visible est une onde électromagnétique (EM) dans le domaine de longueur

Plus en détail

Visualisation 3D sur un Smartphone

Visualisation 3D sur un Smartphone Visualisation 3D sur un Smartphone Réalisé par: Bouhajja Lamia Daikhi Rahma Encadré par : Madame Ben Azouz Zouhour SOMMAIRE : I. Introduction Générale générale II. Objectif du projet III. Rendu 3D IV.

Plus en détail

Profil du candidat et connaissances techniques à connaître/maîtriser

Profil du candidat et connaissances techniques à connaître/maîtriser Utilisation d algorithmes de deep learning pour la reconnaissance d iris. jonathan.milgram@morpho.com Dans ce cadre, l'unité de recherche et technologie a pour but de maintenir le leadership Au sein de

Plus en détail

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories : La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.

Plus en détail

Soutien illimité 7j/7 en maths: Coach, profs, exercices & annales, cours. Sujet de Bac 2013 Maths S Obligatoire & Spécialité - Liban

Soutien illimité 7j/7 en maths: Coach, profs, exercices & annales, cours. Sujet de Bac 2013 Maths S Obligatoire & Spécialité - Liban Sujet de Bac 2013 Maths S Obligatoire & Spécialité - Liban EXERCICE 1 : 4 Points Cet exercice est un questionnaire à choix multiples. Aucune justification n est demandée. Pour chacune des questions, une

Plus en détail

IA54 Compte-rendu «STATIONNEMENT AUTOMATIQUE DE VEHICULE»

IA54 Compte-rendu «STATIONNEMENT AUTOMATIQUE DE VEHICULE» IA54 Compte-rendu «STATIONNEMENT AUTOMATIQUE DE VEHICULE» Henri Payno - Cyril Bailly 1/12/2011 SOMMAIRE 1. Introduction... 3 2. Contraintes... 3 3. Architecture globale... 4 4. Interface... 5 A. Scène

Plus en détail

LA DIGITALISATION HAUTE PRÉCISION. Mesures sans contact par méthodes optiques

LA DIGITALISATION HAUTE PRÉCISION. Mesures sans contact par méthodes optiques LA DIGITALISATION HAUTE PRÉCISION Mesures sans contact par méthodes optiques MSC SCANNING La société MSC-Scanning apporte, à ses clients et ses partenaires, l expertise et la notion de haute précision

Plus en détail

Nous allons détailler dans cette documentation les fonctionnalités pour créer un objet colonne.

Nous allons détailler dans cette documentation les fonctionnalités pour créer un objet colonne. Généralités Dans le générateur d états des logiciels Ciel pour Macintosh vous avez la possibilité de créer différents types d éléments (texte, rubrique, liste, graphiques, tableau, etc). Nous allons détailler

Plus en détail

Modelmaker by theboxbuilder Manuel d utilisation (Version 1.1 FR)

Modelmaker by theboxbuilder Manuel d utilisation (Version 1.1 FR) Modelmaker by theboxbuilder Manuel d utilisation (Version 1.1 FR) Indice 1. Description...2 2. Design...3 2.1 Sélection du Design souhaité... 4 2.1.1 Recherche... 4 2.1.2 Famillles... 4 2.1.3 Filtres...5

Plus en détail

Sylvain Archenault Yves Houpert. Projet Informatique : Langage Java : Jeu De Dames en Java

Sylvain Archenault Yves Houpert. Projet Informatique : Langage Java : Jeu De Dames en Java Sylvain Archenault Yves Houpert Projet Informatique : Langage Java : Jeu De Dames en Java Projet GM3 Mai 2005 Chapitre 1 INTRODUCTION Le projet qui nous a été confié est de réaliser un jeu de dames en

Plus en détail

Encryptions, compression et partitionnement des données

Encryptions, compression et partitionnement des données Encryptions, compression et partitionnement des données Version 1.0 Grégory CASANOVA 2 Compression, encryption et partitionnement des données Sommaire 1 Introduction... 3 2 Encryption transparente des

Plus en détail

4. Créer des compteurs, des curseurs ou des bandes déroulantes : a) Création des objets. b) Affectation à une cellule et réglage du pas.

4. Créer des compteurs, des curseurs ou des bandes déroulantes : a) Création des objets. b) Affectation à une cellule et réglage du pas. Logiciel Excel version Office 2007. Voici une liste non exhaustive de fonctions de ce logiciel en relation avec le stage. Au sommaire : 1. Créer des boutons de raccourci dans une barre d outils: a) Sélection

Plus en détail

Frédéric Blanc. 200 Infographie d architecture

Frédéric Blanc. 200 Infographie d architecture 200 Infographie d architecture Frédéric Blanc Frédéric Blanc a occupé, sept années durant, le poste de Product Manager Graphic & Design au sein d Abvent, distributeur français de SketchUp et éditeur d

Plus en détail

À PROPOS D IMAGES : Fiche professeur

À PROPOS D IMAGES : Fiche professeur À PROPOS D IMAGES : Fiche professeur Damier Assiette Danseuse Eventail Danseuse 1 FICHE ÉLÈVE (1) Que devient une image lorsqu on la grossit? Ouvrir (par exemple avec l application «Aperçu»), les deux

Plus en détail

Guide de développement d un fichier NEF avec Nikon Capture NX

Guide de développement d un fichier NEF avec Nikon Capture NX Guide de développement d un fichier NEF avec Nikon Capture NX A Exposer correctement au moment de la prise de vue La première étape se situe au moment de la prise de vue. Car tout ne peut pas se rattraper

Plus en détail

Utilisation d informations visuelles dynamiques en asservissement visuel Armel Crétual IRISA, projet TEMIS puis VISTA L asservissement visuel géométrique Principe : Réalisation d une tâche robotique par

Plus en détail

«Vers une méthode rapide de l évaluation de la tendreté»

«Vers une méthode rapide de l évaluation de la tendreté» Matthieu ALRIC - matthieu.alric@adiv.fr Chargé d Etudes en Génie Mécanique et Robotique «Vers une méthode rapide de l évaluation de la tendreté» Développement d un système robotique équipé de capteurs

Plus en détail

Analyse abstraite de missions sous PILOT

Analyse abstraite de missions sous PILOT Analyse abstraite de missions sous PILOT Damien Massé EA 3883, Université de Bretagne Occidentale, Brest damien.masse@univ-brest.fr Résumé Nous étudions la possibilité de réaliser un analyseur par interprétation

Plus en détail

NOUVELLE INTERFACE POWERPOINT 2013

NOUVELLE INTERFACE POWERPOINT 2013 NOUVELLE INTERFACE POWERPOINT 2013 Barre de lancement rapide Onglets Groupe Fonctions Commande Lanceur boîte de dialogue(options) Ruban PROCEDURE D UTILISATION D UN MASQUE DE DIAPOSITIVE Nouveau document

Plus en détail

Introduction au Dessin Vectoriel

Introduction au Dessin Vectoriel Introduction au Dessin Vectoriel Introduction Lorsque l'on affiche une image sur l'écran d'un ordinateur, ce que l'on voit n'est qu'une succession de points. Il existe pourtant deux manières différentes

Plus en détail

U90 Ladder. Notice d utilisation. Lionel Lecointe - Support technique Tel : 01.60.92.41.74 mail : lionel.lecointe@pl-systems.fr

U90 Ladder. Notice d utilisation. Lionel Lecointe - Support technique Tel : 01.60.92.41.74 mail : lionel.lecointe@pl-systems.fr U90 Ladder Notice d utilisation Lionel Lecointe - Support technique Tel : 01.60.92.41.74 mail : lionel.lecointe@pl-systems.fr 1 Plan du document Introduction Page 4 Créer un projet Page 5 Création des

Plus en détail

Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est:

Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est: Travaux Pratiques 3. IFT 1002/IFT 1005. Structure Interne des Ordinateurs. Département d'informatique et de génie logiciel. Université Laval. Hiver 2012. Prof : Bui Minh Duc. Tous les exercices sont indépendants.

Plus en détail

www.imprimermonlivre.com

www.imprimermonlivre.com 0 www.imprimermonlivre.com Composition d une couverture avec Word L objectif de ce guide est de vous proposer un mode opératoire pour créer une couverture avec Word. Nous vous rappelons toutefois que Word

Plus en détail

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 2 Discrimination Invariance Expressions faciales Age Pose Eclairage 11/12/2012 3 Personne Inconnue Identité

Plus en détail

Formation d images Exemples de l œil et de l appareil photographique

Formation d images Exemples de l œil et de l appareil photographique bserver «Couleurs et images» Activité n 3 (expérimentale) ormation d images Exemples de l œil et de l appareil photographique Connaissances Compétences - Accommodation du cristallin - onctionnement comparé

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Guide technique de caméras. Ce que vous devez prendre en compte lors du choix de vos caméras de vidéosurveillance

Guide technique de caméras. Ce que vous devez prendre en compte lors du choix de vos caméras de vidéosurveillance Guide technique de caméras Ce que vous devez prendre en compte lors du choix de vos caméras de vidéosurveillance Introduction Investir dans un système de vidéosurveillance de qualité est une sage décision.

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

L Avenue Digital Media. Visualisation de processus industriels par l image 3D. créateur de mondes virtuels

L Avenue Digital Media. Visualisation de processus industriels par l image 3D. créateur de mondes virtuels L Avenue Digital Media Visualisation de processus industriels par l image 3D créateur de mondes virtuels L Avenue Digital Media En quelques mots L Avenue Digital Media est spécialisée dans les créations

Plus en détail

Analyse des bruits de clavier d ordinateur

Analyse des bruits de clavier d ordinateur Analyse des bruits de clavier d ordinateur Introduction 1 Enregistrement des bruits de clavier 2 Analyse des bruits de clavier 3 Analyse du niveau de pression acoustique vs. temps 4 Sonie vs. temps 4 Acuité

Plus en détail

Groupe Eyrolles, 2006, ISBN : 2-212-11693-4

Groupe Eyrolles, 2006, ISBN : 2-212-11693-4 Groupe Eyrolles, 2006, ISBN : 2-212-11693-4 6 Nettoyer et retoucher les images Avant de réaliser un montage, un petit travail est parfois nécessaire, il s agit du nettoyage de la photo. Cela consiste à

Plus en détail

Chap.3 Lentilles minces sphériques

Chap.3 Lentilles minces sphériques Chap.3 Lentilles minces sphériques 1. Les différents types de lentilles minces sphériques 1.1. Les différentes formes de lentilles sphériques 1.2. Lentilles minces Centre optique 1.3. Lentille convergente

Plus en détail

Imagerie 3D et mathématiques

Imagerie 3D et mathématiques Imagerie 3D et mathématiques Jacques-Olivier Lachaud Laboratoire de Mathématiques CNRS / Université de Savoie Fête de la Science, 13/10/2013 Galerie Eurêka Image et perception Synthèse d image 3D Imagerie

Plus en détail

Rapport IN52. Sujet : Résolution d un puzzle

Rapport IN52. Sujet : Résolution d un puzzle CARRE Julien PIERNOT Jérôme Rapport IN52 Sujet : Résolution d un puzzle Responsable : M. Ruicheck Y. Automne 2007 1 SOMMAIRE INTRODUCTION...3 I. Description et approche du sujet...4 1. Description 2. Outils

Plus en détail

Comment coller des images sur un maillage?

Comment coller des images sur un maillage? Comment coller des images sur un maillage? VVPix Version 1.02 Table des matières 1 Introduction 2 2 UV Mapping, exemple 1 2 2.1 Objectif.............................................. 2 2.2 Configuration

Plus en détail

MVS Medical Visualisation Studio Version 1.0 Manuel utilisateur

MVS Medical Visualisation Studio Version 1.0 Manuel utilisateur MVS Medical Visualisation Studio Version 1.0 Manuel utilisateur Table des matières 1. Introduction... 3 2. Installation du logiciel... 3 3. Lancement du programme et ouverture d un fichier... 3 4. Manipulations

Plus en détail

TP spécialité N 3 La Lunette Astronomique 1 / 7

TP spécialité N 3 La Lunette Astronomique 1 / 7 TP spécialité N 3 La Lunette Astronomique / 7 I- Matériel disponible. - Un banc d optique avec accessoires : Une lanterne avec la lettre «F», deux supports pour lentille, un porte écran, un miroir plan,

Plus en détail

Analyse d images introduction

Analyse d images introduction L3, option Image Analyse d images introduction http ://perception.inrialpes.fr/people/boyer/teaching/l3/ Elise Arnaud - Edmond Boyer Université Joseph Fourier / INRIA Rhône-Alpes elise.arnaud@inrialpes.fr

Plus en détail

PROJET DE MODELISATION CASERNE SERGEANT BLANDAN

PROJET DE MODELISATION CASERNE SERGEANT BLANDAN Boris BRUGEVIN Sylvain GIORIA PROJET DE MODELISATION CASERNE SERGEANT BLANDAN Master 2 Programmation et Développement Université Lumière LYON 2 - GAMAGORA 2007-2008 II.. PRESENTATIION DU PROJET Ce projet

Plus en détail

Sujet 17 : Exploitation de données financières de Google Finance en C#

Sujet 17 : Exploitation de données financières de Google Finance en C# Amsellem Ari Pour le 01/06/11 Ohayon Alexandre Gueguen Tristan Sujet 17 : Exploitation de données financières de Google Finance en C# Introduction : Il convient tout d abord de signaler que le titre de

Plus en détail

INITIATION AUX SIMULATIONS DES CONTRAINTES ET DEFORMATIONS D UNE STRUCTURE

INITIATION AUX SIMULATIONS DES CONTRAINTES ET DEFORMATIONS D UNE STRUCTURE DOSSIER : CHARIOT PORTE PALAN INITIATION AUX SIMULATIONS DES CONTRAINTES ET DEFORMATIONS D UNE STRUCTURE ATELIER CATIA V5: GENERATIVE STRUCTURAL ANALYSIS OBJECTIFS : L objectif de cette étude consiste

Plus en détail

Evaluer des élèves de Seconde par compétences en Sciences Physiques

Evaluer des élèves de Seconde par compétences en Sciences Physiques Evaluer des élèves de Seconde par compétences en Sciences Physiques Introduction Depuis quelques années, le terme de «compétences» s installe peu à peu dans notre quotidien ; aussi bien dans la vie de

Plus en détail

Recueil des Fiches Concepteurs : Mise en œuvre d un site SharePoint 2013 Juin 2015

Recueil des Fiches Concepteurs : Mise en œuvre d un site SharePoint 2013 Juin 2015 Recueil des s s : Mise en œuvre d un site SharePoint 2013 Juin 2015 Ce document décrit le paramétrage pour la mise en œuvre des fonctionnalités standard de Microsoft SharePoint 2013. NADAP et SharePoint

Plus en détail

Au programme. Vision par ordinateur: Formation d image et Photographie. Formation de l image. Introduction

Au programme. Vision par ordinateur: Formation d image et Photographie. Formation de l image. Introduction Au programme Vision par ordinateur: Formation d image et Photographie Sébastien Roy Jean-Philippe Tardif Marc-Antoine Drouin Département d Informatique et de recherche opérationnelle Université de Montréal

Plus en détail

Vision par ordinateur: Formation d image et Photographie

Vision par ordinateur: Formation d image et Photographie Vision par ordinateur: Formation d image et Photographie Sébastien Roy Jean-Philippe Tardif Marc-Antoine Drouin Département d Informatique et de recherche opérationnelle Université de Montréal Hiver 2007

Plus en détail

Rapport de Stage. Habillage procédural et rendu en temps réel de vastes terrains texturés par GPU-quadtrees. (15 janvier - 15juillet 2006

Rapport de Stage. Habillage procédural et rendu en temps réel de vastes terrains texturés par GPU-quadtrees. (15 janvier - 15juillet 2006 Rapport de Stage Habillage procédural et rendu en temps réel de vastes terrains texturés par GPU-quadtrees (15 janvier - 15juillet 2006 15 avril - 15 juillet 2007) Effectué au sein du laboratoire MAP-ARIA

Plus en détail

Comment coder une image en langage binaire? Michel Futtersack, Faculté de Droit, Université Paris Descartes

Comment coder une image en langage binaire? Michel Futtersack, Faculté de Droit, Université Paris Descartes Comment coder une image en langage binaire? Michel Futtersack, Faculté de Droit, Université Paris Descartes Les deux grands types d'images numériques Image matricielle (bitmap) Image vectorielle Image

Plus en détail

Figure 3.1- Lancement du Gambit

Figure 3.1- Lancement du Gambit 3.1. Introduction Le logiciel Gambit est un mailleur 2D/3D; pré-processeur qui permet de mailler des domaines de géométrie d un problème de CFD (Computational Fluid Dynamics).Il génère des fichiers*.msh

Plus en détail

Vous pouvez obtenir une extension nécessaire via des achats In-App dans Paramètres (bouton en haut à gauche) > Extensions.

Vous pouvez obtenir une extension nécessaire via des achats In-App dans Paramètres (bouton en haut à gauche) > Extensions. Important: La description correspond à la version de ALON Dictaphone qui comprend toutes les extensions construites. Les extensions construites sont: Partager des Notes Audio Pack Audio Avancé Sélection

Plus en détail

Contrôle de flacons par vision industrielle

Contrôle de flacons par vision industrielle Contrôle de flacons par vision industrielle Le but du TP est d effectuer le contrôle de flacons après leur remplissage, leur bouchonnage et leur étiquetage. Le développement de cette application de vision

Plus en détail

ZOLLER INSPECTION SOLUTIONS. La solution pour la numérisation 3D de pièces et d outils. 3dCheck

ZOLLER INSPECTION SOLUTIONS. La solution pour la numérisation 3D de pièces et d outils. 3dCheck La solution pour la numérisation 3D de pièces et d outils 3dCheck 02 03 Enregistrer des objets complexes en toute précision et les analyser avec flexibilité»3dcheck«la»3dcheck«de est la machine d inspection

Plus en détail

GEOGEBRA : Les indispensables

GEOGEBRA : Les indispensables Préambule GeoGebra est un logiciel de géométrie dynamique dans le plan qui permet de créer des figures dans lesquelles il sera possible de déplacer des objets afin de vérifier si certaines conjectures

Plus en détail

WEBCAM HAUTE DEFINITION Réf. HDCM

WEBCAM HAUTE DEFINITION Réf. HDCM : 0033 (0)169922672 : 0033 (0)169922674 : www.sordalab.com @ : info@sordalab.com WEBCAM HAUTE DEFINITION Réf. HDCM Webcam haute définition Réf. HDCM Page 1 sur 8 I. CARACTERISTIQUES TECHNIQUES Capteur

Plus en détail

INF-130 Travail Pratique #2

INF-130 Travail Pratique #2 École de technologie supérieure INF-30 Travail Pratique #2 Travail individuel Tracé d un métro Francis Bourdeau, Frédérick Henri et Patrick Salois Remise à la 0 e semaine. Objectifs - Amener l étudiant

Plus en détail

Dossier 03 Périphériques d acquisition

Dossier 03 Périphériques d acquisition Dossier 03 Périphériques d acquisition I. PERIPHERIQUES D ACQUISITION... 1 II. CARACTERISTIQUES GENERALES... 2 A. CLAVIER... 2 B. SOURIS... 3 C. LECTEUR DE CODES A BARRES (OU CODE-BARRES)... 3 D. SCANNER...

Plus en détail

TRAVAUX PRATIQUES DE PHYSIQUE

TRAVAUX PRATIQUES DE PHYSIQUE TRAVAUX PRATIQUES DE PHYSIQUE DÉPARTEMENT DE PHYSIQUE DOSSIER POUR RAPPORT D EXPÉRIENCE Date : 26 mars 2009 Section : Physique Groupe No : 7 Nom : Jérôme Dufour Sascha Jörg Manipulation : F4 - Instrument

Plus en détail

Installation du logiciel

Installation du logiciel Hot Potatoes Hot Potatoes est un logiciel gratuit proposé par Half-Baked Software et l Université de Victoria au Canada. Il se compose de six modules permettant chacun de mettre au point différents types

Plus en détail

Connecteur Zimbra pour Outlook 2003 (ZCO)

Connecteur Zimbra pour Outlook 2003 (ZCO) Solutions informatiques w Procédure Messagerie Outlook 2003 Connecteur Zimbra pour Microsoft Outlook 2003 (ZCO) 1/49 SOMMAIRE 1 Introduction... 3 2 Compatibilité... 3 2.1 Versions supportées des systèmes

Plus en détail

MOBILITE ET HYPERSTATISME

MOBILITE ET HYPERSTATISME MOBILITE ET HPERSTATISME 1- Objectifs : Le cours sur les chaînes de solides nous a permis de déterminer le degré de mobilité et le degré d hyperstatisme pour un mécanisme donné : m = Nc - rc et h = Ns

Plus en détail

Exercice 2D Porte Jeton

Exercice 2D Porte Jeton Exercice 2D Porte Jeton Version 1.0 Révision le 21/12/05 - FR E-mail : charlyrobot@charlyrobot.com page 1 Dans ce document, nous allons réaliser un porte jeton et son jeton pour caddies de supermarché.

Plus en détail

Travaux pratiques de traitement d images numériques. Institut Galilée 2010-2011

Travaux pratiques de traitement d images numériques. Institut Galilée 2010-2011 G. Dauphin et A. Beghdadi Travaux pratiques de traitement d images numériques Première séance Institut Galilée 2010-2011 Les travaux pratiques de traitement d image sont répartis en trois séances de 8

Plus en détail

Formation 3DS Exercice 2 : Modélisation d objets simples. Fascicule 3DS Exercice 2 : Modélisation d objets simples

Formation 3DS Exercice 2 : Modélisation d objets simples. Fascicule 3DS Exercice 2 : Modélisation d objets simples Fascicule 3DS Exercice 2 : Formation CIREVE 2007 1 Coordonnées...3 Introduction...4 Création des chemins à partir d une image sous Photoshop ou Illustrator...4 1. Création du profil de la base...5 2. Configuration

Plus en détail