IMAGE BASED MODELING généralités et utilisation des outils de photomodélisation. 123D Catch de Autodesk. Préambule Il ne sera pas détaillé ici le procédé dʼinscription en ligne sur le site Autodesk, il est cependant indispensable afin de pouvoir télécharger et installer le client 123D Catch sur votre machine (uniquement PC à ce jour). Ce client fonctionnera comme un gestionnaire de projet (téléchargement dʼimages à partir de votre disque dur et suivi du calcul) mais lʼessentiel du processus de mise en 3D sera «transparent» et délocalisé. Généralités La sortie «récente» de 123D Catch ouvre des possibilités en terme de "image based modeling" avec corrélation automatique des images soumises au processus de traitement. Les tests effectués jusqu'ici ont été faits avec un boitier NIKON D2S équipé de l'objectif zoom 18-70 mm qui, même avec MicMac, est le seul qui a permis d'exploiter les photos issues des campagnes effectuées.. Les essais sous 123D Catch ont été cependant réalisés aussi bien avec la configuration D2x 18-70 que avec le D7000 70-200. Les expériences menées au laboratoire vont principalement sʼintéresser aux campagnes de prise de vue par avion, afin de mettre en place un workflow exploitable dans le domaine de la modélisation du territoire à grande échelle. 123D Catch Anciennement Photofly puis Photosynth (cette dernière appellation à été cependant conservée pour lʼoutil de construction de quicktime VR pour smartphone) l'utilisation du logiciel en elle même est extrêmement simple, son fonctionnement fait appel à du cloud-computing, on uploade une série d'images à l'aide de l'interface de 123D catch et on a le choix soit d'attendre le résultat soit de fermer l'interface et d'attendre une notification par mail. La plupart des essais effectués jusqu'ici n'ont pas excedé 25 mn de calcul pour les plus longues (50 images uploadées). La plupart des essais n'ont pas dépassé 10 mn de traitement. Bien qu'il n'y ait pas de limite concernant le nombre d'images maximum, Autodesk préconise de ne pas dépasser 50 images pour une première passe de calcul, quitte à rajouter des images ultérieurement. On choisira 123D catch pour la robustesse de l'algo et la facilité d'utilisation. nb: la corrélation et lʼaérotriangulation des campagnes de prise de vue «avion» effectuées jusquʼici avec lʼobjectif 70-200 bloqué en butée longue focale (200mm) nʼa été jusquʼici possible quʼavec 123D catch, la focale de 200mm étant trop longue pour MicMac.
Les premières expériences ont porté sur des objets de taille contenue - quelques essais ont été faits à partir des campagnes avion "grande échelle" - et les prises de vue concentriques, centrées sur l'objet; ce sont celles qui donnent les meilleurs résultat (avec au minimum deux hauteurs différentes) car elles garantissent une bonne séparation dimensionnelle sur les trois axes. De nouvelles campagnes terrestres, avion ou drone devront valider la continuité opérationnelle de la chaine de production de modèles 3D détaillés à l'aide de cette technique, et ce jusqu'à l'impression 3D, les modèles produits ont apparemment la consistance géométrique indispensable à une translation STL de bonne qualité. (pas d'erreurs de facéttisation a priori - "dangling faces". Recommandations pour la prise de vue: 1) Il est recommandé de prendre des photos sans toucher à la bague de focale et en verrouillant si possible la mise au point. nb: on choisira une petite ouverture pour maximiser la profondeur de champ, ce qui permettra de limiter les zones floues - grande ouverture (f:4)=faible profondeur de champ, petite ouverture(f:22) =grande profondeur de champ; comme il faut AUSSI travailler avec des vitesses rapides pour limiter les effets de bougé (notamment en avion et/ou avec un drône) il est préconisé d'effectuer les campagnes avec de TRES bonnes conditions d'éclairage. Une des principales raisons de non conformité des images dans le logiciel vient précisément du manque de contraste des photos! 2) Jusqu'ici seul l'objectif 18-70 mm de Nikon a permis d'exploiter les données. Il n'y a pas de contraintes quant au capteur, le D2 et le D70 rendent tous les deux des images exploitables. 3) Les prises de vue doivent se situer "dans l'espace" éviter les prises de vue linéaires ne permettant pas d'optimiser la séparation des sujets sur l'axe de la profondeur. nb: un essai de capture linéaire sur une facade n'a pas donné des résultats satisfaisants, la séparation géométrique des sujets sur l'axe de la profondeur étant insuffisante Le dernière version de 123D Catch sur Iphone et Ipad prévoit la possibilité de capturer des scènes "linéaires" (façades) des tests ultérieurs vont être faits sur ce point. la portion dʼimage occupée par le sujet 4) le sujet doit occuper une portion "conséquente" de l'image - difficile à quantifier, au moins les 2/3 de l'image - et être préférablement "centré".
5) le contraste de l'image doit également être suffisant, il va faciliter pour le logiciel la recherche de points homologues (une correction préalable des niveaux sous Photoshop nʼest pas inutile...) Le résultat de la première passe de calcul nécessite d'être redéfinie par une sélection de la zone à conserver - nombre de zones apparaissent artéfactuelles et sont de fait inexploitables. sélectionner la portion de mesh à conserver avec l'outil de selection rectangle ou polygone cliquer sur l'outil de "remeshing", on a le choix entre trois niveaux de définition possibles. penser à bien organiser son espace de travail, 123D catch crée beaucoup de fichiers de travail que l'on pourra supprimer une fois que l'on a exporté et sauvegardé la version souhaitée. Mises en garde particulières: dans maya il faut "ouvrir" l'objet obj et non pas "importer". Si on importe les textures ne sont pas chargées!!! pour l'export vers le displayer de processing s'assurer qu'il n'y ait pas une seule facette non texturée dans Maya et que l'objet soit centré dans la scène!!! rq 1: outre la sauvegarde au format propriétaire de 123D catch (.3GP) on dispose de plusieurs formats de sauvegarde; le format.obj convient bien à un retraitement sous Maya. rg 2: ce n'est qu'après cette passe de remeshing que l'affichage se fait correctement dans Maya. On utilisera néanmoins MeshLabs pour afficher les objets 3D si l'on ne dispose pas de Maya. rq 3: l'objet étant déjà texturé et éclairé de lui même il est inutile de rajouter des lumières de scène, penser à les désactiver, on aura un bien meilleur rendu!
EXEMPLES 123D Catch: Aérotriangulation complète du modèle: Maquette Institut Lumière (43 images - campagne terrestre) Monolithe Votif Plaine de Syam (60 images - campagne terrestre)
Aérotriangulation partielle du modèle: Ville de Rillieux (25 images - campagne aérienne) Couvent de la Tourette (6 images - campagne aérienne) Ce dernier exemple témoigne de lʼinconsistance du modèle produit à cause dʼun nombre très faible dʼimages de départ.
Case history: campagne de prises de vue sur l'abbaye de Notre Dame des Dombes Aérotriangulation complète du modèle Notre Dame des Dombes (47 images - campagne aérienne) date du vol: 07 sept 2012 hauteur du vol: 3 virages à 360 à une hauteur comprise entre 600 et 700m. appareil Nikon D7000 16 Mpixels objectif Nikon 70-200 f 2.8 206 images capturées Après impression des planches contact et visualisation des images 47 images valides ont été sélectionnées. Elles ont été corrigées colorimétriquement (niveaux automatiques) et redimensionnées (plus grande taille utile 2048 px) Le redimensionnement est préférable afin de ne pas surcharger la campagne photos uploadée vers le cloud - à «poids» égal, mieux vaut avoir plus dʼimages de moindre définition que peu dʼimages en haute def. # La consistance du modèle étant insuffisante dans les cours intérieures, une passe dʼimages plus plongeante aurait été bienvenue...