D1.1 Cahier des Charges (DoW)



Documents pareils
Sommaire. Leap motion Technologie Fonctionnement Langages utilisés Possibilités d utilisation... 4

3615 SELFIE. HOW-TO / GUIDE D'UTILISATION

Once the installation is complete, you can delete the temporary Zip files..

Stage Ingénieur en développement logiciel/modélisation 3D

LES TABLETTES : GÉNÉRALITÉS

L OUTIL NUMERIQUE CARACTERISTIQUES ET FONCTIONNALITES


PROJET BIGDATART DOSSIER DE PRESENTATION

Etude sur les usages de la lecture de bande dessinée Numérique / izneo - Labo BnF

GESTION DE PROJET SÉANCE 2 : LES CYCLE DE VIE D'UN PROJET

La visio-conférence holographique : Pourquoi? Comment?

BOOK REFERENCES ERGONOMIQUES Gfi Informatique


Comment augmenter votre taux de transformation : A/B Testing Live & User Experience

Qui ont toujours à mon côté pour me soutenir et me guider au long de ce projet.

RAPID Prenez le contrôle sur vos données

ANGULAR JS AVEC GDE GOOGLE

Maximisons les performances de votre stratégie digitale

ENTREPRISE SANTÉ ORGANISME PUBLIC

Chapitre 1 L interface de Windows 7 9


Guide de conseil en équipement. Édition 2014

Découverte des tablettes tactiles (ipad d'apple et Galaxy Tab de Samsung

MANUEL GANTT PROJECT

ENTREPRISE SANTÉ ORGANISME PUBLIC

ADHEFILM : tronçonnage. ADHEFILM : cutting off. ADHECAL : fabrication. ADHECAL : manufacturing.

Des solutions SMART pour le handicap

Vidia La solution de visioconférence de Swisscom & astuces

Comportements (The Observer XT) : activité générale du conducteur : (entre autres) mouvements des mains, position, verbalisations.

Rédiger pour le web. Objet : Quelques conseils pour faciliter la rédaction de contenu à diffusion web

SEMINAIRE SAS VISUAL ANALYTICS LAUSANNE, MARCH 18 : JÉRÔME BERTHIER VALERIE AMEEL

CAHIER DE S CHARGE S Remote Workload Manager

Les Ontariens rejettent catégoriquement le projet de création d une école afrocentriste

Brique BDL Gestion de Projet Logiciel

DA MOTA Anthony - Comparaison de technologies : PhoneGap VS Cordova

Activités pour la maternelle PS MS GS

Rapport projet MMI. Luis Domingues, I3 Naomi Favre, I3 Tiago De Deus, I3. Luis Domingues, Tiago De Deus, Naomi Favre SP Interfaces Multimodales

Les tablettes. Présentation tablettes Descriptif Fournisseurs Caractéristiques Comparatifs Conseils Perspectives Démonstration

iqtool - Outil e-learning innovateur pour enseigner la Gestion de Qualité au niveau BAC+2

CHOIX ET USAGES D UNE TABLETTE TACTILE EN ENTREPRISE

Conduite de projets informatiques Développement, analyse et pilotage (2ième édition)

FORMAT FORMA ION SUR LA ION SUR LA GESTION DE PROJET & MS PROJECT

Programme "Collège Numérique Rural"

EIP 2012 Projet Livepad. Documentation technique 1.5

1 Presentation du bandeau. 2 Principe de création d un projet : C2 industrialisation Apprendre Gantt project Ver 2.6 planifier

Créateur d innovation 3D

Bienvenue à l Eye Tracking Day 2015

MapReduce. Malo Jaffré, Pablo Rauzy. 16 avril 2010 ENS. Malo Jaffré, Pablo Rauzy (ENS) MapReduce 16 avril / 15

Master Informatique Aix-Marseille Université

Chapitre 9 : Informatique décisionnelle

Instructions Mozilla Thunderbird Page 1

: Machines Production a créé dès 1995, le site internet

Prototype de canal caché dans le DNS

µrv : Realité Virtuelle

Optimisez la gestion de vos projets IT avec PPM dans le cadre d une réorganisation. SAP Forum, May 29, 2013

Stéphane Lefebvre. CAE s Chief Financial Officer. CAE announces Government of Canada participation in Project Innovate.

Perspectives pour l entreprise. Desktop Cloud. JC Devos IBM IT Architect jdevos@fr.ibm.com IBM Corporation

REMOTE DATA ACQUISITION OF EMBEDDED SYSTEMS USING INTERNET TECHNOLOGIES: A ROLE-BASED GENERIC SYSTEM SPECIFICATION

1.The pronouns me, te, nous, and vous are object pronouns.

Le Processus RUP. H. Kadima. Tester. Analyst. Performance Engineer. Database Administrator. Release Engineer. Project Leader. Designer / Developer

Une solution performante dédiée aux PMI couvrant l essentiel des besoins de contrôle et gestion de production.

NUI. Natural User Interfaces Usages et enjeux pour la création

APPAREILS ACCESSIBLES

La mobilité dans l Administration avec Windows

DUT. Informatique, orientation Imagerie Numérique. Domaine : Sciences, Technologies, Santé. Mention : Informatique

ISTIA INNOVATION. 62, Ave ND du Lac F Angers

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

MASTER 2 INFORMATIQUE - UNIVERSITE DE FRANCHE-COMTE. Projet Kinect. Détection de mouvements intempestifs dans un bloc opératoire

Vers l urbanisation agile d un client mobile ios/android natif, économique, flexible et pérenne

Documentation utilisateur. [EIP] TransLSF

Mise en place d un outil ITSM. Patrick EYMARD COFELY INEO

QlikView sur Mobile : Au-delà du reporting

Pilot4IT Tableaux de Bord Agréger et consolider l ensemble de vos indicateurs dans un même portail.

DSL. Domain Specific Language. À l'aide des technologies Eclipse Modeling. Goulwen Le Fur Le 23 novembre 2012

Industrial Phd Progam

Réflexion sur la mise en place d'un système mobile d'aide à la navigation destiné aux services d'urgence basée sur une solution libre.

«Rénovation des curricula de l enseignement supérieur - Kazakhstan»

WEB page builder and server for SCADA applications usable from a WEB navigator

Voir le monde à travers un capteur de profondeur

Lean approach on production lines Oct 9, 2014

Introduction à ORACLE WAREHOUSE BUILDER Cédric du Mouza

Utilisation du logiciel Epson Easy Interactive Tools

LA MOBILITE : ACTEURS, OUTILS,

RECONSTRUCTION D'UN MODÈLE 3D D'OBJET AVEC LA KINECT

Utiliser une WebCam. Micro-ordinateurs, informations, idées, trucs et astuces

Systèmes Répartis. Pr. Slimane Bah, ing. PhD. Ecole Mohammadia d Ingénieurs. G. Informatique. Semaine Slimane.bah@emi.ac.ma

Guide de l utilisateur

Cette Leçon va remplir ces attentes spécifiques du curriculum :

PUBLICATION CPA R1 - Avril 2011 L UTILISATION DES TABLETTES ÉLECTRONIQUES EN AUTOMATISATION INDUSTRIELLE

1-Introduction 2. 2-Installation de JBPM 3. 2-JBPM en action.7

Jade. Projet Intelligence Artificielle «Devine à quoi je pense»

MANUEL MARKETING ET SURVIE PDF

Design centré sur l utilisateur et développement Agile : perspectives de réconciliation

Working with Kinect. Intelligence Ambiante. Tomás DÍAZ TRONCOSO Arturo GARCÍA TOVAR Daoud MAROUAN LMTIUI

Utilisation d un Tableau Numérique Interactif en Mathématiques

NOVLAND. production. Présente TMC. transmedia catalogue air / touch

L OUTIL INFORMATIQUE AU SERVICE DE L ACCOMPAGNEMENT DE L ELEVE HANDICAPE

L ergonomie de vos formulaires web permet-elle une expérience utilisateur optimale? QAS Intuitive Search

Transcription:

Projet de Fin d Études 2013 2014 [R] D1.1 Cahier des Charges (DoW) Low-cost eye-tracker Participant : BARRÉ, Benjamin, barre@polytech.unice.fr, SI5 VIM Encadrants : PRECIOSO, Frédéric, precioso@polytech.unice.fr, I3S (KEIA) LINGRAND, Diane, lingrand@polytech.unice.fr, I3S (KEIA) LOPEZ, Stéphanie, sslopez@polytech.unice.fr, I3S (KEIA) Coût du livrable : 48 heures Budget total du projet : 334 heures 1

Résumé Exécutif La technologie et le moyen d interagir avec nos machines ont toujours été étroitement liés. Nous recherchons constamment des moyens toujours plus rapides et pratiques pour communiquer avec nos terminaux. Nous pouvons citer le toucher tactile, qui a envahi nos moyens d interactions il y a quelques années. Avec l arrivée des eye-trackers, nous accédons à un tout nouveau monde d interaction, sans avoir besoin du sens du toucher. Tobii, leader mondial actuel de l eye-tracking, propose actuellement des périphériques externes que l on peut connecter à différents terminaux, comme des ordinateurs ou encore des tablettes. Le projet d eye-tracker low-cost a pour ambition de se rapprocher d un vrai eye-tracker, qui reste encore trop peu accessible par son prix, en utilisant une webcam standard, car en effet, cet outil est présent dans la majorité de nos ordinateurs aujourd hui. D autres périphériques pourront être utilisés si les résultats ne s avèrent pas assez satisfaisants, comme une webcam haute définition, ou encore la Kinect, deux outils qui sont aujourd hui considérés comme abordables. Abstract The technology and the interaction process with our computers have always been closely linked. We are always looking for different methods to interact with terminals in a faster and more useful way. We can mention the touch screen, which overran our world for several years already. With the eye-trackers, we enter in a new interaction world, without thinking on our touch sense. Tobbi, world leader of eye-trackers in our days, offers new external devices which can be connected to our computers or tablets. The low-cost eye-tracker project has for ambition to reproduce a real eye-tracker, which is actually still too expensive, by using a common webcam, in fact, this tool is included in every recent computers nowadays. Some other devices could be used if the results are not enough relevant, like a high definition webcam, or even a Kinect. Indeed those two devices are now considered as low-cost devices. 2

Table des matières 1. Description du Projet... 4 Contexte de travail... 4 Motivations... 4 Défis... 5 Objectifs... 5 Scénario(s)... 6 Critères de succès... 6 2. Etat de l art... 7 Description Générale... 7 Eye tracker... 7 Gaze analysis... 7 3. Méthodologie et Planification... 9 Stratégie Générale... 9 Découpage en lots... 9 Planification... 9 Livrables associés au projet... 11 Jalons... 11 Pilotage et suivi... 11 4. Description de la mise en œuvre du projet... 12 Interdépendances des lots et tâches... 12 Description des lots... 13 Gestion du risque... 18 5. Participants... 19 Benjamin BARRE (SI5 - VIM)... 19 Frédéric PRECIOSO (I3S - Equipe KEIA)... 19 Diane Lingrand (I3S Equipe KEIA)... 19 Stéphanie LOPEZ... 19 6. Bibliographie & Références... 20 3

1. Description du Projet Contexte de travail Le projet sera mené sur cinq mois dans le cadre du projet de fin d études. Il permettra de reconnaître l activité oculaire à travers une webcam, et de relever certaines caractéristiques du regard (taille de la pupille, durée de fixation, trajectoire des saccades...) qui sont connues en psychovision pour caractériser l'intérêt de l'utilisateur pour l'information présente dans la zone de l'écran regardée. On pourra alors analyser ces caractéristiques et les associer avec un clavier virtuel pour écrire un texte seulement en regardant l'écran. Le but de ce projet est de réaliser, à partir des avancées réalisées ces dernières années, un système d eye-tracker à partir d un matériel abordable (en commençant avec l aide une webcam standard, puis d une haute définition si nécessaire, et enfin la Kinect), avec lequel nous pourrons détecter les yeux et certaines caractéristiques du regard dans un premier temps, puis analyser ces informations pour savoir sur quelle partie de l écran pointe l œil dans un second temps, tout en s offrant, dans la mesure du possible, le maximum de liberté quant aux mouvements de la tête et des yeux dans l espace. Motivations Ce domaine de recherche offre un vaste panel d applications. Une des plus grandes applications d eye-tracker est le web-marketing, un service permettant de mieux réaliser son site web en mettant en évidence les zones d accroche, où l œil s attarde, par l intermédiaire d une représentation dite en heatmap. Figure 1 - Représentation d'une page en heatmap 4

Tobii (1), leader mondial actuel en eye-tracking, de son côté va plus développer des eye-tracker pour une interaction homme-machine poussée, en ne se servant que de l œil pour remplacer la souris de l ordinateur, ou la main pour la tablette. Elle est également la première entreprise à avoir développé une borne d arcade jouable uniquement à l œil et rien d autres (2). Enfin ce projet sera utile dans le cadre de la thèse sur l eye-tracking menée en parallèle par Stéphanie Lopez. Une comparaison sur la pertinence et la robustesse pourra être menée par la suite entre un vrai eye-tracker et un eye-tracker à partir d une webcam ou d une Kinect. Défis L eye tracking connaît un grand succès dans le monde du web marketing (3). Le défi aujourd hui serait de réaliser ce qu on peut faire avec un eye tracker mais avec une webcam, ou un autre appareil tout aussi accessible pour chacun, afin de rendre accessible cette nouvelle méthode d interaction. Un eye tracker fonctionne en deux grandes parties : la détection de l œil et de la pupille d une part, et l analyse du regard de l autre. Défi 1 : Détection ; réaliser une application plus robuste que celle réalisée par Tristan Hume (cf. Etat de l art sur l eye-tracking) Défi 2 : Relever des caractéristiques importantes et pertinentes sur l analyse du regard (4) Défi 3 : Développer une application qui permet de taper du texte à l aide d un clavier visuel Objectifs L objectif global de ce projet sera de réaliser un eye tracker à partir d un matériel accessible le plus performant possible. Objectif 1 : Détecter les yeux et la pupille d un visage à l aide de différentes études réalisées (cf. Etat de l art) Objectif 2 : Déterminer où l œil vise Objectif 3 : Rendre l algorithme robuste à la luminosité, l orientation de la tête, la position des yeux sur le plan Objectif 4 : Permettre de comparer deux images, en sélectionnant la plus pertinente par le regard (si le matériel ne nous permet pas d être suffisamment précis pour écrire sur un clavier visuel) 5

Scénarios Une fois le projet mené à son terme, l objectif est de l utiliser afin que l on puisse écrire du texte à l aide d un clavier visuel, uniquement avec l utilisation des yeux. Il pourra par exemple rendre plus accessible l ordinateur pour les handicapés moteurs, comme peut le montrer cette vidéo de démonstration (5), faite par EyeWriter, qui montre comment une personne paralysée des membres supérieures a pu faire un dessin sur ordinateur avec seulement l usage de ses yeux. Ce projet pourra aussi permettre d améliorer la conception de site web en permettant de visionner ses pages web en heatmap, représentation des caractéristiques du regard que l utilisateur a porté sur la page. Ce type de service est déjà proposé par plusieurs entreprises comme EyeTrackShop ou YouEye. Enfin, ce projet permettra de relier les informations oculométriques avec le contenu d images. Ainsi, cela permettra en analysant le regard de l utilisateur, quel type d images il est en train de regarder. Critères de succès L application devra être précise pour être utilisable. Si elle ne permet pas de bouger un peu la tête, ou s il est impossible de viser une seule touche, l application ne porte plus aucun intérêt. Voilà pourquoi nous devrons obtenir une grande précision temporelle, ainsi qu une grande précision spatiale (lorsque l on regarde une touche, uniquement cette touche devra être sélectionné par l application et non pas une zone de touches). Critère 1 : L application devra fonctionner en condition standard Critère 2 : Précision temporelle, le temps de réponse devra être comparable à celui d une utilisation du clavier sur tablette Critère 3 : Précision spatiale, on pourra être capable de viser chaque touche du clavier visuel Critère 4 : Pertinences des caractéristiques du regard relevées 6

2. Etat de l art Description Générale La technologie de l eye-tracking s est déjà bien développée, et plusieurs entreprises proposent des eye-trackers pour différentes applications. Ces solutions restent malheureusement trop coûteuses et ne permettent pas leur accès à chacun. Depuis plusieurs années, des recherches se font sur des eye-trackers à coût réduit. On pensera à des caméras basiques avec une grosse partie de traitement en aval mais nous citerons surtout la Kinect (6) de Microsoft, qui s est imposée comme un des meilleurs compromis ces dernières années, en proposant un matériel performant, à un coût très abordable. L état de l art sera découpé en deux parties. La première se concentrera sur la partie eye tracker, la détection des yeux et des pupilles d une image, tandis que la seconde concernera plus l analyse du regard (gaze tracking), le traitement de l image pour déterminer la zone que l œil vise. Eye tracker Tristan Hume, étudiant développeur au Canada, a réalisé un projet (7) en 2012 très intéressant sur un détecteur du centre de l œil en OpenCV (librairie spécialisée dans le traitement d images), avec comme seul matériel la webcam. Une vidéo reflétant bien son travail est disponible sur son site. Cette étude va être très intéressante pour une bonne base. En effet, la détection est déjà robuste quant à l orientation de la tête, et la position des yeux dans le plan. La Kinect a été développée pour être utilisée dans les jeux vidéo, et plus précisément pour offrir de nouvelles perspectives aux joueurs qui peuvent s affranchir des manettes de jeu. Depuis 2011, le Software Development Kit (SDK) de Microsoft est disponible. De ce fait, de nombreuses études ont cherché à utiliser ce nouveau périphérique dans d autres domaines que le jeu vidéo, dans la vidéo surveillance, ou encore dans l assistance aux personnes agées. Elle a l avantage de posséder en plus d une caméra vidéo, une caméra de profondeur, qui permettra à l application d être plus robuste, au niveau de la position de la tête notamment. NUIA eyecharm (8) est un projet kickstarter qui a obtenu assez de fonds pour être réalisé. En achetant un boîtier qui viendra se fixer sur la Kinect (6), il permettra de la transformer en un eyetracker performant, grâce notamment à la caméra infra-rouge intégrée, la meilleure résolution qu une webcam standard, et la loupe que fait ce boitier sur la caméra, qui permet d avoir un zoom natif sur les yeux. Ogama (9) est un logiciel freeware qui permet d enregistrer et d analyser le mouvement des yeux et de la souris. Beaucoup d entreprises, notamment Tobii, leader mondial de l eye-tracking, utilisent cet outil pour l implémentation de leurs codes. Il est écrit en C#.NET. Gaze analysis Beaucoup d entreprises, comme YouEye (10) et EyeTrackShop (11), proposent un service d eye-tracking depuis chez soi. Elles récoltent les données depuis la webcam de l utilisateur, 7

sous son accord, et permet d analyser son regard. L avantage que comportent ces méthodes est la phase de test. Les utilisateurs participant à ces études depuis chez eux, les résultats obtenus reflètent donc de façon précise et aucun matériel, salle de test, ou encore questionnaire ne viennent perturber l utilisateur dans son comportement face à cette étude. Notons que ces entreprises possèdent donc toutes forcément un algorithme d eye-tracking et de gaze-tracking sur leurs serveurs à partir d une image webcam. sont deux entreprises qui offrent cette possibilité. J ai pu ainsi envoyer un mail à YouEye et EyeTrackShop permettant d avoir accès à leurs API comme évoqué sur leur site. OpenGazer (12) est un gaze-tracker open source pour webcam. Il vient donc s inscrire exactement dans le cadre de ce projet. L inconvénient de cette source est qu elle n est plus mise à jour depuis 2009, et qu elle possède une très faible communauté active. Je pourrai donc m inspirer de cette méthode pour connaître ses méthodes de traitement mais ne pourrai pas fonder tout mon traitement dessus. GazeGroup (13) est un groupe de recherche à Copenhague, au Danemark, qui s axe sur l analyse du regard particulièrement. Il propose différents logiciels ainsi qu un gaze-tracker open-source. Il me permettra de connaître les grandes étapes importantes du gaze-tracking et de m inspirer pour les traitements de l image, une fois l œil et la pupille détectés. Figure 2 - Processus de gaze tracking par GazeGroup 8

3. Méthodologie et Planification Stratégie Générale Il sera plus simple et plus intuitif d aborder ce projet par une méthode agile. En effet, tout au long du projet, des réunions seront mises en place, une toutes les deux semaines en moyenne, pour permettre un meilleur suivi. De ce fait, le projet pourra être légèrement aiguillé en fonction des résultats obtenus précédant les réunions. Découpage en lots Tableau 1 - Liste des Lots # Titre du lot Type Leader Budget Début Fin L1 Management du projet MGMT BARRE 60h S1 S20 L2 Etat de l art RECH BARRE 40h S1 S6 L3 Eye tracking IMPL BARRE 123h S6 S16 L4 Gaze analysis IMPL BARRE 81h S16 S19 L5 Rendu final DEMO BARRE 30h S19 S20 Total : 334h Planification 9

Figure 3 - Diagramme de Gantt 10

Livrables associés au projet Tableau 2 - Liste des livrables # Titre du livrable Lot Nature Date D1.1 Cahier des charges (DOW) 1 DOC S4 D1.2 Rapport de Management (MGMT) 1 DOC S21 D3.1 Rapport sur l approche et les librairies choisies 3 DOC S8 D3.2 Rapport et démonstration de la détection des yeux et de la pupille 3 DOC, LOG S12 D3.3 Rapport sur la robustesse apportée à l application 3 DOC S14 D4.1 Etat de l art sur les méthodes mathématiques de gaze tracking 4 DOC S16 D4.2 Rapport et démonstration du gaze tracking 4 DOC, LOG S18 D5.1 Page web projet mise sur le serveur de l école 5 DOC S20 D5.2 Diaporama de présentation finale 5 DOC S21 D5.3 Rapport final 5 DOC S21 Jalons Tableau 3 - Liste des jalons # Titre du jalon Lot(s) Date Vérification J1 Fin de la phase de planification initiale du projet 1 S4 D1.1 livré J2 Fin de la phase de l état de l art 2 S6 D1.1 livré J3 Fin de la phase de recherche de méthodes 3 S10 D3.1 livré J4 Point sur l avancement de la détection 3 S12 D3.1 livré J5 Fin de la phase détection 3 S16 D3.2 livré J6 Fin de la phase gaze analysis 4 S20 D4.2 livré Pilotage et suivi J ai choisi d utiliser une méthodologie agile. La durée d une itération est de deux semaines en moyenne. Mes encadrants interviendront lors d une réunion de suivi qui permettra de valider l avancement. Ces réunions viendront s intercaler en même temps que les fins de jalon. 11

4. Description de la mise en œuvre du projet Interdépendances des lots et tâches Figure 4 - Interdépendances entre lots et tâches 12

Description des lots Identifiant L1 Date de S1 démarrage Titre Management du projet Type MGMT Participant BARRE PRECIOSO LINGRAND LOPEZ Effort 60 4 4 4 Objectifs du lot Ce lot a pour but une bonne gestion du temps pour mener à bien le projet Réalisation du DoW Rédaction d un rapport de management Mise à jour du projet sur la plate-forme Atlas Description du lot Ce lot est constitué de deux tâches, l une permettant d établir l organisation prévisionnelle du projet, et l autre assurant le suivi. Tâche 1.1 : Planification (BARRE, S1-S4, 48h) Il s agit de réaliser le Description of Work (DoW), d étudier les tâches à effectuer, et de bien les organiser. Durant cette période, on doit étudier ce qui a déjà été fait dans le domaine, bien planifier son projet, bien analyser les étapes et les livrables attendus tout au long des 5 mois. Tâche 1.2 : Suivi du projet (BARRE, S5-S21, 12h) Il s agit de suivre l évolution du projet et de respecter au mieux les objectifs, jalons, et livrable établis lors de la planification. Ce suivi devra être réalisé régulièrement tout au long du projet afin de respecter au mieux les délais et ne pas être pris de cours. Livrable Livrable DOW : Description of work (BARRE, MGMT, 10/11/2013) Ce livrable contient la description du projet, ses objectifs, sa planification, les risques qu il contient, ainsi que sa méthode de gestion. Il établit une organisation des tâches. Il permettra de vérifier la tâche 1.1. Livrable MGMT : Rapport de management (BARRE, MGMT, S21) Ce livrable nous permettra de faire un comparatif entre l organisation établie initialement avec ce que nous avons en fin de projet. 13

Identifiant L2 Date de S1 démarrage Titre Etat de l art Type RECH Participant BARRE PRECIOSO LINGRAND LOPEZ Effort 40 2 2 2 Objectifs du lot Ce lot a pour but une bonne analyse de ce qui existe aujourd hui dans le domaine et permettre de savoir sur quelles méthodes nous pourront nous baser. Chercher les méthodes, algorithmes, et tout élément intéressant utilisé pour la détection de l œil Chercher les méthodes, algorithmes, et tout élément intéressant utilisé pour l analyse du regard Description du lot Au début du projet, il est nécessaire de réaliser un état de l art afin de situer notre projet par rapport à ce qui a déjà été fait dans le domaine d étude. Nous étudions les techniques déjà mises en oeuvre dans d autres projets afin de voir lesquelles seraient les plus appropriées. Tâche 2.1 : Eye tracker (BARRE, S1-S4, 24h) Il s agit de réaliser un état de l art sur les différentes techniques d aujourd hui pour détecter l œil à partir d une webcam (hd ou non), ou d une Kinect si les résultats ne s avèrent que trop peu satisfaisants. Tâche 2.2 : Gaze tracking (BARRE, S15-S16, 16h) Il s agit d analyser les meilleurs algorithmes de traitement de l image pour permettre d extraire les caractéristiques pertinentes du regard. 14

Identifiant L3 Date de S6 démarrage Titre Eye tracking Type IMPL Participant BARRE PRECIOSO LINGRAND LOPEZ Effort 123 8 8 8 Objectifs du lot Ce lot a pour but de détecter l œil à partir de l image obtenue de la webcam Recherche des différentes méthodes appliquées actuellement Tester les méthodes, les différentes librairies Détection des yeux et de la pupille Amélioration de l application Description du lot Ce lot est constitué de deux tâches, l une permettant d établir l organisation prévisionnelle du projet, et l autre assurant le suivi. Tâche 3.1 : Compréhension des différentes méthodes actuelles (BARRE, S7-S8, 10h) Comprendre comment détecter l œil humain, avec quelle(s) librairie(s), et par quel processus. Tâche 3.2 : Tests sous différentes librairies (BARRE, S7-S9, 20h) Tâche 3.3 : Détection de la pupille sous conditions idéales (BARRE, S10-S13, 60h) Cette tâche représente la plus grosse partie de ce lot, c est en effet celle-ci qui permettra d avoir le premier rendu quant à la détection de l œil. Lee visage centré sur la caméra, le regard de face, avec une bonne luminosité (couleur du visage uni et clair, fond uni), les conditions standard seront appliqués à cette tâche. Tâche 3.4 : Amélioration de la performance (BARRE, S14-S15, 30h) Il s agit d améliorer l algorithme de détection en permettant une flexibilité au niveau du fond, de la luminosité ainsi que de l orientation de la tête. Livrable Livrable 3.1 : Rapport sur l approche et les librairies choisies (BARRE, RECH, S8) Ce livrable permettra de vérifier la tâche 3.2. Livrable 3.2 : Rapport et démonstration de la détection des yeux (BARRE, DEMO, S12) Ce livrable contient la description du processus de détection des yeux et des pupilles, ses fondements, ainsi qu une démonstration. Il permettra de vérifier la tâche 3.3. Livrable 3.3 : Rapport sur la robustesse apportée à l application (BARRE, DEMO, S14) Ce livrable nous permettra de faire un comparatif entre l application en condition standard et celle avec les améliorations apportées. Il permettra de vérifier la tâche 3.4 15

Identifiant L4 Date de S16 démarrage Titre Gaze analysis Type IMPL Participant BARRE PRECIOSO LINGRAND LOPEZ Effort 81 4 4 4 Objectifs du lot Ce lot a pour but une bonne analyse des yeux pour relever des caractéristiques pertinentes Analyse du regard lorsque le visage est fixe et centré sur la caméra Généralisation du processus depuis n importe quel point de la caméra pour une meilleure souplesse de l application Description du lot Ce lot est constitué de deux tâches, l une permettant d établir l organisation prévisionnelle du projet, et l autre assurant le suivi. Tâche 4.1 : Relevé des caractéristiques depuis le centre de la caméra (BARRE, S6-S7, 52h) Tâche 4.2 : Généralisation du processus (BARRE, S17-S18, 29h) Livrable Livrable 4.1 : Etat de l art sur les méthodes mathématiques (BARRE, RECH, S16) Ce livrable est un état de l art actuel sur les méthodes mathématiques utilisées pour l analyse du regard, l extraction de données intéressantes comme les points de fixation, la durée des saccades de l œil, leurs trajectoires, ou encore la taille de la pupille de l œil. Livrable 4.2 : Rapport et démonstration du gaze-tracking (BARRE, IMPL, DEMO, S19) Cette démonstration du gaze-tracking permettra de vérifier la tâche 4.2, et ainsi permettre de voir le rendu final de l application car il constitue le dernier livrable technique du projet. 16

Identifiant L5 Date de S19 démarrage Titre Rendu final Type DEMO Participant BARRE PRECIOSO LINGRAND LOPEZ Effort 30 2 2 2 Objectifs du lot Ce lot a pour but de bien présenter le projet au jury, et au monde extérieur Réalisation du diaporama de présentation Réalisation d un site web de présentation du projet Rapport final Description du lot Ce lot est constitué de deux tâches, l une permettant d établir de présenter le projet au sein de l école, l autre de le présenter à toute personne susceptible d être intéressé en dehors de l école. Tâche 5.1 : Présentation (BARRE, S20-S21, 11h) Tâche 5.2 : Page web projet (BARRE, S20-S21, 19h) Livrable Livrable 5.1 : Page web projet (BARRE, IMPL, S20) Ce livrable contient la description du projet, ses objectifs, sa planification, les risques qu il contient, ainsi que sa méthode de gestion. Il établit une organisation des tâches. Il permettra de vérifier la tâche 5.2. Livrable 5.2 : Diaporama de présentation finale (BARRE, MGMT, S20) Ce livrable permettra de vérifier la tâche 5.1. Livrable 5.3 : Rapport final (BARRE, DOC, S21) Ce livrable regroupera les différents rapports rendus au long du projet afin de regrouper le travail réalisé sur un document et permettre de voir l ensemble du projet. 17

Gestion du risque Tableau 4 - Table de gestion des risques Description Probabilité Conséquences Impact Cause Évitement Résolution Perte de temps pour la prise en main des librairies choisies 20% Longue prise en main, changement de librairies Perte de temps Technique Vérifier la possibilité de l utilisation de la librairie une fois connue communauté Webcam limitante Précision insuffisante avec du lowcost Mauvaise gestion de l emploi du temps 20% Impossibilité d extraire des caractéristiques pertinentes 5% Impossibilité d extraire des caractéristiques pertinentes 10% Retard sur le planning, livrables en retard Lourd retard Technique Vérifier avec un algorithme de détection si la précision est suffisante Perte de temps considérable, projet inachevé Objectifs fixés non réalisés Technique, documentation insuffisante Manque d expérience dans la mise en place de projets S assurer qu il est possible d atteindre la précision espérée par les chercheurs avec du matériel lowcost Faire des réunions, respecter les jalons Surveiller le planning. Faire des points de contrôle réguliers, ne pas hésiter à demander de l aide à la Demander un autre matériel que la webcam intégrée (webcam hd, Kinect) Adaptation du scénario en fonction de la précision obtenue (cf. Objectif 4) Réajuster les durées des tâches en fonctions des difficultés rencontrées 18

5. Participants Benjamin BARRÉ (SI5 - VIM) Après avoir suivi le cycle des Préparations aux Ecoles d Ingénieurs de Polytech à Montpellier, je suis actuellement à Polytech Nice-Sophia en dernière année du cursus Sciences Informatiques, option Vision, Image, et Multimédia. J ai pu l an dernier créer une application en Processing et avec l aide de la bibliothèque OpenCV, qui permettait de reconnaître la main d un utilisateur et ainsi pouvoir faire plusieurs opérations à partir de sa main et de sa webcam. J ai pu également créer un jeu pour des enfants malvoyants, il y a deux ans dans le cadre du projet DeViN T que l école organise chaque année. Frédéric PRECIOSO (I3S - Équipe KEIA) Les travaux de KEIA (Knowledge Extraction Integration and Algorithms) concernent la fouille de données et ses applications. Ils ont pour objectif de développer des techniques ou algorithmes pour l'analyse de grands ensembles de données hétérogènes. Dans ce cadre, Frédéric Precioso s intéresse à plusieurs problèmes liés à l'apprentissage automatique en particulier sur des données non-structurées ou faiblement-structurées sémantiquement. Diane Lingrand (I3S Équipe KEIA) Diane Lingrand, dans l'équipe KEIA, s'intéresse aux algorithmes de traitement d'images et de vision associés aux méthodes d'apprentissage. Elle s'intéresse notamment à la reconnaissance de plantes et, dans le cadre d'une collaboration avec l'entreprise Capabilis, à la reconnaissance de sécurités visuelles dans les documents administratifs. Stéphanie LOPEZ (I3S Équipe KEIA) Sortant du cursus Mathématiques Appliquées à la Modélisation, en option Vision, Image, et Multimédia, elle fait actuellement une thèse sur l eye tracking sous la direction de M. Precioso. Elle a pu lors de son projet de fin d étude l an dernier, Kinectition, manipuler la Kinect pour développer un algorithme de reconnaissance d être humain ainsi que leurs déplacements. Elle a pu aussi travailler sur ce même projet il y a deux ans, détecter et suivre en temps réel les pupilles dans une vidéo obtenue par webcam en utilisant la librairie OpenCV et le logiciel de développement VisualC++. 19

6. Bibliographie & Références (1) Tobii, http://www.tobii.com/, [visite] 25/10/2013 (2) Tobii EyeAsteroids, http://www.tobii.com/eyeasteroids, [visite] 25/10/2013 (3) L eye-tracking dans le web marketing, http://www.definitionswebmarketing.com/definition-eye-tracking, [visite] 28/10/2013 (4) Eye Tracking en Ergonomie Web et en E-Marketing : définitions, explications et dossier complet sur l oculométrie, http://trinity-advise.com/eye-tracking-ergonomieweb-explications-oculometrie-e-marketing/, [visite] 30/10/2013 (5) EyeWriter, http://www.eyewriter.org/, [visite] 27/10/2013 (6) Kinect sur wikipédia avec les caractéristiques, http://fr.wikipedia.org/wiki/kinect, [visite] 10/11/2013 (7) Tristan Hume, Simple, accurate eye center tracking in OpenCV, http://thume.ca/projects/2012/11/04/simple-accurate-eye-center-tracking-in-opencv/, [visite] 24/10/2013 (8) NUIA eyecharm, http://www.kickstarter.com/projects/4tiitoo/nuia-eyecharm-kinectto-eye-tracking, [visite] 09/11/2013 (9) Ogama, http://www.ogama.net/, [visite] 30/10/2013 (10) YouEye, http://join.youeye.com/, [visite] 27/10/2013 (11) EyeTrackShop, http://eyetrackshop.com/, [visite] 28/10/2013 (12) OpenGazer, http://www.inference.phy.cam.ac.uk/opengazer/, [visite] 2/11/2013 (13) GazeGroup, http://www.gazegroup.org/research, [visite] 26/10/2013 20