UMR CNRS Journée des Doctorants. 23 juin 2015 C O.

Dimension: px
Commencer à balayer dès la page:

Download "UMR CNRS 7253. Journée des Doctorants. 23 juin 2015 C O. www.hds.utc.fr"

Transcription

1 UMR CNRS 7253 Journée des Doctorants 23 juin 2015 R D T C O A N T O

2

3 En 2015, Heudiasyc fête ses 35 ans d existence. Plus de 550 docteurs ont soutenu leur thèse durant cette période et ont fortement contribué au développement de l activité et à la reconnaissance du laboratoire. Dans le cadre de leur parcours professionnel, un certain nombre d entre eux continuent à tisser des liens étroits avec le laboratoire par diverses collaborations. Le rayonnement du laboratoire est porté également par la réussite de nos doctorants. La journée des doctorants est un rendez-vous annuel essentiel dans la vie de l unité. Cette journée permet de faire un point d étape dans le parcours de la thèse, dans le but de : - assurer un meilleur suivi des thèses au niveau du laboratoire de manière à améliorer le bon déroulement de celles-ci ; le directeur de thèse conservant l entière responsabilité scientifique de la thèse ; - émettre un avis sur les demandes de réinscriptions à transmettre à l Ecole Doctorale de l UTC ; - présenter aux partenaires du laboratoire les travaux de nos doctorants. La formule de cette journée évolue cette année. Les présentations des doctorants de 1 ère année se déroulent par équipe scientifique sous forme de quatre sessions parallèles devant un comité de suivi, constitué des permanents habilités à diriger des recherches de l équipe scientifique et des co-directeurs de thèse. Les exposés sont ouverts à l ensemble de l équipe scientifique ainsi qu aux autres membres de l unité ou invités. À l issue de ces auditions, les doctorants de 2 ème année réalisent une présentation rapide «spotlight» de leurs travaux devant l ensemble du laboratoire. Enfin, les posters des doctorants de 2 ème année sont présentés lors d'une session rassemblant tout le laboratoire et sont examinés par des souscommissions constituées de permanents inter-équipes. Ce document recense l ensemble des thèses en cours au sein de l unité. Seuls les doctorants en 1 ère et 2 ème années présentent leurs travaux pendant la journée. Cette journée, moment d échanges et de convivialité, met à l honneur la formation doctorale, clé de voûte de l activité d Heudiasyc. Ali Charara Directeur Yves Grandvalet Directeur-Adjoint

4

5 Journée des doctorants Heudiasyc Mardi 23 juin PROGRAMME - 8h30 - Accueil café en salle FA 212 au Centre Benjamin Franklin 9h00 - Début des présentations des doctorants de 1 ère année par équipe Equipe ASER : «Automatique, Systèmes Embarqués, Robotique» Salle FA 201 Centre Benjamin Franklin 9h00 CHEBLY Alia Planification des trajectoires pour la navigation des véhicules autonomes 9h30 LI Franck Cartes détaillées avec contrôle d intégrité pour la navigation autonome des automobiles 10h00 MOUHAGIR Planification de trajectoires sur la base d une perception évidentielle pour un Hafida véhicule autonome 10h30 RANGRA Une approche système des systèmes dans la modification et l intégration des Subeer facteurs humains dans les analyses de risque 11h00 YU Lanting Système fiabilité optimisation avec les données de défaillance incertaines Equipe DI : «Décision, Image» Salle FA 200 Centre Benjamin Franklin 9h00 DIAS NAKASHIMA Natasha Sayuri Slam 3D multi-capteurs basés vision en environnements dynamiques 9h30 GRINE Bilal Apprentissage multi-label pour l analyse des données Equipe ICI : «Information, Connaissance, Interaction» Salle FA 202 Centre Benjamin Franklin 9h00 GROSSE Romain Interaction naturelle au regard dans les systèmes optroniques 9h30 JEANNE Florian interaction gestuelle en environnement virtuel/augmenté 10h00 KAMDEM SIMO Freddy Fédération de modèles de systèmes de systèmes 10h30 LAURENT Mélody Scénarisation et génération de récits interactifs en environnements virtuels pour la formation en environnements sociotechniques complexes 11h00 SALEH Majd Intégration d écosystèmes numériques : vers la modélisation d un système de systèmes 11h30 YANG Lingxue Prise en compte des émotions liées aux contextes d interactions dans la conception Equipe RO : «Réseaux, Optimisation» Salle FA 204 Centre Benjamin Franklin 9h00 AGGUINI Hamid Sécurité du cloud computing 9h30 COLLET Julien Support matériel et compilation dynamique pour l optimisation des transferts de données dans les architectures multiprocesseur distribuées 10h00 MKADDEM Mohamed Ordonnancement et gestion de moyens de transport dans les systèmes flexibles de production 1/2

6 12h00 - Pause déjeuner en salle FA 212 au Centre Benjamin Franklin Ordre de passage BARKI Amira BENOUARET Idir CALLEBERT Lucile FIORAVANTE DA SILVA DINIZ Wendell FRENOY Rémy JIANG Kun KANG Yue 13h30 - Début des présentations «Spotlight» des doctorants de 2 ème année en salle FA 201 au Centre Benjamin Franklin Sécurité des communications M2M Interactions contextuelles pour l apprentissage en mobilité Modélisation de personnages virtuels autonomes cognitifs pour la formation à l intelligence collective et à la cohésion d équipe dans des environnements socio-techniques complexes Vision étendue embarquée utilisant un réseau de caméras pour la navigation de drones aériens Interaction gestuelle et guidage adaptatif : application au geste d écriture Estimation et diagnostic de la dynamique de véhicules en interaction avec l environnement Système embarqué d assistance au conducteur basé sur la navigation autonome référencée capteur d un véhicule électrique intelligent LARIOS GOMEZ Mariano Conception et contrôle d un avion convertible pour la recherche de personnes Vers une simplification de la conception de comportements autonomes, LEMAITRE Juliette rationnels et interactifs des personnages non-joueurs dans les jeux vidéos et les simulations LIAN Chunfeng Fusion de l information et la prise de décisions à l aide des fonctions de croyance : application au suivi thérapeutique du cancer LUGO CARDENAS Israel Conception et commande d un avion pour la recherche des personnes perdues NGUYEN Huu Phuc Développement d une commande à modèle partiel appris : analyse théorique et étude pratique SABT Mohamed Informatique de confiance : architectures sécurisées ancrées à des dispositifs matériels SAIED Majd Commande tolérante aux fautes lors de pannes de moteur d un drone SAHLI Abderrahim Problèmes d ordonnancement de projets avec ressources de stockage, optimisation et robustesse SALAZAR Hilario Développement d un système de navigation de vision pour la recherche de personnes perdues dans une forêt TOUATI Lyès Sécurité de l internet des objets : vers une interaction robuste des Systèmes de Systèmes WANG Ning Interprétation sémantique à partir de traces collaboratives YU Chunlei Grilles multi-capteurs pour la navigation des véhicules intelligents ZAOUCHE Lotfi Fiabilité et sécurité des communications dans les réseaux d essaims 14h30 - Session poster des doctorants de 2 ème année au niveau 1 du Centre Benjamin Franklin 17h00 - Cocktail et remise du prix poster en salle FA 212 au Centre Benjamin Franklin 2/2

7 INDEX ALPHABETIQUE DES AUTEURS NOM ET PRENOM PAGE TITRE AGGUINI Hamid 1 Sécurité du Cloud Computing ATRASH Ala Aldin 3 Modélisation et conception d un système de capitalisation d expertises support à l apprentissage organisationnel au sein de PME/TPE BARKI Amira 5 Sécurité des communications M2M BECU Jean-Michel 7 Tests d hypothèses en régression pénalisée pour la sélection de variable en bioinformatique BENOUARET Idir 9 Un système de recommandation sensible au contexte pour la visite de musée BOCQUILLON Ronan 11 Optimisation de la distribution de données dans un système de systèmes collaboratifs CALLEBERT Lucile 13 Modélisation de personnages virtuels autonomes cognitifs dans des environnements socio-techniques complexes : activité collective et confiance CHEBLY Alia 15 Trajectory planning for autonomous vehicles navigation COLLET Julien 17 Hardware support and dynamic compilation for online optimization of data transfers in distributed multiprocessor architectures COSTA SANTOS Marcio 19 New approaches to robust lot-sizing problems DIAS NAKASHIMA Natasha Sayuri 21 Vision-based 3D SLAM in dynamical environments DUMAS-MILNE- EDWARDS Léonard 23 EL HAJJ Racha 25 FIORAVANTE DA SILVA DINIZ Wendell 27 Outils d analyse généalogique et philologique de documents numériques structurés en contexte de réeditorialisation collaborative Problèmes de tournées de véhicules avec profits : Résolutions exacte et approchée Embedded extended vision using cameras network for UAV navigation FOUQUET Yoann 29 Gestion des risques par des méthodes d optimisation robuste FRENOY Rémy 31 Interaction gestuelle et guidage adaptatif : application au geste d écriture FUCKNER Marcio 33 Capitalisation des connaissances dans une architecture orientée services GARCIA DURAN Alberto 35 Learning high-level representations of large-scale sparse tensors GRINE Bilal 37 Apprentissage multi-label pour l'analyse de données GROSSE Romain 39 Interaction naturelle au regard dans les systèmes optroniques HOU Yunhui 41 Estimation de la probabilité et de l'incertitude des événements indésirables des grands systèmes HOU Zhicheng 43 Modélisation et conception de lois de commande distribuées pour le vol en formation de drones JEANNE Florian 45 Annotation du geste technique pour un retour sensoriel adaptatif : application à la formation en environnement virtuel informé

8 NOM ET PRENOM PAGE TITRE JIANG Kun 47 Estimation et diagnostic de la dynamique du véhicule en interaction avec l environnement JIAO Lianmeng 49 Classification des données incertaines dans le cadre de la theorie des fonctions de croyance KAMDEM SIMO Freddy 51 Semantic-based Federation of SoS models Navigation d'assistance intelligente basée sur la commande KANG Yue 53 référencée capteurs appliquée aux véhicules électriques intelligents LARIOS-GOMEZ Mariano 55 Conception d un avion convertible LASSOUED Khaoula 57 Navigation de systèmes robotiques hétérogènes en coopération mutuelle LAURENT Mélody 59 Scénarisation et génération de récits interactifs en environnements virtuels pour la formation à des compétences non-techniques LEMAITRE Juliette 61 Modélisation et génération de stratégies collectives pour le contrôle d IA opposantes dans les jeux vidéo LI Franck 63 Creating and updating detailed maps for ADAS and autonomous commuter cars LIAN Chunfeng 65 Information fusion and decision making using belief functions: Application to therapeutic monitoring of cancer LUGO CARDENAS Israel 67 Conception et commande d un avion pour la recherche des personnes disparues MERCADO RAVELL Télé-opération de véhicules aériens dans une zone contenant des 69 Diego Alberto obstacles MKADDEM Mohamed 71 Ordonnancement et gestion de moyens de transport dans les systèmes flexibles de production MOUHAGIR Hafida 73 Planification de trajectoires sur la base d une perception évidentielle pour un véhicule autonome NGUYEN Huu Phuc 75 Développement d une commande à modèle partiel appris : Analyse théorique et étude pratique OURABAH Abdel Djalil 77 Prédiction énergétique d un véhicule hybride rechargeable pour la réduction de consommation de carburant PHAN Minh Tien 79 Mobile and interactive augmented reality for driving assistance PIMENTA DE MORAES JUNIOR Hermes 81 Data sharing in Vehicular Networks PUTHIYA PARAMBATH Shameem Ahamed 83 Nouvelles méthodes pour l apprentissage multi-objectif RANGRA Subeer 85 Une approche Système-de-Systèmes pour la modélisation et l'intégration des facteurs humains dans l'analyse de risque RAULT Tifenn 87 Economie d énergie dans les réseaux de capteurs sans fil SABT Mohamed 89 Informatique de confiance : architecture sécurisée ancrée à des dispositifs matériels SAHLI Abderrahim 91 Problèmes d ordonnancement avec production et consommation des ressources SAIED Majd 93 Commande tolérante aux fautes lors de pannes de moteurs d un drone SAIF Ossamah 95 Navigation réactive de drones en interaction dans une flottille

9 NOM ET PRENOM PAGE TITRE SALAZAR-MARTINEZ Hilario SALEH Majd Navigation d un drone par vision dans la forêt Integration of digital ecosystems: towards modeling a system of systems SFAR Arbia 101 Gestion de la confiance et Privacy dans Internet des objets SYLLA Yaya 103 Community detection on large scale social networks TAO Zui 105 Map aided localization for intelligent vehicles: A road-frame estimation strategy TOUATI Lyes 107 Sécurité d internet des objets : vers une interaction robuste des systèmes de systèmes WANG Bihao 109 Analyse de scène contextuelle pour la détection et le suivi d objets dans les véhicules intelligents WANG Ning 111 Interprétation sémantique à partir de traces collaboratives YANG Gen 113 Problèmes d apprentissage statistique avec données structurées et fortes incertitudes YANG Lingxue 115 Take emotions into consideration during the design of business intelligent applications in multi-device YU Chunlei 117 Multi-sensor grid for intelligent vehicle perception YU Lanting 119 Méthodes de comparaison de fiabilités imprécises pour l aide à la conception sûre ZAOUCHE Lotfi 121 Fiabilité et sécurité des communications dans les réseaux d essaims ZHOU Shuting 123 Navigation d un quadri-rotor pour accéder à l intérieur d un bâtiment

10

11 TYPE DE FINANCEMENT AGGUINI Hamid NOM ET PRENOM ATRASH Ala Aldin BARKI Amira BECU Jean-Michel BENOUARET Idir BOCQUILLON Ronan CALLEBERT Lucile CHEBLY Alia COLLET Julien COSTA SANTOS Marcio DIAS NAKASHIMA Natasha Sayuri DUMAS-MILNE-EDWARDS Léonard EL HAJJ Racha FIORAVANTE DA SILVA DINIZ Wendell FOUQUET Yoann FRENOY Rémy FUCKNER Marcio GARCIA DURAN Alberto GRINE Bilal GROSSE Romain HOU Yunhui HOU Zhicheng JEANNE Florian JIANG Kun JIAO Lianmeng KAMDEM SIMO Freddy KANG Yue LARIOS-GOMEZ Mariano FINANCEMENT Bourse Gouvernement Algérien Région Picardie CIFRE Orange Labs Fondation UTC dans le cadre du projet Ecotox Région Picardie Région Picardie DGA/Labex MS2T Ministère de l Enseignement Supérieur et de la Recherche - MESR CEA - CDD Formation doctorale Ministère de l Enseignement Supérieur et de la Recherche - MESR Cotutelle avec le Brésil - Université de Campinas CIFRE Kelis Cotutelle avec le Liban - Université Libanaise/UTC - Région Picardie Bourse Gouvernement Brésilien Ministère de l Enseignement Supérieur et de la Recherche - MESR Collegium UTC/CNRS (avec COSTECH-UTC) Bourse Gouvernement Brésilien ANR - Projet EVEREST Bourse Gouvernement Algérien CIFRE Sagem Défense Sécurité Collegium UTC/CNRS (avec LMAC-UTC) China Scholarship Council - Chine Région Picardie - FEDER China Scholarship Council - Chine China Scholarship Council - Chine Labex MS2T China Scholarship Council - Chine PROMEP - Programa de Mejoramiento del Profesorado - Mexique

12 NOM ET PRENOM LASSOUED Khaoula LAURENT Mélody LEMAITRE Juliette LI Franck LIAN Chunfeng LUGO CARDENAS Israel MERCADO RAVELL Diego Alberto MKADDEM Mohamed MOUHAGIR Hafida NGUYEN Huu Phuc OURABAH Abdel Djalil PHAN Minh Tien PIMENTA DE MORAES JUNIOR Hermes PUTHIYA PARAMBATH Shameem Ahamed RANGRA Subeer RAULT Tifenn SABT Mohamed SAHLI Abderrahim SAIED Majd SAIF Ossamah SALAZAR-MARTINEZ Hilario SALEH Majd SFAR Arbia SYLLA Yaya TAO Zui TOUATI Lyes WANG Bihao WANG Ning YANG Gen YANG Lingxue YU Chunlei FINANCEMENT Ministère de l Enseignement Supérieur et de la Recherche - MESR Région Picardie - FEDER CIFRE MASA Group CIFRE Renault China Scholarship Council - Chine CONACYT - Consejo Nacional de Ciencia y Tecnología - Mexique Ministère de l Enseignement Supérieur et de la Recherche - MESR Ministère de l Enseignement Supérieur et de la Recherche - MESR PSA Ministère de l Enseignement Supérieur et de la Recherche - MESR CIFRE Renault Ministère de l Enseignement Supérieur et de la Recherche - MESR Ministère de l Enseignement Supérieur et de la Recherche - MESR Région Picardie/LABEX MS2T Labex MS2T Labex MS2T CIFRE Orange Labs Labex MS2T Cotutelle avec le Liban - Université Libanaise/ UTC - Office Méditerranéen de la Jeunesse Labex MS2T PROMEP - Programa de Mejoramiento del Profesorado - Mexique Ministère de l Enseignement Supérieur et de la Recherche - MESR Cotutelle avec la Tunisie - Bourse gouvernement Tunisien CIFRE Teradata China Scholarship Council - Chine Labex MS2T China Scholarship Council - Chine China Scholarship Council - Chine Ministère de l Enseignement Supérieur et de la Recherche - MESR CIFRE SAP China Scholarship Council - Chine

13 NOM ET PRENOM YU Lanting ZAOUCHE Lotfi ZHOU Shuting FINANCEMENT China Scholarship Council - Chine Ministère de l Enseignement Supérieur et de la Recherche - MESR China Scholarship Council - Chine Doctorant co-encadré par le laboratoire, inscrit dans une autre formation NOM ET PRENOM LEYOUDEC Lénaik SCHMITT Eglantine SUI Liqi FINANCEMENT CIFRE Perfect Memory (avec COSTECH-UTC) Contrat Proxem (avec COSTECH -UTC) China Scholarship Council - Chine (avec UMR Roberval-UTC)

14

15 Sécurité du Cloud Computing Agguini Hamid Directeurs de thèse :Abdelmadjid Bouabdellah Équipe : RO Résumé Le Cloud Computing est un nouveau paradigme, permettant a un utilisateur de stocker ses données dans des serveurs contrôlés par des tiers et lui offrant des services a la demande. Cependant, les fournisseurs de service et les utilisateurs appartiennent, généralement a diffèrent domaines de confiance, ce qui a fait que la sécurité des donnée et la vie privée des utilisateurs est devenue un point crucial, dans la sécurité du cloud. Dans cette thèse nous allons proposer une solution assurant une gestion d accès sécurisée à la donnée dans le cloud, en se basant sur des méthodes de cryptographie avancées. MOTS-CLE : Cloud Computing, Modeles de gestions d accès, privacy La thèse a débuté le 1er octobre 2014 et est financée par le Gouvernement Algérien. I. OBJECTIFS ET CONTEXTE Le Cloud Computing, ou informatique en nuages, est un environnement de stockage et d exécution flexible et dynamique qui offre à ses utilisateurs des ressources informatiques à la demande via internet[1].le Cloud Computing se développe de manière exponentielle car il offre de nombreux avantages rendus possibles grâce aux évolutions majeures des Data Centers et de la virtualisation. On peut citer l'économie des coûts d'investissement et de maintenance des équipements informatiques, une puissance de calcul et capacité de stockage illimitées, un système tolérant aux pannes, une facturation à la demande, etc. Aujourd'hui, Plusieurs fournisseurs offrent des services Cloud comme Amazone, IBM, Microsoft, Google, Hewlett Packard, etc. Initialement, les clients ont commencé par externaliser uniquement des données et des traitements non critiques (comme la messagerie), puis leur utilisation s est étendue vers des domaines plus stratégiques comme le contrôle à distance (par exemple aide au pilotage et à la conduite, etc). Dans ces applications, tout est contrôlé à partir du Cloud plutôt que d'embarquer des calculateurs coûteux dans les véhicules ou autres équipements. Cependant, cette externalisation expose les données à des attaques diverses. En effet, déplacer les données de l entreprise vers les Data Centers d un fournisseur constitue un réel risque sur la sécurité et la confidentialité des données. Par conséquent, le passage au Cloud Computing nous oblige à repenser totalement la sécurité informatique. A la lumière de ces éléments, il est clair que le marché du Cloud Computing a besoin de nouvelles solutions de sécurité afin de répondre aux exigences des utilisateurs et aux lacunes des fournisseurs. Les enjeux sécuritaires (confidentialité, intégrité, gestion des accès et des identités...) ne pourront être levés que par l utilisation des avancés récentes de cryptographie. Cette thèse a pour but d étudier, de spécifier et de mettre en oeuvre des mécanismes de sécurité permettant de rendre sûre de fonctionnement des architectures de type «Cloud Storage». Les mécanismes proposés devront être capables de satisfaire des niveaux de qualité de service très variables (requis par les utilisateurs et/ou les services). Les solutions à développer devront être robustes pour assurer une sécurité optimale des données externalisées tout en supportant la mobilité des utilisateurs et l hétérogénéité des environnements utilisés. Elles devront aussi permettre de gérer l identité des acteurs utilisant les systèmes ainsi que leurs droits d accès. Par exemple, dans le cas de stockage de données médicales d'un patient, les différents acteurs qui pourraient être autorisés à accéder avec différents droit (consultation seule, consultation et mise à jour, etc.) à ces données sont : le patient, son médecin traitant, son cardiologue par exemple, et la direction de l'hôpital. II. AVANENCEMENT Le travail de thèse est mené selon les grandes étapes suivantes : (1) Etude des différentes architectures Cloud et leurs caractéristiques (2) Etat de l'art sur la sécurité dans le cloud (3) Etudes des exigences en termes de sécurité(4) Développement de solutions de sécurité (5) validation de la solution (6) expérimentation (7) rédaction du rapport. Les mois précédents ont été consacrés aux deux premières étapes. Une étude des différents challenges de sécurité dans le cloud, et par la suite une classification des solutions de gestion d accès ont été faits. A partir de cette étude, nous avons constaté que les solutions au problèmes de gestion d accés dans le cloud ont des lacunes par rapport a la sociabilité, les performances et la gestion de clé. III. PERSPECTIVES Les travaux effectués au cours de cette 1ère année vont faire l objet d un article (en cours de rédaction) qui traite des différents modèles de gestion d accès dans le cloud, leur avantages et inconvénients. Le prochain objectif seras la proposition d une solution avec une gestion d accès au cloud plus sécurisée. References [1] G. P. Mell and T. Grance, The nist definition of cloud computing, National Institute of Standards and Technology, vol. 53, no. 6, p. 50,

16 2

17 Modélisation et conception d un système de capitalisation d expertises support à l apprentissage organisationnel au sein de PME/TPE Ala Atrash Directeurs de thèse : Marie-Hélène Abel Équipe : ICI Résumé La gestion des connaissances dans les petites et moyennes entreprises a toujours été un défi. Ces entreprises ont des caractéristiques particulières qui sont liées à leur taille, structure, coordination et la collaboration qu elles mettent en œuvre. L enjeu scientifique de ce travail est de mieux appréhender les spécificités de la gestion des connaissances et de l apprentissage organisationnel dans ces petites entreprises. I. OBJECTIFS ET CONTEXTE Face aux besoins des entreprises de créer, préserver et partager les connaissances au sein de leurs établissements, la gestion des connaissances (Knowledge Management) occupe depuis le début des années 90 une place de plus en plus importante. Selon [1], l objectif de la gestion des connaissances dans une entreprise est de favoriser la croissance, la transmission et la conservation des connaissances. Les outils de gestion des connaissances sont le plus souvent conçus pour de grandes entreprises et les PMEs (Petites et Moyennes Entreprises) ne les utilisent pas car non adaptés à leurs besoins. L objet de ce travail de recherche est de fournir une plateforme informatique qui favorise l apprentissage organisationnel dans les PME/TPE (Très Petites Entreprise). Cette plateforme doit s'appuyer sur un modèle qui prend en compte les besoins particuliers de ces entreprises. Pour bien identifier ces besoins, deux vagues d entretiens ont été effectuées dans la TPE Tour Equipement. Cette entreprise a été choisie comme une TPE partenaire pour effectuer les tests de notre travail. Elle est localisée en Picardie où elle fabrique depuis cinquante ans des mors de serrage de tous types et pour toutes les marques de mandrin. Les entretiens menés ont permis de dégager des besoins en capitalisation et une meilleure compréhension du contexte PME/TPE. Ces études de terrain nous ont orientés vers la nécessiter d outiller la prise de note et d annotation de façon à faciliter leur capitalisation. Bien sûr, il ne s agit en aucun cas de prétendre réduire la capitalisation des connaissances dans les PME/TPE à ce type de supports mais bien d enrichir la possibilité de prendre des notes et d annotation et de faciliter leur partage entre les membres de l entreprise. II. AVANCEMENT La deuxième année de cette thèse a permis de mieux considérer les notes et annotations au sein du modèle MEMORAe-core 2 (MC2) et de développer les fonctionnalités adaptées au sein de la plateforme web de collaboration. Durant la troisième année nous avons mis en place une approche modulaire afin de pouvoir plus facilement faire évoluer le modèle MEMORAe-core2 en fonction des exigences identifiées au sein des entreprises susceptibles d utiliser la plateforme de collaboration. Nous avons ainsi développé une méthode d intégration de modules ontologiques. A. Ontologie modulaire La modularité des ontologies a été considérée comme une tâche cruciale pour permettre la réutilisation d ontologie sur le web sémantique. Selon [2] un module est plus facile à construire, maintenir et remplacer. Pour [2], le terme modularisation vient du domaine du génie logiciel où la conception d application prend en compte la maintenance et la réutilisabilité des modules. D un point de vu ontologique, la modularisation est considérée comme un moyen pour structurer et pour organiser des ontologies. Le module luimême est défini comme un sous-ensemble d un tout qui a du sens [3]. [4] définit le module de l ontologie comme un composant réutilisable d une ontologie plus complexe. [3] et [4] affirment que le module de l ontologie est autonome mais doit toujours entretenir des relations avec d autres modules (y compris l original). Il y a deux façons de faire de la modularisation. La première façon est de décomposer une ontologie en petits composants réutilisables et interdépendantes (modules), c est ce que l on appelle la décomposition de l ontologie. La deuxième façon est d intégrer des composants réutilisables, autonomes et indépendants (sous-ontologies), c est ce que l on appelle la composition de l ontologie. Selon nous, un module d ontologie réutilisable doit être considéré comme un composant autonome, et c est l ontologie qui l intègre qui doit ajouter les liens nécessaires pour exploiter ce nouveau module. Aussi, les modules d ontologie sont eux-mêmes des ontologies. Selon [3], les principaux objectifs de la modularisation sont : La réutilisabilité des parties : avec le développement croissant des modèles du web sémantique, de nombreuses ontologies de domaines spécifiques ont été développées ces dernières années. Il devient donc intéressant et utile d utiliser ces ontologies partiellement ou globalement. Diminuer le niveau de complexité : l augmentation de la taille d une ontologie en augmente sa complexité. 3

18 B. Notre méthode d intégration d un module à une ontologie Pour construire une ontologie modulaire, nous proposons de définir une Abstract Ontology", i.e. une ontologie qui pourra être complétée par un ou plusieurs modules selon le besoin. Lors de la définition de l Abstract Ontology", il est nécessaire de penser les concepts et les propriétés en tenant compte d une future intégration de module. L intégration se ferra de la façon suivante : 1. Dupliquer l Abstract Ontology" en gardant le Namespace" de façon à obtenir une Implementing Ontology" (IO). 2. Importer le module (M) dans IO en gardant son Namespace". 3. Ajouter les éléments nécessaires et modifier les axiomes nécessaires. Si le module Mi doit intégrer le module Mj, on suit la même méthode en considérant que Mi est l Abstract Ontology". III. PERSPECTIVES Les activités développées pendant cette période centrent dans le planning initialement proposé. Le manuscrit est en cours de rédaction pour une soutenance prévue fin septembre Une phase de test du prototype MEMORAe Note auprès de la TPE Tour Equipement est programmée en juin IV. PUBLICATIONS Ces travaux ont donné lieu à la rédaction et la publication des articles suivants : Internationale : Ala Atrash, Marie-Hélène Abel, Claude Moulin, Supporting organizational learning with collaborative annotation, In 6th international conference on knowledge management and information sharing (KMIS), October 2014, Rome, Italy, Ala Atrash, Marie-Hélène Abel, Claude Moulin, A Semantic Model for Small and Medium-sized Enterprises to Support Organizational Learning. In 5th international conference on knowledge management and information sharing (KMIS), September 2013, Vilamoura, Portugal, Ala Atrash, Marie-Hélène Abel, Claude Moulin, MEMORAe: A Web Platform to Support Collaborative Annotation, interactive events of AIED 2015 in Madrid, Spain, juin (http://www.sciencedirect.com/science/article/pii /S ) Ala Atrash, Marie-Hélène Abel, Claude Moulin, Nathalie Darène, Frédéric Huet, Sabine Bruaux, Note-taking as a main feature in a social networking platform for small and medium sized enterprises, Computers in Human Behavior, Available online 14 January 2015, ISSN , (http://www.sciencedirect.com/science/article/pii /S ) Nationale : Ala Atrash, Marie-Hélène Abel et Claude Moulin, Ontologie Modulaire pour la Collaboration, Atelier Modules Ontologiques dans le 25es Journées francophones d'ingénierie des Connaissances Clermont Ferrand, mai 2014, 8-11 Ala Atrash, Marie-Hélène Abel et Claude Moulin, Une plateforme support à l apprentissage organisationnel, 25es Journées francophones d'ingénierie des Connaissances Clermont Ferrand, mai 2014, Ala Atrash et Marie-Hélène Abel, démonstration dans le 26es Journées francophones d'ingénierie des Connaissances à Rennes, 29 juin - 03 juillet 2015 Références [1] Steel, L. (1993, octobre ). Corporate knowledge management. Proceedings of the International Symposium on the Management of industrial and corporate knowledge (ICMICK 93), Compiègne. [2] Ben Abbes S., Scheuermann A., Meilender T., d Aquin M. et al. (2012). Characterizing modular ontologies. In 6th international workshop on modular ontologies-womo 2012, p [3] Pathak J., Johnson T. M., Chute C. G. (2009). Survey of modular ontology techniques and their applications in the biomedical domain. Integrated computer-aided engineering, vol. 16, no 3, p [4] Doran P., Tamma V., Iannone L. (2007). Ontology module extraction for ontology reuse: An ontology engineering perspective. In Proceedings of the sixteenth acm conference on conference on information and knowledge management, p New York, NY, USA, ACM. Consulté sur Ala Atrash, Marie-Hélène Abel, Claude Moulin, Notes and annotations as information resources in a social networking platform, Computers in Human Behavior, Available online 16 January 2015, ISSN , 4

19 Sécurité des communications M2M Amira Barki Directeur de thèse : Abdelmadjid BOUABDALLAH Équipe : RO Résumé Compte tenu de la sensibilité des données manipulées par les applications Machine-to-Machine (M2M), un certain nombre de services de sécurité doit être garanti. L objectif de cette thèse est de développer des solutions permettant de sécuriser les échanges entre les équipements M2M en se focalisant non seulement sur l authentification et la gestion de clés, une brique de base pour tout protocole de sécurité mais aussi sur la préservation de la vie privée de leurs utilisateurs. Cette thèse, qui a débuté le 1er octobre 2013, est financée par Orange Labs dans le cadre d une convention CIFRE. I. CONTEXTE ET OBJECTIF Les communications Machine to Machine (M2M) sont en plein essor et représentent un grand pas vers le développement de l Internet des Objects (IoT). Grâce aux communications M2M, plusieurs équipements sont désormais connectés et capables de communiquer entre eux ou avec un serveur distant, afin de permettre la perception d un certain nombre d évènements et de données. Les architectures M2M couvrent plusieurs domaines d applications [1]. Chacune des applications proposées possède des caractéristiques différentes et doit répondre à des exigences qui lui sont propres. En effet, les équipements M2M mis en place sont hétérogènes. Mais la majorité sont de nature à être peu onéreux et limités en ressources tout en opérant sur de longues périodes de temps. Par exemple, les équipements utilisés pour les applications de santé possèdent des ressources très limitées et doivent satisfaire une certaine contrainte de délai. Tandis que pour l application assurance personnalisée, plus connue sous l appellation «Pay-As-You-Drive» [2], on n a pas de contrainte ni de délai ni de ressources énergétiques. L un des plus grands challenges auxquels sont confrontées les communications M2M et qui freine leur déploiement est la sécurité. En effet, les équipements M2M ainsi que les données échangées peuvent être sujets à diverses attaques physiques, logiques ou même visant les données échangées [3] [4]. Parmi ces attaques, on identifie l usurpation de l identité, la falsification ou l injection de données, la modification du fonctionnement de l équipement, etc. Les équipements M2M sont d autant plus ciblés par les attaquants étant donné qu ils sont déployés dans la nature, ce qui les rend facile d accès. Ces attaques peuvent engendrer d énormes pertes matérielles (PAYD, compteurs, etc) ou humaines (appel d urgence: ecall, santé, éclairage public, etc). Pour y faire face, des mécanismes de sécurité efficaces qui prennent en considération les contraintes et caractéristiques des équipements (énergie, capacité de calcul et de stockage limitées) doivent être mis en place. On parle déjà d environ 5 milliards d équipements M2M actuellement connectés aux réseaux sans fil et il est prévu que ce nombre atteigne 50 milliards d ici 2020 [5]. Ceci dit, les solutions proposées doivent prendre en considération le facteur d échelle. Dans ce contexte, cette thèse vise à concevoir et développer des solutions efficaces et robustes pour sécuriser les communications d équipements M2M. Nous nous intéressons également à la préservation de la vie privée et des données personnelles des utilisateurs dans le cadre de l application télépéage. II. AVANCEMENT Depuis le début de cette thèse, nous avons mené une étude de l état de l art de la sécurité M2M et donné une classification des solutions de sécurité existantes. Nous avons également proposé deux solutions que nous présentons brièvement dans ce qui suit. A. Etat de l art L état de l art effectué au cours de la 1ère année a fait l objet d un article [8] soumis à la revue internationale IEEE CST et qui est en cours de révision pour publication. Cet article traite l architecture sur laquelle repose les communications M2M, les différents cas d usages, les problèmes de sécurité à résoudre ainsi que les solutions qui ont été proposées dans la littérature. B. Préservation de la vie privée des utilisateurs d etoll Le service de télépéage etoll se développe de plus en plus et permet aux utilisateurs qui y ont souscrit de profiter des routes à péage sans avoir à s arrêter au niveau des bornes. Lors de son enregistrement au service etoll, chaque utilisateur obtient un badge, qui en communiquant avec la borne de péage grâce au protocole Dedicated Short Range Communication (DSRC), permet à cette dernière de vérifier que l utilisateur a bien souscrit au service. Ainsi, il peut traverser la borne à une vitesse de 30km/h et au lieu de payer lors de son passage en utilisant l un des moyens de paiement classiques (espèce ou carte bancaire), la borne enregistre les données échangées et l utilisateur reçoit à la fin de chaque mois une facture globale avec l ensemble de ses passages et les frais de péage correspondants. Cependant, la plupart des services etoll proposés à ce jour tel que liber-t ou e-zpass, sont très invasifs vis-à-vis de la vie privée et des données personnelles de ses utilisateurs. En effet, les données enregistrées permettent de suivre les différents déplacements des utilisateurs et par conséquent de déduire leurs habitudes et même prédire leurs futurs trajets. Dans la littérature, certains articles proposent des solutions pour protéger la vie privée des utilisateurs. Toutefois, certaines de ces dernières nécessitent des calculs trop lourds afin de déterminer l identité de l utilisateur en cas de triche tandis que d autres ne satisfont pas la contrainte de délai de 500 ms que la validation d un passage ne doit dépasser. Pour y remédier, nous développons un système de télépéage qui préserve la vie privée des utilisateurs tout en 5

20 respectant la contrainte de délai et les ressources limitées du badge et en s assurant que le service fonctionne correctement. Le système proposé [9] a un fonctionnement similaire à liber-t dans le sens où l utilisateur ne paye rien lors de son passage mais reçoit plutôt une facture à la fin de chaque mois. Cependant, contrairement à liber-t, notre système garantit un certain nombre de propriétés de sécurité à savoir : l anonymat, la «non-chainabilité», la traçabilité, la non-diffamation et finalement «l inforgeabilité». Par conséquent, la société d autoroute est dans l incapacité de déterminer à partir des données enregistrées l identité de celui qui est passé par une borne donnée ni de relier les différents passages d un même utilisateur. Toutefois, ceci reste possible, en cas de besoin, grâce à l aide d une autorité de révocation. C. Authentification et gestion de clés pour les compteurs intelligents Plusieurs pays ont entamé la procédure de remplacement de leurs anciens compteurs d électricité, d eau et de gaz par de nouveaux compteurs dit «intelligents» qui, équipés d une batterie et d un module de communication, permettent un relevé à distance et la visualisation de sa consommation en temps réel, améliorant ainsi la gestion des ressources. Afin de prolonger la durée de vie des batteries, l architecture prévue en France repose sur l utilisation de concentrateurs telle que représentée sur la figure 1. Ces derniers jouent, entre autres, le rôle de relais en acheminant les données reçus des compteurs vers le serveur correspondant et vice-versa. Journée des Doctorants Heudiasyc 23 juin 2015 Pour résoudre ce problème, on propose un schéma d authentification et de gestion de clés permettant à la fois d authentifier les compteurs et de vérifier, au niveau du concentrateur et à l aide d une même et unique clé, que les données reçues proviennent bien d un compteur légitime tout en garantissant l anonymat des utilisateurs. Une première solution à ce problème consiste à maintenir l approche basée sur des clés symétriques tout en regroupant les différents équipements de sorte que chaque groupe partage une même clé avec le concentrateur. Ainsi, avant transmission, chaque compteur rajoutera aux paquets le résultat d une keyed-hash Message Authentication Code (HMAC) calculé en utilisant la clé partagée. Cependant, une telle solution requière la mise à jour de la clé de groupe à chaque fois qu un compteur rejoint ou quitte le groupe ; ce qui nécessitera beaucoup d échanges entre les compteurs et le concentrateur, consommant ainsi une bonne partie de leur batterie et risquant de causer des collisions. Par ailleurs, si jamais un compteur est corrompu, une telle approche ne permet pas une détection efficace du compteur en question. Par conséquent, notre solution [10] repose plutôt sur l utilisation de signatures de groupe qui garantissent aussi l anonymat et permettent de la lever d une manière efficace. III. PERSPECTIVES Nos objectifs d ici la fin de l année consisteront à finaliser et soumettre, à des conférences internationales, nos deux contributions sur la protection de la vie privée des utilisateurs du télépéage et la sécurisation de la télémétrie. Nous sommes aussi en train de réviser l article [8] pour publication à IEEE CST. References Fig. 1. Architecture d un système de compteurs intelligents A ce jour, plusieurs solutions d authentification et de gestion de clés sont proposées afin de sécuriser les échanges entre les compteurs et l utilité. Certaines solutions se basent sur une clé symétrique partagée entre chaque compteur et l utilité, tandis que d autres reposent sur l utilisation d une paire de clés secrète/publique par compteur. Toutefois, la première approche ne permet pas au concentrateur d identifier les paquets illégitimes et implique par conséquent une surcharge du réseau ; ce qui peut causer des attaques de Déni de service (DoS). En effet, à moins de fournir les différentes clés symétriques aux concentrateurs, cette détection ne peut se faire qu à leur réception par l utilité. Concernant la deuxième, elle est loin d être efficace étant donné qu à la réception d un paquet, le concentrateur devra retrouver la clé publique associée afin de vérifier la signature. [1] David Boswarthick, Omar Elloumi, Olivier Hersent, M2M Communications, A system approach, Wiley, March 2012 (Book). [2] C. Troncoso, G. Danezis, E. Kosta, J. Balasch and B. Preneel, PriPAYD: Privacy-Friendly Pay-As-You-Drive Insurance, IEEE transactions on dependable and secure computing, Vol. 8, NO. 5, October [3] Inhyok Cha, Yogendre Shah, Andreas U. Schmidt, Andreas Leicher, and Michael Victor Meyerstein, Trust in M2M communication, addressing new security threats, IEEE Vehicular Technology Magazine. September [4] P. Chen, S. Cheng and K. Chen Smart Attacks in Smart Grid Communication Networks, IEEE Communications Magazine, April [5] Machine-to-Machine Communications: Connecting Billions of Devices, OECD Digital Economy Papers, No. 192, OECD Publishing, January [6] J. Day, Y. Huang, E. Knapp and I. Goldberg, SPEcTRe: Spot-checked private Ecash Tolling at roadside, Proceedings of the 10th Annual ACM Workshop on Privacy in the Electronic Society, [7] S. Bera, S.Misra, M.S. Obaidat, "Energy-efficient smart metering for green smart grid communication," Global Communications Conference (GLOBECOM), 2014 IEEE, vol., no., pp.2466,2471, 8-12 Dec [8] A. Barki, A. Bouabdallah, S. Gharout and J. Traoré, "M2M Security: Challenges and Solutions, IEEE Communications Surveys and Tutorials, submitted on November En cours de révision [9] A. Barki, A. Bouabdallah, S. Gharout and J. Traoré, "Group authentication and key management for smart metering applications. En cours de rédaction [10] A. Barki, S. Brunet, J. Traoré, A. Bouabdallah and S. Gharout, "An efficient privacy preserving etoll system. En cours de rédaction 6

21 TESTS D HYPOTHÈSES EN REGRESSION PENALISEE POUR LA SELECTION DE VARIABLE EN BIOINFORMATIQUE Jean-Michel BECU Directeurs de thèse : Yves GRANDVALET (Heudiasyc) et Christophe AMBROISE (Statistique et génome, Evry) Équipe : DI Abstract La sélection de variable en bioinformatique s effectue dans des problématiques de grandes dimensions. Nous souhaitons mettre en place une approche qui vise à calculer des intervalles de confiance pour l association de variables ou groupes de variables comme participant à l explication de la variable à prédire. La notion de groupes de variables sera également étudiée. I. OBJECTIF ET CONTEXTE Cette thèse s effectue dans le cadre d une co-direction entre Yves Grandvalet et Christophe Ambroise (Statistique et Génome). Elle est financée par la fondation UTC dans le cadre du projet Ecotox. Les travaux sont effectués à évry dans le laboratoire statistique et génome. L objectif de cette thèse est la mise en place de méthodes permettant la sélection de groupes de variables sur des données en grandes dimensions (données d expression génétique, phénotypique) par des approches de régression pénalisée. Cette sélection devra s effectuer par la mise en place de tests statistiques afin de contrôler le taux ou l existence de faux positifs dans les variables sélectionées. La notion de groupe est primordiale du fait du nombre de variables et de leurs corrélations. La prise en compte de la structure de groupes et la manière de les prendre en compte du point de vue des tests d hypothèses. II. AVANCEMENT A. Sélection de support et test statistique Dans notre approche nous utilisons une méthode de régression pénalisée en norme l1, le lasso [1], pour la sélection de variables explicatives. L estimateur lasso où les valeurs de minimisent : ˆβ(λ) = arg min J(β) + λ β 1, (1) β R p Le lasso ne permet pas de manière directe de pouvoir tester la significativité des variables sélectionnées. Afin de répondre à ce problème, nous proposons une méthode proche de la méthode Screen and Clean [2], résumée comme suit : screening stage { }} { step II (D 1,D 2) {1,..., p} {S λ } λ Λ step I (D1) fit model select model cleaning stage { }} { step III (D 3) Sˆλ test support Ŝ. TABLE I. EXPECTED FALSE POSITIVE RATE FPR (OR TYPE-I ERROR) AND SENSITIVITY SEN (OR POWER) COMPUTED OVER 500 SIMULATIONS AND OVER THE VARIABLES SELECTED IN THE SCREENING STAGE. THE PRESCRIBED SIGNIFICANCE LEVEL IS 5%. THE IND, BLOCK AND GROUP DESIGNS ARE DESCRIBED LATER. Simulation design IND BLOCK GROUP FPR SEN FPR SEN FPR SEN permutation F -test standard F -test standard t-test L étape Screen consiste en la sélection de la meilleure pénalité pour le lasso par validation croisée et donc de l estimateur correspondant. On définit le support correspondant S λ = {j {1,..., p} ˆβ j (λ) 0}. Une seconde étape appelée Clean permet de calculer les p-values sur les variables du support. L utilisation de la méthode de régression ridge, avec une pénalité Ω inversement proportionnelle aux coefficients issus du lasso nous permet de nous mettre dans un cas particulier d équivalence entre ces deux méthodes [3]. Soit, alors minimiser la régression ridge ˆβ(λ) = arg min β R p J(β) + p ω j βj 2, (2) j=1 avec le vecteur de pénalité Ω où p λ ω j = ˆβ j (λ) β2 j, (3) j=1 revient à résoudre le lasso dans le cadre de la ridge, qui pour des soucis de compréhension a été renomée Adaptive Ridge. On peut ainsi estimer une statistique sur les coefficients du ridge [4], qui est censée suivre une loi de Student [5]. La table I montre que le test de student ne permet pas de contròler l erreur de type I. Nous avons étudié ce problème et avons proposé un test de permutation se basant sur la statistique de Fisher F = y ŷ 0 2 y ŷ 1 2 y ŷ 1 2. (4) Cette stratégie de permutation permet de contrôler l erreur de type I, ce qui nous permet de choisir le support finalement sélectionné avec un seuil de significativité α typiquement fixé à 5%, auquel on adjoindra un contrôle du FDR pour prendre en compte le cadre des test multiples. 7

22 TABLE II. FALSE DISCOVERY RATE FDR AND SENSITIVITY SEN, COMPUTED OVER 500 SIMULATIONS FOR EACH DESIGN. THE SCREENING STAGE (BEFORE CLEANING) IS NOT CALIBRATED; THE CLEANING STAGE IS CALIBRATED TO CONTROL THE FDR BELOW 5%, USING THE BENJAMINI-HOCHBERG PROCEDURE. OUR ADAPTIVE-RIDGE (AR) CLEANING IS COMPARED WITH THE ORIGINAL (OLS) CLEANING, THE INTERMEDIATE RIDGE CLEANING, AND UNIVARIATE TESTING (UNIVAR). SEN SEN IND SEN SEN BLOCK Simulation design IND BLOCK GROUP FDR SEN FDR SEN FDR SEN Before cleaning AR cleaning Ridge cleaning OLS cleaning Univar FDR FDR GROUP FDR FDR TOEP B. Résultats Pour tester notre méthode nous avons effectué des simulations sur trois types de jeux de données, les types IND (variables indépendantes), BLOCK (variables corrélées en blocs) et GROUP (même que BLOCK mais les variables relevantes sont toutes regroupées dans un bloc). La variable à expliquer est définie par y = Xβ + ɛ (5) Pour les résultats présentés ci-dessous la taille de l échantillon est de 250, le nombre de variables de 500, le nombre de variable explicative est de 25. La taille des blocs est de 25, la corrélation intra-bloc est de 0.5 et celle inter-bloc est de 0. Le ratio signal sur bruit est de 4. La table II montre une baisse significative de la proportion de faux positifs (FDR) entre les supports avaant et après le cleaning. On note également une baisse de la sensibilité. De plus, si l on compare nos résultats utilisant la ridge au regard de la méthode originelle du Screen and Clean utilisant la régression linéaire ordinaire [2] ou la régression ridge sans pénalités spécifique on note un gain significatif de sensibilité de l adaptive ridge. Les résultats de l approche univariée habituellement utilisée en biologie (univar) montrent que l approche multivariée et que ce protocole en deux étapes sont plus efficaces en termes de sensibilité et de contrôle du FDR. La figure 1 montre quand à elle que pour n importe quel FDR l adaptive ridge reste au dessus en terme de sensibilité. SEN SEN FDR FDR Fig. 1. Sensitivity SEN versus False Discovery Rate FDR (the higher, the better). Lasso screening followed by: adaptive-ridge cleaning (red solid line), ridge cleaning (green dashed line), OLS cleaning (blue dotted line); univariate testing (black dot-dashed line). All curves are indexed by the rank of the test statistics, and averaged over the 500 simulations of each design. The vertical dotted line marks the 5% FDR level. REFERENCES [1] R. J. Tibshirani, Regression shrinkage and selection via the lasso, Journal of the Royal Statistical Society, Series B (Methodological), vol. 58, no. 1, pp , [2] L. Wasserman and K. Roeder, High-dimensional variable selection, The Annals of Statistics, vol. 37, no. 5A, pp , [3] Y. Grandvalet, Least absolute shrinkage is equivalent to quadratic penalization, in ICANN 98, ser. Perspectives in Neural Computing, L. Niklasson, M. Bodén, and T. Ziemske, Eds., vol. 1. Springer, 1998, pp [4] A. E. Hoerl and R. W. Kennard, Ridge regression : Biased estimation for nonorthogonal problems, Technometrics, vol. 42, no. 1, pp , [5] A. M. Halawa and M. Y. El Bassiouni, Tests of regressions coefficients under ridge regression models, Journal of Statistical Computation and Simulation, vol. 65, no. 1, pp , [6] N. Meinshausen, L. Meier, and P. Bühlmann, p-values for highdimensional regression, Journal of the American Statistical Association, vol. 104, no. 488, pp , III. PERSPECTIVES Avant la fin de la thèse et de la rédaction, un travail sur la faisabilité du contrôle du FWER et de la mise en place de réechantillonage [6] pour gagner en sensibilité a été commencé. Nous sommes également en train de produire les tests prenant en compte les groupes de variables et ne se basant pas par une sélection par le lasso mais par le group-lasso. IV. PUBLICATION Nous avons soumis un article sur l amélioration que nous proposons de la méthode Screen and clean et ce travail sera présenté à CIBCB à l automne. Un article sur les tests statistiques sur la régression ridge en grande dimension est en écriture. Un troisième article sur la prise en compte des groupes sera soumis apès la thèse. 8

23 Un système de recommandation sensible au contexte pour la visite de musée Idir Benouaret Directeurs de thèse : Dominique Lenne Équipe : ICI Résumé Notre travail concerne les systèmes d aide à la visite de musées et l accès au patrimoine culturel. Le but est de concevoir un système de recommandation sur des dispositifs mobiles, adaptable au profil de l utilisateur et sensible à son contexte, afin d améliorer l expérience du visiteur et de l aider à construire ses parcours en musée en fonction de ses préférences et contraintes. Nous centrons alors nos travaux sur les systèmes de recommandation hybrides. Nous combinons une approche sémantique reposant sur la modélisation du domaine culturel avec une approche de filtrage collaboratif améliorée. Une méthode de post-filtrage contextuel est utilisée pour la génération de parcours de visite dans l espace réel. Notre terrain d application est le palais impérial du musée de Compiègne. I. INTRODUCTION ET CONTEXTE La thèse se déroule dans le cadre du projet régional CIME et concerne les systèmes de recommandation appliqués à la visite de musées et à l accès au patrimoine culturel. Notre projet fait suite à la thèse de Pierre-Yves Gicquel [1]. Les visiteurs d un musée sont toujours confrontés à un certain nombre de problèmes. Ils sont souvent submergés par le nombre d œuvres très important dans l espace qu ils explorent. Par conséquent, trouver des œuvres pertinentes à voir dans un temps de visite limité devient vite une tâche compliquée. De plus, le visiteur ne sait pas forcément ce qu il devrait voir ou ce qu il pourrait apprécier. Le parcours qu il effectue n est donc généralement pas réfléchi. Ainsi, nous avons choisi de concevoir un système de recommandation, implémenté sur dispositif mobile, pour assister l utilisateur pendant sa visite, adaptable à son profil et sensible à son contexte (localisation, durée de visite, niveau d expertise ). Notre but est d améliorer l expérience et de l aider à construire un parcours de visite correspondant à ses préférences et à ses contraintes. Notre approche consiste en une méthode hybride. Nous combinons une approche sémantique, basée sur la représentation du domaine muséal, avec une approche de filtrage collaboratif sémantiquement améliorée. II. ETAT DE L ART Les techniques de recommandation peuvent être classées en deux catégories : les approches basées contenu et le filtrage collaboratif. Les méthodes basées contenu analysent les caractéristiques des objets pour identifier les objets qui sont similaires à ceux que l utilisateur aime. Ces méthodes souffrent principalement du problème du démarrage à froid et de sur-spécialisation. Les méthodes de filtrage collaboratif estiment la similarité entre utilisateurs et recommandent des objets en utilisant l avis des utilisateurs les plus similaires. Ces méthodes souffrent aussi du problème du démarrage à froid ainsi que du problème de parcimonie. Souvent les deux techniques de recommandation sont combinées pour obtenir une approche hybride qui permet de réduire la limitation de chaque méthode utilisée seule. Dans le domaine de la visite de musées, un des projets phares est le projet CHIP [2]. Ce projet utilise une approche basée contenu. Le système recommande des œuvres et des thèmes qui correspondent au profil de l'utilisateur. Le profil est basé sur les notes d'intérêt données par l'utilisateur aux différentes œuvres ou à leurs caractéristiques (artiste, style,..). À partir des notes positives données, le système peut alors proposer à l'utilisateur des œuvres ou des informations en lien avec celles qu'il a aimées ou qui l'ont intéressé. Nos travaux diffèrent des projets existants principalement en trois aspects. Premièrement, dans les travaux précédents, seulement les intérêts de l utilisateur sont pris en compte. L opinion antérieure du public quant aux œuvres d art est souvent négligée. Les avis des utilisateurs précédents peuvent être très utiles pour raffiner les recommandations en utilisant des techniques de filtrage collaboratif. Deuxièmement, les travaux précédents se concentrent sur la recommandation d œuvres individuellement. Cependant, il est utile de recommander à l utilisateur un parcours de visite qui inclut les œuvres les plus pertinentes pour l utilisateur et dans un ordre bien défini. Enfin, nous cherchons à construire un modèle du contexte plus riche, afin de mieux adapter le parcours de l utilisateur notamment en prenant en compte, la localisation du visiteur ainsi que des œuvres dans le musée, le temps que souhaite passer le visiteur en musée, et adapter les informations proposées à son niveau d expertise en art. III. AVANCEMENT Notre travail consiste à concevoir un système qui améliore l expérience du visiteur en lui recommandant les œuvres les plus pertinentes et en personnalisant son parcours. Notre méthode hybride utilise trois différentes méthodes : démographique, sémantique et collaborative. Chaque méthode est adaptée à une étape spécifique de la visite. La première étape consiste en la création du compte utilisateur et l authentification de ce dernier. Des informations telles que l âge, le sexe, le niveau d expertise et la langue maternelle sont recueillis auprès du visiteur. Ces données de départ nous permettre alors de résoudre partiellement le problème du 9

24 démarrage à froid. En effet, une liste de recommandation d œuvres est suggérée au visiteur en utilisant les œuvres visitées par des utilisateurs de la même catégorie démographique. Le visiteur peut alors exprimer ses préférences en donnant une note d intérêt aux œuvres qui lui sont recommandées. Journée des Doctorants Heudiasyc 23 juin 2015 La prise en compte du contexte se fait à l aide d un postfiltrage contextuel, qui permet la génération d un parcours personnalisé et qui tient compte des informations de contexte telles que : l environnement physique, la localisation des visiteurs ainsi que le temps de visite. L approche sémantique est alors activée et consiste à recommander à l utilisateur des œuvres qui sont proches sémantiquement de celles qu il a appréciées. Cette méthode utilise les notes positives données par l utilisateur ainsi que le modèle sémantique des œuvres. Nous représentons le domaine culturel en utilisant des ontologies et des vocabulaires contrôlés : CIDOC-CRM (ontologie propre au patrimoine culturel), ULAN (thésaurus regroupant les noms d artistes), AAT (thésaurus de l art et de l architecture), TGN (thésaurus des places géographiques) et IconClass (taxonomie regroupant les thèmes). Nous définissons alors une mesure de similarité sémantique qui quantifie la similarité entre deux œuvres en comparant leurs caractéristiques : styles, artistes, thèmes, périodes, etc. Une fois la mesure de similarité construite, nous pouvons estimer si une nouvelle œuvre non encore consultée peut être pertinente pour le visiteur. Nous calculons alors sa similarité avec celles qu il a déjà aimées, afin de prédire la note qu il pourrait lui attribuer. Si la valeur de la prédiction dépasse un certain seuil nous recommandons cette œuvre. Une liste de recommandations d œuvres triée par ordre de pertinente est générée et présentée au visiteur. Le visiteur peut alors exprimer ses préférences en donnant une note d intérêt aux œuvres qui lui sont recommandées lorsqu il sera en face des œuvres. L approche collaborative consiste à recommander des œuvres à l utilisateur à partir des œuvres pour lesquelles les utilisateurs les plus similaires ont formulé des jugements. Les notes des différents utilisateurs sont utilisées pour construire une matrice de similarité entre utilisateurs. Cette similarité peut être calculée en comptant la proportion d œuvres communes dans leurs historiques de notes. La méthode PCC (Pearson's Correlation Coefficient) [3] est particulièrement utilisée pour cela. Cependant, son utilisation pose deux problèmes, la similarité ne peut être significative que si deux utilisateurs ont un nombre important d œuvres en commun dans leurs historiques. Il est aussi connu que cette méthode souffre du problème de parcimonie. Nous proposons d intégrer l information sémantique entre les œuvres lors du calcul de la similarité entre utilisateurs. Il s agit de dire que même si deux utilisateurs n ont pas beaucoup d œuvres en commun, si les œuvres qu ils ont aimées sont proches sémantiquement, alors la similarité entre les deux utilisateurs est assez importante, ce qui permettrait d améliorer la pertinence des suggestions. Une fois la matrice de similarité entre utilisateurs construite, nous pouvons estimer la note que l utilisateur va donner à une œuvre qu il n a pas encore consultée, ceci en utilisant l avis des K utilisateurs les plus similaires. Avec ces prédictions, une autre liste de recommandations d œuvres triée par ordre de pertinente est générée et présentée au visiteur. IV. PERSPECTIVES Notre objectif à court terme est d avancer sur l implémentation de notre système qui est actuellement en cours de réalisation (application android et serveur). Après avoir construit une base de connaissances sur les œuvres exposées au palais impérial du musée de Compiègne, nous souhaitons évaluer notre méthode par des expérimentations avec des utilisateurs réels. Nous chercherons particulièrement à faire des expérimentations suivant deux critères : la satisfaction des visiteurs et la pertinence des recommandations. Concernant le premier critère, un questionnaire sera soumis aux visiteurs qui auront utilisé le système. Pour le deuxième critère, notre système sera testé et comparé en utilisant les métriques d évaluation classiques des systèmes de recommandation. V. PUBLICATIONS Ces travaux ont donné lieu à deux publications : Benouaret, I. (2014). Apport des systèmes de recommendation à l apprentissage ubuiquitaire. RJC EIAH Benouaret, I. (2015). Un système de recommandation sensible au contexte pour la visite de musée. CORIA 2015 : et à la soumission de deux autres articles : Benouaret, I. Lenne, D. Personalizing the Museum Experience through Context-aware Recommendations. Soumis à IEEE SMC Benouaret, I. Lenne, D. Combining semantic and collaborative recommendations to generate personalized museum tours. Soumis au workshop SW4CH Références [1] Gicquel P-Y. (2013), Proximités sémantiques et contextuelles pour l apprentissage en mobilité: application à la visite de musées. Thèse de doctorat de l UTC. [2] Wang Y., Stash N., Aroyo L., Hollink L., Schreiber G. (2009). Using semantic relations for content-based recommender systems in cultural heritage, Proceedings of the Workshop on Ontology Patterns (WOP) at ISWC, p [3] Jonathan L. Herlocker, Joseph A. Konstan, Al Borchers (1999), John Riedl: An Algorithmic Framework for Performing Collaborative Filtering. SIGIR :

25 Optimisation de la distribution de données dans un système de systèmes collaboratifs Ronan Bocquillon Directeurs de thèse : Antoine Jouglet Équipe : RO Abstract Les Systèmes de Systèmes (SdS) sont des systèmes hétérogènes complexes dont les composants sont eux-mêmes des systèmes. Ces derniers interagissent pour réaliser des fonctions dont la plupart nécessitent la diffusion d informations à travers le SdS. Nous souhaitons ici profiter au mieux des connaissances que nous avons sur la mobilité des systèmes pour déterminer un routage efficace des nombreuses données qui y transitent. I. INTRODUCTION Systems of systems have been defined in numerous ways. However, a practical definition may be that systems of systems are supersystems comprised of other elements that themselves are complex independent operational systems which interact among themselves to achieve a common goal [1]. When these systems are not permanently connected, they opportunistically profit from contacts that arise when entities are close enough to each other to share some data. These exchanges enable them to collaborate and route information from a subset of sources to a subset of recipient systems. The collaboration is required when contact durations are relatively short with respect to the size of information to be disseminated. The information has therefore to be split and routed through non recipient messenger systems whose role is to carry and forward data. Existing works already address such kinds of problems in opportunistic [2] and delaytolerant networks [3] fields. In general, no assumption is made about the contacts occurring between the systems. Yet, reliable predictions can be made about node mobility in numerous real applications, e.g. satellites networks since the trajectory of each system follows well known laws from dynamics, data transfers using public transports [4], drones fleet, etc. In this thesis, we thus study a problem aiming at profiting from knowledge regarding data transfer possibilities [5], [6] in order to to route information from sources to recipients before the end of a given time horizon. The question to be answered is then which data should be transmitted from which system to which system and during which contact? Such problems have gathered many researchers for the last years, cf. delay-tolerant networking research group. II. PROGRESS REPORT In this section, we formalise the problem we are addressing, i.e. a simple case in which only one datum has to be disseminated from a subset of sources to a subset of recipients. Then, we provide a summary about the algorithms we have developed to solve the problem. We provide computational results. A. Problem definition We consider a set N = {1,..., q} of q interacting mobile systems and a unique datum D = {1,..., u} of u datum units. Each unit represents an indivisible and unitary datum fragment (in bytes for instance). Each system i N stores a set O i D of datum units from the outset. Besides, subset R N defines the systems wishing to retrieve datum D before the given time horizon, i.e. the recipients. To ensure the dissemination of D, systems can exchange datum units whenever they are close enough to communicate between themselves. Such an opportunity is called a contact in the following. We here suppose these contacts are perfectly known or easily predictable at any time (because the trajectory of each system is deterministic). We thus consider a contacts sequence σ = {σ 1,..., σ m } of m ordered pairs of N 2. During contact (s, r) σ, the receiving system r can receive from the sending system s at most one unit k D that s already stores (from the outset or as a result of previous contacts). From this time, r also stores unit k. In the following, systems s c and r c denote the sender and the receiver of contact σ c σ that is to say σ c = (s c, r c ). A transfer plan φ : {1,..., m} {, {1}, {2},..., {u}} is a function where φ(c) designates the datum unit received by r c during contact σ c. φ(c) = if nothing is transferred during contact σ c. Given a transfer plan φ, we associate with every system i N, a set of states Oi t defined as follows: i N, Oi 0 = O i ; c {1, 2,..., m}, i N \{r c }, Oi c = O c 1 i ; c {1,..., m}, Or c c = Or c 1 c φ(c) This way, set Oi t contains the datum units recovered by system i after the first t contacts of sequence σ. In addition, transfer plan φ is valid if the sending systems only transfer the datum units they store, i.e. σ c σ, φ(c) { } {{k} k O c 1 s c } With any valid transfer plan φ, we associate the delivery length λ i (φ) of every recipient system i R. It corresponds to the smallest index t at which system i stores all the datum units of D, i.e. λ i (φ) = argmin t {0,...,m} Oi t = D. If such an index does not exist, we assume that λ i (φ) =. We then associate the dissemination length λ(φ) with φ. This corresponds to the smallest index t at which all the recipient systems are served, i.e. λ(φ) = max i R λ i (φ). In the following, we address the problem of finding a valid transfer plan φ which minimises λ(φ). This problem is called the dissemination problem and is strongly NP-Hard [7]. 11

26 B. Solving techniques We investigated integer-linear-programming and constraintprogramming-based methods to solve the problem. It appeared that solvers can be challenged (and even for small instances). In the following, we present dominance rules [8] enabling the search space of the problem to be reduced. The transfer occurring at time c {1, 2,..., m} is said to be null if and only if no unit is transmitted during contact σ c, i.e. φ(c) =. The transfer occurring at time c {1, 2,..., m} is said to be improving if and only if system r c recovers a new datum unit during σ c, that is Or c 1 c < Or c c. The set of transfer plans in which all transfers are either null or improving is dominant. Such transfer plans are said to be minimal. A transfer plan φ is strictly-active iff. there does not exist a non-improving contact σ c σ during which a new datum unit k D could have been recovered by system r c, that is to say c {1, 2,..., m}, we have [ k D k O c 1 s c, k / Or c 1 c The set of strictly-active transfer plans is also dominant. ] [ O c 1 r c < O c r c ] On top of these dominance rules, we designed algorithms enabling additional constraints to be deduced, e.g. we proposed propagation algorithms which can prove that some contacts are fruitless in all dominant solutions. The corresponding transfers φ(c) are therefore fixed to. In some other cases, we can even decide the datum unit which is necessarily transferred. These techniques have been tested within a preprocessing procedure, and within deduction procedures that can be called throughout the resolution of an integer-linear-programming or a constraint-programming-based model of the problem. We have also proposed one sequential branching algorithm, two lower bounds, and three symmetry-breaking methods that are particularly adapted to constraints programming. All of this aims to reduce the size of the search space to be explored. To illustrate the efficiency of our methods, we provide the resolution rates obtained with three algorithms integer-linearprogramming with and without preprocessings, plus constraints programming for 38 difficult instances, cf. Table I. ACKNOWLEDGMENT This thesis is financed by the Conseil Régional de Picardie and is carried out in the framework of the Labex MS2T, which was funded by the French government through the program Investments for the Future managed by the National Agency for Research (ANR-11-IDEX ). REFERENCES [1] M. Jamshidi, System of Systems Engineering: Principles and Applications. Boca Raton, FL : Taylor & Francis Group, [2] N. Belblidia, M. D. de Amorim, L. Costa, J. Leguay, and V. Conan, PACS: Chopping and shuffling large contents for faster opportunistic dissemination, in 2011 Eighth International Conference on Wireless On- Demand Network Systems and Services. IEEE, [3] K. Fall, A delay-tolerant network architecture for challenged internets, in Proceedings of the 2003 conference on Applications, technologies, architectures, and protocols for computer communications - SIGCOMM ACM Press, [4] A. Pentland, R. Fletcher, and A. Hasson, DakNet: rethinking connectivity in developing nations, Computer, vol. 37, no. 1, pp , [5] S. Merugu, M. Ammar, and E. Zegura, Routing in Space and Time in Networks with Predictable Mobility, Georgia Institute of Technology, Tech. Rep., [6] D. Hay and P. Giaccone, Optimal routing and scheduling for deterministic delay tolerant networks, in 2009 Sixth International Conference on Wireless On-Demand Network Systems and Services. IEEE, [7] R. Bocquillon, A. Jouglet, and J. Carlier, The data transfer optimization problem in a system of systems, European Journal of Operational Research, vol. 244, no. 2, pp , [8] A. Jouglet and J. Carlier, Dominance rules in combinatorial optimization problems, European Journal of Operational Research, vol. 212, no. 3, pp , ILP ILP+PREP CP SOLVED 63% 73% 82% TABLE I. COMPUTATIONAL RESULTS III. PUBLICATIONS AND PERSPECTIVES These works have been presented during three international conferences (EURO INFORMS 2013, MISTA 2013, BWCCA 2013). They have been rewarded with the first award during the international workshop organised by Labex MS2T in october In addition, a study on the complexity of the problem has been accepted in the international review named European Journal of Operational Research. Note that an article regarding more technical aspects will soon be submitted. The third year of this thesis is dedicated to a new problem where the contacts can fail. The solutions of the problem are then required to be more robust and resilient. 12

27 Modélisation de personnages virtuels autonomes cognitifs dans des environnements socio-techniques complexes : activité collective et confiance Lucile Callebert Directeurs de thèse : Domitile Lourdeaux, Jean Paul Barthès Équipe : ICI Résumé Les organisations étant aujourd hui de plus en plus complexes, l entrainement au travail en équipe est primordial. Notre objectif vise à peupler un environnement virtuel de personnages autonomes constituant une équipe de travail à laquelle l apprenant devra s intégrer et s adapter. Nous travaillons sur une représentation de l activité collective et sur la modélisation des processus cognitifs sousjacents à la prise de décision dans le cadre d une activité collective. I. INTRODUCTION Cette thèse se déroule au sein du domaine ICI du laboratoire Heudiasyc depuis octobre 2013 et est cofinancée par la DGA et par le LABEX MS2T. L'utilisation de la réalité virtuelle apporte de nombreux avantages pour la formation, par exemple la possibilité de faciliter l apprentissage de compétences métier par l expérience personnelle et l'apprentissage par l'erreur. Les systèmes de formation en environnements virtuels (EV) sont actuellement utilisés pour l apprentissage de gestes techniques ou de procédures de travail individuelles. L'un des défis de demain est de former non plus à des compétences techniques mais à des compétences sociales. En effet, de nombreux serious games existent dans des domaines variés tels que la santé ou le management : par exemple 3D Virtual Operating Room permet l entrainement collaboratif de professionnels en blocs opératoires. Cependant, ces systèmes sont souvent centrés sur des compétences techniques: peu de place est donnée aux relations humaines et à leurs influences sur la cohésion d équipe. Pour contrôler les situations d apprentissage pour la formation à des activités collectives tout en permettant une grande liberté d action à l apprenant, les membres de l équipe peuvent être joués par des personnages virtuels autonomes (PVA). Dans la littérature, ces personnages disposent par exemple d un modèle d émotions, de personnalité ou de relations sociales, comme dans le modèle de Margaux Lhommet [1], mais agissent souvent seuls. D autres travaux dans le domaine de la simulation s intéressent aux groupes d agents ; cependant, ces travaux sont centrés sur la simulation de foule ou sur les comportements posturaux des PVA et s intéressent peu aux activités complexes collectives. Les travaux de cette thèse visent à créer un moteur décisionnel pour des PVA capables de s engager dans une activité collective complexe et fortement collaborative, telle que le sauvetage d une victime par une équipe de pompiers. Nous cherchons à rendre compte de situations réelles prenant en compte le facteur humain. Nous proposons pour cela un moteur décisionnel s appuyant sur les relations de confiances, qui sont nécessaires au bon fonctionnement d une équipe de travail. La confiance doit permettre aux PVA de se répartir les tâches de façon cohérente, et ainsi permettre une meilleure efficacité de l équipe. Le moteur décisionnel repose sur un langage de description de l activité humaine, que nous augmentons de manière à pouvoir modéliser une activité collective fortement collaborative. II. AVANCEMENT A l issue d un état de l art dans des domaines divers tels que la psychologie sociale ou l ergonomie, nous avons identifié de nombreux paramètres influençant la cohésion d équipe. Cependant, ces domaines étant disjoints, l influence de ces paramètres les uns sur les autres reste inconnue. De plus, nous avons le souci d utilisabilité et d explicabilité du modèle : comment expliquer la décision d un PVA? Comment diriger le comportement d un PVA par la manipulation des paramètres influençant la cohésion d équipe? Nous avons choisi de nous centrer sur un seul paramètre transversal à tous ceux que nous avons pu recenser dans la littérature : la confiance. En effet, l efficacité d un groupe sur une activité collective ne passe pas seulement par l efficacité de chacun sur les tâches dont il a la charge, mais sur une bonne répartition des tâches. Pour se répartir les tâches, il est nécessaire que chaque PVA ait confiance dans la capacité des autres à effectuer les tâches qui leur incombent. C est sur cette confiance que repose l efficacité de l équipe. La confiance est une notion essentielle qui conditionne nombre de nos décisions au quotidien et à fortiori dans le cadre d une activité collective, comme l ont montré de nombreuses études, notamment en psychologie et en sciences du management. Dans cette optique, nous choisissons de centrer nos travaux sur la modélisation d un système décisionnel reposant sur la confiance entre PVA engagés dans une tâche collaborative. Ce système revêt deux éléments clés, d une part, la spécification des activités possibles des PVA à partir de situations représentatives du terrain et, d autre part, un moteur décisionnel capable d interpréter ces possibles pour générer des comportements cohérents. Notre contribution est double : un langage de spécification d activités collaboratives 13

28 et des mécanismes décisionnels reposant sur la notion de confiance. A. Langage de description de l activité collective Les tâches des agents sont aujourd hui représentées sous forme d arbre grâce à ACTIVITY-DL, un langage de modélisation hiérarchique reposant sur des formalismes notamment utilisés en ergonomie, comme décrit dans la thèse de Camille Barot [2]. Cependant, ce formalisme a été pensé pour représenter les tâches personnelles d un PVA seul, ne prenant pas en compte les autres PVA et ne pouvant pas s engager dans une activité collaborative. Nous travaillons à une augmentation de ce langage permettant de supporter la description de tâches collectives. Pour décrire des tâches collectives, plusieurs types de contraintes doivent être supportées par le langage : certaines portent sur le nombre d agents pouvant exécuter une tâche, d autres visent à déterminer quel agent peut exécuter la tâche, alors que d autres encore portent sur l enchainement des tâches. Les contraintes de la première catégorie sont relativement simples : elles précisent combien d agents, au minimum, au maximum ou exactement peuvent exécuter la tâche. La deuxième catégorie de contraintes est complexe car elle englobe des aspects très différents, tels que les compétences requises, la position hiérarchique requise, les tâches effectuées précédemment (la prise en charge d un tâche peut entrainer l obligation de prise en charge d autres tâches n ayant pas de lien hiérarchique). Ces deux catégories de contraintes sont modélisées par les tags sur les tâches. Les contraintes sur l enchainement des tâches sont d ordre temporel et sont quant à elles modélisées par des tags sur les constructeurs des tâches. Chaque agent a sa propre version de l arbre de tâches collectives. Le moteur décisionnel des PVA doit permettre l émergence d une activité collective à partir d arbres pouvant être incomplets (e.g. chaque agent n a que sa partie de l activité collective) ou divergents (e.g. l un des agents a une version erronée de l arbre d activité). B. Moteur décisionnel reposant sur la confiance Nous nous appuyons sur les travaux de Mayer et al. [3] qui proposent un modèle de la confiance organisationnelle, c'est-àdire adapté au contexte d équipe de travail. Une relation de confiance d un agent A à un agent B est caractérisée par la disposition de A à faire confiance (élément qui lui est propre), et par des croyances sur : la bienveillance de B envers A (liée à une relation d affinité), l intégrité de B envers l équipe (existence de valeurs communes), les compétences de B sur les différentes tâches (Fig. 1). La confiance constitue donc une relation asymétrique entre deux personnes et est contextualisée : elle n existe que par rapport à une personne identifiée et sur une tâche particulière. S appuyant sur le modèle de Mayer et al., nous proposons que chaque PVA ait une disposition à faire confiance, une intégrité vis-à-vis de l équipe et une bienveillance vis-à-vis de chaque autre membre de l équipe. Suivant la théorie de l esprit, chaque PVA a également un modèle des autres, comprenant les dimensions liées à la confiance et également de leur arbre de tâches collectives. Fig. 1 : Utilisation du modèle de la confiance de Mayer et al. [3] dans le moteur décisionnel de l agent. Le moteur décisionnel de chaque PVA lui permettant de choisir la tâche de son arbre de tâches collectives à effectuer repose alors sur la maximisation d une fonction d utilité prenant en compte des caractéristiques qui lui sont propres (compétences, position hiérarchique, disposition à faire confiance, etc.) ainsi que sa représentation des autres membres de l équipe données par ses relations de confiance. Ce moteur décisionnel doit permettre aux agents une répartition optimale des tâches, améliorant ainsi l efficacité de l équipe. III. PERSPECTIVES Le modèle de Mayer et al. est un modèle cognitif de la confiance : une relation de confiance implique des croyances issues d une évaluation cognitive de la situation, et la prise de décision de chaque PDA a un impact sur les relations de confiance. Ces mécanismes permettant la mise à jour des croyances des PVA devront donc être mis en place, créant ainsi une véritable dynamique de la confiance, qui permettra par exemple à chaque PVA d être capable d établir un plan permettant d augmenter la confiance qu ont en lui ses coéquipiers. Nous envisageons deux types d évaluation différents : une évaluation objective, où l on souhaite mesurer l efficacité (en terme de temps d exécution) des l équipe d agents, avec ou sans confiance, et avec différents niveaux de confiances. L autre évaluation envisagée est subjective : des sujets observeront plusieurs simulations et évalueront le comportement des agents. Dans le cadre de cette thèse, un séjour à Northeastern University (juil. sept. 2014) a été effectué, dans le cadre de la mise en place d une collaboration entre les équipes de Domitile Lourdeaux et de Stacy Marsella. Un extended abstract From Individual Cognition to Collective Intelligence a été publié. D autres publications sont envisagées pour ICAART 2016, AAMAS 2016, JFSMA 2016 et IVA2016. IV. REFERENCES [1] M. Lhommet, REPLICANTS : Humains virtuels cognitifs, émotionnels et sociaux. De l empathie cognitive à l empathie affective, Université de Technologie de Compiègne (UTC), [2] C. Barot, Scénarisation d environnements virtuels. Vers un équilibre entre contrôle, cohérence et adaptabilité, Université de Technologie de Compiègne, [3] R. C. Mayer, J. H. Davis, and F. D. Schoorman, An Integrative Model of Organizational Trust, Acad. Manage. Rev., vol. 20, no. 3, p. 709, Jul

29 Trajectory Planning for Autonomous Vehicles Navigation Alia Chebly Directeurs de thèse : Ali Charara and Reine Talj Équipe : ASER Abstract Autonomous driving technology is a field of research that aims to achieve the optimum in automotive safety and comfort. Indeed, the autonomous navigation requires three main steps, the perception and the localization, the trajectory planning and the control of actuators. This thesis covers essentially the study of the trajectory planning and tracking and is based on the results of former works about perception and occupancy grid generation. Two approaches are treated in this thesis, the first one is empirical and is based on the Tentacles Method while the second is based on the energy approach. I. CONTEXT AND OBJECTIVES Autonomous navigation is a domain of study that receives considerable interest in the academic, industrial and military domains. In order to achieve autonomous operation of a vehicle, several systems must interoperate, including environment perception, localization, planning and control. Numerous works on localization, perception, generation of occupancy grids and control of vehicles were developed within the ASER team at Heudiasyc laboratory. The domain of interest of this thesis is the trajectory planning and tracking and is based on the results of former works. Two approaches are considered in this thesis, one is empirical and the other is based on the model. The empirical approach consists in plotting tentacles having the form of clothoids in the ego-centered reference frame related to the vehicle. The initial curvature of these clothoids represents the vehicle steering angle at each calculation. Moreover, the maximum rate of change of curvature is limited, depending on the speed, in order to maintain the stability of the vehicle. We make use of an occupancy grid that represents the environment around the vehicle by a set of square cells where each cell could correspond to a free or occupied space. The grid is constructed based on the data collected by exteroceptive sensors (camera, lidar, radar,...). Based on the information contained in the occupancy grid, each tentacle is classified as navigable or not navigable. Among the navigable ones, one path will be selected as a trajectory to execute, taking into account several criteria. The chosen tentacle is then applied to the vehicle using a path tracking controller that derives the steering angle commands from the geometric parameters of the selected tentacle. The second approach is based on the model and consists in designing the reference trajectory as a set of points representing the vehicle s desired energy states. For this second approach, the vehicle is modeled in terms of dissipated and stored energy in the system (such as Hamiltonian and Lagrangian models). These types of models have the advantage of representing the system in the form of energy functions and representing the linkages and interconnections between the subsystems of the system. Thus, these models can reveal interesting features of the physical systems and facilitate their manipulation. The objectives of this thesis can be summarized by: Bibliographical study about path planning methods, vehicles dynamics and about energy modeling approaches. Development of the clothoid tentacles method. Development of an energy model representing the vehicle and a trajectory generation approach (a set of desired energy states) based on the model and considering the obstacles. Feasibility study of these methods at high speed, as well as their limitations and comparison of both technics. Validation of the algorithms on the ScanerStudio simulator then on a robotized vehicle (Robotex project) within Heudiasyc laboratory. II. THESIS PROGRESS During the first year of thesis, the bibliographical study on path planning approaches, the dynamics of vehicles and energy modeling methods was achieved. We developed a path planner that uses the method of tentacles having the form of clothoids. Furthermore, we established a simplified energy model (Lagrangian) representing the vehicle dynamics. A. Path planner using the clothoid tentacles method In our system, the vehicle speed covers a range from 0 to 15 m/s. A set of 41 tentacles is generated in the egocentered reference frame related to the vehicle, at each speed. Then, to guarantee a secure navigation, we generate around each tentacle a classification zone within a radius d c which is taken slightly greater than the vehicle width. In parallel, using sensors data (a LIDAR), we construct, every 100 ms, an occupancy grid that represents the environment around the vehicle by a set of square cells ( cells) where each cell (25cm 25cm) could correspond to a free or occupied space. The superposition of the classification area with the occupancy grid allows us to determine which tentacles can be classified as a secure path. In our approach, the tentacle is classified as non-navigable if an obstacle is detected within a distance less than the collision distance L c which is the distance required to stop the vehicle traveling at a speed V x with maximum longitudinal deceleration a cmax that maintains the passenger comfort. If the obstacle is beyond L c, the tentacle is classified as navigable. If we find several navigable tentacles, we have to choose the best tentacle using certain criteria [2]. If we can t find any navigable tentacles, we search for the tentacle having the greatest distance to the first obstacle and we proceed to brake the vehicle with a constant deceleration along this 15

30 tentacle. A path controller derives the steering commands from the selected tentacle parameters and try to execute this tentacle. The controller used in this work is based on Immersion and Invariance principle and its main objective is to cancel the lateral error displacement with respect to a given trajectory. The controller was validated according to several real driving scenarios [5]. The algorithm was applied to a scenario taken from the Scaner-Studio simulator. The data taken from Scaner- Studio was processed and simulated in Matlab and the vehicle speed is set to 6 m/s in the simulation. In Fig. 1, the red dotted line corresponds to the reference trajectory, the blue continuous line corresponds to the vehicle trajectory and the black circle is assumed to be an obstacle on the road. We observe that the vehicle succeeds in avoiding the obstacle and returning back to the reference trajectory. We have started by developing a lagrangian dynamical model for a two wheeled vehicle (bicycle) by applying recursive methods used in robotics. Our model is composed of 8 bodies (Fig. 2) where C1 represents the chassis, C2 is the steering column, C3, C5, C6, C8 are virtual bodies fixed to other links by blocked joints and C4 and C7 are the front and rear driving wheel respectively. For more details about this work, please refer to [1]. Fig. 2. Multi-body system describing the vehicle. Fig. 1. Obstacle avoidance scenario. The developed algorithm was evaluated with real experimental data (offline) acquired on a Citroën vehicle (CARMEN) in the laboratory Heudiasyc and the occupancy grids generated in [4]. The behavior of the algorithm seems coherent with the desired objective. B. Energy model This method is based on considering the vehicle as a polyarticulated system composed of n bodies where the chassis is the mobile base and the wheels are the terminal links [3]. Each body is connected to its antecedent with a joint that represents a translational or rotational degree of freedom. We proceed using the lagrangian formulation that describes the behavior of a dynamic system in terms of Kinematic and potential energy in the system [3]. The Lagrange equations can be written in the form τ = A(q) q + H(q, q) + J(q)fe (1) where τ is the vector of joint torques or forces, H is the vector of centrifugal, coriolis and gravity terms, J is the jacobian matrix and Jfe is the vector of the generalized efforts representing the projection of the external forces and torques on the joint axis; A is the symmetric and positive definite inertia matrix of the robot and q, q and q represent the position, the velocity and the acceleration of all the joints including the variables of the chassis. The direct dynamical model is then represented by the following relation: q = [A(q)] 1 (τ H(q, q) J(q)fe). (2) The modeling is carried out using the robotics formalism based on the modified Denavit-Hartenberg geometric description [2]. This description allows to directly calculate the symbolic expressions of the matrices A, H and J. In that way, the Lagrangian dynamic model is easy to implement and the system can be used for specific control approaches based on passivity property for Euler-Lagrange systems. III. CONCLUSION AND PERSPECTIVES The bibliographical study on path planning approaches, the dynamics of vehicles and energy modeling methods was achieved during the first year of thesis. We studied and developed the Clothoid Tentacles Method. Furthermore, we established a simplified energy model (Lagrangian) representing the vehicle dynamics. The perspectives of this work include: Developing a trajectory generation approach (a set of desired energy states) based on the energy model and considering the obstacles. Developing a passivity based controller for the Lagrangian model that aims to track the trajectory generated by the energy approach. Comparing the performance of this method (modelbased approach) with the clothoid Tentacles Method (empirical). Studying the feasibility and the limitations of these methods at a high speed. Validating the algorithms on the ScanerStudio vehicle simulator at the first time and then on a robotized vehicle (in the Robotex project) within the laboratory Heudiasyc. Moreover, I validated 15 ECTS this year and published an article in the IV2015 conference listed below as reference [2]. REFERENCES [1] A. Chebly. Livrable de thèse, Trajectory Planning For Autonomous Vehicle Navigation. Université de Technologie de Compiègne. [2] A. Chebly, G. Tagne, R. Talj, and A. Charara. Local trajectory planning and tracking for autonomous vehicle navigation using clothoid tentacles method. In International IEEE Conference on Intelligent Vehicles Symposium, Seoul, South Korea, June [3] S. Maakaroun. Modélisation et simulation dynamique d un véhicule urbain innovant en utilisant le formalisme de la robotique. PhD thesis, Université Nantes Angers Le Mans, [4] J. Moras. Grilles de perception évidentielles pour la navigation robotique en milieu urbain. PhD thesis, [5] G. Tagne, R. Talj, and A. Charara. Immersion and invariance control for reference trajectory tracking of autonomous vehicles. In the 16th International IEEE Annual Conference on Intelligent Transportation Systems (ITSC 2013), pages ,

31 Hardware support and dynamic compilation for online optimization of data transfers in distributed multiprocessor architectures Julien Collet Directeurs de thèse : Renaud Sirdey, Jacques Carlier Équipe : Heudiasyc Encadrants CEA : Renaud Sirdey, Tanguy Sassolas, Yves Lhuillier Laboratoire CEA : CEA-LIST, Laboratoire Calcul et Environnement de Conception (LCE) Abstract The area of High-Performance Computing was historically driven by scientific computing applications which have been developed on large-scale distributed computers using message-passing libraries. Entering the HPC, data-mining is now in need of distributed architectures in order to fulfill its growing memory usage. Unfortunately, data-mining experts cannot invest in cumbersome MPI implementations of their algorithms. In this thesis work, we investigate abstractions for communications and potential run-time optimizations based on data-transfers in order to help data-miners to bridge the programming gap between workstations and distributed computers. A. Context I. INTRODUCTION This thesis work is supported by the CEA LIST institute and the Computing and Design Environment Lab (LCE) within the Technological Research Division (DRT) and is administratively affiliated with Heudiasyc, the Heuristics and Diagnostics for Complex Systems Laboratory (UMR UTC CNRS 7253). The research work started in October 2014 and is located at CEA (Nano-Innov center). B. Research aspects High-Performance Computing (HPC) has been gathering applications which require large-scale resources such as clusters of computers since the sixties. Historical HPC applications include for example physics simulation or N-th order differential equation solvers. Programming a distributed computer raises challenges linked with the parallelization of a program, such as communication management or data placement. The HPC community provided numerous approaches to address these parallelization problems. One of these tools is MPI [8], the standard for parallel applications on distributed architectures. An MPI program is constituted of many processes, distributed across compute nodes, which perform computation on their private data and communicate through explicit messages. If MPI gives the programmer full control over communications, manually expliciting communications within a program is a non-trivial task and requires an extensive programming effort. Orthogonal to MPI, another standard has appeared for parallelization of programs, namely OpenMP [3]. OpenMP allows a fast, user-friendly incremental parallelization of sequential programs by using the shared-memory view to hide communication details. An OpenMP program is organized around sequential and parallel regions. In sequential region, only the master thread is active. This thread is then forked at the beginning of a parallel region and data are then processed in parallel by workers which communicate implicitly through shared objects. Despites its user-friendliness, OpenMP has proven not to scale over non-shared memory architectures. Data-mining is joining the HPC community as the sizes of the data-sets hardly fit single workstations. Contrary to the scientific computing which is now mature and has finetuned and distributed MPI applications at scale, data-miners need now to scale-up their applications. Unfortunately, none of the aforementioned HPC approaches (multithreading with OpenMP or message-passing with MPI) is a completely satisfying answer for HPC newcomers because of the scalability or the complexity issues. The focus of this thesis work is to lighten the programming burden of distributing applications to large-scale architectures. To this extent, our work will focus on providing an abstraction layer to address the issues of explicit communication management and data placement. Communications are a bottleneck of particular relevance in the context of HPC. Moreover, as data-mining applications are considered data-intensive rather than compute-intensive (i.e. the ratio computation over communication is low), their performances are even more hindered by communications. This statement motivates a second aspect of our work which will be focused on the analysis of communications at runtime for optimization purposes. We also believe that irregular and data-dependent applications can benefits from runtime optimizations as few improvements can be made prior to the execution of the program. Therefore, we have chosen graphmining as a reference application benchmark. Indeed graphrelated applications are considered a domain of choice in terms of irregularity and data-dependency. II. STATE OF THE ART These first six months were dedicated to study the state of the art. Parallel programming models were studied in terms of execution and memory views, as discussed hereafter from the point of view of data-mining applications. Programming options from the data-mining community was also studied and are shortly introduced in this paper. A forthcoming report will summarize all aspects of the state of the art. A parallel programming model describes the execution behavior and the memory model of the application. Mostly 17

32 five execution models can be observed in HPC and data-mining applications, namely Fork-Join [3], Single-Program Multiple- Data, MapReduce [1], Bulk-Synchronous Parallel [12] and Data-parallel. On the memory model side, a few models appeared between the pure distributed-memory and the pure sharedmemory models. One of them is the Partitioned Global Address Space (PGAS) [5]. In this model, each thread has a local private memory space and a partition of the globally addressable space, reachable by any thread. The PGAS model has been the source of many interests in the programming community, leading to the development of the PGAS languages, namely Titanium [4], UPC [6] Co-Array Fortran [9] and X10 [11]. Unfortunately these languages are not able to fully address the programmability and productivity issues either because they show complexity when out of simple application cases, or due to their limiting programming model. As compute nodes tend to be shared-memory many-cores, other memory models appeared to fit this architectural trend. Hybrid distributed shared memory [10] is a memory view in which a shared-memory view is offered within a node while nodes are distributed and communicate through messagepassing. This model is mostly implemented using hybrid programming schemes mixing MPI and OpenMP. This is nevertheless a complicated approach as these two standards were not designed to be mixed and it brings portability issues as cluster architectures can vary from one system to another. To meet specific data-mining needs in terms of parallel programming, domain-specific approaches have been investigated too. For example, domain-specific libraries and languages were developed, featuring interesting possibilities such as speculative execution or domain-related semantic constructs. However, some of these approaches enforce limiting programming models which can be counter-productive and few provide run-time optimizations. This leaves room for a framework turned toward irregular application programming over distributed computers with support for the online analysis of communication patterns and optimizations based on them. III. FUTURE WORK Regarding the research issues, we plan to focus our efforts on investigating the fields of communication abstractions for graph-mining applications. Abstracting communications should enforce a higher productivity in reducing the development time. We want to investigate to what extent a communication abstraction layer can exploit modern hybrid memory architectures to improve data locality. A starting point would be studying how to leverage hybrid programming schemes on these architectures by runtime analysis of the program, without insights from the programmer. As we target an application domain in which data-accesses are irregular and unpredictable prior to the execution of a program, we will also focus on opportunities for runtime optimizations based on communications. In particular, the state of the art shows that few to no frameworks feature online optimizations from analysis of communication patterns and they often perform worse than their static counterparts [7]. This is surprising and raises questions for future investigations. Finally, with the advent of big data, computation is said to be cheaper to move than data [2]. However, to the best of our knowledge, only one framework provides support for code migration. We plan to investigate which benefits could bring optimizations based on code transformation or migration. Finally, we want to define, in a near future work, a performance reference frame using state of the art tools over a defined range of algorithms. This frame will allow us to set a performance comparison point for our future works. As an example, one can imagine a performance space bounded by a hand-tuned optimized MPI implementation and a highlyproductive, domain-specific implementation. The benchmark algorithms we will use as references are under analysis and will include well-known algorithms for common graph problems. The availability of state of the art implementations will be an important selection criterion. Considering the execution environment, we have set up an 8-node distributed cluster at CEA for testing purposes. This platform is a cluster of commodity workstations linked across an Ethernet network. We also investigate possibilities to access larger architectures through supercomputing centers or research infrastructures. IV. COMMUNICATIONS A poster is in preparation and will be presented during HiPeac s international summer school on Advanced Computer Architecture and Compilation for High-Performance and Embedded Systems (ACACES 15). An abstract will be published in proceedings. The poster will expose research issues and ideas concerning this thesis work. REFERENCES [1] M. Bhandarkar. Mapreduce programming with apache hadoop. In Parallel Distributed Processing (IPDPS), 2010 IEEE International Symposium on, pages 1 1, April [2] Dhruba Borthakur. The hadoop distributed file system: Architecture and design. Hadoop Project Website, 11(2007):21, [3] Leonardo Dagum and Ramesh Menon. Openmp: an industry standard api for shared-memory programming. Computational Science & Engineering, IEEE, 5(1):46 55, [4] Kaushik Datta, Dan Bonachea, and Katherine Yelick. Titanium performance and potential: an npb experimental study. In Languages and Compilers for Parallel Computing, pages Springer, [5] Javier Diaz, Camelia Munoz-Car, and Alfonso Nino. A survey of parallel programming models and tools in the multi and many-core era. IEEE Transactions on Parallel and Distributed Systems, 23(8): , Aug [6] Tarek El-Ghazawi, William Carlson, Thomas Sterling, and Katherine Yelick. UPC: distributed shared memory programming, volume 40. John Wiley & Sons, [7] Minyang Han, Khuzaima Daudjee, Khaled Ammar, M Tamer Ozsu, Xingfang Wang, and Tianqi Jin. An experimental comparison of pregellike graph processing systems. Proceedings of the VLDB Endowment, 7(12): , [8] Message Passing Interface Forum. MPI: A Message-Passing Interface Standard, Version 3.0. HLRS, [9] Robert Numrich. Co-array fortran tutorial. In SC 03, [10] Rolf Rabenseifner. Hybrid parallel programming: Performance problems and chances. In Proceedings of the 45th CUG Conference, Columbus, Ohio, USA, May [11] Vijay Saraswat, George Almasi, Ganesh Bikshandi, Calin Cascaval, David Cunningham, David Grove, Sreedhar Kodali, Igor Peshansky, and Olivier Tardieu. The asynchronous partitioned global address space model. Technical report, IBM, Toronto, Canada, June [12] Leslie G. Valiant. A bridging model for parallel computation. Commun. ACM, 33(8): , August

33 New approaches to robust lot-sizing problems SANTOS, Marcio Costa Directeurs de thèse : POSS, Michael; NACE, Dritan Équipe : RO Abstract Natural examples of optimization problems that present uncertainty are multi-stage problems, especially the ones that arise in economic applications, such as lot-sizing problems. In this work we focus on lot-sizing problems with uncertainty in the client demands. Our contributions are two-fold. First, we propose a new dynamic programming algorithm to solve the separation problem that arise when solving static robust lot-sizing problems. Second, we propose a new bound for adjustable robust lot-sizing problems, which we solve through combinatorial algorithms or mixed-integer linear programming reformulations. according past realizations of the demand, so we let x i and s i be functions of ξ Ξ and we obtain the robust problem LS U(Ξ). We allow variables s i to depend on the whole vector of uncertainty while x i depends on the projection of such vector in its first i components, ξ i. This represents, intuitively, that x do not depend on future knowledge of the uncertainty. This kind of restriction used in the variable x is called Non-Anticipative Constraints. I. INTRODUCTION Multi-stage optimization problems appear in diverse forms in finance, insurance, energy production and trading, logistics and transportation, among other areas. They describe decisions that can be dynamically taken along a planning horizon. In such context, it is very natural to consider uncertainty in the parameters because decisions taken in the early stages of the problems are made without full knowledge of the realizations happening in the later stages. Multi-stage optimization problems under uncertainty are interesting from the theoretical and practical point of views for diverse research communities. Lot-sizing problems are natural examples of multi-stage problems that are simple enough to be addressed by efficient combinatorial algorithms; yet, they capture the complexity of multi-stage decision problems. In this work, we look at lotsizing problems with uncertain client demands over a fixed horizon of planning [3],[12], [4], [7]. II. MULTI-STAGE LOT-SIZING PROBLEMS We start by defining the lot-sizing problem with a single item. We are given holding costs h i and producing costs c i for every time period i in a finite horizon of planning H = {1, 2,..., n}. For every time period i H we have a demand d i that must be satisfied, either by the production of the current period or by the production of one of the previous periods, in which case some holding costs must be paid. The objective is to minimize the cost of satisfying all demands. We explain below how to formulate the problem. In the robust lot-sizing problem, the client demands are not known precisely when solving the problem. To model this issue, we suppose that the considered demands are defined by affine functions of the vectors that belong to an uncertainty set Ξ. we denote the demand function of time period i as d i (ξ) = d i + ˆd i ξ i where d i and ˆd i are fixed values. We define optimization variables s i and x i, that stand for the amount stored and the amount produced at the beginning of time period i. We wish to be prepared for every possible outcome of the uncertainty set (client demands). We can adjust our actions LS U(Ξ) = min κ κ s.t κ i H ( ci x i (ξ i ) + h i s i (ξ) ) ξ Ξ s i+1 (ξ) = x i (ξ i ) d i (ξ) + s i (ξ) x i (ξ i ) 0 i H, ξ Ξ s i (ξ) 0 i H, ξ Ξ III. UNCERTAINTY MODEL i H, ξ Ξ Choosing the appropriate model for the uncertainty set Ξ is an important and very hard task. The model must be simple enough to allow good algorithms and abstractions, but must be general enough to model uncertainty in real applications. One of the most used integer 0-1 uncertainty polytope in the literature is the budgeted uncertainty polytope. Its properties have been studied by Bertsima and Sim [2]. We define the budgeted uncertainty polytope, for a fixed real number Γ n, as: IV. Ξ Γ = {ξ ξ 1 Γ, ξ [0, 1]}. RELAXING NON-ANTICIPATIVE CONSTRAINTS The problem LS U(Ξ) is usually very hard to solve, as happens to most robust problems [5], [1], [8], even been very simple to be solved without uncertainty. Many works focus in obtaining upper bounds, usually asking for the functions x(ξ) and s(ξ) to respect some constraint or to have some nice property. The most common of such approaches is to ask for both functions to be affine functions of the uncertainty parameter ξ. The use of such affine decisions rules to obtain upper bounds for robust and stochastic problems are well known and widely used [9]. In face of this fact, we start by looking at lower bounds for the robust multi-stage lot-sizing problem. This issue has also treated by Kuhn et al [6], where the authors presented a general model that can be applied to robust linear multi-stage problems, but has a high number of variables and complexity to be implemented. 19

34 We begin look at a relaxation of problem LS U(Ξ), where we ignore the non-anticipative constraints. We call the problem obtained by release the non-anticipative constraints RLS U inf (Ξ). Notice that this problem can be expressed as RLS U inf (Ξ) = min κ κ s.t κ (c i x i (ξ) + h i s i (ξ)) ξ Ξ i H s i+1 (ξ) = x i (ξ) d i (ξ) + s i (ξ) i H, ξ Ξ x i (ξ i ) 0 i H, ξ Ξ s i (ξ) 0 i H, ξ Ξ Without the non-anticipative constraints of problem RLS U inf (Ξ) can be easily decomposed in each element of the uncertainty set Ξ that can be treated separately. Thanks to this nice structure we can solve this relation in a very fast and efficient way. A. Extensions on Robust Lot-Sizing Problems We also analyse two features in lot-sizing problems, and tried to apply the same idea presented before for each one of them, hopping to obtain a efficient solvable relaxation. For problems with backlog demand, we can postpone some of the client demands for a given period to the next period by paying a fee, called backlog cost. We are able to solve the relaxed problem obtained by release the non-anticipative constraints in a efficient way, almost in the same way we do for the simple lot-sizing problem [11]. For problems with production capacities, we restricting the amount we can produce in each time period i by C i. We are not able to solve them efficiently, but we are able to present a mixed integer formulation that is compact and has a nice behaviour, specially for the uncertainty set proposed by Bertsima and Sim [2]. V. TWO-STAGE LOT-SIZING PROBLEMS In some fields and/or applications, we cannot change the quantities that are ordered in each time period along the planning horizon H. So, all decisions concerning to this quantities must be taken a priori and must contemplate all considered outcomes from the uncertainty set. To model this feature we can use x as a variable that do not depend on the uncertainty, s(ξ) in the other hand, depend of the uncertainty parameter. Notice that as all variables x must be decide a priori, for this reason they are called here-andnow variables and the variables s(ξ) are wait-and-see variables, because we can adjust them to the outcome of the uncertainty set. This kind of problem is called roust two-stage adjustable problems. Robust two-stage adjustable problems are very useful in practical applications, and have been widely study [3], [1]. Bellow we preset the formulation of the robust two-stage adjustable lot-sizing problem LS U two (Ξ). LS U two (Ξ) = min κ s.t κ (c i x i + h i s i (ξ)) i H ξ Ξ s i+1 (ξ) = x i d i (ξ) + s i (ξ) i H, ξ Ξ x i 0 i H s i (ξ) 0 i H Notice that the form of such problem is very convenient for the use of cutting generation methods. In general, a cutting generation method for a linear formulation starts with a small( empty) set of constraints in the model, called master problem. After solving this master problem, the method search for a constraint in the original model that is violated by the solution founded, the problem of find such constraint(cut) or determine that no of the original constraints is violated is called slave problem. In [10], we show a general dynamic programming approach to be used in slave problems lot-sizing-like over the uncertainty set Ξ Γ. κ REFERENCES [1] Aharon Ben-Tal and Arkadi Nemirovski. Robust solutions of linear programming problems contaminated with uncertain data. Mathematical Programming, 88(3): , [2] Dimitris Bertsimas and Melvyn Sim. The price of robustness. Operations Research, 52(1):35 53, [3] Dimitris Bertsimas and Aurlie Thiele. A robust optimization approach to inventory theory. Oper. Res., 54(1): , January [4] Guillermo Gallego, JenniferK. Ryan, and David Simchi-Levi. Minimax analysis for finite-horizon inventory models. IIE Transactions, 33(10): , [5] M. Minoux. Robust network optimization under polyhedral demand uncertainty is np-hard. Discrete Applied Mathematics, 158(5): , [6] Daniel Kuhn, Wolfram Wiesemann, and Angelos Georghiou. Primal and dual linear decision rules in stochastic and robust optimization. Mathematical Programming, 130: , [7] H.E. Scarf. A Min-max Solution of an Inventory Problem. Rand Corporation, [8] A. Shapiro and A. Nemirovski. On complexity of stochastic programming problems. Continuous Optimization: Current Trends and Applications, pages , [9] S.J. Garstka and R.J. Wets. On decision rules in stochastic programming. Mathematical Programming, (7), [10] Santos Marcio and Poss Michael and Nace Dritan and Agra Agostinho. A dynamic programming approach for a class of robust optimization problems. Submitted Paper. December [11] Santos Marcio and Poss Michael and Nace Dritan. The importance of information in robust problems. Winter school in stochastic optimization. Rio de Janeiro, Brasil., September [12] Harvey M. Wagner and Thomson M. Whitin. Dynamic version of the economic lot size model. Manage. Sci., 50(12 Supplement), December

35 Vision-based 3D SLAM in Dynamical Environments Natasha Sayuri Dias Nakashima Thesis Supervisors : Vincent Frémont 1 and Janito Vaqueiro Ferreira 2 Team : DI Summary Static and dynamic objects compose the surrounding environment of an autonomous car, but most of the algorithms to solve SLAM (Simultaneous Localization and Mapping) and SfM (Structure from Motion) problems consider only non-moving objects in the scene. This assumption interferes for a badly pose estimation and mapping building on crowded urban areas. This work proposes a vision-based SLAM approach to improve the accuracy of the localization system by integrating state of the art factorization approaches for segmentation of moving objects in dynamic scenarios, data obtained from an IMU sensor and the Factor Graph approach for SLAM problems. The data fusion of the IMU sensor and the visual odometry obtained from a mono or stereo camera is made by applying a local reference (LR) filtering, which is a good choice for applications with hard real-time constrains. I. INTRODUCTION Complex and dynamic environments, such as big and crowded cities, are still a challenge for autonomous navigation, and one of the most difficult problem is related to obtain a precise location of the vehicle within these scenarios. Indeed, robust localization can be effectively obtained by using expensive Global Positioning System (GPS) and Inertial Measurement Unit (IMU) sensors. However, GPS signal is not always available in urban environments, particularly in heavily occluded areas such as tunnels and dense building areas. In this case, alternative methods to estimate the vehicle s pose and the structure of an unknown environment must be implemented. Nowadays, vision based simultaneous localization and mapping (SLAM) [1, 2] and Structure from Motion (SfM) [3] have received much research interest in robotics literature. However, most of the algorithms consider a static environment, containing only rigid, non-moving objects. This assumption contributes to increase the error related to the pose estimation and mapping building on crowded urban areas due to the moving objects being treated as outliers and filtered out using robust statistics like RANSAC. Methods for detection and tracking of moving objects within a localization and mapping framework were developed in both SLAM and SfM approaches, called SLAMMOT and Multibody SfM [4]. The work of [5] establishes a mathematical framework to solve the SLAMMOT problem. Instead of using costcomputing algorithms to classify a feature extracted from the scene, the solution integrates two separate hypotheses in the estimation processes, one considering a new extracted object being static, and a second one considering it moving. Defining an inverse measurement model, the log odds ratio can be computed and if it is larger than a predetermined threshold λ after a number of iterations of the algorithm, the feature could be classified as static; otherwise, it is defined as moving. tracking, motion segmentation, visual SLAM and moving object tracking introducing several feedback paths among these modules, which enables them to mutually benefit from each other. The motion segmentation step uses geometric constraints (Epipolar Constraint and Flow Vector Bound) to form a probabilistic fitness score for each reconstructed object retrieved from the visual SLAM step, in which the state vector consists of a set of camera poses and reconstructed 3D world points. The optimization process iteratively refines this state vector by minimizing a sum of square errors between the current estimate and observed data. For the moving object tracking the authors used a bearings-only tracking (BOT) approach, which aims to estimate the state of a moving target comprising of its 3D position and velocity. Both of these approaches use mono or stereovision for image capture. In the field of omnidirectional cameras, the work of [7] proposes a solution to construct dense visual maps of large-scale environments for real-time localization and navigation. The approach is based on an omnidirectional RGB-D key-frame representation and an image registration technique, which exploits the advantages of the spherical representation by minimizing a photometric error between a current image and a reference spherical image. Based on the context presented before, in this work we aim to develop a robust perception system for dynamic environments using a vision-based approach with an omnidirectional camera as the main sensor. A view of almost a 360 degrees permits landmarks to remain in the field of view for a long temporal window and also permits the construction on dense feature maps, which could minimize the errors related to the pose estimation and tracking of moving objects on each frame. In addition to the self-localization problem, we aim to develop a robust system that keeps track of static and dynamic objects on the scene by using the approach of Markov Chain Monte Carlo data Association (MCMCDA). The approach will be validated using the KITTI dataset, from Karlsruhe Institute of Technology (KIT) and Toyota Technological Institute at Chicago (TTI-C), and using images captured by an omnidirectional camera mounted on a car in a real environment, where experiments will be conducted at Université de Technologie de Compiègne (UTC). The proposed solution will be described in section II. This thesis is a cooperation between the HEUristique et DIAgnostic des SYstèmes Complexes (Heudiasyc) Laboratory, at Université de Technologie de Compiègne (UTC), France, and the Laboratório de Mobilidade Autônoma (LMA) at Universidade Estadual de Campinas (Unicamp), Brazil, and funded by the Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES), Brazil. In [6], a real-time incremental multibody visual SLAM algorithm is proposed. This approach integrates feature 1 Laboratoire Heudiasyc, Université de Technologie de Compiègne, France 2 Laboratório de Mobilidade Autônoma, Universidade Estadual de Campinas, Brazil 21

36 II. PROPOSED SOLUTION A scheme of the proposed solution is shown in Fig. 1 and in sections II.A-E we will describe each of the proposed approaches. Fig. 1: Proposed solution. A. Image Acquisition Images are captured using an omnidirectional camera Ladybug3, from Point Gray, which consists of six cameras equipped with a 3.3 mm lens with maximum resolution of 1616 x B. Feature Dection and Tracking During this step, we search in the image for salient keypoints that are likely to match well in the other images. Salient key points are characteristics in the scene uniquely and easily recognizable, which accordingly to their geometry can be points, lines and/or planes. Ideally, feature detection for localization and mapping problem needs to be robust and able to locate the same features in successive images regardless of image rotation, scaling or changes in illumination. In this work we adopt the Features from Accelerated Segment Test (FAST) algorithm, which uses neighbor pixels brightness information to define a corner. For matching those features, we use a binary descriptor called Binary Robust Independent Elementary Features (BRIEF) and Nearest-Neighbor searching method (NN) for tracking. The BRIEF descriptor is very efficient in terms of computational cost and storage in memory compared to other descriptors as Scale-Invariant Feature Transform (SIFT) and Speeded Up Robust Features (SURF), as it consists of a binary vector. C. Visual SLAM The SLAM describes the problem of mapping an unknown environment without any external position reference, such as GPS systems. The consistency of the map depends on precise knowledge of the current position of the vehicle, while a robust self-localization requires an accurate map of the environment. Therefore, the localization and mapping problem are coupled. For this work, we will use the GTSAM (Georgia Tech Smoothing and Mapping) framework, developed at the Georgia Institute of Technology, based on factor graphs. These graphical models are well suited to modeling complex estimation problem. In addition, we aim to integrate this framework with the idea proposed in [1]. This approach splits tracking and mapping problems into two separate tasks, which can be processed in parallel threads, increasing the performance of the algorithm. D. Moving Objects Detection and Tracking Due to the dynamic nature of the environment considered on this work, methods for motion segmentation of moving objects could be applied to improve the vehicle s pose estimation. In the context of multi-body SfM, a recent work was proposed by [9], based on the factorization of projective depth values, which can be used for estimation of multiple motions and structures in a dynamic scenario. This method, unlike other approaches, generates several hypotheses to initialize the motion-segmentation algorithm, making a solution more robust to noise interference. In our work, we pretend to integrate this method to the use of omnidirectional cameras, expecting an even better result. E. Ego-motion estimation and IMU Data Fusion The pose of the vehicle can be estimated using a Visual Odometry approach and successful results over long distances (up to several kilometers) have been obtained using omnidirectional cameras [8]. In our work, we will use data from the vision system and data from an IMU sensor, integrating both with a local reference (LR) filtering approach, which presents a long-term filter stability in highly dynamic system with limited computational resources. III. PERSPECTIVES This work pretends to develop a robust solution for the localization and mapping problem in dynamic environments, using as main sensor an omnidirectional camera. According to this goal, in the next four months of research, the image acquisition using the Ladybug Camera from Point-Grey, feature detection, matching and tracking for the SfM module must be completed. And for the next year, we plan to integrate the moving object detection and tracking and the data fusion with the IMU sensor. References [1] Klein, G., & Murray, D. (2007). Parallel Tracking and Mapping for Small AR Workspaces. Proceedings of the th IEEE and ACM International Symposium on Mixed and Augmented Reality, [2] Lim, H., Lim, J., & Kim, H. J. (2014). Real-time 6-DOF monocular visual SLAM in a large-scale environment. IEEE International Conference on Robotics and Automation (ICRA), [3] Hartley, R. I., & Zisserman, A. (2004). Multiple View Geometry in Computer Vision. Cambridge University Press. [4] Ozden, K., Schindler, K., & Van Gool, L. (2010). Multibody structurefrom-motion in practice. IEEE Transactions on Pattern Analysis and Machine Intelligence, [5] Lin, K.-H., & Wang, C.-C. (2010). Stereo-based Simultaneous Localization, Mapping and Moving Object Tracking. IEEE International Conference on Intelligent Robots and Systems, [6] Kundu, A., Krishna, K. M., & Jawahar, C. V. (2011). Realtime multibody visual SLAM with a smoothly moving monocular camera. IEEE International Conference on Computer Vision (ICCV), [7] Meilland, M., Comport, A. I., & Rives, P. (2014). Dense Omnidirectional RGB-D Mapping of Large-scale Outdoor Envoronments for Real-time Localization and Autonomous Navigation. Journal of Field Robotics. [8] Tardif, J.-P., Pavlidis, Y., & Daniilidis, K. (2008). Monocular visual odometry in urban environments using an omnidirectional camera. IEEE/RSJ International Conference on Intelligent Robots and Systems, [9] Sabzevari, R., & Scaramuzza, D. (2014). Monocular Simultaneous Multi-Body Motion Segmentation and Reconstruction from Perspective Views. IEEE International Conference on Robotics and Automation (ICRA),

37 Outils d analyse généalogique et philologique de documents numériques structurés en contexte de rééditorialisation collaborative Léonard DUMAS Directeurs de thèse : Stéphane CROZAT et Bruno BACHIMONT Équipe : ICI Résumé Notre recherche s inscrit dans le domaine de l ingénierie documentaire et en particulier des chaînes éditoriales numériques. Nous nous intéressons à la relecture menée au sein de la production documentaire d une organisation, ainsi qu à la façon dont le numérique réinterroge cette tâche. L enjeu est de concevoir des formes de relecture. Cette contribution donne un aperçu des travaux réalisés lors de notre troisième année de doctorat. I. CONTEXTE ET OBJECTIFS Cette thèse se déroule dans le cadre d une convention CIFRE avec la société Kelis, sous l encadrement de Sylvain Spinelli, et s inscrit dans les activités de recherche en ingénierie documentaire menées conjointement avec l unité ICS. Le contexte technologique est celui des chaînes éditoriales XML et de leur instrumentation au sein de la suite logicielle Scenari. Une chaîne éditoriale est un système de production documentaire instrumentant des fonctions d écriture numérique originales telles que le polymorphisme ou la transclusion. Le polymorphisme permet de projeter un même contenu sous différentes formes, déconstruisant ainsi l unité documentaire en une forme génératrice d une part et des formes publiées (HTML ou PDF par exemple) obtenues par transformation d autre part. Les formes d édition (éditeurs XML) permettent la modification des formes génératrices. La transclusion consiste à décomposer la forme génératrice en fragments dont le contenu est ré-inclus dans les formes publiées par la transformation [4]. L autonomie des fragments permet leur réutilisation dans plusieurs documents, déplaçant ainsi la production documentaire sur un réseau de fragments [1]. Les fonctions de polymorphisme et la transclusion sont à la base de la rééditorialisation, qui décrit le processus consistant à reconstruire un nouveau document à partir d archives [4]. La problématique métier rencontrée sur les terrains d usage de Scenari et adressée par nos travaux est la relecture de documents numériques. La relecture implique la lecture critique, dont l effort cognitif associé est plus important que pour la lecture de compréhension [10]. En révision professionnelle, la relecture intervient à plusieurs niveaux : (a) la révision de fond, cherchant à garantir le sens visé par le texte et l exactitude des informations ; (b) la révision de forme, évaluant le respect des règles ou usages orthographiques, syntaxiques et stylistiques ; (c) la préparation de copie, s assurant de la lisibilité du document du point de vue de la typographie, de l ergonomie et de l accessibilité ; (d) la correction d épreuves, vérifiant notamment la bonne intégration des corrections demandées [2]. Du point de vue théorique, le numérique ajoute une complexité supplémentaire à la relecture que nous caractérisons via trois propriétés. Premièrement, un document numérique est instable car modifiable en permanence, ce qui permet le raffinement progressif de son contenu [6] et intensifie la publication de versions successives. En pratique, il est impossible de le relire entièrement à chacune de ses versions. Deuxièmement, les nouveaux parcours interprétatifs rendus possibles par les manipulations interactives [6] ont pour effet de délinéariser la lecture. L interactivité pose donc un problème d efficacité du point de vue de la relecture, de par la combinatoire des possibilités d interaction. Troisièmement, la relecture ne peut se passer de certains critères d objectivation du contenu (fixité du support, authenticité [3]) que la rééditorialisation tend à faire disparaître. L objectivation se perd alors entre la forme génératrice et les formes publiées [5], à défaut de disposer de formes dédiées à la relecture. L objectif de nos travaux est de proposer une méthodologie de conception de formes de relecture. En nous basant sur le polymorphisme, nous étudions plusieurs stratégies de projection. II. AVANCEMENT Nos travaux se sont concentrés cette année sur deux études de cas de relecture dans des chaînes éditoriales pédagogiques. La première concerne des modules pédagogiques (Opale [7]) rédigés par des étudiants dans le cadre d un cours de data warehouse à l UTC. La seconde concerne une base de 1200 quiz utilisés dans les tests de positionnement du projet Faq2Sciences piloté par Unisciel (Topaze-POS). Dans les deux cas, la relecture consiste en un cycle d annotation du contenu et de validation des modifications effectuées suite à ces annotations. Ces études de cas ont permis de mettre en évidence le fait que les formes d édition et les formes publiées n étaient pas adaptées à la relecture, comme le font apparaître les figures ci-dessous. La figure 1 montre la forme d édition d un fragment Opale qui peut être modifié, annoté (a), comparé (b1 ; différentiel) à une de ses entrées d historique (b2) et rééditorialisé dans une version courte et/ou longue du module (c ; voir la fonction de déclinaison [4]). Il fait partie d un arbre de fragments en permanence modifiables, tel qu illustré sur la figure 2. L utilisation des fonctions d annotation et de différentiel pour la relecture surcharge la vue d édition déjà sujette à la fragmentation et à la rééditorialisation. La figure 3 (publication Web d un module Opale) illustre la lecture délinéarisée dûe à l interactivité dans les formes publiées. En effet, la navigation entre les différentes pages suivant la structure hiérarchique du contenu se fait via des 23

38 liens précédent/suivant (a) ou par le plan (b). Les entrées de glossaire se matérialisent sous la forme de tooltips (c) activables au clic sur le terme balisé. Les tooltips sont un cas particulier d écriture à profondeur variable (ou stretch text [9]), qui permet au lecteur de varier le niveau de détail du contenu (autres exemples : blocs collapsables Voir aussi..., fenêtres modales affichant du contenu additionnel, solutions d un quiz affichées après validation, etc.). Dans d autres cas, le contenu n est pas structuré en arbre mais en un réseau d étapes pouvant être parcouru de différentes façons (on parle de document multi-linéaire) : par exemple dans les tests de positionnement Topaze-POS, l étape suivante proposée au lecteur après une étape de quiz peut être programmée en fonction du score obtenu (le lecteur peut notamment être redirigé vers une étape déjà parcourue). à profondeur variable consiste à trouver des alternatives statiques à leurs interactions respectives. Le contenu additionnel peut être affiché à son point d ancrage s il ne perturbe pas la linéarité de lecture (on parlera de contenus non-disruptifs) ou bien redirigé dans une annexe dans le cas contraire (on parlera de contenus disruptifs). La tabulation consiste à transformer un contenu de façon à ce qu il puisse être relu en prenant en compte ses différents contextes de rééditorialisation. Elle peut être par exemple appliquée à la déclinaison. Sur le plan opérationnel, nous avons appliqué cette approche aux deux études de cas pour proposer des formes de relectures linéarisées intégrant les fonctions d annotation et de comparaison. Pour cette dernière, nous avons mis au point un prototype d affichage basé sur un algorithme de différentiel développé par Kelis. Ces travaux ont fait l objet d une proposition de contribution à la conférence internationale ACM Document Engineering. Fig. 1. Forme d édition d un fragment dans Scenari (Opale) III. PERSPECTIVES La fin de cette troisième année sera consacrée à la rédaction du mémoire de thèse en vue d une soutenance avant fin Notre contribution méthodologique prendra la forme d une matrice croisant les dimensions métier (relecture de fond, relecture de forme, relecture techno-esthétique ) et théorique (instabilité, interactivité, rééditorialisation) de notre problématique. Cette matrice nous permettra de construire des solutions de projection, en analysant sur chaque case : le potentiel de linéarisation de la forme de relecture, favorisant ainsi un certain retour à la raison graphique [8] ; mais aussi les limites de cette projection pour les lectures en prise avec la raison computationnelle [3], appelant à de nouvelles stratégies (dont la tabulation). REFERENCES Fig. 2. Fig. 3. Arbre de fragments d un module pédagogique (Opale) Forme publiée d un module pédagogique (Opale) Dans une démarche inductive à partir de ces études de cas, nous proposons une approche de conception de formes de relecture basée sur le polymorphisme. Cette approche s appuie sur les stratégies de linéarisation et de tabulation. La linéarisation consiste à transformer un contenu pour faciliter sa relecture linéaire. Un contenu structuré hiérarchiquement est facilement linéarisable en mettant bout à bout chaque niveau du plan dans une seule et même page. En revanche, ce n est pas le cas d un contenu structuré en réseau, dont la linéarisation des multiples parcours entraîne une relecture redondante des étapes appartenant à différents parcours. La linéarisation de contenus [1] T. Arribe. Conception des chaînes éditoriales : documentariser l activité et structurer le graphe documentaire pour améliorer la maîtrise de la rééditorialisation. PhD thesis, Université de Technologie de Compiègne, [2] B. Arsenault, C. Baudin, A. Bouyahi, S. Gravel, and M. E. Laroche. Principes directeurs en révision professionnelle. Technical report, Réviseurs Canada, Principes Edition2014.pdf. [3] B. Bachimont. Ingénierie des connaissances et des contenus. Hermès, [4] S. Crozat. Chaînes éditoriales et rééditorialisation de contenus numériques. In Séminaire IST Inria : le document numérique à l heure du web de données, pages ADBS, [5] S. Crozat and B. Bachimont. Réinterroger les structures documentaires: de la numérisation à l informatisation. Information-Interaction- Intelligence, 4(1), [6] S. Crozat, B. Bachimont, I. Cailleau, S. Bouchardon, and L. Gaillard. Éléments pour une théorie opérationnelle de l écriture numérique. Document numérique, 14(3):9 33, [7] A. Gonzales-Aguilar, M. Ramírez-Posada, and S. Crozat. Scenari-opale: cadena editorial digital para la producción de contenidos e-learning. El profesional de la información, 21(4): , [8] J. Goody. La raison graphique : la domestication de la pensée sauvage. Minuit, Paris, [9] T. H. Nelson. Computer Lib: Dream Machines. Tempus Books of Microsoft Press Redmond, [10] J.-Y. Roussey and A. Piolat. Critical reading effort during text revision. European Journal of Cognitive Psychology, 20(4): ,

39 Problèmes de tournées de véhicules avec profits Résolutions exacte et approchée Racha El-Hajj Directeurs de thèse : Aziz MOUKRIM et Bilal CHEBARO Équipe : RO Résumé Le problème de tournées sélectives (Team Orienteering Problem-TOP) est une variante du problème de tournées de véhicules dont le but est de maximiser la somme des profits collectés en respectant un temps de trajet limite pour chaque véhicule. L objectif de notre travail de recherche est d élaborer des méthodes exactes et approchées pour la résolution du TOP et de deux de ses variantes, qui sont le TOP avec fenêtres de temps (Team Orienteering Problem with time windows-toptw) et le TOP multipériodique (multiperiod Team Orienteering ProblemmTOP). I. INTRODUCTION La thèse s inscrit dans le cadre d une cotutelle entre le laboratoire Heudiasyc UMR CNRS de l Université de Technologie de Compiègne et l Ecole Doctorale des Sciences et de Technologie de l Université Libanaise. Ce projet est cofinancé par le conseil Régional de la Picardie dans le cadre du projet TOURNEES SELECTIVES et par l Université Libanaise selon le programme de coopération entre le réseau UT-INSA et l Université Libanaise. Nous nous intéressons dans notre travail à la résolution exacte du TOP et du TOPTW et à la résolution approchée du mtop. II. PROBLEME DE TOURNEES SELECTIVES Le problème de tournées sélectives est une variante du problème de tournées de véhicules où a priori il n est pas possible de servir tous les clients. TOP est constitué d une flotte de véhicules disponibles pour le service d un ensemble de clients. Chaque véhicule doit commencer son parcours par le point de départ d, servir un ensemble de clients et puis revenir au point d arrivée a sans dépasser un temps de parcours limite associé à ce véhicule. Pour chaque client, un profit est associé pouvant être collecté au maximum une seule fois par la flotte. L objectif de la résolution du TOP revient à déterminer et à organiser un ensemble de tournées afin de maximiser le profit total collecté des clients servis. Plusieurs heuristiques ont été proposées pour la résolution du TOP. Ces heuristiques fournissent des solutions approchées de bonne qualité mais pas nécessairement les solutions optimales. Toutefois, pour évaluer les résultats de ces méthodes, la connaissance de la valeur optimale est désirée. Jusqu à présent, trois méthodes exactes ont été proposées pour la résolution du TOP [7, 8, 11]. Nous nous sommes intéressés à l élaboration d un nouvel algorithme de branch-and-cut pour la résolution exacte du TOP. Notre approche, basée sur la PLNE, s appuie sur un ensemble de propriétés de dominance et inégalités valides. Le premier ensemble d inégalités détermine des bornes supérieures et inférieures aux profits et aux nombres de clients de chaque sous-ensemble de tournées. Ces bornes sont déterminées à partir d un prétraitement effectué en résolvant la même instance avec un nombre plus petit de véhicules allant de 1 à m-1. D autres coupes appliquées sont celles exploitant les cliques extraites des graphes d incompatibilité entre les clients et entre les arcs. Par définition, deux clients (resp. deux arcs) sont dits incompatibles si une tournée contenant seulement ces deux clients (resp. deux arcs) dépasse la longueur maximale L. A partir de ces deux graphes d incompatibilité, les cliques maximales sont extraites. Chaque clique contient un ensemble de clients ou d arcs qui sont tous incompatibles entre eux, et par conséquent ne peuvent pas appartenir à la même tournée. Les résultats obtenus sur le benchmark [9], formé de 387 instances, ont montré l efficacité de notre approche. Notre algorithme était capable de résoudre à l optimalité 300 instances parmi les 387, dont 45 étaient encore ouvertes. III. PROBLEME DE TOURNEES SELECTIVES AVEC FENETRES DE TEMPS Il s'agit du TOP en prenant en considération la disponibilité des clients et le temps de service. A chaque client i on associe un temps de service s i et une disponibilité. Cette disponibilité est représentée par deux dates a i et b i de service au plus tôt et au plus tard. La contrainte ajoutée à la formulation du TOP est que si un véhicule sert un client i, le véhicule doit arriver au client avant l'instant b i. De plus si le véhicule arrive avant a i, il doit attendre jusqu'à la date a i pour pouvoir commencer son service. Plusieurs heuristiques [10] et une seule méthode exacte [12] ont été proposées pour le TOPTW. Dans notre travail, nous nous sommes intéressés à la résolution exacte du TOPTW. Nous avons proposé deux algorithmes pour résoudre le TOPTW à l optimalité, Le premier algorithme est basé la formulation de base du TOPTW en ajoutant des inégalités valides basées sur le raisonnement énergétique pour imposer des bornes supérieures au profit et au nombre de client de chaque tournée. Le deuxième algorithme est basé sur la méthode de la génération de colonnes en proposant un nouveau modèle mathématique pour le problème et en appliquant la programmation dynamique pour résoudre les sous-problèmes et ajouter de nouvelles colonnes au problème maitre. En lançant nos deux algorithmes sur les instances du benchmark [13], nous avons obtenu des résultats très avantageux. Nous étions capables de résoudre à l optimalité 92 instances dont 55 entre elles sont encore non résolues dans la littérature. IV. PROBLEME DE TOURNEES SELECTIVES MULTIPERIODIQUE Le problème de tournées sélectives multipériodique est une nouvelle variante du TOP qui a été récemment introduite par Zhang et al. [14]. La différence entre le TOP et le mtop est 25

40 que les tournées dans ce dernier sont divisées en périodes. L objectif de la résolution du mtop revient à organiser les différentes périodes de chacune des tournées afin de maximiser le profit total collecté des clients servis sans dépasser la longueur maximale prédéfinie pour chaque période. Un algorithme mémétique a été proposé par Zhang et al. [14] et a été testé sur un ensemble d instances construites à partir de celles du TOP. Nous nous sommes intéressés à l élaboration d un algorithme de résolution basé sur l optimisation par essaims particulaires (PSO). Plusieurs recherches locales ont été effectuées et un découpage optimal a été proposé pour extraire les solutions optimales des séquences. Les résultats lancés sur le benchmark proposé dans [14] montrent l efficacité de notre approche du fait que nous étions capables d améliorer toutes les solutions de Zhang et al. [14] sans exception et avec un temps de résolution très faible. V. PERSPECTIVES Ces résultats ont donné lieu à la publication d un article dans une conférence internationale [1] et à des présentations dans des congrès [2, 3, 4]. Les prochaines étapes consistent à améliorer la performance de nos algorithmes afin d augmenter le nombre d instances résolues. D autre part, quelques modifications seront effectuées pour résoudre d autres problèmes afin de répondre à de nouveaux besoins, tel que la résolution exacte du problème de tournées sélectives avec fenêtre de temps et synchronisation des ressources. VI. VALORISATION Conférence internationale avec actes [1] D.-C. Dang, R. El-Hajj, and A. Moukrim. A Branchand-Cut Algorithm for Solving the Team Orienteering Problem, In CPAIOR, , (taux d acceptation 33%) Congrès [2] R. El-Hajj, A. Moukrim, B. Chebaro and M. Kobeissi. Algorithme exact basé sur la génération de colonnes pour la résolution du problème de tournées sélectives avec fenêtres de temps, ROADEF2015, Marseille, France. [3] R. El-Hajj, D.-C. Dang and A. Moukrim. Algorithme de Branch-and-Cut pour la résolution exacte du Problème de Tournées Sélective, ROADEF2013, Troyes, France. [4] R. El-Hajj, D.-C. Dang and A. Moukrim. Algorithme de Branch-and-Cut pour la résolution exacte du Problème de Tournées Sélective, LAAS2014, Beyrouth, Liban. Soumis à une revue [5] D.-C. Dang, R. El-Hajj, and A. Moukrim. A New Exact Method for the Team Orienteering Problem: Branchand-Cut with Presolving Procedure, Computers and Operations Research. En cours de finalisation [6] R. El-Hajj, R.-N. Guibadj, A. Moukrim and M. Serairi. A particular swarm optimization algorithm for the multiperiod team orienteering problem. Références [7] S. Boussier, D. Feillet, and M. Gendreau. An exact algorithm for team orienteering problems. 4OR, 5(3): , [8] S. E. Butt and D. M. Ryan. An optimal solution procedure for the multiple tour maximum collection problem using column generation. Computers & Operations Research, 26: , [9] I.-M. Chao, B. Golden, and E. A. Wasil. The team orienteering problem. European Journal of Operational Research, 88: , [10] R. N. Guibadj and A. Moukrim. A memetic algorithm with an efficient split procedure for the team orienteering problem with time windows. In Artificial Evolution, 6-17, [11] M. Poggi de Aragão, H. Viana, and E. Uchoa. The team orienteering problem: Formulations and branch cut and price. In ATMOS, pages , [12] G. Righini, M. Salani, Decremental state space relaxation strategies and initialization heuristics for solving the Orienteering Problem with Time Windows with dynamic programming, Computers & Operations Research, 36: , [13] M.M. Solomon, Algorithms for the vehicle routing and scheduling problems with time window constraints. Operations Research 35: ,1987. [14] Z. Zhang, O. Che, B. Cheang, A. Lim, H. Qin, A memetic algorithm for the multiperiod vehicle routing problem with profit, European Journal of Operational Research 229: ,

41 Embedded extended vision using cameras network for UAV navigation DINIZ Wendell Directeurs de thèse : FANTONI Isabelle, FREMONT Vincent Équipe : DI Abstract Computer Vision can provide techniques that offer rich information that can be used in many tasks and applications with UAVs. These techniques are known to demand considerable computing power, which embedded systems usually lack. FPGAs are a class of electonic devices capable of accelerating computational tasks with low power consumption. This work s goal is to develop a FPGA based architecture for real-time capable embedded vision systems. I. INTRODUCTION Unmanned Aerial Vehicles (UAV) are versatile platforms that are able to perform a wide range of applications. Small battery operated drones have been inspiring crescent research efforts in the latest years, given birth to many different applications. Computer Vision can provide the UAVs with the resources to accomplish high level tasks. However, they are know to have high computational cost, which impose restrictions in its use in embedded systems like the ones used to built the drones. It is particularly hard to achieve real-time processing vision based applications with the limitations of embedded hardware. Therefore, hard-to-design higly optimized code and/or special hardware are required if one desires to get high computational power alongside low energy consumption thus ebabling efficient use of Computer Vision techniques. Field Programmable Gateway Arrays (FPGA) are a class of electonic devices that can fulfill that requirement. They are capable of offer hardware based acceleration for complex algorithms like Computer Vision ones alongside low power consumption and compact size, making them a interesting choice for applying in embedded systems. A. Thesis objectives This thesis has two main goals: propose a new workflow for pedestrian detection using OPF classifier and implementation using a real-time capable FPGA based embededd system for UAVs. The analysis should be done using simulational and experimental data to be obtained using availabe platforms currently in development in the Heudiasyc laboratory. B. International Cooperation This Ph.D. is a joint project (cotutelle) is fruit of an international cooperation between the laboratory Heudiasyc UMR 7253 CNRS/UTC of the Universite de Technologie de Compiegne, France and the Department of Computational Mechanics of State University of Campinas, Brazil. The student profits of a scholarship from Brazilian Government under the PDSE from CAPES agency. II. ADVANCEMENTS SO FAR A new vision based pedestrian detection workflow using OPF was proposed and evaluated. Pedestrian detection is a well established problem with solid benchmarks and evaluation methodology. Because of its characteristics and multitude of applications, it has served as a sandbox to develop new ideas and evaluate new techniques for object detection. Among the different feature extraction methods proposed in the field, the Histogram of Oriented Gradients (HOG) and its variations stand out as the most used methods. The combination of HOG features with a machine learning method was successfully applied to the field. Examples of this approach include [1], where the combination of a linear Support Vector Machines (SVM) with HOG was demonstrated to significantly outperform previous methods used for human detection. In [2] we have a competent review over the pedestrian detection subject. Recently, a new classifier based in Graph Theory, the Optimum Path Forest (OPF) [3], has been presented and was successfully applied on different problems, as disease identification [4], spoken emotion identification [5], face recognition [6] and land use estimation used to forest monitoring [7]. These works have shown that OPF usually achieve performances similar to the SVM, but with faster processing times during the classification stage. Because OPF is a parameterfree algorithm, it leads in general to a simpler training routine. These characteristics make OPF a suitable candidate to be used with computer vision techniques in scenarios that require fast performance, like real-time pedestrian detection. As the HOG extraction usually results in high dimensional feature vectors, it can be useful to apply a dimension reduction method, like Principal Component Analysis (PCA). The method s processing times are dependent on the dimension of the feature vectors this reduction helps to reduce these times. This time reduction is a desirable effect for real-time applications, then it was made a comparison of the methods performances in different PCA configurations. The PCA implementation used was the one found in OpenCV library. The new proposed workflow with OPF+HOG+PCA was compared with similar ones using SVM and MLP in its place using well-known metrics. Figure 1 show that the OPF method performs well with HOG and PCA feature extraction, showing to be stable and more accurate than SVM. The MLP was stable but less accurate. It is important to note that the parameter optimization performed by the libsvm with PCA had some difficulty to converge, which reflected in the difference in metrics showed in the partial dataset metrics. Maybe within the subspace given by the PCA, the linear kernel lost its generalization, bringing the necessity of testing different kernels 27

42 Accuracy Accuracy Precision F_measure Precision F_measure Recall True_negative_rate Recall True_negative_rate libopf libsvm mlpocv libopf libsvm mlpocv False_positive_rate False_negative_rate False_positive_rate False_negative_rate (a) 200 samples Accuracy (b) 500 samples Accuracy Precision F_measure Precision F_measure Recall True_negative_rate Recall True_negative_rate libopf libsvm mlpocv libopf libsvm mlpocv False_positive_rate False_negative_rate False_positive_rate False_negative_rate (c) 1000 samples (d) 2000 samples Fig. 1. Metrics observed for applying PCA in partial sets. or doing a deeper parameter optimization. This shows again the advantage of the non-parametric characteristic of the OPF, alongside its stability with dimension reduction by PCA. A. Published work An article about the OPF evaluation work was submitted to the International Conference on Intelligent Transportation Systems, to be held in semptember of the current year and is curretly awaiting approval. III. PERSPECTIVES AND FUTURE WORK The classifier will be implemented using a new proposition for a parallel architecture suitable for FPGA. This proposition must provide enough computational power to enable real-time processing while maintaining low power consumption. The system will be validated through experimental work to be done using the Heudiasyc drone platforms. Figure 2 shows the proposed schedule. REFERENCES [1] N. Dalal and B. Triggs, Histograms of Oriented Gradients for Human Detection, 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 05), vol. 1, pp , [2] R. Benenson, O. Mohamed, J. Hosang, and B. Schiele, Ten Years of Pedestrian Detection, What Have We Learned? in European Conference on Computer Vision - ECCV, [3] J. P. Papa, A. X. Falcão, and C. T. N. Suzuki, Supervised pattern classification based on optimum-path forest, International Journal of Imaging Systems and Technology, vol. 19, no. 2, pp , Jun Fig. 2. France staying Literature Review FPGA system implementation Simulation & validation Experiments Brazil staying Thesis writing Thesis Defense Proposed schedule for next advancements [4] A. A. Spadotto, J. C. Pereira, R. C. Guido, J. P. Papa, A. X. Falcao, A. R. Gatto, P. C. Cola, and A. O. Schelp, Oropharyngeal dysphagia identification using wavelets and optimum path forest, in rd International Symposium on Communications, Control and Signal Processing. IEEE, Mar. 2008, pp [5] R. C. Guido, J. C. Pereira, J. F. W. Slaets, A. I. Iliev, M. S. Scordilis, J. a. P. Papa, and A. X. Falcão, Spoken emotion recognition through optimum-path forest classification using glottal features, Computer Speech & Language, vol. 24, no. 3, pp , [6] G. Chiachia, A. N. A. Marana, J. P. Papa, and A. X. Falcao, Infrared Face Recognition by Optimum-Path Forest, in th International Conference on Systems, Signals and Image Processing. IEEE, Jun. 2009, pp [7] R. Pisani and P. Riedel, Land use image classification through optimum-path forest clustering, Geoscience and Remote Sensing Symposium (IGARSS), 2011 IEEE International, pp , Jul

43 Gestion des risques par des méthodes d optimisation robuste Yoann Fouquet Directeur de thèse : Dritan Nace Équipe : RO Résumé Les réseaux de communications, en particulier les réseaux sans fil, peuvent souffrir de pannes partielles. Cette panne représente la perte de capacité sur un lien du réseau, mais pas dans son intégralité. Typiquement, la présence de brouillard ou de pluie perturbe les réseaux optiques sans fils en diminuant la bande passante sur certains liens. L objectif de cette thèse est de proposer des stratégies de reroutage pour ce type de pannes. I. OBJECTIFS ET CONTEXTE Dans les réseaux de communications, la notion de panne est souvent limitée aux scénarios de pannes dans lesquelles tous les liens du réseau peuvent être perturbés mais un seul à la fois; où la panne d un lien signifie la perte totale de capacité. Cette assomption peut être considérée comme valide dans les grands réseaux filaires utilisant par exemple de la fibre optique. Toutefois, même dans ce type de réseau, une panne totale d un lien dans la couche transport peut être interprétée en panne partielle de plusieurs liens par la couche logique. Dans les réseaux sans fil, les pannes sont le plus souvent partielles et touchent plusieurs liens en même temps. Par exemple, un réseau optique sans fil subissant un fort brouillard aura des capacités diminuées sur tous les liens (laser optique) dans la zone de brouillard. Le problème de sécurisation des réseaux, filaires ou non, a été et est toujours un problème crucial pour les opérateurs des télécommunications. Il existe un grand nombre de stratégies, détaillées dans [1], [2] et [3]. Chaque méthode a ses avantages et ses inconvénients. On remarque que certaines ont des coûts importants de dimensionnement du réseau, et d autres nécessitent des temps de restauration de trafic élevés et des procédures de restauration complexes à mettre en œuvre. Lors de cette thèse, nous travaillons sur des méthodes proches de la protection, c est-à-dire qu aucun nouveau chemin n est créé en cas de panne. II. AVANCEMENT Nous avons élaboré deux méthodes qui ont été présentées et soumises à des conférences internationales. La première méthode, intitulée Flow Thinning (FT), est une stratégie de protection. La seconde méthode, nommée Elastic Flow Rerouting (EFR) est une stratégie dite «élastique» car elle gère les pannes en modifiant les flots sur certains chemins. Lors de cette dernière année de thèse, le travail s est concentré sur les méthodes de résolutions exactes ou approchés et sur la valorisation du travail dans des revues. III. FLOW THINNING La méthode de protection par diminution du flot ([2], [10] et [12]), dite Flow Thinning, s applique aux pannes partielles de liens et aux pannes partielles de nœuds. L idée principale est que, lorsqu un lien est perturbé partiellement (i.e. la bande passante du lien diminue), la bande passante des chemins perturbés peut être diminuée. Cette idée semble simple, mais il s agit de déterminer dans quelles proportions il faut diminuer la bande passante des chemins et comment établir le routage de base. Cette méthode semble pertinente pour des réseaux sans fils, ainsi que pour la couche logique des réseaux filaires. Cette stratégie peut sembler couteuse au premier abord car il s agit de protection. Toutefois, une étude a été faite dans [5], [8] et [9] pour voir l impact d une autorisation d augmentation du flot (on parle alors de Flow Adjustment Routing) sur le coût de dimensionnement du réseau ; et cette étude montre que dans le cas des pannes multiples de liens, la diminution du coût n est pas significative. Les résultats de cette extension de FT montrent que cette stratégie est applicable avec un coût raisonnable pour des pannes d un certain niveau (inférieur à 80% de la bande passante de référence). Néanmoins, cette stratégie a tendance à diffuser une perturbation à l ensemble du réseau avant de rétablir les flots (voir [8]). IV. ELASTIC FLOW REROUTING La méthode de reroutage élastique ([1]) repose sur le principe suivant : En cas de panne, un certain nombre de demandes sont perturbées, les autres non. Les chemins non perturbés des demandes perturbées sont autorisés à augmenter leur bande passante, et les chemins des demandes non perturbées peuvent la diminuer. A. Pannes totales La méthode sous-jacente de EFR ([6], [7] et [13]), dénommée ERR, s applique uniquement aux pannes totales d un seul lien, et elle est centralisée (i.e. dans le cas d une panne tous les nœuds doivent participer et modifier leurs chemins). Une méthode distribuée, DERR, (voir [3] et [11]) a été présentée. Cette méthode limite le nombre de nœuds pouvant modifier les chemins à seulement les nœuds destinataires des demandes perturbées par la panne. Les résultats obtenus montrent que les deux méthodes ERR et DERR ont un coût de dimensionnement similaires, et que celui-ci est bien inférieur au coût des méthodes conventionnelles de la littérature. La difficulté de cette méthode réside dans la distinction des demandes perturbées et non perturbées. En effet, pour le scénario de panne, on considère une demande perturbée 29

44 si <h où h Journée des Doctorants Heudiasyc 23 juin 2015 représente le volume des demandes dans la situation de panne, représente les flots et l ensemble des chemins non perturbés. Ainsi, une demande ayant des chemins perturbés peut être considérée comme non perturbé. La méthode de résolution du problème de minimisation du coût du réseau est donc basée sur un branch-and-bound couplé à un algorithme de génération de chemins. Afin de pouvoir analyser les performances de cette solution pour de petites instances, un modèle exact, utilisant des variables binaires, est présenté dans [7]. [1] et [2] soumis dans les revues. Aussi, un papier invité est à rédiger pour la conférence RNDM-15 (Octobre 2015). Cette dernière étape de la thèse sera aussi le moment d approfondir une méthode de résolution de FT et EFR basé sur la génération de contraintes. Remerciements Cette thèse est réalisée dans la cadre du Labex MS2T, et financée par le Ministère de l Enseignement Supérieur et de la Recherche (MESR). B. Pannes partielles EFR s applique, elle, aux pannes totales et partielles. Dans le cas d une panne partielle, les flots des chemins passant par les liens en panne sont gérés en utilisant FT. Une fois les flots diminués ou non, les demandes peuvent être considérées comme perturbé ou non. Cette stratégie permet un coût de dimensionnement bien inférieur à FT tout en évitant une propagation de la panne aux demandes non affectées contrairement à Flow Adjustement. De plus, en termes de temps de restauration, la méthode EFR donne des résultats très encourageants (voir [1]). V. RESULTATS Les deux méthodes ont des coups de dimensionnement acceptables. FT est plus adaptés aux pannes légères (le coût de reroutage augmente fortement au-delà d une perte de 75% de la capacité des liens). Toutefois, EFR est capable de gérer aussi bien les pannes légères que les pannes totales. Au niveau du temps de reroutage, ces stratégies sont plus rapides que les stratégies de la littérature étudiée. Aujourd hui, les pannes partielles sont principalement «gérées» par des algorithmes anti-congestion. Aucun reroutage n est effectué mais les flots perturbés, et uniquement ces flots, sont modifiés. Sur la Figure 1, on peut comparer le mécanisme de gestion des congestions de TCP avec FT et EFR. On remarque que FT et EFR sont des stratégies dites de protection ; le coût de dimensionnement est donc plus élevé. Toutefois, en cas de panne, la stabilité du réseau revient plus rapidement que pour TCP qui gère principalement la fenêtre d envoi des paquets. Fig. 1. Available bandwidth in a network after a failure VI. PERSPECTIVES La fin de la thèse approchant, l objectif principal sera la rédaction du mémoire de thèse ainsi que la gestion des articles Articles de Revue Publications [1] Y. Fouquet, D. Nace, M. Pióro, M. Poss and M. Zotkiewicz, Generalized Elastic Flow Rerouting Scheme, Networks (soumis). [2] M. Pióro, Y. Fouquet, D. Nace, M. Poss, Optimizing flow thinning protection in multicommodity networks with variable link capacity, Operations Research (soumis). [3] I. Shinko, Y. Fouquet and D. Nace, Elastic routing for survivable networks, International Journal of Grid and Utility Computing (IJGUC), Vol. 6, No. 2, Papiers Invités [4] Y. Fouquet and D. Nace, Elastic Flow Rerouting a complexity study, 7 th IFIP International Conference on New Technologies, Mobility and Security (NTMS-15), Juillet 2014, Paris, France. [5] Y. Fouquet, D. Nace, M. Pióro, M. Poss and M. Zotkiewicz, Flow adjustment methods for survivable networks, 16 th International Telecommunications Network Strategy and Planning Symposium (NETWORKS-14), Funchal, Île de Madère, Portugal. Conférence internationale avec actes [6] Y. Fouquet, D. Nace, M. Pióro and M. Poss, Elastic Flow Rerouting : a novel rerouting strategy resilient to multiple partial link failures, 7 th International Network Optimization Conference (INOC-15), Mai 2015, Varsovie, Pologne. [7] Y. Fouquet, D. Nace, M. Pióro, M. Poss and M. Zotkiewicz, Elastic routing: models and resolution methods, 6 th International Workshop on Reliable Networks Design and Modeling (RNDM-14), Novembre 2014, Barcelone, Espagne. [8] Y. Fouquet, D. Nace, M. Pióro and M. Poss, Flow Adjustment a flexible routing strategy for demand protection against multiple partial link failures, 4 th International Conference on Advanced Communications and Computation (INFOCOMP-14), Juillet 2014, Paris, France. [9] M. Pióro, Y. Fouquet, D. Nace, M. Poss and M. Zotkiewicz, An optimization model for communication networks resilient to multiple partial link failures, 12 th INFORMS Telecommunications Conference (INFORMS Telecom-14), 2-4 Mars 2014, Lisbonne, Portugal. [10] M. Pióro, D. Nace and Y. Fouquet, An optimization model for multicommodity flow networks with partial multiple link failures, Best Paper Award, 5 th International Workshop on Reliable Networks Design and Modeling (RNDM-13), Septembre 2013, Almaty, Kazakhstan. [11] Y. Fouquet, D. Nace, M. Pióro and I. Shinko, Elastic routing scheme: Distributed variant, implementation issues and numerical results. 8 th International Conference on Broadband, Wireless Computing, Communication and Applications (3PGCIC-13), Octobre 2013, Compiègne, France. [12] M. Pióro, D. Nace and Y. Fouquet, On protected traffic routing in wireless networks with partial multiple link failures, 8 th International Conference on P2P, Parallel, Grid, Cloud and Internet Computing (BWCCA-13), Octobre 2013, Compiègne, France. [13] I. Shinko, Y. Fouquet and D. Nace, A study on a distributed rerouting scheme, 27 th IEEE International Conference on Advanced Information Networking and Applications (AINA-13), Mars 2013, Barcelone, Espagne. 30

45 Interaction gestuelle et guidage adaptatif : application au geste d écriture Rémy Frenoy Directeurs de thèse : Indira Thouvenin, Olivier Gapenne Équipe : ICI Résumé Les environnements d apprentissage permettant de s adapter à l utilisateur se basent sur des données directement interprétables, et suivent un ensemble de faits et de règles ne pouvant évoluer. La capture du geste d écriture offre des données numériques qui nécessitent d être traitées afin de permettre leur interprétation. L environnement doit, si l on suit les théories de l apprentissage de capacités motrices, continuellement s adapter à des facteurs fortement dépendants de chaque apprenant. Il s agit ici de proposer un environnement permettant d interpréter des données numériques et d inclure l apprenant dans la boucle de décision pour fournir un retour personnalisé. I. CONTEXTE Il s agit d une thèse financée par le collegium et s inscrivant dans le cadre du projet Descript, financé par la région Picardie, qui propose de concevoir et développer un environnement d'apprentissage de l'écriture et de création de nouvelles écritures et typographies. Les tuteurs intelligents [1] étudient la représentation de l apprenant et de son apprentissage pour lui fournir des retours adaptés. Les environnements virtuels de formation, et notamment les environnements de formation au geste [2], suivent une approche sensorimotrice et étudient l impact de différentes configurations de retours sur l apprentissage. II. OBJECTIFS Nos objectifs se basent sur deux constats : Les environnements actuels d apprentissage de l écriture ont étudié l impact des modalités du guidage sur l apprentissage [3], mais ne s adaptent pas à l apprenant. D une part, cela peut causer une dépendance à l environnement d apprentissage 1, et d autre part cela ne permet pas l analyse précise des différentes composantes de l apprentissage. Les tuteurs intelligents permettent des retours adaptés à l apprenant grâce à une représentation de celui-ci (de son activité, de son état cognitif), et en se basant sur des théories de l apprentissage. Les tuteurs intelligents utilisent des données exactes, bien qu un certain degré d incertitude puisse exister [4]. En outre, les données collectées par les tuteurs intelligents «classiques» sont directement interprétables (e.g. des résultats d algèbre). Des données relatives à un geste tel que celui d écriture nécessitent a contrario un traitement complexe impliquant une contrainte temps réel. La problématique de ce travail est donc de représenter l apprenant dans le cadre de l apprentissage du geste d écriture. L enjeu, ici, est de transformer des données numériques capturées depuis l interaction entre l apprenant et l EA, en connaissances symboliques à partir desquelles l environnement pourra choisir un feedback adapté à l utilisateur. Cette adaptation ne pourra se faire, comme dans la majorité des tuteurs intelligents, depuis le respect de règles prédéfinies. En effet, les contraintes liées au geste d écriture (variabilité intra et inter-personnelle, bruit) ainsi que la complexité des processus sous-jacents doivent être pris en compte dans l élaboration du module de décision. Nous nous plaçons ainsi dans l approche située de l apprentissage et de l interaction, c est à dire que nous pensons que l apprentissage, et les connaissances, ne peuvent être définies uniquement à l aide de descripteurs et d un ensemble de faits et de règles. Pour permettre à l environnement de faire évoluer sa décision tout au long de son interaction avec l apprenant, nous proposons une approche permettant à l apprenant de commenter l évolution de l environnement (le fruit de la décision) et de faire évoluer le processus de décision suite à ces commentaires. Ainsi, et contrairement aux tuteurs intelligents classiques, la décision de notre environnement est remise en cause à chaque intervention de l apprenant. La décision devient évolutive, et prend en compte les caractéristiques propres de l apprenant (niveau, sensibilité à un certain type de feedback). Cette inclusion de l humain dans la boucle de décision est étudiée ces dernières années, notamment dans le cadre de l intelligence artificielle enactive [5]. L émergence d interfaces engageant la gestualité (Kinect, WiiMote) et l essor des environnements virtuels permettent une grande variété d interactions gestuelles. La valorisation en connaissances capitalisables d une interaction proposant une forte variabilité intra et inter-personnelle est donc un enjeu essentiel qui permettrait, en dehors même du cadre de l apprentissage, de proposer des interactions situées prenant davantage en compte l état de l utilisateur. III. AVANCEMENT A. Le geste d écriture Nous considérons l activité d écriture suivant quatre axes : le rythme, la forme, la régularité et l apprentissage. Le choix de ces axes correspond à la direction prise par le projet de se diriger vers un apprentissage gestuel minimal plutôt que vers l apprentissage de modèles complexes. 1 Abbrévié EA dans la suite du document. 31

46 B. Capture Les données online sont principalement capturées depuis des tables tactiles, et nous avons choisi la table Wacom pour ce projet (Fig. 1). Oculus Rift Visualisation Décision Capture online Reconnaissance Table Wacom Fig. 1. La boucle d interaction apprenant/environnement d apprentissage C. Reconnaissance La reconnaissance de geste [6] se base classiquement sur des méthodes par correspondance (k plus proches voisins, dynamic time warping) permettant de travailler sur de petites quantités de données étiquetées, ou des méthodes par apprentissage (modèles de Markov cachés, réseaux de neurones, SVM) permettant un apprentissage mais nécessitant de plus grandes quantité de données d entraînement. Considérant la taille des données que nous pourrons étiqueter, et compte tenu des contraintes liées au geste d écriture (variation de vitesse), il apparaît que le Dynamic Time Warping nous permet à la fois de travailler sur de petites quantités de données et de considérer le geste indépendamment de possibles variations de vitesse. L utilisation d une méthode des k plus proches voisins utilisant le DTW comme mesure de similarité pourra permettre d éviter des erreurs liées à des classes mélangées. D. Représentation Nous définissons l interaction entre un apprenant et un EA comme engageant deux types d agents : l agent humain apprenant, et l agent virtuel feedback. L agent apprenant modifie son action par rapport à sa perception de son action dans l environnement, et l environnement décide du feedback à fournir à l apprenant. Cette coévolution crée une boucle d interaction apprenant/ea. Nous représentons ces agents dans un espace en 4 dimensions : rythme, forme, régularité, apprentissage. Un agent apprenant est positionné par rapport au résultat du modèle de reconnaissance, chaque coordonnée représentant le niveau de l apprenant par rapport à cette dimension. Exemple : Un apprenant ayant un geste reconnu comme ayant un bon rythme, mais une mauvaise forme aura une coordonnée élevée sur la dimension rythme et nulle sur la dimension forme. Un agent feedback est positionné sur l espace par rapport à sa pertinence supposée dans la situation correspondant à sa position. Nous choisissons par exemple que le feedback jugé le plus pertinent pour un apprenant totalement novice sera positionné aux coordonnées (0, 0, 0, 0). E. Décision L agent feedback le plus proche de l agent apprenant étant considéré comme le plus pertinent, la décision revient à trouver l agent feedback Fj qui minimise la distance euclidienne d(a, Fk), A étant l agent apprenant et F1, F2,, Fk l ensemble des agents feedbacks. La position de l agent apprenant étant mise à jour à chaque itération par le module de reconnaissance, cet environnement de représentation et de décision peut être assimilé à une base de règles et une base de faits, la base de faits regroupant les positions des agents apprenant, et la base de règles la position des agents feedbacks et le choix de la mesure de similarité. IV. PERSPECTIVES Pour rendre la décision évolutive, nous recalculons la position du dernier feedback proposé en prenant en compte le retour de l apprenant par rapport à l état actuel de l EA. Un retour positif de l apprenant vis-à-vis de l environnement maintiendra la position courante de l agent feedback, alors qu un retour négatif (trop difficile, peu compréhensible) provoquera son repositionnement vers des coordonnées représentant plus précisément, à cet instant, l apport potentiel de ce feedback. Il sera pour cela nécessaire de définir les heuristiques de décision permettant le repositionnement d un agent feedback. Nous envisageons de publier dans les conférences portant sur les environnements virtuels et augmentés (AFRV, IEEE VR, ACM VRST, ISMAR), les interactions et les systèmes intelligents (ICIS, SIGGRAPH, IJCAI). V. PUBLICATIONS Les travaux actuels ont été publiés dans le cadre des journées de l AFRV 2014 [7] et du doctoral consortium IEEE VR 2015 [8]. References [1] D. Sleeman and J.S. Brown, Intelligent tutoring systems. London: Academic Press, [2] C. L. Teo, E. Burdet, and H. P. Lim, A robotic teacher of Chinese handwriting, in Haptic Interfaces for Virtual Environment and Teleoperator Systems, HAPTICS Proceedings. 10th Symposium on, 2002, pp [3] J. Danna and J.-L. Velay, Basic and supplementary sensory feedback in handwriting, Front. Psychol., vol. 6, Feb [4] P. Brusilovsky and E. Millán, User models for adaptive hypermedia and adaptive educational systems, in The adaptive web, Springer- Verlag, 2007, pp [5] P. De Loor, M. Kristen, and J. Tisseau, Intelligence Artificielle Basée sur l Enaction: et si l homme était dans la boucle?, 2013.K. Elissa, Title of paper if known, unpublished. [6] S. Mitra and T. Acharya, Gesture Recognition: A Survey, IEEE Trans. Syst. Man Cybern. Part C Appl. Rev., vol. 37, no. 3, pp , May [7] R. Frenoy, I. Thouvenin, and O. Gapenne, Handwriting learning systems: Towards an adaptation model in virtual environments, in 9èmes journées de l Association Française de Réalité Virtuelle, Augmentée, Mixte et d Interaction 3D, [8] R. Frenoy, I. Thouvenin, and O. Gapenne, How can we learn handwriting in a virtual environment?, presented at the Doctoral Consortium IEEE VR

47 Capitalisation des connaissances dans une architecture orientée services Marcio FUCKNER Directeur de thèse : Jean-Paul BARTHES Équipe : ICI Résumé Le modèle contractuel SOA basé sur une syntaxe restreinte est efficace dans des situations où le but est bien défini et la cohésion entre les composants logiciels est grande. Toutefois il est limité dans des situations dynamiques, comme dans l interaction humain-ordinateur, par exemple, utilisant le langage naturel. Cette proposition a pour but de créer une méthode de découverte, composition et exécution de services (processus métier) utilisant une architecture multi-agent dotée d une interface humain-ordinateur adaptative. I. INTRODUCTION Ces dernières années, l architecture orientée services (SOA) a promu des transformations significatives dans l industrie du logiciel. Ce modèle conceptuel a pour but de construire des architectures plus souples et ouvertes, en facilitant l intégration entre les applications. Les technologies qui concourrent à la construction de services Web (WS) et les divers modèles concernés contribuent à obtenir un degré élevé d interopérabilité, en plus permet d une standardisation des méthodes de construction de logiciel et des outils [1]. Ce modèle contractuel basé sur une syntaxe restreinte est efficace pour des scénarios où le but est bien défini et la cohésion entre les composantes est élevée [2]. D un autre côté, les problèmes qui doivent être résolus dans des contextes peuplés d informations incomplètes et contradictoires, comme celles qui sont présentes dans les phrases en langage naturel, font en sorte que le modèle typique de SOA est insuffisant. En outre, diverses entreprises travaillent pour améliorer les interfaces utilisateurs pour les rendre plus intuitives et plus naturelles. Un exemple de ce comportement peut être observé dans un article de la revue MIT Technical Review Magazine [3]: Une banque internationale révèle qu approximativement 65% du temps de ses employés d agence est utilisé pour fournir des informations sur des produits et des services. Un assistant personnel installé sur l internet banking peut réduire la charge de travail des employés en utilisant un assistant qui répond à des questions du genre : Où en sont mes investissements aujourd'hui? ou Est-ce que je dois les placer dans des fonds d investissement ou en bourse?. Ceci est une proposition de recherche appliquée qui se trouve en sa quatrième révision et qui a pour objectif de créer un cadre de découverte, composition et exécution de services (processus métier) en utilisant des phrases en langage naturel. On fera usage de techniques multidisciplinaires pour le développement d assistants personnels qui seront à la base de la construction du modèle proposé. A. Objectifs Développer une méthode qui utilise le langage écrit ou parlé et les descripteurs de services comme recours pour la découverte, composition et exécution de services. Utiliser les interactions entre l utilisateur et le service comme recours pour améliorer l assertivité. B. Financement Le doctorant est inscrit à l Université de Technologie de Compiègne, au laboratoire Heudiasyc, sous la direction du professeur Jean-Paul Barthès. L étudiant est boursier du programme «Ciência Sem Fronteiras» (Science Sans Frontières), sous la direction du CNPQ (Conseil National de Développement Scientifique et Technologique). Numéro do procès / II. ACTIVITÉS L objectif de cette section est de présenter un résumé des activités développées pendant la période du mois de mai 2014 au mois de avril Toutes les activités sont suivies dans des réunions de travail hebdomadaires avec le directeur de thèse, et avec d éventuelles participations d autres membres du laboratoire ICI. A. Publications En 2014, l article Using a Personal Assistant for Exploiting Service Interfaces a été présenté dans la 18ème édition de l International Conference on Computer Supported Cooperative Work in Design (CSCWD). En 2014, l article Conversation à base des modèles pour l'exécution des processus métier a été présenté dans la 22ème Journée Francophone sur les Systèmes Multi-Agents. En 2015, l article Selecting and combining services using goals: A step towards goal-driven processes a été présenté dans le 19 ème édition de l International Conference on Computer Supported Cooperative Work in Design (CSCWD). En 2015, l article Ontocodesign : An exercise in using agents to cooperatively develop a CSCWD ontology a été présenté dans le 19 ème édition de l International Conference on Computer Supported Cooperative Work in Design (CSCWD). En 15 juin 2015, une version étendu de l article Selecting and combining services using goals: A step towards goal-driven 33

48 processes sera envoyé au IEEE Transactions on Service Computing. B. Construction du demonstrateur OMAS-BPM OMAS-BPM est un prototype / démonstrateur, résultats de la recherche du doctorant. En résume, OMAS-BPM permet l'exécution des processus métiers à l aide des assistants personnels dans un environnement multi-agents. Dans ce contexte, chaque utilisateur a son propre assistant personnel. L assistant est responsable de l'interprétation de l'objectif de son maître et de mener à bien l'exécution d'un ou de plusieurs processus métiers qui permettent d'atteindre entièrement ou partiellement cet objectif. Le prototype permet aux utilisateurs d'entrer leurs objectifs dans un langage naturel contrôlé. L'assistant personnel crée un objectif formel à partir d une phrase, et recherche un ou plusieurs processus métier ou un ou plusieurs services, ce qui conduit à un plan pour l'exécution correspondante. Ce plan est réévalué à chaque étape. Les expériences liées à la formalisation des processus métiers, la modélisation des agents et la formalisation des objectifs sont développées dans les articles suivants: Using Personal Assistant Dialogs for Automatic Web Service Discovery and Execution Web service discovery and execution using a dialog-based approach Using a Personal Assistant for Exploiting Service Interfaces Selecting and combining services using goals: A step towards goal-driven processes Certains processus métier dépendent de l'intervention d'autres acteurs (par exemple, un chercheur qui veut s inscrire à une conférence doit louer une voiture et réserver un hôtel. Avant de confirmer ces actions, son gestionnaire doit intervenir, acceptant ou rejetant la demande). Dans ce scénario, le système multi-agent identifie l'intervention nécessaire du supérieur immédiat, et une négociation avec ses assistants personnels débute. Les expériences de ce module peuvent être trouvées dans l article Conversation à base des modèles pour l'exécution des processus métier. Le prototype est en cours de développement à l aide de OMAS, une plateforme multi-agents, qui découle de plusieurs projets de recherche et d enseignement à l'utc [4]. La plateforme permet de résoudre des problèmes d architecture, de compétence (skill), de protocoles d interaction, d ontologies et de dialogues en langage naturel. D. HDSLAB Cette activité avait pour but de créer une approche orientée vers des ontologies pour un traitement de dialogues en langage naturel. Une base de connaissance sémantique a été développée en utilisant diverses sources de données de projets en cours du laboratoire Heudiasyc. Cette base de connaissance est consultée par des assistants personnels qui interagissent avec l utilisateur grâce à des phrases en langage naturel, et qui communiquent avec des agents spécialisés pour l exécution de services de consultation. E. Activités de enseignement Le doctorant a été invité en 2014 pour superviser les TD de l UV NF 28, Génie des Systèmes Interactifs. Le cours porte sur le développement d'interfaces homme-machine et permet d'étudier les méthodes et les outils utilisés pour la conception, le développement et l'évaluation de systèmes interactifs. Il traite principalement des interfaces graphiques et les projets proposées mettent en œuvre des formes plus avancées d interaction homme-machine (interfaces tactiles, par gestes, voix, etc.). Le doctorant a également été invité à enseigner un cours intitulé Développement Web Enterprise à l École Supérieure d'ingénieurs en Génie Electrique (ESIGELEC) à Rouen. L invitation a été lancée par le département des relations internationales à l'université Catholique de Paraná, qui a un accord avec l'esigelec. Le contenu est lié au développement d'applications pour les entreprises. III. PERSPECTIVES Les activités développées pendant la période sont conformes au planning initialement proposé. Les efforts ont été concentrés sur la création d une approche permettant d exécuter des processus d'affaires (services composites) à l'aide d'un agent assistant personnel. L approche consiste à favoriser les organisations qui ont un ensemble de services déjà installés et qui veulent profiter de l'utilisation de ces services à l aide d une interface naturelle pour effectuer des tâches compliquées sans avoir à mémoriser des commandes complexes ou de configurer les interfaces. Pour le moment, le doctorant travaille à améliorer l'approche dans les aspects suivants : (i) orchestration des processus d affaires orientés service, (ii) résoudre les références au cours de l'exécution des processus et (iii) autoriser la collaboration entre les différents agents personnels pendant l orchestration d un processus métier. References C. Proposition de projets de recherche Le doctorant a participé au développement d une proposition de projet de recherche Europe/Brésil, envoyée au Programme Horizon 2020 en avril/2015. Il a aussi participé au développement d une autre proposition de projet Industriel envoyée à la Région Picardie (Industrilab) en avril/2015. [1] S. A. McIlraith and T. C. Son and H. Zeng. Semantic Web Services. IEEE Intelligent Systems, 16(2):46-53, [2] M. Roman and R. Campbell. A middleware-based application framework for active space applications. International Conference on Middleware, , [3] T. Simonite. Siri's new cousin works as a bank teller. MIT Technology Review - Business Report - The Future of Work. Available at [4] J-P. A. Barthès. OMAS - a flexible multi-agent environment for CSCWD. Future Generation Computer Systems, 27(1):78-87,

49 Learning High-level Representations of Large-scale Sparse Tensors GARCIA-DURAN Alberto Directeurs de thèse : Antoine Bordes, Yves Grandvalet Équipe : DI Abstract This documents provides an overview of the context, goals, works carried out so far and work in progress. This thesis tackles the problem of endogenous link prediction for Knowledge Base (KB) completion by learning latent feature representations for all the elements involved in the KB. profession Jared Leto Actor Singer Bono I. CONTEXT AND GOALS OF THE THESIS EVEREST is a 3 years ANR research project, which started in 2013, with Antoine Bordes as principal investigator, and collaboration with other members of the CNRS and the Xerox Research Center Europe (XRCE). After the departure of A. Bordes, Sebastien Destercke became the main responsable of the project. Fig. 1. Frank Sinatra Example of toy KB Michael Buble The project aims at learning new representations of sparse tensors. These tensors contain structured and relational information shaped as triples: (head, label, tail) These knowledge bases (KB) can be formalized as directed multi-relational graphs, whose nodes correspond to entities connected with edges encoding various kind of relationship. Hence, one can also refer to them as multi-relational data. These databases are crucial tools to deal with the rise of data, since they provide ways to organize, manage and retrieve all digital knowledge. These data are not only present in KBs but also in recommender systems, where the modes would correspond to users and products and edges to different relationships between them, or in social networks for instance. A main issue with KBs is that they are far from being complete. For instance, Freebase (a huge collaborative KB which belongs to the Google Knowledge Graph) currently contains thousands of relationships and millions of entities, leading to billions of facts, but this remains only a very small portion out of all the human knowledge. Consequently, huge efforts are devoted nowadays towards KB construction or completion, via manual or automatic processes, or a mix of both. Performing link prediction can be formalized as filling in incomplete triples like (head, label,?) or (?, label, tail) by predicting the missing argument of the triple when such triple does not exist in the KB. For instance, given the small example KB of Figure 1, made of 6 entities and 2 relationships, and containing facts like (Jared Leto, influenced by, Bono) or (Michale Buble, profession, singer), we would like to able to predict new links suchs as (Frank Sinatra, profession, singer), by using the fact that he influenced the singer Michael Buble. Though there exists (pseudo-) symbolic approaches for link prediction based on Markov-logic networks [1] or random walks [2], learning latent features representations of KBs [3] [4] -the so-called embedding methods- have recently proved to be more efficient for performing link prediction. The works of this thesis are framed in this last approach. For more detailed information concerning the project, please visit the website www. hds.utc.fr/everest II. PROGRESS In all the previous embedding models, entities are represented by low-dimensional vectors - the embeddings - and relationships act as operators on them: both embeddings and operators define a scoring function that is learned so that triples observed in the KBs have higher scores than unobserved ones. The embeddings are meant to capture underlying features that should eventually allow to create new links successfully. The scoring function is used to predict new links: the higher the score, the more likely a triple is to be true. Embedding models can be classified according to the interactions that they use to encode the validity of a triple in their scoring function. If the joint interaction between the head, the label and the tail is used then we are dealing with a 3-way model; but when the binary interactions between the head and the tail, the head and the label, and the label and the tail are the core of the model, then it is a 2-way model. Both kinds of models represent the entities as vectors, but they differ in the way they model the relationships: 3-way 35

50 models generally use matrices, whereas 2-way models use vectors. This difference in the capacity leads to a difference in the expressiveness of the models. Capacity is not the only difference between 2- and 3-way models, the information encoded by these two models is also different. In [5], we proposed a 2-way model -called TransEwhere the relationships are represented as translations in the embedding space: if (h, l, t) holds, then the embedding of the tail t should be close to the embedding of head h plus some vector that depends on the label l. This is a natural approach to model hierarchical and asymmetric relationships. Due to its simplicity and performance, it has been one of the most successful and referenced work. Later in [6] [7], we proposed TATEC: a model that encompass previous works by combining well-controlled 2-way interactions (Bigrams) with high-capacity 3-way ones (Trigram). We aim at capturing data patterns of both approaches by separately pre-training the embeddings of 2-way and 3-way models and using different embedding spaces for each of the two of them. We presented several variants of this model with different kinds of regularization and combination strategies and showed that this approach outperforms existing methods on different types of relationships by achieving state-of-the-art results on four benchmarks of the literature. These variants are meant to prove the importance of pre-training and the fact of not sharing the embedding space the 2- and 3-way interactions (another point of view could consist of considering a single embedding space, where we impose orthogonality constraints when learning the parameters). Besides, we show a variant which is based on a linear combination (TATEC-LC) of the interaction terms in such a way that it weights the importance of each interaction term on each relationship, allowing to reduce the influence of a specific detrimental term on a certain relationship. Table I shows the results of these models on two data sets of the literature. For evaluation on it, we used a ranking metric. The head of each test triple is replaced by each of the entities of the dictionary in turn, and the score is computed for each of them. These scores are sorted in descending order and the rank of the correct entity is stored. The same procedure is repeated when removing the tail instead of the head. The mean of these ranks is the mean rank, and the proportion of correct entities ranked in the top x is the III. WORK IN PROGRESS A big limitation we have observed in these models is that they mainly work when the symmetrical triple exists in the learning stage, otherwise they perform poorly. For instance, /film/film/subjects and /film/film subject/films, or /music/album/genre and /music/genre/albums are examples of symmetrical triples in Freebase. That indicates that when the symmetrical triple does not exist in the training set, then the models tend to pick one entity at random of the expected type (a country, a movie, a celebrity...). TABLE I. RESULTS ON TWO DATA SETS Data FB15k SVO Mean Rank Mean Rank TransE TATEC TATEC-LC Bigrams Trigram We are working on a model which aims at capturing logic of the type if (Paris, people born here, Juliette Binoche) and (Juliette Binoche, nationality, France), then (Paris, city of, France) by means of recurrent neural networks (RNNs). In this context, we concatenate sequences of triples in such a way that we would be looking for similar representations of the sequence (Paris, people born here, nationality) and (Paris, city of). If the equivalence city of = people born here + nationality holds most of the time, then we should get a similar representation and it would help in the prediction of that relationship even if we do not have the symmetrical triple (France, has city, Paris) in the training set. The first results that we are obtaining are very promising. IV. PLANNING My contract expires at April 2016, so it means that I am supposed to defend the thesis before summer In the short time I will be working in the LISA Lab for around 4 months. This is a pioneer lab on deep learning, which could mean a leap forward in my work. Back in France at the end of the year with the works carried out so far, I will start writing the thesis. V. CONCLUSION REFERENCES [1] Kok, S., and Domingos, P. (2007). Statistical predicate invention. In Proceedings of the 24th international conference on Machine learning, ICML Äô07, pp. 433 Äì440. [2] Lao, N., Mitchell, T., and Cohen, W. W. (2011). Random walk inference and learning in a large scale knowledge base. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 529 Äì539. Association for Computational Linguistics. [3] Wang, Z., Zhang, J., Feng, J., and Chen, Z. (2014). Knowledge graph embedding by translating on hyperplanes. In Proceedings of the Twenty- Eighth AAAI Conference on Artificial Intelligence, pp Äì1119. [4] Yang, B., Yih, W.-t., He, X., Gao, J., and Deng, L. (2014). Learning multi-relational semantics using neural-embedding models. CoRR, abs/ [5] Bordes, A., Usunier, N., Garcia-Duran, A., Weston, J., and Yakhnenko, O. (2013). Translating embeddings for modeling multi-relational data. In Advances in Neural Information Processing Systems, pp Äì2795. [6] Garcia-Duran, A., Bordes, A., and Usunier, N. (2014). Effective blending of two and three- way interactions for modeling multi-relational data. In ECML PKDD Springer Berlin Heidelberg. [7] Garcia-Duran, A., Bordes, A., Usunier, N. and Grandvalet Y. (2015). Combining Two And Three-Way Embeddings Models for Link Prediction in Knowledge Bases. Submitted to Journal of Artificial Intelligence Research. 36

51 Apprentissage multi-label pour l'analyse de données Bilal GRINE Directeurs de thèse : Yves GRANDVALET, Fahed ABDALLAH et Hichem OMRANI Équipe : DI Résumé : La classification multi-label est une forme d'apprentissage supervisé qui a reçu beaucoup d'attention au cours de ces dernières années. Elle apprend d'un ensemble d'instances, chacune associée à un ensemble d'étiquettes (labels), afin de prédire les jeux d étiquettes pour les instances de l'ensemble de test. Aujourd'hui, les méthodes de la classification multi-label sont de plus en plus exigées par des applications diverses et variées du monde réel, telles que la classification de protéine, la catégorisation de musique et la prédiction de l'occupation des sols. MOTE-CLÉS : Apprentissage, classification multi-label, données déséquilibrées, occupation des sols, combinaison de classifieurs. I. CONTEXTE ET OBJECTIF Cette thèse est réalisée au sein du laboratoire Heudiasyc de l Université de Technologie de Compiègne depuis octobre Elle est dirigée par Yves GRANDVALET et co-encadrée par Fahed ABDALLAH et Hichem OMRANI. Elle est financée par la gouvernement algérien. L'objectif de cette thèse est le développement et l'implémentation d'algorithmes d'apprentissage pour la classification multi-label afin de traiter des données d'occupation des sols qui représentent une grosse masse de données déséquilibrées. Il s'agit dans un premier lieu d'adopter le concept multi-label pour modéliser le changement de l'occupation des sols. En second lieu, d'étudier et d appliquer les différents algorithmes de multilabel existants sur divers jeux de données (par ex.: Scene, Yeast, Emotions et Mediamill, ) 1, en plus des données de l'occupation des sols. Puis, on va travailler sur l'amélioration de certains algorithmes (en particulier les méthodes MLkNN et Rank-Svm), et examiner la combinaison de ces méthodes (classifieurs) multi-labels dans le cadre de la théorie des probabilités, des possibilités et des croyances. Enfin, on travaillera sur le problème de données volumineuses (plus connus sous le nom de «Big data» ), ainsi que les données avec des classes déséquilibrées. II. INTRODUCTION Au cours des deux dernières décennies, plusieurs modèles ont été appliqués pour comprendre et prédire l'étalement urbain. Cependant, jusqu à aujourd'hui, seules les méthodes d'apprentissage classiques (mono-labels) ont été appliquées pour la modélisation de l'étalement urbain ou chaque unité spatiale a une seule classe à la fois (urbaine ou industrielle). Le problème de l'utilisation des méthodes traditionnelles d'apprentissage mono-label est l'usage de la 1 Téléchargé de puis classe majoritaire au sein de chaque cellule pour prédire le changement d'occupation des sols. Cependant, dans le cas général, les cellules sont souvent associées à un ensemble de classes disjointes. Le concept standard mono-label (binaire ou multi-classe, où les classes sont mutuellement exclusives) est un cas particulier du concept multi-label ou chaque cellule pourrait avoir plusieurs classes à la fois (les classes ne sont pas mutuellement exclusives). Le résultat de la modélisation mono-label est partiel et incomplet puisque, seulement la classe majoritaire est prise en compte. Par conséquent, il existe un besoin pour l'amélioration des modèles existants d'occupation des sols (parmi d'autres applications). Une amélioration possible est l'utilisation du concept multi-label qui permet bel et bien de modéliser l'utilisation mixte des sols. Ce concept multi-label comparé au mono-label, offre une approche adéquate qui n'écarte aucune évolution de l'occupation des sols [1]. Plusieurs applications ont montré que l'affectation multi-label est utile pour la modélisation complexe des phénomènes écologiques/environnementaux, car elle peut fournir de meilleures interprétations et des prévisions plus précises par rapport à l'affectation mono-label [2]. III. AVANCEMENT DES TRAVAUX La première partie de cette thèse a été consacrée à l étude de la littérature et à la recherche bibliographique qui nous a permis de mieux cerner ce domaine de recherche. Nous avons commencé par rechercher les différents types d apprentissage à savoir : l apprentissage supervisé et l apprentissage non supervisé. Puis nous nous sommes focalisés sur le domaine la classification multi-label afin d étudier les différents algorithmes existants. Selon [3,4] nous pouvons regrouper les méthodes de classification multi-label existantes en deux grandes familles. La première famille de méthodes consiste à transformer le problème de classification multi-label en plusieurs problèmes de classification mono-label (par ex.: Rakel [8], binary relevance [9]). La seconde famille de méthodes s appuie sur les algorithmes de classification mono-label pour les adapter au cas multi-label (arbres de décision, supports à vaste marge, réseaux de neurone, MLknn [5] ou Rank-svm [6], ). La deuxième partie porte sur l étude des différentes techniques de combinaisons de classificateurs avec pour objectif d améliorer le taux de la reconnaissance statiques et dynamiques [7]. Nous avons constaté que la sélection des classifieurs ayant les performances les plus élevées n'est pas forcément la bonne solution pour aboutir au meilleur résultat. La troisième partie de notre travail s intéresse à classifier des données déséquilibrées [13], (en anglais class imbalance problem ), où les différentes classes ne sont pas 37

52 représentées d'une manière équilibrée dans la base d'apprentissage. Ce déséquilibre de classe influe négativement les différents critères d'évaluation des algorithmes alors que les méthodes standards de classification nécessitent souvent que les données soient équilibrées. Donc, ce type de données est devenu un vrai challenge dans le domaine de classification multi-label. Les méthodes standards sont basées sur deux principes, dont le premier est la minimisation d'erreur et le second est que la base d'apprentissage doit être conforme à la distribution des classes initiales. Ces deux principes ne sont pas satisfaits quand les données sont déséquilibrées [10,11]. Il existe deux stratégies d échantillonnage : le sous-échantillonnage et le sur-échantillonnage. Le sous-échantillonnage consiste à supprimer aléatoirement des observations de la classe majoritaire dans la base d apprentissage pour rééquilibrer le jeu de données. L inconvénient de cette méthode est le risque d ignorer des observations représentatives de la classe majoritaire. Quant à la deuxième stratégie, elle comporte à répliquer aléatoirement le nombre des observations de la classe minoritaire [12]. L inconvénient de cette stratégie est de réduire les performances des algorithmes, tout en fournissant des modèles incapables de généraliser (sur-apprentissage). Plusieurs algorithmes sont inspirés de ces deux stratégies, tels que: SMOTE, SMOTEBost [12,13], Neighbourhood Cleaning Rule [14] IV. EXPÉRIMENTATION ET DISCUSSION DES RESULTATS Après l étude bibliographique, nous proposons deux algorithmes, le premier est un algorithme de clustering de données multi-label basé sur l algorithme k-means dont le but est de regrouper les labels en plusieurs groupes/clusters. Après, on applique des algorithmes de classification multilabel sur chaque cluster. Pour tester la réussite de notre algorithme, nous faisons une étude comparative entre les résultats obtenus par d autres approches proposées dans la littérature, pour traiter les problèmes de classification multilabel sur plusieurs bases des données multi-label connus et de taille différents disponible dans la librairie MULAN 2. À partir des résultats obtenus par cet algorithme on constate que notre proposition (méthode hybride: clustering avant la phase d apprentissage) améliore significativement les performances (métriques d évaluations : précision, Hloss, rappel, F-mesure) de toutes les méthodes utilisées durant l expérimentation. Le deuxième algorithme proposé pour le ré-échantillonnage de bases de données déséquilibrées est basé sur la stratégie de sous-échantillonnage. L idée de cet algorithme consiste à tirer aléatoirement k observations de la classe majoritaire dans la base d apprentissage où k est égal au nombre d observations de la classe minoritaire. On répète l algorithme plusieurs fois (e.g., N=100 fois) afin de réduire l influence du choix aléatoire des ensembles d apprentissage et de test. Ensuite, nous calculons la moyenne et l écart type des N valeurs obtenues (i.e., métriques d évaluations) comme performance globale de l algorithme. À partir des résultats obtenus de cette expérimentation on constate que le deuxième algorithme améliore significativement les métriques d'évaluations sur les classes minoritaires. Mais l inconvénient de cette méthode proposée est l utilisation 2 Journée des Doctorants Heudiasyc 23 juin 2015 gourmande de la mémoire qui influe négativement et ralenti l apprentissage. V. PERSPECTIVE ET TRAVAUX FUTURS On peut considérer que proposer un nouvel algorithme et le tester sur des données du monde réel avec l amélioration de l efficacité est un travail considérable mais nous pouvons l améliorer dans les travaux à venir. D autre part, l occupation des sols est un problème des données volumineuses Big data sous la nouvelle forme multi-label, où chaque unité spatiale est classée en différentes catégories (étiquettes de classe). En perspective, nous souhaitons étudier les problèmes liées au Big data, pour répondre à des problématiques liées aux masses de données. Ceci peut être effectué avec les techniques avancées de MapReduce dans Hadoop pour les calculs parallèles. Cette technique de Mapreduce/Hadoop a montré ses performances dans le cas mono-label pour traiter de grands volumes de données et il serait intéressant de l intégrer dans nos travaux dans le contexte de l apprentissage supervisé multi-label. Enfin, nous souhaitons étudier la combinaison des classifieurs multi-labels dans le cadre de la théorie des probabilités, des possibilités et des croyances. RÉFÉRENCES [1] Omrani, Hichem, et al. "Multi-label class assignment in land-use modelling." International Journal of Geographical Information Science ahead-of-print. (2015): [2] Ferrier, Simon, et al. "Spatial modelling of biodiversity at the community level." Journal of applied ecology. (2006): [3] Tsoumakas, Grigorios, et al. "Multi-label classification: An overview." Dept. of Informatics, Aristotle University of Thessaloniki, Greece. (2006). [4] Nair, Benrekia, et al. "Sélection d'une méthode de classification multi-label pour un système interactif." Actes de la Conférence EGC. (2014). [5] Zhang, Min-Ling, et al. "ML-KNN: A lazy learning approach to multi-label learning." Pattern recognition. (2007): [6] Elisseeff, André, and Jason Weston. "A kernel method for multilabelled classification." Advances in neural information processing systems. (2001): [7] Ho, Tin Kam. "A Theory of Multiple Classifer Systems And Its Application to Visual Word Recognition". Doctoral dissertation, State University of New York. (1992). [8] Tsoumakas, Grigorios, et al. "Random k-labelsets: An ensemble method for multilabel classification." Machine learning: ECML Springer Berlin Heidelberg. (2007): [9] Godbole, Shantanu, et al. "Discriminative methods for multi-labeled classification." Advances in Knowledge Discovery and Data Mining. Springer Berlin Heidelberg. (2004): [10] Chawla, Nitesh. "C4. 5 and imbalanced data sets: investigating the effect of sampling method, probabilistic estimate, and decision tree structure." Proceedings of the ICML. (2003). [11] Chen, Chao, et al. "Using random forest to learn imbalanced data." University of California, Berkeley. (2004). [12] Chawla, Nitesh, et al. "SMOTE: synthetic minority over-sampling technique." Journal of artificial intelligence research.(2002): [13] Chawla, Nitesh. "Data mining for imbalanced datasets: An overview." Data Mining and Knowledge Discovery Handbook. Springer US. (2010): [14] Laurikkala, Jorma. "Improving identification of difficult small classes by balancing class distribution. " Springer Berlin Heidelberg. (2001). 38

53 Interaction naturelle au regard dans les systèmes optroniques Romain GROSSE Directeurs de thèse : Indira THOUVENIN, Dominique LENNE Entreprise : Sagem DS, encadrement par Stéphane AUBRY Résumé Les produits d optronique disposent d un nombre de fonctionnalités croissant augmentant sensiblement la complexité de leur utilisation. Une solution proposée est l utilisation du suivi du regard comme modalité d interaction. Cependant, il est nécessaire d étudier la possibilité d intégrer une telle modalité d un point de vue système et d un point de vue utilisateur. On cherche à déterminer des conditions nécessaires à ce que le suivi du regard soit adopté comme modalité d interaction. I. INTRODUCTION A. Contexte Cette thèse a commencé le 1 er décembre 2014 dans le cadre d une collaboration entre le laboratoire Heudiasyc de l UTC et Sagem Défense Sécurité. Le projet est codirigé par Indira Thouvenin et Dominique Lenne du laboratoire Heudiasyc et Stéphane Aubry de Sagem DS. Le doctorat est financé par une bourse CIFRE. B. Objectif L augmentation du nombre de fonctionnalités des systèmes optroniques en fait des systèmes de plus en plus complexes. Il est donc nécessaire de faire évoluer simultanément les moyens de contrôle et de manipulation de ces systèmes. Les systèmes optroniques sont soumis à des contraintes d utilisation différentes des systèmes de bureau. Le projet «ANGIE (Augmented Natural Gaze Interaction Experience)» a pour but de proposer l utilisation du regard comme modalité d interaction dans les systèmes optroniques afin d en faciliter l utilisation. Plus précisément, le but est de déterminer des conditions nécessaires à ce que le suivi du regard soit adopté comme modalité d interaction dans les systèmes optroniques. Dans un esprit de conception centrée utilisateur une première analyse qui demande encore à être approfondie nous a permis de dresser un profil de l utilisateur final des produits optroniques Sagem (militaire) et de ses besoins quant à l utilisation de tels produits. Les caractéristiques principales demandées sont la rapidité, l aisance d utilisation, et le contrôle absolu du système. Les travaux qui seront réalisés auront pour but d étudier l acceptabilité de la mise en place de mécanismes d interaction pilotés au regard. Une première étude sera faite sur les effets de la latence dans une interface pilotée au regard. Une seconde étudiera les impacts de la mise en place d une telle interface sur la tâche utilisateur. Enfin, une troisième traitera de la possibilité d intégration de traitements automatiques basés sur le suivi du regard. II. AVANCEMENT A. Etat de l art sur le suivi du regard Un premier état de l art a été réalisé sur le suivi du regard comme modalité d interaction. L étude de la structure des yeux et de leurs différents mouvements permet de mettre en évidence un ensemble de données exploitables [1]. Cependant, la caractéristique sensorimotrice de l œil dans une interface au regard, (i.e. à la fois la fonction réceptrice d information et la fonction initiatrice de commandes) implique des contradictions dans l utilisation du regard qui fait de la conception d une telle interface un problème non trivial [2]. Plusieurs axes de solutions sont déjà proposés, allant d algorithmes d analyse plus poussés des mouvements du regard [3] à la conception d interfaces multimodales. B. Etat de l art sur la conception d interface La deuxième partie de la recherche bibliographique a concerné les méthodes de conception centrée utilisateur. Le but de cette recherche était de trouver des moyens de diminuer au maximum l énergie liée à l utilisation de l interface au profit de la réalisation de la tâche utilisateur. Norman [4] définit les différentes étapes de la communication entre l utilisateur et le système et invite à les simplifier autant que possible. L offset temporel/spatial d une interaction [5] qui représente l écart entre l objet d intérêt d une action et l endroit/le moment ou cette dernière est initiée est une fonction à minimiser pour concevoir une interaction naturelle [6]. De par sa dynamique importante et sa proximité avec la tâche utilisateur, le regard semble être un bon candidat comme modalité d interaction pour la conception d interfaces naturelles. Les traitements automatiques, ou les interfaces attentives [7], sont aussi des solutions pour diminuer cet écart entre la tâche utilisateur et l utilisation du système. III. PREVISIONS D EXPERIMENTATIONS Le premier travail sera de concevoir un système de suivi du regard qui s intégrera aux systèmes optroniques actuellement utilisés afin de pouvoir effectuer les différentes expériences dans un cadre optimal, similaire à l utilisation en condition réelles. Nous prévoyons de réaliser pour cela trois expériences relatives à l impact de latence sur un système de suivi du regard, à l impact d une telle modalité d interaction sur la tâche utilisateur, et à l intégration de traitements automatiques. A. Latence La première expérience consistera à déterminer les latences perceptibles par l utilisateur dans différents contextes (latence brute, latence d un filtrage moyen, latence sur la détermination d une zone d intérêt) ainsi qu à mesurer son impact sur les performances utilisateur. 39

54 Cette étude est justifiée par le fait que même lorsque l œil semble rester statique, il est tout de même soumis à des mouvements centrés d amplitude allant jusqu à 1 degré d angle. Des filtrages de type passe bas sont mis en place afin d améliorer la précision des systèmes, mais ils induisent une latence. La présence de latence peut avoir des impacts sur les performances d une tâche ainsi que sur l expérience utilisateur. La latence perceptible pourra être mise en évidence par des expériences de type «adaptive staircase». L impact en temps et en taux d erreur sera mesuré en comparaison à un système de latence négligeable sur des tâches simples. B. Impact sur la tâche utilisateur La seconde expérience consistera à déterminer l impact de l utilisation d une interface contrôlée au regard sur la tâche utilisateur. L analyse portera sur les tâches d observation, de détection, et de suivi d une cible qui sont les tâches les plus couramment effectuées par l utilisateur final. Plusieurs types de métaphore au regard seront testés sur les différentes tâches ainsi que l utilisation d une interface dite classique afin de mettre en évidence les gains éventuels. L hypothèse est que le suivi du regard permet d effectuer des actions avec un gain de temps par rapport à une interface classique. Cependant, il est important de vérifier que ce gain sur l utilisation du système se traduit aussi par un gain sur la tâche utilisateur. L expérience consistera en une tâche de fond représentant des tâches simplifiées d observation, de détection ou de suivi d objet permettant de déterminer simplement une performance de la tâche. Cette dernière sera interrompue par une interaction au regard sans rapport direct avec la tâche de fond. C. Intégration de traitements automatiques La troisième expérience consistera à déterminer l acceptabilité de traitements automatiques basés sur le suivi du regard par l utilisateur final. Les militaires sont des utilisateurs exigeants sur le contrôle des systèmes qu ils utilisent. L œil étant utilisé comme senseur avant d être utilisé comme déclencheur de commandes, la mise en place de traitements automatiques basés sur le suivi du regard peut être perçue comme une perte de contrôle de l utilisateur. L expérience consistera en l utilisation d une interface complète utilisant le suivi du regard disposant d un bouton de signification d incompréhension. L évolution de la fréquence d incompréhension en fonction du temps et en fonction des fonctionnalités proposées sera analysée. En complément, un questionnaire sera soumis afin d évaluer l intégration de traitements automatiques sur l expérience utilisateur. IV. PERSPECTIVES Les premiers travaux sur les effets de la latence pourront être soumis à CHI (Computer Human Interaction, Octobre 2016) ou au JEMR (Journal of Eye Movement Research). Les travaux sur l acceptabilité des traitements automatique pourront être soumis à IUI (Intelligent User Interface, Octobre 2016). Les résultats obtenus lors des expériences sur l impact de la latence, l acceptabilité des traitements automatiques et de l impact d une interface au regard sur les performances de la tâche d observation permettront d adapter les fonctionnalités proposées lors de la phase de tests d utilisation, permettant un premier prototype de produit utilisable. V. REFERENCES [1] Holmqvist, K. (2011). Eye tracking: A comprehensive guide to methods and measures. Oxford: Oxford University Press. [2] Jacob, R. J. (1993). Eye movement-based human-computer interaction techniques: Toward non-command interfaces. Advances in human-computer interaction, 4, [3] Velichkovsky, B. B. (2014). New solution to the Midas Touch Problem: Identification of visual commands via extraction of focal fixations in IHCI, Evry, France. [4] Norman, D. A. (1986). Cognitive engineering. User centered system design: New perspectives on human-computer interaction, [5] Beaudouin-Lafon, M. (2000). Instrumental interaction: an interaction model for designing post-wimp user interfaces. In Proceedings of the SIGCHI conference on Human Factors in Computing Systems (pp ). ACM. [6] Wigdor, D., & Wixon, D. (2011). Brave NUI world: designing natural user interfaces for touch and gesture. Elsevier. [7] Hyrskykari, A. (2006). Eyes in attentive interfaces: Experiences from creating idict, a gaze-aware reading aid. Tampereen yliopisto. D. Réalisation et tests d utilisation Finalement, une interface complète sera conçue en fonction des résultats de ces premières expériences et testée en condition réelles ou simulées afin de valider l utilisation du suivi du regard dans les systèmes optroniques et/ou de déterminer des conditions nécessaire supplémentaires à l acceptabilité d une telle modalité d interface. 40

55 Estimation de la probabilité et de l'incertitude des événements indésirables des grands systèmes Yunhui Hou Directeurs de thèse : Walter SCHÖN et Nikolaos LIMNIOS Équipe : ASER Résumé We have built methods for estimating system reliability/availability and the associated uncertainty which is compatible to be applied on large scale systems. The first model is based on random set theory and resampling techniques. The second model uses asymptotic normality to obtain the variance of system reliability estimate. We also proposed an approximation method to calculate system performance measures with a stochastic (semi-markov) model. I. INTRODUCTION This thesis started in October 2012 under the supervision of Walter SCHÖN (ASER, Heudiasyc) and Nikolaos LIMNIOS (LMAC). It is financed by the UTC scholarship Collegium. The objective of this thesis is to firstly build methods to estimate system reliability and the associated uncertainty in case of large scale systems. We use classical models based on probability theory, stochastic models such as Semi-Markov system, and also models with uncertainty theories such as random set theory. II. PROGRESS ON UNCERTAINTY ESTIMATION A. Random Set Theory The random set theory is a mathematical theory which can handle in a unique framework both aleatory and epistemic uncertainties. It is an extension of probability theory to setvalued rather than point-valued maps [1]. Probability and possibility distributions can be interpreted as random sets. The random set theory was first applied in identification problems of social interactions. Some examples from criminology, demography, epidemiology, economics, etc. for finding bounds on the predictions in presence of non-experimental and experimental data were also provided [1]. We are convinced that it will be interesting to investigate the use of such theory and to study its advantages and drawbacks in relaibility assessment when considering systems with highly reliable components. B. Random Set Theory Approach on Binary Systems The reliability of a binary component or system can be represented by random set such that the value of reliability belongs to the random set almost surely, i.e. Then supposing we have, observations of the studied component/system (k is the number of observed failures), the random set is given by a random interval where and follow beta distribution Under this framework, we can obtain interval form estimation of reliability as well as associated confidence interval. C. Application on Multi-State Systems In case of multi-state systems, we suppose that the system state is denoted by of states following categorical distribution. Let be the probability or proportion of each state given observation, i.e. In general, the MSS reliability indices can be seen as a linear function on function of random vector, i.e. where We prove that. are constant coefficients and suppose that can be bounded by where the random vectors and follow Dirichlet distributions with and. D. Pseudo Observation Construction Procedure Instead of calculating component level reliability and then propagating them to system level through very complicated reliability function, we propose to construct pseudo observations of system states by resampling technique. In order to obtain each system-level pseudo-observation, we firstly resample one sample for each component from its observation pool, and then the system-level state sample is calculated from these picked component-level samples through structure function. To stabilize the summarized pseudo-system sampling results (number of observations in each system state), Monte Carlo simulation is applied. Since a system can be treated as a single component, with the pseudoobservations, system reliability indices can be estimated by random set using method mentioned previously. Finally, all pseudo observations are independent and identically distributed which satisfies exactly the condition for 41

56 a single component and allow us to apply random set theory on it. III. PROGRESS ON STOCHASTIC APPROACH A. Asymptotic Normality Approach In this section, in order to quantify uncertainty under probability theory framework, we proposed a method to estimate the variance of system reliability estimate as variance is the measure of deviation from the mean. Consider a coherent system composed of independent components, and for each component we have the asymptotic normality on its reliability estimator, i.e. as the number of observations converges to infinity, Journée des Doctorants Heudiasyc 23 juin 2015 where is the kernel of the process and is diagonal matrix representing sojourn time of each state. The transition function as well as other probability functions under the same framework can be approximated by a sequence of functions which on calculation is an iterative method, i.e. We proved that for any fixed and, the limit and where the variance of this estimator is given by with denoting the variance of binary state of component and the number of observations. The variance of the estimator of system reliability exists and it is the smallest solution of the MRE. The advantage of this method is that there is little limitation on state space which can be extended to infinite ones. We also applied it on a case study calculating system reliability and availability. The system availability given the initial state i is the probability that the system state is in the set of working state so that it can be approximated by is given by where the term is also known as Birnbaum's important measure. With assumption of asymptotic normality, as all converges to infinity, we also have so that the confidence interval of system reliability estimate at level becomes B. Semi-Markov System Model We also proposed a new method for numerical solution of Markov renewal equation (MRE) of a semi-markov process with countable state space. This method is based on an iterative scheme and inspired by n-fold convolution calculation. In our opinion, it is one of the simplest ways to obtain numerical results for such problems. Consider that the system state at instant t is denoted by a semi-markov process. In order to evaluate performance of the system, we need to determine the transition function which satisfies the following MRE IV. PERSPECTIVES Thesis Defense is supposed to be held on December V. PUBILICATION Y. Hou, Limnios and W. Schön. Approximation normale de la probabilité de défaillance d'un système. QUALITA2013, Compiègne, France, Mar, Y. Hou, M. Sallak and W. Schön. Availability analysis of systems using random set theory. The 9th IFAC Symposium on Fault Detection, Supervision and Safety of Technical Processes (SafeProcess 2015), Paris, France, September Y. Hou, Limnios and W. Schön. A New Iterative Method to Solve Markov Renewal Equations. The 16th ASMDA 2015 International Conference, University of Piraeus, Greece, June 30 - July 4, Y. Hou, M. Sallak and W. Schön. Reliability analysis of multi-state systems using random set theory. European Safety and Reliability Conference ESREL 2015, Zürich, Switzerland, References [1] C.F. Manski, Identification Problems in the Social Sciences, Harvard University Press, Cambridge, MA,

57 Modelisation et conception de lois de commande distribuées pour le vol en formation de drones Zhicheng HOU Directrice de thèse : Isabelle Fantoni Équipe : ASER Résumé L'objectif de mes travaux de thèse est de développer le modèle d'une flotte de drones aériens (UAVs) avec le formalisme leader-suiveur et de proposer un algorithme distribué dépendant seulement des informations des voisins de chaque drone. Afin d'augmenter la robustesse de la formation, nous donnons aux drones différents poids pour composer une topologie pondérée. La loi de commande pour chaque drone est basée sur les inter-distances, les vitesses relatives et les poids de ses voisins qui se trouvent dans son champ de vision. Une loi de commande pondérée est proposée afin d'avoir une dynamique approximativement découplée. La nonlinearité du système est traitée en utilisant la méthode "Lyapunov Redesign". Les simulations et les expériences ont validé l'algorithme proposé dans ce travail. I. INTRODUCTION Cette thèse a démarré en Octobre 2012 au sein du laboratoire Heudiasyc, dans l équipe ASER, et en particulier sur les applications liées aux drones aériens. Elle est financée par le CSC (China Scholarship Council). La recherche sur les systèmes multi-agents est en plein essor d un point de vue théorique mais aussi pratique. Le problème le plus étudié est le problème du consensus des agents. Les agents sont soit des nœuds d un réseau statique, soit des objets dynamiques. Beaucoup d applications des systèmes multi-agents sont illustrées dans la vie réelle. Dans ce travail, on considère surtout les multi-systèmes dynamiques, composés par des UAVs (quadrirotors). Les applications utilisant des flottes de drones aériens sont nombreuses : surveillance et sécurité publique, recherche de personnes perdues... La configuration utilisant le formalisme leader-suiveur intéresse les chercheurs grâce à leurs nombreux avantages. Premièrement, la mission de la formation est clairement spécifiée par le leader (ou les leaders). De plus, un tel formalisme est facile à implémenter. Cette configuration convient surtout aux missions de rechercher d objets dans de grands espaces. Néanmoins, la robustesse de l approche leader-suiveur est faible. Elle dépend complètement du leader, c est pourquoi, la formation peut échouer si le leader a un problème. Autrement dit, le formalisme leader-suiveur a une structure centralisée. Dans ce travail, on essaie de chercher une loi de commande pour la formation, qui permet d augmenter la robustesse de la formation. Notre idée est de développer un algorithme de coopération avec la structure leader-suiveur, qui possède les avantages des méthodes centralisées et la robustesse de la formation. Une contribution de cette thèse est d introduire la méthode distribuée dans la formation leader-suiveur qui considère souvent une structure uniquement centralisée. Dans ce travail, chaque drone est modélisé de manière non linéaire et non comme une masse ponctuelle avec une dynamique linéaire simple. Nous avons également proposé une façon de donner différents poids aux UAVs, ce qui peut augmenter la robustesse de la formation. II. AVANCEMENT Durant cette dernière année de thèse, j ai plutôt concentré mes efforts sur l application des algorithmes proposés pendant la deuxième année, sur un système réel. Les expériences ont été menées en parallèle avec l aide du système Optitrack ainsi qu en utilisant des caméras embarquées. En parallèle, j ai continué à développer le travail théorique. En prenant en compte la limitation des actionneurs des drones, j ai proposé une loi de commande saturée. Puis, la stabilité du système entier a été obtenue en utilisant la théorie de Lyapunov. A. Interprétation de la mission de formation La dynamique de chaque drone étant représentée par un système en cascade, le mouvement translationnel du quadrirotor est généré par la variation des angles. Par conséquent, le comportement de chaque drone est généré par les trajectoires des angles d attitude désiréesφ, θ etψ. On conçoit les angles désirés comme ci-dessous, X Y où ui et ui sont les lois des commandes de la formation. La poussée est conçue comme ci-dessous, Z où u i est la loi de commande pour l altitude de drone. Ainsi, une mission complète de la formation consiste à concevoir les lois de commande u, u et u. X i Y i Z i B. Lois de commande On construit une mesure d erreur pour chaque drone cidessous, d i d i d i 43

58 où les vecteurs l gi et f gi satisfont Journée des Doctorants Heudiasyc 23 juin 2015 La figure 3 montre une expérience de la formation avec 3 drones Parrots. L objectif de la formation est de suivre une trajectoire rectangulaire en gardant les inter-distances de sécurité entre les drones. 4 f où ωij représente le poids de formation, qui indique quel voisin est le plus crédible, tandis que pour indiquer quel drone est leader. l ωij représente le poids La loi de commande est donnée par u (, ) i y d, où d représente les inter-distances entre un drone et ses voisins. L idée est de concevoir une loi de commande utilisant l équation de Riccati pour stabiliser la partie linéaire de la dynamique du drone, le terme de nonlinearité étant traité (compensé) par la technique de Lyapunov Redesign. C. Simulation et expérience Nous illustrons notre résultat par des simulations sous Matlab, avec le simulateur dédié et par des expériences. x (m) y (m) 10 UAV 1 UAV 2 0 UAV 3 UAV t (s) 10 UAV 1 UAV 2 0 UAV 3 UAV t (s) Y (m) X (m) Figure 1. Formation avec changement de leader. La simulation d une formation avec le changement de leader est montrée sur la figure 1. La sous-figure à droite trace les trajectoires des drones. Les positions initiales des drones sont montrées par le quadrangle noir. Alors que le quadrangle rouge montre la forme de la formation, qui est un rectangle. Le leader est défini au début par le drone 1. Le changement de leader se passe à t=80s. Le drone 1 devient un suiveur, et le drone 2 devient un leader. i y (m) Leader Follower 1 Follower x (m) Figure 3. Réalisation de la formation avec des drones Parrots III. TRAVAIL EN COURS Afin de réaliser la formation à l intérieur ainsi qu à l extérieur avec l aide du système Optitrack, j ai développé un algorithme de traitement d images pour déduire l interdistance en utilisant la caméra installée à l avant du Parrot. Le travail est de tester très prochainement l algorithme avec deux drones Parrots. Publications [1] Hou, Z., Fantoni, I., and Zavala-Rio, A., Modeling and Decentralized Control for the Multiple UAVs Formation based on Lyapunov design and redesign, IFAC Workshop RED-UAS, Compiègne, France, 2013, pp.1-6. [2] Hou, Z., Fantoni, I., Distributed Leader-Follower Formation Control for Multiple Quadrotors with Weighted Topology, 10th International Conference on System of Systems Engineering, San Antonio, TX, USA, [3] Hou, Z., Fantoni, I., and Zavala-Rio, A., Distributed Bounded Control for Multiple Quadrotors with Leader-Follower Formation IET Control Theory & applications, under revision. [4] Hou, Z., Fantoni, I., Leader-Follower Formation Saturated Control for Multiple Quadrotors with Weighted Switching Topology, unpublished ref traj UAV 1 UAV 2 UAV 3 10 ref traj UAV 1 UAV 2 UAV y (m) 0 y (m) x (m) x (m) Figure 2. Comparaison de la formation avec la loi de commande sans considération de la nonlinearité (gauche) et de la loi de commande avec considération de la nonlinearité (droite). Selon la figure 2, nous pouvons constater que la loi de commande avec la méthode de Lyapunov Redesign améliore la formation. Tous les UAVs atteignent un consensus et suivent la trajectoire elliptique avec des distances de sécurité. 44

59 Annotation du geste technique pour un retour sensoriel adaptatif : application à la formation en environnement virtuel informé Florian JEANNE Directeurs de thèse : Indira THOUVENIN Équipe : ICI Résumé Les systèmes d annotations actuels permettent d étiqueter manuellement les gestes d un individu après leur exécution. L un des défis de cette thèse est de concevoir un système d annotations gestuelles en temps réel, permettant des retours sensoriels pertinents à l utilisateur. Nous proposons un processus de formation basé sur une méthode d essai-erreur. Les retours sensoriels sont ici adaptés en fonction du geste réalisé et de son contexte comprenant des informations sur l utilisateur et son environnement. I. CONTEXTE ET OBJECTIFS Cette thèse a débuté le 15 décembre 2014 au laboratoire Heudiasyc. Elle s inscrit dans le projet KIVA, financé par la région Picardie, notamment en partie par le fond FEDER. Le projet KIVA ambitionne de créer un nouvel environnement virtuel permettant d accélérer la formation au geste technique. Il s inscrit dans la dynamique de la formation par la réalité virtuelle du groupe Montupet. Ce dernier est un des leaders mondiaux dans la fabrication de culasses en aluminium (partie supérieure d un moteur à pistons), nécessitant une haute technicité dans le geste. L industriel cherche à améliorer son efficience et à réduire son taux de rebuts, qui sont des conséquences directes de la formation. Du point de vue scientifique, le projet KIVA explore les mécanismes de l interaction gestuelle en s appuyant, d une part, sur le machine learning, d autre part, sur l ingénierie des connaissances et la réalité virtuelle. Plus spécifiquement, le travail de thèse utilise le module de reconnaissance de gestes (réalisé par un chercheur postdoctoral) et se focalise sur l annotation des classes de gestes et sur les retours sensoriels à l apprenant, afin de permettre une interaction individualisée et évolutive en environnement virtuel. Cette approche permet notamment de proposer des environnements de formation adaptés, prenant en compte la complexité et la variabilité du geste. A. État de l art II. AVANCEMENT Il existe différentes classifications sémantiques du geste associé à la parole. Kendon [1], [2] analyse le geste selon sa symbolique. Il élabore alors un continuum partant de la gesticulation où la présence de la parole est obligatoire, jusqu aux langues des signes où la parole est absente : Gesticulation > Gestes quasi-linguistiques > Pantomimes > Emblèmes > Langues des signes McNeill reprend ces travaux [3], mais propose à la place une classification où le geste possède un sens plus large et n est plus rattaché au discours. Il peut alors représenter une action que le locuteur simule, ou encore refléter ses sentiments ou ses désirs. Cette classification comprend alors le quadruplet des gestes iconiques, métaphoriques, déictiques et des battements (ou pulsations). Il propose également une segmentation des gestes du bras : Pre-stroke - Stroke - Post-stroke Ici, le geste a besoin d une préparation (pre-stroke). Il doit atteindre une position et avoir une orientation spécifique dans l espace avant d être effectué. De même, la phase de rétraction correspond au moment où le bras (ou plus simplement la main) retourne à sa position de repos. Ces phases peuvent être omises en fonction des actions précédentes ou suivantes. De plus, si nous comparons cette segmentation à l écriture, les phases de pre-stroke et de post-stroke peuvent être assimilées aux espaces entre les mots. Cadoz [4] quant à lui, classe les gestes par rapport à leur fonction et à leur rapport avec l environnement. Il distingue notamment différentes fonctions : La fonction ergodique qui concerne la manipulation, la régulation ou la modification de l environnement physique ; La fonction épistémique qui consiste à percevoir l information depuis l environnement (e.g., le cas d une exploration haptique) ; la fonction sémiotique qui permet la communication d informations vers l environnement. Cette classification introduit la notion de relation entre l utilisateur et l environnement dans lequel il évolue (environnement virtuel dans notre cas). Le biologiste F. Varela propose en effet dans ses travaux [5], la notion d énaction qui est l adaptation du comportement d un individu, en réaction à l évolution de l environnement dans lequel il se situe. L humain, qui interagit avec son environnement, perçoit des sensations en retour de ses actions, et va donc adapter son comportement et/ou ses gestes. Aussi, le geste est considéré dans de nombreux domaines, notamment l industrie, comme une connaissance qu il faut capitaliser afin que le savoir ne soit pas perdu. En effet, il existe par exemple des notations chorégraphiques qui permettent de retranscrire les pas de danse, et donc les gestes, à l écrit afin de les transmettre aux autres. La plupart de ces notations, 45

60 comme celles de Laban [6], Conté [7], Benesh [8] ou encore Eshkhol-Wachman [9], reprennent le principe des partitions musicales, où position, tempo et hauteur y sont représentés. Il existe également la notation Sutton [10] qui était à l origine pour la danse, mais qui fut par la suite adaptée au langage des signes, sous l appellation SignWriting. Ces notations peuvent être généralisées, notamment celle de Sutton qui a déjà été adaptée dans différents domaines, afin de capitaliser le geste de manière symbolique. Concernant l annotation du geste, Kipp a développé le logiciel ANVIL [11] qui permet d annoter des vidéos. Certains travaux [12], [13] proposent d annoter la gestuelle dans ces vidéos. Ces annotations se font manuellement, image par image, et sont représentées sous la forme d une trame. B. Problématique Ces différentes classifications et systèmes d annotation permettent de qualifier, classifier et d annoter le geste. Cependant, nous ne cherchons pas à annoter le geste et à proposer un retour à l utilisateur a posteriori, mais bien en temps réel. Le geste ici est considéré comme une connaissance, et l objectif est de la représenter pour le système. Nous proposons donc une approche basée sur un modèle décisionnel permettant l annotation des gestes reconnus en temps réel et des retours sensoriels dynamiques s adaptant à l utilisateur. C. Approche proposée 1) Modèle décisionnel: Le choix du système décisionnel dépend en grande partie des connaissances manipulées. Nous pouvons être en présence de connaissances structurelles (base de connaissances), de connaissances acquises (base de faits) ou d exemples de bonnes décisions (base de cas). Il existe un certain nombre de systèmes décisionnels pouvant répondre à nos besoins comme le raisonnement à partir de cas, l utilisation de méthodes d apprentissage statistique, les algorithmes génétiques, ou encore un système inférentiel. Le choix du système dépendra également du modèle retenu pour le système de reconnaissance de geste [14]. Fig. 1. Modélisation du système décisionnel 2) Adaptation: Notre approche vise à être adaptative. En effet, le module de reconnaissance de gestes, comparera celui de l apprenant à un geste expert et lui attribue un score. Cependant, ce score ne sera pas nécessairement satisfaisant. En effet, le système décisionnel, en annotant le geste, visera à ajuster l évaluation du geste en tenant compte des informations de l utilisateur, comme son niveau d expertise par exemple. Les retours sensoriels proposés à l utilisateur seront également adaptatifs. Le système s adaptera à l évolution de l apprenant et proposera différents retours selon la situation. De plus, le système possèdera une partie adaptable pour corriger l ignorance du système. Il est possible que le système de reconnaissance hésite par exemple entre deux gestes. L utilisateur sera alors questionné et renseignera le système sur la nature de son geste. III. PERSPECTIVES Nous travaillerons lors des prochains mois (seconde partie de la première année de thèse) sur la formalisation d un modèle décisionnel de caractérisation du geste. Nous devrons notamment définir la structure de nos annotations, et également la nature et la forme des retours sensoriels. Nous envisageons de publier dans des conférences nationales et internationales en réalité virtuelle (AFRV, IEEE VR, ACM VRST), sur les interactions et systèmes interactifs (SIGGRAPH, ICIS). RÉFÉRENCES [1] A. Kendon, "How gestures can become like words." in Cross-cultural perspectives in nonverbal communication, p , 1988 [2] A. Kendon, Gesture : Visible Action as Utterance, Cambridge University Press, 2004 [3] D. McNeill, Hand and mind : What gestures reveal about thought, University of Chicago Press, 1992 [4] C. Cadoz, "Le geste canal de communication homme/machine. La communication instrumentale." in Technique et science informatiques 1994 [5] F. J. Varela, E. Thompson and E. Rosch, The embodied mind : cognitive science and human experience Cambridge : MIT Press, 1991 [6] R. Laban and L. Ullmann, The mastery of movement, Plays, Inc., 1971 [7] P. Conté, Technique générale du mouvement, Arts et mouvement, 1954 [8] J. McGuinness-Scott, Movement study and Benesh movement notation : an introduction to applications in dance, medicine, anthropology, and other studies, Oxford Univ. Pr., 1983 [9] N. Eshkhol and A. Wachman, Mouvement notation, Weidenfeld and Nicolson, 1958 [10] V. Sutton, "Sutton movement writing & shorthand", in Dance Research Journal, p.78-85, JSTOR, 1981 [11] M. Kipp, Anvil A generic annotation tool for multimodal dialogue, College for Cognitive Sciences University of the Saarland, Germany, 2001 [12] M. Tellier, M. Guardiola and B. Bigi, "Types de gestes et utilisation de l espace gestuel dans une description spatiale : méthodologie de l annotation", Actes du 1er DEfi Geste Langue des Signes (DEGELS 2011), 45-56, 2011 [13] Q. Nguyen and M. Kipp, "Annotation of Human Gesture using 3D Skeleton Controls", in LREC, 2010 [14] L. Fricoteaux, Interaction informée par un système décisionnel pour un retour multimodal en environnement virtuel : application à la formation au transport fluvial, Université de Technologie de Compiègne,

61 ESTIMATION ET DIAGNOSTIC DE LA DYNAMIQUE DU VEHICULE EN INTERACTION AVEC L ENVIRONNEMENT Kun JIANG Directeurs de thèse : Ali CHARARA et Alessandro CORREA VICTORINO Équipe : ASER Résumé La dynamique du véhicule est un sujet essentiel dans le développement des systèmes de sécurité actifs. Les systèmes de contrôle exigent des informations précises sur la dynamique du véhicule, en particulier, les forces de contact pneu/chaussée. Néanmoins, les mesures directes des ces informations sont souvent difficiles, pour des raisons technologiques ou économiques. Par conséquent, cette étude présente une méthode robuste pour estimer ces paramètres en utilisant des technologies d'observation et des capteurs à faible coût disponibles sur des voitures de séries récentes. Le sujet de ce projet de thèse, qui est dans sa deuxième année, est basé sur le développement des nouveaux modèles dynamiques et appliquer des techniques d observation d état, pour estimer la dynamique du véhicule en présence de variation de paramètres du véhicule et en interaction avec l environnement. I. INTRODUCTION Cette thèse, débutée en novembre 2013, est financée par le Conseil des bourses d'études en Chine. Elle est menée également dans le cadre du projet franco-allemand VERVE (financé par le FEDER et la Région Picardie), de l Equipex Robotex et du Labex MS2T. Les véhicules automobiles modernes sont de plus en plus équipés de systèmes électroniques pour améliorer la sécurité. Les paramètres et variables dynamiques du véhicule, tels que les forces de contact des pneus, les angles de dérive sont nécessaires pour l implémentation de ces systèmes. Toutefois, l'état dynamique du véhicule est très difficile à mesurer directement. De plus, les capteurs qui mesurent certaines de ces variables sont très coûteux ou difficiles à installer dans les voitures commercialisées, d'où la nécessité du développement des observateurs. Comparé avec les autres observateurs existants, l avantage de notre étude se compose de deux parties. 1, Nous avons proposé un modèle modifié pour présenter les dynamiques du véhicule en dévers et pente. Le modèle de pneu et le modèle de carrosserie, utilisés jusqu'à présent à Heudiasyc, ne sont pas sensibilisés à la géométrie de la route. Dans le modèle nous proposé, on a considéré les angles de roulis, de tangage et de la route. Par conséquent, l estimation basée sur ce modèle est plus précise et robuste. 2, Nous avons développé un algorithme basée sur Recursive Least Square algorithme(rls) et filtre de Kalman (KF) pour l estimation adaptive de paramètre du véhicule. Une correcte configuration de paramètres est essentielle pour le fonctionnement de l estimateur. En réalité, les paramètres du véhicule ne sont pas toujours disponibles, et peuvent se varier pendant les trajets. L'avantage de notre observateur est de permettre une estimation précise d état du véhicule en présence de paramètres inconnus. II. MODELES DU VEHICULE A. Charge Verticale Lorsque la dynamique de tangage et de roulis sont considérées comme négligeables, le véhicule peut être considéré comme un corps rigide, puis le transfert de charge latéral (LTR) peut être calculé par un modèle très simple, représentée par l'équation (1). où est le poids total du véhicule, est l accélération latéral mesuré, E est la voie, h est la hauteur du centre de gravité. Dans véhicule réel, les systèmes de suspension affectent la manipulation et la qualité des voitures de course, et ils sont actuellement d'un grand intérêt à la fois universitaire et l'industrie. Nous avons proposé un modèle qui considère les dynamiques de roulis et tangage. (1) 1 1 (2) où est la raideur de roulis, est l angle de roulis, est la pourcentage de masse non-suspendue. Fig. 1. Modèle du suspension pour calculer les charges verticales B. Forces Latérales Les modèles pour calculer les forces latérales à chaque roue ont été choisis en faisant des compromis entre leurs représentativités, leurs nombres de variables et leurs complexités. Le modèle de quatre roues, présenté par Figure 2, est choisi. Dans notre étude, on a estimé l angle de roulis et ensuite calibré les accélérations mesurées pour compenser les erreurs causées par la dynamique de roulis et l angle de la route. 47

62 L'ensemble des équations EKF est indiqué ci-dessous: EKF Etape de Prédiction: : x ˆ = f ( x ˆ, u ) k k 1 k 1 T T k = k k 1 k + k k 1 k P A P A W Q W EKF Etape de mise à jour: Fig. 2. Le modèle de quatre roues C. Configuration de Paramètre Configuration de paramètres est un sujet très intéressant pour réaliser l estimation dans situation réelle. C est parce que les paramètres peuvent varier beaucoup en raison de différente environnement. Pour résoudre ce problème, nous avons proposé aussi les modèles pour estimer les paramètres en utilisant seulement les capteurs de faible coût et disponible sur les véhicules ordinaires. Notamment, nous avons proposé une nouvelle méthode pour estimer la position du centre gravité. Le modèle de bicyclette est utilisé pour simplifier la modélisation des mouvements du véhicule. T T T K = P H ( H P H + V R V ) k k k k k k k k k x ˆ = x ˆ + K ( z h( x ˆ )) k k k k k P k = ( I K k H k ) P k Dans l étape de prédiction, on estime l état et la covariance de temps k basé sur le donné de temps k-1. Ensuite, les mesures peuvent corriger les prédictions. IV. VALIDATION EXPÉRIMENTALE Nous avons implémenté les observateurs dans la plateforme PACPUS et rejoué les donnés réels. Le résultat expérimental est montré dans la figure suivante. 1 Fig. 3. Le modèle bicyclette III. CONCEPTION DE L'OBSERVATEUR Une nouvelle technique d'observateur est introduite pour prendre en compte les incertitudes associées à ce modèle, et donner un cadre probabiliste à l'estimation de l état du véhicule. Le processus d'estimation peut être divisé en deux parties comme montré par Figure 4. La première partie est de configurer les paramètres du véhicule. La deuxième partie est d estimer l état du véhicule. Nous avons utilisé différent algorithme pour chaque partie. Les modèles de paramètres sont très simples. Un moindres carrés récursifs (RLS) algorithme est utilisé pour minimiser les erreurs de paramètres. Puis les paramètres estimées seront utilisés pour configurer le processus suivant. Les modèles d état sont compliqués et non linéaires, par conséquent, les filtres Kalman sont utilisés dans ce cas. Fig. 5. Le résultat d estimation de transfert de charge V. PUBLICATION ET PERSPECTIVES Publications effectuées: 1 acceptée par ITSC 2014,, 1 acceptée par JDJNMAC 2015, 1 refusée par ECC 2014 (en train de corriger) 1 envoyée à ITSC 2015, Perspectives : -Amélioration d estimation de paramètre, -Validation de l observateur en temps réel Références Fig. 4. Le processus de notre observateurs [1] K.Jiang, A.Pavelescu, A.C.Victorino & A.Charara. Estimation of vehicle s vertical and lateral tire forces considering road angle and road irregularity. In 17th IEEE conference of Intelligent Transportation Systems (ITSC), (2014) : [2] M.Gadola, D.Chindamo, et al. "Development and validation of a Kalman filter-based model for vehicle slip angle estimation " Vehicle System Dynamics 52.1(2014): [3] M. Doumiati. Estimation embarquée des efforts verticaux et latéraux d un véhicule pour le diagnostic du comportement sur route. PhD thèses, Université de Technologie de Compiègne,

63 Classification des donnees incertaines dans le cadre de la theorie des fonctions de croyance Lianmeng JIAO Directeurs de thèse : Thierry DENŒUX et Quan PAN Équipe : DI Résumé In real world pattern classification problems, great uncertainties may widely exist. This thesis focuses on the uncertain data classification problems in belief functions framework due to its well capability of representing and combining uncertain information. The work in this thesis mainly focuses on two popular classification approaches: nearestneighbor-based classification and rule-based classification. Mots-clés: pattern classification, uncertain data, belief functions theory I. OBJECTS ET BACKGROUND This thesis mainly focuses on the applications of belief functions theory in solving the uncertain data classification problems. Uncertainty is the inherent nature of information. Different types of information may be lacking in data and knowledge bases, and consequently give rise to different kinds of uncertainty. Uncertainty can broadly be subdivided into the following three categories [1]: Incompleteness: Incomplete information refers to cases where the value of a variable is missing. Imprecision: Imprecise information refers to cases where the value of a variable is given, but not with enough precision. Unreliability: Unreliable information refers to cases where the information is complete, precise, but un-certain since it might be wrong. In real world pattern classification problems, the above different kinds of great uncertainties may widely exist. Dempster-Shafer theory (DST) or belief functions theory [2, 3], as a general extension of Bayesian theory, is a common and effective method to solve the pattern classification problems with uncertainty. This thesis is co-supervised by Prof. Quan PAN at Northwestern Polytechnical University and Prof. Thierry DENŒUX at Université de Technologie de Compiègne and supported by China Scholarship Council (CSC). II. ADVANCEMENT Up to now, I have finished four pieces of work related to the topic of the thesis: Evidential editing k-nearest neighbor classifier Evidential fusion of pairwise k-nearest neighbor classifiers Belief rule-based classification system Hybrid belief rule-based classification system In the following, I will give a brief introduction to these three works. A. Evidential Editing K-Nearest Neighbor Classifier One of the difficulties that arises when using the k-nearest neighbor rule is that each of the labeled training samples is given equal importance in deciding the class of the query pattern to be classified, regardless of their typicality. In this work, the theory of belief functions is introduced into the k- nearest neighbor rule to develop an evidential editing version of this algorithm. An evidential editing procedure is proposed to reassign the original training samples with new labels represented by an evidential membership structure. With the introduction of the evidential editing procedure, the imprecise information in overlapping regions can be well characterized. After the evidential editing, a classification procedure is developed to handle the more general situation in which the edited training samples are assigned dependent evidential labels. B. Evidential Fusion of Pairwise K-Nearest Neighbor Classifiers The performance of the k-nearest neighbor classifier is known to be very sensitive to the distance metric used in classifying a query pattern, especially in small training data set cases. In this work, a pairwise distance metric related to pairs of class labels is proposed. Compared with the existing distance metrics, it provides more flexibility to design the feature weights so that the local specifics in feature space can be well characterized. Base on the proposed pairwise distance metric, a polychotomous classification problem is solved by 49

64 combining a group of pairwise knn (PkNN) classifiers in the belief functions framework to deal with the uncertain output information. C. Belief Rule-Based Classification System Among the computational intelligence techniques employed to solve classification problems, the fuzzy rulebased classification system (FRBCS) is a popular tool capable of building a linguistic model interpretable to users. However, it may face lack of accuracy in some complex applications, by the fact that the inflexibility of the concept of the linguistic variable imposes hard restrictions on the fuzzy rule structure. In this chapter, we extend the fuzzy rule in FRBCS with a belief rule structure and develop a belief rule-based classification system (BRBCS) to address the uncertain information in complex classification problems. The two components of the proposed BRBCS, i.e., the belief rule base (BRB) and the belief reasoning method (BRM), are designed specifically by taking into account the pattern noise that exists in many real-world data sets. D. Hybrid Belief Rule-Based Classification System In some real-world pattern classification applications, both the training data collected by sensors and the expert knowledge may be available. In this chapter, a hybrid belief rule-based classification system (HBRBCS) is developed to make use of these two types of information synthetically. The belief rule structure, which is capable of capturing fuzzy, imprecise, and incomplete causal relationships, is used as the common representation model. With the belief rule structure, a data-driven belief rule base (DBRB) and a knowledge-driven belief rule base (KBRB) are learnt from the uncertain training data and expert knowledge, respectively. A fusion algorithm is proposed to combine the DBRB and KBRB to obtain an optimal hybrid belief rule base (HBRB). III. PERSPECTIVES In order to finish this PhD thesis successfully, the time can be scheduled as follows. June 2015 July 2015: Revise PhD thesis. July 2015 Sep. 2015: Send for review; Oct. 2015: Defense of the PhD thesis. IV. PUBLICATIONS [1] Jiao Lianmeng, Pan Quan, Denoeux Thierry, Liang Yan, Feng Xiaoxue. Belief rule-based classification system: Extension of FRBCS in belief functions framework. Information Sciences, vol.309, pp.26-49, [2] Jiao Lianmeng, Pan Quan, Feng Xiaoxue. Multihypothesis nearest-neighbor classifier based on classconditional weighted distance metric. Neurocomputing, vol.151, pp , [3] Jiao Lianmeng, Denoeux Thierry, Pan Quan. Evidential editing k-nearest neighbor classifier. 13th European Conference on Symbolic and Quantitative Approaches to Reasoning with Uncertainty, Compiègne, France, July (accepted) [4] Jiao Lianmeng, Denoeux Thierry, Pan Quan. Fusion of pairwise nearest-neighbor classifiers based on pairwiseweighted distance metric and belief functions theory. 17th International Conference on Information Fusion, Salamanca, Spain, July [5] Jiao Lianmeng, Pan Quan, Feng Xiaoxue, Yang Feng. An evidential k-nearest neighbor classification method with weighted attributes. 16th International Conference on Information Fusion, Istanbul, Turkey, July References [1] P. Smets. Varieties of ignorance and the need for wellfounded theories. Information Sciences, 57-58: , [2] A. Dempster. Upper and lower probabilities induced by multivalued mapping. Annals of Mathematical Statistics, 38(2): , [3] G. Shafer. A mathematical theory of evidence. Princeton University Press, Princeton,

65 Semantic-based Federation of SoS models Freddy Kamdem Simo Supervisors: Dominique Lenne and Dominique Ernadote* Team : ICI, *Airbus Defence & Space Abstract Multi-project and multi-domain modeling for the development of large complex systems is very challenging and highly complex due to the diversity, autonomy, and sometimes independence of systems of modeling. Our goal is to propose a federated approach that establishes flexible and dynamic connections between systems of modeling, which should remain autonomous while aware of another one. I. INTRODUCTION This project is a 3-year project co-funded and carried out in the framework of LABEX MS2T and the partnership of Airbus Defence & Space (ADS) company. It started on September It globally deals with the control of complex systems modeling. Today, Model-Based System Engineering is an approach to better address the complexity of systems and their development. But in the design, building models is not enough to ensure that they describe the right system or they bring an added value in the engineering activities or simply that deadlines will be met. So, MBSE is often combined with other frameworks. For example, an Architecture Framework allows to define how to organize and structure the architecture of a system. However, due to the increasing complexity and evolution of systems, the current approaches such as MBSE and complementary frameworks are not sufficient. In fact, if we consider the designing of some particular complex and large systems like Cyber-Physical System (CPS), especially System of Systems (SoS), their modeling is distributed within multi-modeling multi-project environment (MME) whose constraints necessarily bring issues that cannot be eschewed. In a MME, we can distinguish systems of modeling, which are composed of people, standards, languages, models, methods, tools, life cycle etc. These systems of modeling are necessarily heterogeneous, sometimes autonomous but they can present interactions and commonalities of interest. So they may take advantage from each other. ADS is an example of industry where we can find this kind of modeling environment. II. MOTIVATION Models represent a view of a system at some level of abstraction. They often remain specific to a domain of study. Moreover several modeling projects can be developed or previously exist. They evolve in parallel, also often with commonalities. Because of their own life cycles, projects recreate parts of models that were created in other projects. This can be due to various understandable reasons: The domain knowledge has been deepened, existing models were not designed to be reusable, models have to be autonomous because of constraints Finally, evolutions of systems are taken into account on different timescales. Notwithstanding these complex situations, some comprehensive operations are informal, administrative, or managed by humans: verification of global system properties, demonstration of the relevance of one modeling choice against another one, reuse of legacy or actual models, warning contributors of impacts of changes on the studied systems. III. RESEARCH QUESTIONS AND OBJECTIVES Given the complexity and continuous change of systems, and consequently the issues that arise in a MME and the need to control them, we derive two research questions: 1) How to model the relationships between systems of modeling given their characteristics? 2) How to implement the above mentioned operations throughout the system by drawing on models of relationships? The global objective is to propose a federated framework that addresses these research questions. More precisely, the two main objectives that we consider are: 1) Ensure the flexible continuous efficient mapping of connections between systems of modeling via the implementation of a formal mapping process. It should reveal users the commonalities and incompatibilities between those systems. It should take into account methodological constraints, e.g. standards. It should also be applied early in the life cycle of each project when possible. 2) Enable users to reuse some models and analyse them taking into account their evolution. This objective should be built on the connections between systems of modeling and the implementation of some inferences techniques. IV. PROPOSITIONS In this section, we define some concepts, discuss an overview of the related work, and finally present our ongoing work and perspectives. A. Definitions A model primarily refers in this project to the notion of model in Systems Engineering (SE), which is an interdisciplinary approach for building successful systems [1]. A system is a collection of interacting elements. In SE, the system-of-interest is the real system, the studied system for which engineering is done. A system of modeling is a collection of people, tools, models, etc. which interact for the designing of a system-ofinterest. A SoS (System of Systems) is characterized by autonomy, diversity, belonging, connectivity, and emergence. Those characteristics and some challenges on SoS are discussed in [2]. A System of Systems of Modeling (SoSM) is the complex environment within which a complex diverse system-ofinterest is designed. 51

66 Federation like integration is a mean to achieve interoperability between systems. The former is characterized by the autonomy, independence and complementary of elements which are loosely coupled while the latter is built on tightly coupled and high dependence of considered elements. In this work, Federation is a framework applied on SoSM with a focus on system of models. B. Literature review overview We have been studying related work on several domains: database, ontology, collaborative engineering and SE [3] [4] [5] [6] [7] etc. and some mathematical tools: category theory [8] [9], contracts and interfaces theories [10]. Overall, many approaches do not present performance results and theoretical foundations, which complicates the comparison between them. Accordingly data or models evolution in time, scalability and maintenance issues are not often discussed. Approaches outside SE are generally built within a domain. Therefore models are data models or schema related to this domain. They generally don t face the problem of system modeling and conformance with standards. There are few automatic approaches. Nonetheless, some lessons we have learnt from this study are: 1-Domain specific practices are unavoidable in MME. Unified or integrated approaches are not suitable for a federated approach, instead mapping is interesting. 2-Federation must occur as early as possible in the life cycle and go beyond projects life cycle. 3-Human involvement, maintenance and scalability issues are important in MME. 4-Formal approaches should be adopted to avoid some current issues, keeping in mind that every formal approach is not a panacea. 5-Many approaches related to SE, do not address federation. They focus on models composition, simulation or integration sometimes in advanced phases of life cycles of design. This is not primarily suitable for the objective of federation defined in this project. C. Ongoing work An initial step in parallel to the study of related work towards achieving the stated objective was to show issues encountered when we move from the mastering of modeling in one particular project to the mastering of modeling in several projects [11]. Reference [11] also presents one of current approaches applied on some ADS MBSE projects. The approach [12] tooled ensures that modeling is really driven by the modeling objectives. Reverting on literature, many approaches have been proposed to map ontologies, data models or schema. But in our context we do not necessarily have these kinds of models as inputs. So the first challenge is to consider several kinds of models (behavior, structure, etc.) at different levels of abstraction. We try to project them in an overarching framework by means of some useful mathematical tools: category theory, contract and interfaces theories etc. Those tools provide comprehensive approaches that aim at clarifying information representation and communication. Unlike many works which are based: either on the transformation of models into a common language or on manual annotation of models in order to establish links between models, we want to capture relevant semantics of any kind of models to reach the same goal. On this way, the projection that defines relevant/logical properties of models may be useful. Then, models could be mapped via the projection results. Ontology or Olog [8] can be interesting here. D. Way forward By the end of the first year project, we are focusing on models. We are considering a use case composed of 3 kinds (structure, behavior, process) of models. We are projecting them in comprehensive framework, and then are defining a mapping to obtain a federated model. Given the obtained models, we are going to demonstrate some properties about the whole system modelled by the 3 kinds of models. Next, we are going to try to generalize the obtained result for a SoSM... V. CONLUSION This project tackles the control of modeling in multi project multi modeling environment for complex systems design. This control aims at mapping several systems of modeling in order to analyze the impact of some global properties of the system. A federated framework is considered because systems of modeling should remain autonomous and their connections should be flexibly established when possible early in the life cycle of each project. Beyond the ongoing work, choices must still be done to refine and characterize our federation procedure. Some challenges we are addressing, and insights to solve them, have been published and accepted at the 9th IEEE International Systems Conference. April [11] References [1] SEBok wiki. [2] Sage, Andrew P., and Christopher D. Cuppan. "On the systems engineering and management of systems of systems and federations of systems."information, Knowledge, Systems Management 2.4 (2001): [3] Kashyap, V., & Sheth, A. (1996). Semantic and schematic similarities between database objects: a context-based approach. The VLDB Journal The International Journal on Very Large Data Bases, 5(4), [4] Kalfoglou, Yannis, and Marco Schorlemmer. "Ontology mapping: the state of the art." The knowledge engineering review (2003): [5] Shvaiko, Pavel, and Jérôme Euzenat. "Ontology matching: state of the art and future challenges." Knowledge and Data Engineering, IEEE Transactions on 25.1 (2013): [6] Zayas, David Simon, Anne Monceaux, and Yamine Ait-Ameur. "Knowledge Models to Reduce the Gap between Heterogeneous Models: Application to Aircraft Systems Engineering." Engineering of Complex Computer Systems (ICECCS), th IEEE International Conference on. IEEE, [7] Lee, E. A. (2010). Disciplined heterogeneous modeling. In Model Driven Engineering Languages and Systems (pp ). [8] Spivak, David. 18.S996 Category Theory for Scientists, Spring (MIT OpenCourseWare: Massachusetts Institute of Technology), (Accessed 1 Dec, 2014) [9] Luzeaux, Dominique. "A Formal Foundation of Systems Engineering." Complex Systems Design & Management. Springer International Publishing, [10] Benveniste, Albert, et al. "Contracts for system design." (2012): 65 [11] Simo, K. Freddy, Lenne, Dominique and Ernadote, Dominique. Mastering SoS complexity through a methodical tailoring of modeling: benefits and new issues. In proceedinds. 9th IEEE International Systems Conference. April 2015 [12] Ernadote, D. (2013). An Automated Objective-Driven Approach to Drive the Usage of the NAF Framework. NATO Science and Technology Organization (STO) Information Systems Technology Panel (IST) Symposium. Toulouse, France, May. 52

67 Navigation d'assistance intelligente basée sur la commande référencée capteurs appliquée aux véhicules électriques intelligents Yue KANG Directeurs de thèse : Alessandro CORREA VICTORINO Équipe : ASER Résumé Le sujet de cette thèse concerne la conception d un système de navigation qui sert à garantir la sécurité de conduite manuelle en surveillant et en corrigeant des décisions du conducteur humain. La réalisation de la coopération de Visual Servoing et Dynamic Window Approach est modifiée pour les cas où les obstacles sont dynamiques. Un jeu de données a été aussi réalisé pour mieux garantir la sécurité expérimentale sur le véhicule réel. I. INTRODUCTION L objectif de cette thèse est de concevoir un système de la sécurité de l assistance pour la conduite. Ce système est basé sur la commande référencée capteurs en surveillant et corrigeant des décisions par le conducteur humain. Il s agit d évider des risques et des dangers cachés (collisions, dépassement dangereux, excès de vitesse, etc.) pendant la conduite. Ce système est un complément et une extension à partir des ADASs (Advanced Driver Assistance Systems) traditionnels en soulignant les caractéristiques de conduite des conducteurs humains, ainsi que l interaction entre le système autonome et l être-humain. Le cadre de ce système est présenté dans la Fig. 1. pondérée d objet, à l'aide des information visuelle par des capteurs optiques. Auparavant, cette méthode a été fonctionnée sur des scénarios où les obstacles étaient fixés [2]. Dans le cas où les obstacles bougent, il devient nécessaire que l'algorithme soit modifié, car la méthode de DWA ne supporte la tâche d'évitement d'obstacles qu'à l'aide de la détection par les capteurs i.e. LIDAR, etc. Un exemple typique basé sur la coopération de DWA et le contrôle de Human Driving Behavior [2,3] est affiché dans la Fig. 2, où les deux obstacles sont dynamiques. Fig. 2. La validation de contrôle DWA+HDB avec les obstacles dynamiques Dans un autre cas où le dépassement ne peut pas être garanti, l'algorithme tient la décision de suivre l'obstacle devant jusqu'au moment ou le véhicule aura pu le dépasser (Suivre et Dépasser), comme montré dans la Fig. 3. Fig. 1. Le schéma du système La partie de la décision a été réalisée à l'aide des données de perception de l'environnement, ainsi que l'algorithme de la navigation autonome. Elle tient en compte aussi le modèle de conduite humaine qui contient la modélisation des erreurs pendant la conduite. II. AVANCENMENT A. Correction de la conduite manuelle basée sur Imagebased Dynamic Window Approach L'Image-based Dynamic Window Approach (DWA) [1] est une méthodologie qui s agit de calculer entre un ensemble réalisables la meilleur commande par optimiser une fonction Fig. 3. Le scénario de Suivre et Dépasser. 53

68 B. Jeu de données de SCANeR TM Studio SCANeR TM Studio est un logiciel de simulation de conduite, avec lequel on peut établir des scénarios simples et complexes. Il contient aussi la modélisation des capteurs dans le véhicule. Pour mieux simuler le processus de conduire référencée capteurs et garantir la sécurité expérimentale, il est nécessaire de mettre en application la simulation dans l'environnement virtuel avant l'expérimentation sur le véhicule réel. Un jeu de données basées sur le logiciel SCANeR Studio et Matlab a été réalisé [4]. Les données sont à partir de deux capteurs virtuels, notamment un LIDAR qui détecte des obstacles, et une caméra qui détecte la ligne dans la route. Les données contiennent aussi le résultat de prétraitement par les capteurs, par exemple la quantité des lignes détectées. Des exemples des résultats du jeu de données sont montrés au-dessous dans la Fig. 4. Journée des Doctorants Heudiasyc 23 juin 2015 Fig. 4. Jeu de données à base de la simulation sur SCANeR Studio C. Design du cadre pour le système de contrôle sur SCANeR Studio Le modèle du système de contrôle consiste en deux partie : la scénario et le modèle du véhicule générés par SCANeR Studio et l'algorithme de la navigation par Matlab/Simulink. Les deux composants coopèrent à l'aide de l'api ainsi que la mémoire partagée, toutes données par SCANeR Studio. Fig. 5. Le cadre du système de contrôle dans Simulink Dès que la simulation sur SCANeR Studio réussira, ce modèle du contrôle sera appliqué dans la plate-forme expérimentale de PACPUS pour la réalisation sur le véhicule réel. a. Données de LIDAR. Les lignes rouges indiquent la détection d'obstacle, les vertes le cas inversé. III. PERSPECTIVES - Améliorer l'algorithme de navigation en mettant l'accent sur la robustesse. - Préparer l'expérimentation sur le véhicule réel. - Mieux modéliser la conduite humaine et distinguer des erreurs ainsi que ses corrections. IV. PUBLICATIONS EFFECTUEES Yue Kang, Danilo Alves de Lima, Alessandro Corrêa Victorino, Dynamic Obstacles Avoidance Based on Imagebased Dynamic Window Approach for Human-Vehicle Interaction, IEEE IV'15 (Accepté, en cours de préparation pour la conférence au 28 juin - 1 juillet 2015). References b. Données de la caméra. Les points bleus indiquent des bords de chemin; la ligne rouge (virtuelle) montre la direction conseillée pour l'instant par l'algorithme [1] D.A. De Lima and A.C. Victorino, An image based dynamic window approach for local navigation of an autonomous vehicle in urban environments IEEE ICRA Workshop on Modelling, Estimation, Perception and Control of All Terrain Mobile Robots (WMEPC) [2] Y. Kang, D.A. De Lima and A.C. Victorino, An approach of human driving behavior correction based on Dynamic Window Approach. Intelligent Vehicles Symposium Proceedings, IEEE, [3] Y. Kang, D.A. De Lima and A.C. Victorino, Driving behavior correction in human-vehicle interaction based on Dynamic Window Approach. Cyber Technology in Automation, Control, and Intelligent Systems (CYBER), 2014 IEEE 4th Annual International Conference on. IEEE, [4] SCANeR TM Studio SDK User Manual, Ver. 1.4, OKTAL, 6 Feb (reference) 54

69 Conception d un avion convertible Mariano LARIOS Directeurs de thèse : Rogelio LOZANO et Sergio SALAZAR Équipe : ASER Résumé L objectif principal de ce projet doctoral est le développement d une nouvelle configuration de drone, c est-àdire d un avion convertible. Un autre objectif est d étudier les aspects de la modélisation dynamique et aérodynamique, ainsi que de proposer des lois de commande pour la stabilisation du système. Ce système est constitué de trois types de dynamiques : hélicoptère, avion et transition de vol. Un prototype expérimental est développé pour tester de telles lois de commande. MOTS-CLÉS : drone, transition du vol, avion convertible I. INTRODUCTION Le sujet de cette thèse est le développement et le contrôle d un véhicule aérien convertible qui pourra assister les sapeurspompiers, principalement dans leur recherche de personnes perdues dans des zones boisées. Ce travail s effectue dans le cadre du projet régional SEARCH avec l Université de Picardie Jules Verne et le laboratoire Heudiasyc de l UTC. Le doctorant Mariano LARIOS est boursier du gouvernement mexicain. Nous nous intéressons en particulier à la configuration d avions convertibles miniatures. Dans le passé, il y a eu quelques exemples d avions convertibles, mais ce type d aéronef est plutôt rare. Par contre, la programmation et la mise au point des algorithmes de commande en embarqué restent assez complexes, car le réglage des gains du contrôleur ne peut être effectué à la main comme c est le cas pour les petits quadrirotors miniatures [1]. II. MODÈLE MATHÉMATIQUE A. Modèle longitudinal d un avion convertible Le fonctionnement de notre prototype est le suivant : la première étape consiste à utiliser le mode hélicoptère pour le décollage vertical. Pour cette étape, nous utilisons le modèle dynamique du PVTOL, l acronyme en anglais de Vertical Take-Off and Landing. Dans cette première étape, les ailes sont orientées verticalement afin d offrir moins de résistance au flux d air du rotor principal. La deuxième étape est de faire pivoter graduellement les ailes à l horizontal et d activer le moteur d'avion T a qui donne la propulsion pour permettre le vol en mode avion. Une fois en mode avion, le rotor principal peut être mis à l arrêt. Inversement, dans la phase d atterrissage de l'aéronef convertible, le moteur principal T a est arrêté et les ailes de l'avion pivotent graduellement à la verticale, pour préparer l'atterrissage en mode hélicoptère [2, 3, 4]. Modèle longitudinal d un avion convertible m x = T a cosθ (1 ε 1 sin γ) T h sin θ(1 ε 2 cosγ) Lsinθ D cosθ (i) m z = T a sinθ(1 ϵ 1 sinγ) T h cosθ(1 ε 2 cosγ) Lcosθ Dsinθ-mg I yy θ = τ + kδ e (v) Fig. 1. Schéma d'un avion convertible où : : est un entrée de commande en mode hélicoptère. e : est une entrée de commande de l aileron en mode avion et elle est fonction de la vitesse v. v est la vitesse ; v = (x 2 + z 2 ) avec un angle d attaque α = 0 ; ϵ 1 et ε 2 sont des constantes positives qui dépendent de la relation du diamètre du rotor principal et de la largeur des ailes. est l angle d inclinaison des ailes pivotantes. T a est la poussée du moteur en mode avion. T h est la poussée en mode hélicoptère du rotor principal. est l angle de tangage. I yy est le moment d inertie. m est la masse du prototype. g est l accélération due à la gravité. L est la sustentation de l aile ; L = 1 c 2 1ρv 2 S D est la traînée de l aile ; D = 1 2 c dρv 2 Sc où c l et c d sont les coefficients de la sustentation et de la traînée, est la densité du fluide, v est la vitesse vraie, S est la zone de plate-forme. B. Modèle d un hélicoptère classique Dans le développement d'un aéronef convertible, nous avons commencé avec la modélisation et la programmation d une commande PID en nous basant sur l'architecture d'un hélicoptère miniature. Fig. 2. Schéma d un hélicoptère avec ses 6 degrés de liberté. C m: centre de masse exprimée en F b. F b : cadre de référence du corps. F i : cadre de référence de l inertiel. R : matrice de rotation du corps dans le cadre inertiel. 55

70 C. Modèle simplifié d un hélicoptère classique. La vitesse angulaire w e du rotor principal est régie par : I rot w e = P et h w e cw e 2 + dp m 2 w e 2 où : c, d sont les paramètres physiques fonction de la géométrie de l'aile et d autres caractéristiques du rotor. T h est la puissance du moteur principal. P e est le paramètre relatif à la puissance du moteur. I rot est l'inertie du rotor principal. P M est le tangage collectif du rotor principal. Les poussées T M, T T sont exprimées comme suit : T M = k TM P M w e 2 T T = k TT P T w e 2 u = (P M, P T, a, b, T h ) entrées de commande où : Journée des Doctorants Heudiasyc 23 juin 2015 (ii) (iii) (iv) T M est la poussée du rotor principal. T T est la poussée du rotor de queue. k TM, k TT sont les constantes aérodynamiques des pales du rotor. P T est le tangage collectif du rotor de queue. D. Modèle de l'hélicoptère par rapport au cadre inertiel. Hypothèses : 1. Concernant la force extérieure f b, nous négligeons la contribution du rotor principal selon la direction de x b. 2. La contribution de la poussée du rotor de la queue selon la direction de y b est compensée par la composante de la poussée du rotor principal. 3. Les angles d'inclinaison (a,b) sont petits, alors sin(a) a, sin(b) b, cos(a) 1, cos(b) Les équations (iii) sont négligées et nous prenons donc T M et T T comme entrées de commande de P M et P T. 5. L équation (ii) est négligée et nous prenons donc w e comme entrée de commande à la place de T h. Selon ces hypothèses, les nouvelles entrées de commande sont: u = (T M, T T, a, b, w e ). Le vecteur f b est maintenant : 0 0 f b = ( 0 ) + (R T 0 ) T M M g III. CONCEPTION D UN AVION CONVERTIBLE Nous avons d abord considéré le mode hélicoptère et nous avons commencé le développement de la loi de commande et sa programmation dans un microordinateur PX4. Notons que ce microordinateur comporte déjà une centrale inertielle. Nous avons mis en œuvre la commande de l altitude et de l angle de lacet. Des essais ont été réalisés dans une plate-forme qui permet l évolution de ces deux degrés de liberté sans prendre trop de risques car l hélicoptère reste attaché à sa base. Le convertible a été équipé avec un autopilote qui permet une commande soit manuelle, soit semi-autonome, soit autonome. Il est équipé des capteurs suivants : PX4 FMU (Pixhaw). SD card plus reader. Flight management unit (FMU). Input/Output module. Inertial measurement unit (IMU). IV. AVANCEMENT Nous nous sommes concentrés sur la commande de la position en vol stationnaire d'un avion convertible. Ce véhicule comporte deux ailes pivotantes. Ce dispositif offre une entrée supplémentaire pour le système, qui sert à l'exécution de la manœuvre de transition. L'angle de pivotement doit être limité à une valeur inférieure à 90. Le drone présenté en [5, 6, 7] a été conçu et développé au laboratoire HEUDIASYC. Il dispose d une structure similaire à un avion et est propulsé par un rotor principal. Le drone est équipé d un ensemble de capteurs : centrale inertielle et flux optique. V. CONCLUSIONS ET PERSPECTIVES Nous avons commencé la réalisation d'une plate-forme expérimentale composée d'un hélicoptère miniature commercial (RJX X-Tron 500 et T-Rex 450). Et nous avons présenté la modélisation d'un avion convertible et d un hélicoptère. Dans une première étape, nous avons développé une plate-forme permettant le mouvement de translation en altitude et de rotation en tangage. Les activités à venir sont : Proposition d'une stratégie de contrôle pour la transition. Proposition des algorithmes de contrôle de stabilisation de l avion convertible. Publication des résultats dans des revues et congrès scientifiques en ACC2015 et REDUAS2015. Références [1] Gerardo Ramon Flores, Juan Escareño, Rogelio Lozano, Sergio Salazar. Quad-Tilting Rotor Convertible MAV: Modeling and Real-Time Hover Flight Control. JIntell Robot System, [2] A. Ollero et all. Modeling and Simulation of the HADA Recongurable UAV. J Intell Robot Syst [3] Alvaro Vargas-Clara. Development of a Stop-Rotor Unmanned Arial Vehicle (UAV). Proceedings of The 2011 IAJC-ASEE International Conference. [4] Alvaro Vargas-Clara. Development of a Stop-Rotor Unmanned Arial Vehicle (UAV). Proceedings of The 2011 IAJC-ASEE International Conference. [5] https://www.youtube.com/watch?v=y1lxlczr7nu&feature=youtu.be. [6] https://www.youtube.com/watch?v=evikpfxruge [7] https://www.youtube.com/watch?v=cfh4khaj158 56

71 Navigation de systèmes robotiques hétérogènes en coopération mutuelle Khaoula LASSOUED Directeurs de thèse : Philippe BONNIFAIT et Isabelle FANTONI Équipe : ASER Résumé La localisation mutuelle est une tâche indispensable pour assurer la coopération des robots mobiles. Chaque robot doit estimer sa position et la position de son partenaire par rapport à son repère en fusionnant des mesures de capteurs à faible coût. Nous avons développé un algorithme de Localisation Coopérative Distribué (LCD) basé sur des techniques de GPS différentiel en utilisant des méthodes de propagation des contraintes sur des intervalles afin d améliorer la localisation absolue et relative en présence de mesures biaisées tout en évitant le problème du data-incest lors de la fusion des données redondantes qu on peut rencontrer si on utilise des méthodes bayésiennes séquentielles. I. OBJECTIF DE LA THÈSE Notre objectif est d assurer une localisation coopérative d un robot terrestre et d un robot aérien avec un domaine de confiance fiable pour effectuer une mission en commun. II. AVANCEMENT A. Formulation du problème Pendant les deux premières années, la modélisation des robots hétérogènes a été développée. On a proposé une méthode de localisation coopérative basée sur des techniques de propagation des contraintes en simulant des mesures de capteurs [1] et [2]. Dans nos travaux actuels, on l a confrontée à la réalité en testant la robustesse de notre algorithme coopératif avec des données réelles. Afin d améliorer la précision de la localisation des robots, nous utilisons la fusion des mesures proprioceptives et des mesures GPS fournies par le système GNSS (Global Navigation Satellite System). On a aussi étudié l observabilité de systèmes coopératifs dans le cas général avant d entamer la partie pratique. Nous avons testé l approche avec 2 véhicules. Cependant, notre méthode est facilement applicable à un système hétérogène de N robots. Notons que l hétérogénéité est liée aux capteurs utilisés et en particulier aux modèles de navigation à l estime. Soit i ρ j la mesure de pseudo-distance entre le robot i ( i {1,, n s }) situé à la position p = ( x, y, z ) et le satellite j( j {1,, n} ) i i i i j de coordonnés p. On définit le modèle d observation : j i j ( ) ( ) ( ) j ρ = x x + y y + z z + b + d + β (1.1) j avec : b est le biais qui affecte la mesure, d i = cδ t i est l offset de l'horloge du récepteur ( δ t est le décalage d'horloge i du récepteur de véhicule i et c présente la célérité de la i j i j i j i lumière) et i β j est un bruit de mesure. Un modèle classique d évolution f est utilisé pour prédire la position et l'orientation des véhicules. L'offset de l horloge du récepteur d et sa i dérivée d et un modèle d'auto-régression pour les biais sont i décrits dans [3]. B. Localisation coopérative L algorithme proposé a pour objectif l amélioration de la position relative et absolue grâce à l estimation des biais des mesures des pseudo-distances. Notre hypothèse est qu on peut corriger ces biais d une manière coopérative selon un concept de GPS différentiel (DGPS) distribué. L algorithme proposé (LCD) est décrit dans [1] et [2] et utilise des méthodes ensemblistes avec des données simulées. Cette année, on a commencé la validation de l algorithme avec des données réelles par des méthodes bayésiennes [3]. L idée est de comparer différentes approches et de comparer avec des méthodes ensemblistes qui correspondent certainement mieux à notre problème. Dans cette approche bayésienne séquentielle, on a utilisé un opérateur de fusion SCC (Simple Convex Combination) qui repose sur l hypothèse d indépendance des erreurs des mesures. C. Résultats On a comparé 2 scénarios : Coopératif (C) et Standalone (S). 2 véhicules automobiles expérimentaux ont effectué 2 différentes trajectoires près du laboratoire Heudiasyc. Un récepteur GPS de faible coût U-blox 4T fournissant des pseudo-mesures à 5 Hz a été utilisé. Chaque véhicule est équipé d'un Polarx Septentrio en mode RTK pour obtenir la vérité terrain et un bus CAN pour avoir l'entrée à 100 Hz. Les figures 2 et 3 montrent respectivement les erreurs horizontales de positionnement (HPE) absolu et relatif par les méthodes C et S. Dans les figures 1 et 2, on remarque que la méthode C a réduit les incertitudes du domaine de confiance et les erreurs HPE en dépit du manque d'intégrité dans certains échantillons par rapport à la méthode classique S. 10 satellites étaient en vue lors de l'acquisition dont 6 au moins sont en commun ce qui satisfait notre condition dans l étude d'observabilité [3] : pour observer les biais avec 2 véhicules, il faut avoir au moins 4 satellites en commun. 57

72 Le biais sur chaque pseudo-distance est initialisé à zéro. Pour chaque courbe de la figure 3, l axe des abscisses représente le temps en secondes et l axe des ordonnées représente chaque biais estimé en mètres. Les biais estimés convergent vers des valeurs comprises entre 0 et 2 mètres Fig. 1. HPE absolu de véhicule 1 III. CONCLUSION ET PERSPECTIVES Une approche bayésienne séquentielle coopérative de positionnement de véhicules a été développée. Une analyse d'observabilité a été menée pour montrer qu'il est possible d'estimer les biais qui affectent les mesures. La coopération améliore nettement le positionnement absolu et la localisation mutuelle. L'utilisation d'un opérateur de fusion SCC facile à implémenter montre que l algorithme donne de meilleurs résultats en termes de précision par rapport à la méthode classique Standalone. L'effet de l'utilisation du SCC sur l'estimation du domaine de confiance a été également étudié. En effet, cet opérateur de fusion de données est sensible au problème de data-incest car il réutilise les estimations des biais déjà fusionnés d'une manière séquentielle pendant l étape de prédiction. Nous avons remarqué que la méthode coopérative perd parfois sa consistance comme le montrent les expériences. Par conséquent, les travaux en cours portent sur la mise en œuvre des méthodes ensemblistes par propagation des contraintes afin de surmonter ce problème et d obtenir des domaines de confiance fiables. Fig. 2. HPE relatif entre véhicule 1 et 2 Références [1] K. Lassoued, O. Stanoi, Ph. Bonnifait, and I. Fantoni. Mobile robots cooperation with biased exteroceptive measurements. In 13th International Conference on Control Automation Robotics Vision (ICARCV), pp , Singapore, Dec [2] K. Lassoued, O. Stanoi, P. Bonnifait, I. Fantoni. Cooperative localization of mobile robots with biased measurements by using constraint propagation. SWIM, Sweden [3] K. Lassoued, I. Fantoni and Ph. Bonnifait. Mutual Localization and Positioning of Vehicles Sharing GNSS pseudoranges: Sequential Bayesian approach and Experiments. Submitted to the 18th IEEE International Conference on Intelligent Transportation Systems, September, Fig. 3. Les biais estimés des pseudo-distances 58

73 Scénarisation et génération de récits interactifs en environnements virtuels pour la formation à des compétences non-techniques Mélody Laurent Directeurs de thèse : Domitile Lourdeaux et Nicolas Szilas Équipe : ICI Résumé Le sujet de recherche s'inscrit dans le domaine des EVAH (Environnements Virtuels pour l Apprentissage Humain). Nous nous intéressons à la phase de scénarisation et de génération de récits interactifs, dont le processus vise à spécifier des évènements dans le but de mener à des situations d apprentissages pertinentes. I. CONTEXTE ET OBJECTIFS Cette thèse a débuté le 1er décembre 2014 au laboratoire Heudiasyc de l Université de Technologies de Compiègne, en co-direction avec le TECFA (Education et Technologie) de la Faculté de Psychologie et des Sciences de l'education de l Université de Genève. Elle est financée par la région Picardie et le Fonds Européen de Développement Régional (FEDER) dans le cadre du projet INCREDIBLE (Interactive Narratives for Coherent and Relevant Events Direction in Believable virtual Environment) en partenariat avec l INERIS et COSTECH EA 2223 UTC. Ce projet fait suite au projet ARAKIS ( ). Les Environnements Virtuels pour l'apprentissage Humain sont des EIAH (Environnements Informatiques pour l'apprentissage Humain) particuliers, qui ont pour objectifs de mettre l'apprenant en situation d'apprentissage dans un environnement de réalité virtuelle. Les utilisateurs peuvent y voir l impact de leurs décisions [1], et ce sans avoir à subir les conséquences néfastes que pourraient avoir leurs actions, en particulier dans le cas de situations critiques. Par situation critique, nous entendrons situations non-prévues, dynamiques, complexes et soumises à des aléas. Dans le contexte de la sécurité et de la maîtrise des risques, la dimension humaine joue un rôle dans les incidents et ont conduits à des études menant à l identification des compétences non-techniques [2]. Les Environnements Virtuels sont souvent utilisés pour former des professionnels à des compétences techniques et notre hypothèse est d élargir les situations d apprentissage dans ces Environnements Virtuels pour former aussi à des compétences non-techniques. Cette formation aux compétences non-techniques se veut complémentaire à la formation initiale, durant laquelle les individus acquièrent des bases et maîtrisent a priori des règles et des procédures. Les situations critiques les amènent à s en écarter. Cette formation s adressera à des apprenants expérimentés ou à des apprenants qui seront confrontés à des scénarios particuliers mettant en jeu des situations de travail fortement dégradées. Les compétences non-techniques [2] se réfèrent à des compétences cognitives et sociales qui permettent aux professionnels, entre autres choses, de suivre la situation, prendre des décisions, assumer un rôle de leadership, gérer leur stress et leur fatigue, communiquer et coordonner leurs actions au sein d'une équipe, afin de parvenir à des niveaux élevés de sécurité et d'efficacité. L apprenant partagera l environnement virtuel avec des personnages autonomes qui devront rendre compte des comportements collectifs représentatifs à ceux observés sur le terrain. Pour confronter l apprenant à un champ large des situations qui favoriseront des apprentissages, il faut pouvoir spécifier des scénarios et ensuite les contrôler et les adapter dynamiquement selon chaque apprenant. La scénarisation est un processus comprenant à la fois la spécification du ou des déroulements possibles ou souhaitables de la simulation, et le contrôle (exécution et/ou suivi et correction) du déroulement des événements en temps interactif. [3]. Afin de faciliter l apprentissage de compétences techniques et non-techniques par l expérience personnelle, il est nécessaire de confronter l apprenant avec une diversité de situations potentielles de développement [4], i.e. adaptées à son niveau de connaissance et de maîtrise de la tâche à réaliser collectivement en lui fournissant des ressources pour l accomplir. Nous souhaitons donc transposer dans un environnement virtuel ces situations riches et proposer une scénarisation cohérente. Pour créer ces situations riches, cette scénarisation doit pouvoir 1) adapter la complexité de manière pertinente selon les compétences à développer ou selon l engagement émotionnel recherché, 2) s appuyer sur des personnages virtuels dotés de processus cognitifs capables de réagir à ces situations fortement dégradées ou de les provoquer et 3) exploiter des structures de récit issus de théories narratives. La génération de récits interactifs devrait permettre de donner de la profondeur à des situations critiques ; stress ; compétences non-techniques. Le domaine des simulations interactives pédagogiques s intéresse à la génération d histoires interactives s appuyant sur la sélection dynamique des actions des personnages virtuels de sorte à maximiser l intérêt narratif du récit et aux outils auteurs intégrés [5]. Le respect de la qualité narrative devrait permettre une scénarisation cohérente dans le contexte de la sécurité et de la maîtrise des risques. II. AVANCEMENT Ce début de thèse a été consacré à une étude bibliographique pour intégrer des modèles issus des travaux en sciences humaines et sociales et des théories narratives. 59

74 Nous nous appuyons sur les travaux de Camille Barot ; dont la thèse a porté sur la scénarisation d environnements virtuels : vers un équilibre entre contrôle, cohérence et émergence [3] ; et de Kevin Carpentier ; dont la thèse a porté sur la scénarisation personnalisée dynamique dans les environnements virtuels pour la formation [6]. Nous faisons l hypothèse que pour créer des situations à la fois cohérentes, adaptables et contrôlables tout en laissant une grande liberté d action à l apprenant, nous devons proposer une approche centrée personnage avec un système de scénarisation extrinsèque et indirecte des personnages autonomes via un contrôle environnemental. Ce contrôle doit être réalisé par rapport aux objectifs scénaristiques en s appuyant sur des théories narratives. Notre approche sera celle d un moteur de scénarisation centralisé, c est-à-dire d offrir une base de données globale pour tous les utilisateurs. Les systèmes suivants utilisent ce principe dans le contrôle des évènements : IDA [7], IDtension [8], Crystal Island [9] et Façade [10]. Certains systèmes laissent une autonomie partielle aux personnages virtuels [3] et mettent en péril la cohérence de leurs comportements. Le verrou lié aux travaux de la littérature naît de l incompatibilité entre ces différents objectifs : le contrôle s oppose à l adaptabilité, la liberté d action va à l encontre du contrôle, l alliance du contrôle et de l adaptabilité met en péril la cohérence, et ainsi de suite. Proposer un système de scénarisation d environnements virtuels s appuyant sur des théories narratives et qui permette d assurer à la fois la liberté d action de l apprenant, le contrôle dynamique de la simulation, la cohérence des comportements présentés, l adaptabilité de l environnement virtuel et de gérer un grand nombre de personnages virtuels autonomes engagés dans des processus sociaux reste un problème difficile. Nous nous focaliserons la génération et le contrôle des scénarios à partir des objectifs scénaristiques et des trames scénaristiques en particulier sur les rôles des personnages virtuels dans un contexte fortement collectif et émotionnellement riche. Les personnages pourront prendre le rôle de perturbateurs ou d adjuvants pour faire évoluer la simulation vers des situations plus ou moins complexes, critiques, émotionnelles mettant en jeu différents types de compétences individuelles et collectives (degré de gravité, urgence, réactions émotionnelles, blessés psychiques, rôles, personnalités diverses, dissonance cognitive, perceptions) Nous nous insèrerons dans l approche HUMANS (HUman Models based Artificial environments Software platform), plateforme développée au sein du laboratoire Heudiasyc, qui s appuie sur une simulation émergente avec personnages virtuels autonomes et un système de scénarisation extrinsèque. Cette plateforme regroupe un ensemble de moteurs décisionnels indépendants mais qui couplés entre eux permettent de concevoir des environnements virtuels pour l apprentissage humain impliquant fortement des aspects facteurs humains. Cette plateforme conceptuelle est destinée à la didactique professionnelle et vise à encourager un apprentissage par la pratique aux compétences techniques en environnement virtuel. Journée des Doctorants Heudiasyc 23 juin 2015 III. PERSPECTIVE La prochaine étape de nos travaux sera la proposition et l opérationnalisation des modèles de récit issus des travaux en sciences humaines et la spécification des modèles de scénarisation. Nous proposons une démarche inductive dans les semaines à venir en partant de l écriture de scénarios dans le cadre plusieurs cas d application ; formation des assistantes de vie, sauvetage de blessés, blocs opératoire, maintenance sur des sites à haut-risque ; et de proposer un modèle de récit approprié. La soutenance est prévue fin IV. REFERENCES [1] Barot, C., Lourdeaux, D., Burkhardt, J.-M., Amokrane, K., and Lenne, D. (2013). V3S: a virtual environment for risk management training based on human-activity models. PRESENCE : Teleoperators and Virtual Environments. [2] Flin R, O Connor P, Crichton M: Safety at the sharp end: a guide to non-technical skills. Ashgate, Aldershot, 2008 [3] Camille Barot. Scénarisation d environnements virtuels. Vers un équilibre entre contrôle, cohérence et adaptabilité. Artificial Intelligence. Université de Technologie de Compiègne, 2014 [4] Patrick Mayen, Jean-François Métral et Claire Tourmen, «Les situations de travail», Recherche et formation, , [5] Nicolas Szilas, «Où va l'intrigue? Réflexions autour de quelques récits fortement interactifs», Cahiers de Narratologie [En ligne], [6] Kévin Carpentier. Scénarisation personnalisée dynamique dans les environnements virtuels pour la formation. Université de Technologie de Compiègne, 2015 [7] B Magerko. Story Representation and Interactive Drama. - AIIDE, 2005 [8] Szilas, N. (2007). A Computational Model of an Intelligent Narrator for Interactive Narratives. Applied Artificial Intelligence, 21(8), p , sept [9] Mott, B. W. and Lester, J. C. (2006). U-DIRECTOR : a decisiontheoretic narrative planning architecture for storytelling environments. In Proceedings of the fifth international joint conference on Autonomous agents and multiagent systems - AAMAS 06, page 977, Hakodate, Japan. [10] Mateas, M. (2002). Interactive drama, art and artificial intelligence. PhD thesis 60

75 Modélisation et génération de stratégies collectives pour le contrôle d IA opposantes dans les jeux vidéo Juliette LEMAITRE Directeurs de thèse : Domitile LOURDEAUX Équipe : ICI Résumé Le plaisir du jeu ressenti par les joueurs de jeu vidéo peut être considérablement accru lorsque les personnages non-joueurs se comportent de manière cohérente et adaptative. La mise en place de solutions d intelligence artificielle permettant d atteindre le comportement attendu se répand, mais la complexité de mise en œuvre entraîne la nécessité de faire un compromis entre le temps dédié à leur développement et la qualité du comportement créé. Ainsi nous proposons une solution pour l aide à la conception de comportements stratégiques collectifs présentant de nombreuses problématiques. I. OBJECTIFS ET CONTEXTE Cette thèse a débuté le 20 décembre 2013 au laboratoire Heudiasyc de l Université de Technologie de Compiègne. Elle se déroule dans le cadre d une convention CIFRE avec la société MASA Group sous la responsabilité de Caroline CHOPINAUD, Directrice de la R&D. Cette thèse s inscrit dans la volonté de la société d améliorer l accessibilité à l Intelligence Artificielle (IA) par des non spécialistes et porte un intérêt particulier à la conception de stratégies collectives. Par stratégie nous entendons un comportement orienté-but cohérent et soumis à un ensemble de règles de sélection d action suivant une méthode de résolution établie. Par stratégie collective nous entendons une stratégie assignant des comportements individuels à un ensemble de PNJ capables de les exécuter. En particulier, dans le cadre de cette thèse, nous nous intéressons aux jeux de stratégie tels que Civilization. Ce type de jeux apparait comme un cas d étude pertinent car offrant un environnement de jeu riche présentant simultanément divers problèmes connus de la communauté scientifiques (e.g. incertitude sur les connaissances de l environnement, gestion de ressources, poursuite de plusieurs buts en parallèle) et nécessitant la mise en œuvre de stratégies complexes. La proposition de cette thèse est de fournir un système de génération de stratégies collectives donnant lieu à des comportements cohérents et adaptatifs de façon à faciliter le travail du game designer. Par comportement cohérent nous entendons un comportement proposant un choix et un ordre d actions qui ne se contredit pas, qui présente un ensemble logique. Par comportement adaptatif nous entendons un comportement qui prend en compte les changements du monde dans son choix d action. A la difficulté de conception du comportement, s ajoute le besoin souvent exprimé par les créateurs de jeux vidéo de modèles intelligibles et facilement manipulables pour créer les comportements des IA. En effet, il est important de pouvoir tester afin de vérifier l adéquation avec les comportements désirés, de telle sorte à pouvoir, de façon incrémentale, les corriger et adapter jusqu à obtention du comportement voulu[1]. Classiquement, ce sont les machines à états finis (FSM) qui sont parmi les modèles les plus utilisés à ce jour, ou les HFSM rajoutant des niveaux hiérarchiques pour faciliter la création de comportements complexes. Néanmoins, cela nécessite d envisager l ensemble des situations face auxquelles peuvent se trouver les PNJ, ce qui augmente considérablement la difficulté de conception. II. AVANCEMENT Cette deuxième année de thèse a été consacrée à la conception du modèle de stratégie et à compléter l état de l art précédemment établi. A. Etat de l art Les travaux de recherche en IA se concentrent principalement sur l optimisation de l efficacité de la solution obtenue. Par exemple les travaux effectués par D. Churchill et M. Buro sur l ordre de construction dans Stracraft[2], qui cherchent à déterminer les séquences d actions les plus courtes pour atteindre des buts correspondant à des ensembles de ressources possédées. Bien qu utilisant un jeu commercial, la démarche poursuivie ne serait pas utile pour l industrie car un tel adversaire proposerait un niveau de jeu très élevé et adaptée uniquement aux meilleurs joueurs. D autres travaux se servent d exemples de comportements pour réagir de façon réaliste. Par exemple Dereszynski [3] se sert de logs de joueurs pour construire une IA. Plus un comportement est apparu dans les logs analysés, plus il y a de chances que l IA fasse le choix de ce comportement. Ontañón [4] s est servi de jeux et d explications d experts pour construire une base de cas permettant par la suite à l IA de comparer les situations dans lesquelles elles se trouvent avec celles qu ont rencontrées les experts, puis de récupérer la solution qui aurait été le plus probablement choisie par un expert pour répondre à la situation. Rares sont les travaux qui se sont véritablement intéressés à adapter les recherches au vrai besoin de l industrie du jeu : augmenter le plaisir du joueur. Un aspect est en particulier étudié : le niveau de difficulté. De nombreux travaux, comme[5], se sont penchés sur le problème du niveau s adaptant au joueur, se fondant sur la théorie du flow de Nakamura et Csikszentmihalyi[6] qui met en lumière le fait qu un joueur se désengagera d un jeu qu il juge trop simple et se découragera face à un jeu trop difficile. B. Modèle Le modèle créé se découpe de manière hiérarchique sous forme de comportements. Trois types de comportements ont été définis : les tâches primitives, les comportements parallèles et les comportements logiques. 61

76 Les tâches primitives correspondent aux tâches directement applicables dans l environnement virtuel, elles correspondent au niveau le plus bas de la hiérarchie de comportements et ont donc un ensemble de comportements fils vide. Chaque tâche primitive possède également la description des ressources dont elles a besoin pour être effectuée. Elles peuvent retourner des valeurs pendant et à la fin de leur exécution, valeurs qui pourront être utilisées dans la prise de décision. Les comportements parallèles permettent de décrire la répartition des ressources possédées entre les différents comportements fils. Ils se présentent sous forme de niveaux de priorité, chacun comprenant un ensemble de souscomportements. Chaque niveau peut également se voir associé un nombre maximal d itérations, limitant ainsi le nombre de fois où il peut être réalisé en parallèle. Les premiers niveaux sont les premiers à voir leurs ressources attribuées, jusqu à atteindre ce nombre maximal, ou jusqu à ce que les ressources disponibles ne permettent plus de l exécuter. TABLE I. Itérations maximum 2 EXEMPLE DE COMPORTEMENT PARALLÈLE Sous-comportement Quantité Combattre 1 Couvrir 2 1 Alerter -1 Explorer Les comportements logiques se fondent sur le fonctionnement des machines à états : les sous-comportements sont les états, reliés entre eux par des transitions associées à des conditions qui vont permettre le changement du comportement sélectionné. Un comportement initial est également défini. A cette machine à états est ajouté un système de signaux qui se traduit par des états «retour» qui vont envoyer un signal au comportement parent. Ces signaux pourront alors être récupérés et utilisés par les comportements logiques pour déclencher des transitions, de la même manière que les valeurs de retour des actions primitives. facilité de compréhension et d utilisation. Le développement d un prototype d un outil pour construire des stratégies avec le modèle est également prévu afin de faciliter l évaluation de celui-ci. Un système de préférences est en cours de réflexion, celuici viendrait influencer la stratégie et permettrait de créer plusieurs profils d IA fondés sur la même stratégie. Le projet prévoit également le développement d un générateur prenant en entrée certaines informations sur les mécaniques du jeu et qui à partir de celles-ci génère une stratégie à laquelle le game designer pourra apporter des modifications. IV. PUBLICATIONS Ces travaux ont été présentés à ICAART'15 et seront présentés aux RJCIA 15 se déroulant les 29 et 30 juin Il est également prévu de proposer une publication à ICTAI 15, ECAI 16 et CIG 16. V. REFERENCES [1] B. Presnell, R. Houlette, and D. Fu, Making Behavior Modeling Accessible to Non-Programmers, presented at the I/ITSEC, [2] D. Churchill and M. Buro, Build Order Optimization in StarCraft., in AIIDE, [3] E. W. Dereszynski, J. Hostetler, A. Fern, T. G. Dietterich, T.-T. Hoang, and M. Udarbe, Learning Probabilistic Behavior Models in Real-Time Strategy Games., in AIIDE, [4] S. Ontañón, K. Mishra, N. Sugandh, and A. Ram, Casebased planning and execution for real-time strategy games, in Case-Based Reasoning Research and Development, Springer, 2007, pp [5] R. Hunicke and V. Chapman, AI for dynamic difficulty adjustment in games, in Challenges in Game Artificial Intelligence AAAI Workshop, 2004, pp [6] J. Nakamura and M. Csikszentmihalyi, The Concept of Flow, in Handbook of positive psychology, 2002, pp Fig. 1. Exemple de comportement logique. III. PERSPECTIVES Pour la suite de cette thèse il sera nécessaire de mettre en place un système d évaluation du modèle. Pour cela il est envisagé d obtenir des avis de la part de game designers sur la 62

77 Creating and updating detailed maps for ADAS and autonomous commuter cars LI Franck Directeurs de thèse : BONNIFAIT Philippe, IBAÑEZ-GUZMÁN Javier Équipe : ASER Abstract Advanced Driving Assistance Systems (ADAS) are becoming more and more common in passenger cars, leading progressively to autonomous vehicles. Those systems can greatly benefit from precise digital road maps, as they can provide crucial information on the area of evolution of the vehicle. This thesis develops the creation and updating of such maps in the case of commuter cars. Focus will be on integrity monitoring for autonomous operation. I. INTRODUCTION The number of Advanced Driving Assistance Systems (ADAS) developed is creasing rapidly. They depend mainly on dedicated sensors embedded in the vehicle to detect various objects but the understanding of their relationships with the vehicle is more complex (e.g. knowing if a detected pedestrian is on the road or on the sidewalk, to determine if it is an immediate danger). To do this the system needs information on the environment the vehicle is in: a digital map can be used to store this information. But most of the maps available for ADAS are not accurate and detailed enough. They can even be erroneous (geometric error, outdated [5]). ADAS and intelligent vehicles need more reliable road maps. This thesis focuses on identifying methods allowing to build such maps, using sensors embedded in a car. Existing (not precise) road maps will be used as prior knowledge. Repetitive travels (commuting cars) will allow multiple information acquisitions, giving redundancy to the dataset so error identification and correction will be possible in order to improve accuracy and integrity. Once this accurate map is built, the question of integrity will be studied. More precisely, methods characterizing the quality of the map must be developed in order to identify the areas where the car can trust the map enough to activate Mapaided ADAS or even autonomous driving. II. CONSIDERED VEHICLE The aim of the thesis is to work with equipment that are close to be integrated into a passenger car, i.e. with a reasonable cost. A. Sensors for an intelligent car Every recent car is now equipped with some basic sensors. For example anti-lock braking system (ABS) is required in every new passenger car in EU since 2007, thus sensors monitoring wheel speeds are always present. Other systems can include, among others, steering wheel angle sensor (needed for electronic stability program (ESP) for example). Those are called proprioceptive sensors, aiming at gathering information about the car internal state. They are completed with exteroceptive sensors which are turned toward the external environment of the vehicle (cameras, lidar (light radar), etc.) B. Positioning System Global Navigation Satellite System, abbreviated GNSS is the most commonly used solution for positioning. The American Global Positioning System (GPS) is the first GNSS available worldwide for civilian use (with non-degraded precision since 2000 [6]). Alternative systems include the Russian GLONASS, the Chinese Beidou and the European Galileo (in deployment). Some recent receivers are capable of using multiconstellation to get more accurate results. Inertial Measurement Unit (IMU) can be used to improve the precision of GNSS. Although they are generally expensive, some solutions are becoming more affordable and thus should be considered in this thesis. C. Commuting cars Around 60% of road trips done by passenger vehicles are commuting/repetitive travels [3] (e.g. between residences and work, home, university, or shopping). This allows for continuous enhancement taking advantage of the repetitiveness associated to such trajectories. This use case is thus well fitted for this thesis subject while representing a good proportion of real car usage. III. DIGITAL ROAD MAPS A digital road map is an essential element for the localization of a vehicle. It is as important as the positioning system (e.g. GNSS): the latter provides a way to know where the car is, while the digital map is the element containing information about the environment of the car. Therefore, to be exploitable a position has to be used in conjunction with a road map. This is true as long as we take the assumption that the car follows the structured road environment, the need of a precise digital map is less present in an unstructured environment such as a desert or for other transportation system (boat, airplane). A. Different scales available The precision in the cartography domain can be tied to the notion of scale. Du and Barth define three different scales [2]: 1) Macroscale is the level describing a roadway network with an accuracy of around 10 meters. It is commonly found in the commercial car navigation systems [1]. These maps can contain complementary information like the speed limit of the road, the number of lanes. 63

78 Fig. 2. Renault Fluence IRIS PPK corrected trajectory (blue dots) on the lane level map (solid lines are the lanes center line, dashed lines are the lane markings) B. Study case: Compiègne site mapping In the scope of this study, a precise mapping of the UTC Centre de Transfert (especially the Seville circuit, see Fig. 1) and some open roads in Compiégne has been realized. This mesoscale map contains lane-level description of the road with lane markings position, along with other information (e.g. traffic sign, pedestrian crossing). This map will serve as ground truth for future work. Fig. 1. Detail of the lane-level map of UTC Centre de Transfert, showing the Seville circuit in the top part. This precision is enough for driver guidance (e.g. car GPS navigation system). 2) Microscale corresponds to very precise maps, with information giving the maximum details on the current road (e.g. localization of obstacles). Computer vision (Lidar imagery for example) is usually used to infer this type of maps, in real time most of the time. This can be used for example by some automotive applications such as lane-keeping assistance. The range is most of the time limited to a local area as the information load can rapidly reach very high levels. 3) Mesoscale is situated in-between the first two levels. This can be described as an enhanced Macroscale map: precise information on the roadway is included in the map (multiple lanes, road structures such as turn pockets or off-ramps). The range is wider than microscale as information is stored in a map that can cover a large area. The mesoscale offers a good compromise for autonomous car as large areas can be surveyed with a good level of details without sacrificing memory efficiency. Moreover, a map has to be detailed but without overwhelming the user (or the machine) with unnecessary information: this is the topic of map generalization, discussed by McMaster and Shea [4]. Map contents have to be chosen wisely to match the system needs. IV. PERSPECTIVES AND UPCOMING WORK Validation of the ground truth map has to be done meticulously. Some preliminary acquisition has been realized, Fig. 2 shows a Post Processed Kinematic (PPK) corrected trajectory projected on the lane-level map: the first results are good, as the lane centerline corresponds well to PPK trajectory. Further checks include the integration of Mobileye lane markings data. Study on integrity monitoring will follow to determine the needed information to add in the map to allow robust ADAS/autonomous operation. Focus will be on GNSS integrity criteria. Moreover, the notion of learning map will be studied: mechanisms allowing map modification/enhancement must be developed to get a more dynamic map, enhancing its integrity with data gathered from the embedded sensors. Future developments have to take into account the constraint of real time execution. REFERENCES [1] David Bétaille and Rafael Toledo-Moreo. Creating enhanced maps for lane-level vehicle navigation. Intelligent Transportation Systems, IEEE Transactions on, 11(4): , [2] Jie Du and M.J. Barth. Next-generation automated vehicle location systems: Positioning at the lane level. Intelligent Transportation Systems, IEEE Transactions on, 9(1):48 57, March [3] John Krumm. How people use their vehicles: Statistics from the 2009 national household travel survey. Technical report, SAE Technical Paper, [4] Robert Brainerd McMaster and K Stuart Shea. Generalization in digital cartography. Association of American Geographers Washington, DC, [5] Clément Zinoune, Philippe Bonnifait, and Javier Ibanez-Guzman. Detection of Missing Roundabouts in Maps for Driving Assistance Systems. Intelligent Vehicles symposium, pages, June [6] J.F. Zumberge and G. Gendt. The demise of selective availability and implications for the international gps service. Physics and Chemistry of the Earth, Part A: Solid Earth and Geodesy, 26(6-8): , Proceedings of the First COST Action 716 Workshop Towards Operational GPS Meteorology and the Second Network Workshop of the International GPS Service (IGS). 64

79 Information Fusion and Decision Making Using Belief Functions: Application to Therapeutic Monitoring of Cancer Chunfeng Lian Directeurs de thèse : Thierry Denœux et Su Ruan Équipe : DI et Quantif (Labo LITIS) Résumé in this thesis, we aim to develop a decision-aid system to assist the therapy of cancers and predict recurrence. Divers sources of information, such as PET images and patient documents, can potentially play effective roles in this work. Hence finding ways to select the most significant information from these poorly reliable and heterogeneous information sources, then properly fuse them together becomes a key issue in our research. As a powerful formalism of uncertain reasoning, the theory of belief functions is used as the foundation to address this challenge. Keywords Belief Functions, Dempster-Shafer Theory, Medical Image Analysis, Information Fusion, Cancer Therapy Outcome Prediction, PET Images I. INTRODUCTION This Ph.D. topic is sponsored by the China Scholarship Council (CSC), and supervised simultaneously by Professor Thierry Denœux and Professor Su Ruan (LITIS, l Université de Rouen). The field of our research relates to the application of belief functions in medical image analysis. More specifically, based on the theory of belief functions, we aim to develop a decisionaid system to help predicting the treatment outcome and assist the therapy of cancers. In nowadaysí medical context, the radiotherapy and chemotherapy are important tools for cancer treatment. After radiotherapy and/or chemotherapy, another important task for clinicians is to design an efficient follow-up treatment planning for the patient. As accurately predicting the outcome prior to or even during cancer therapy is the foundation for tailoring and adapting a treatment planning [1], we plan to persistently observe the situation of the patient being treated, and gather potentially useful information to predict the outcome. Divers sources of information can be used for outcome prediction, such as different kinds of medical records, patientís characteristics and expertís judgments. Comparing to them, medical imaging plays a very fundamental role in this work, as it can monitor and follow-up the evolution of tumor lesions non-invasively [2]. The metabolic uptake information provided by fluoro-2-deoxy-d-glucose (FDG) positron emission tomography (PET) has been proven to be predictable for pathologic response of a treatment in several cancers [3]. In addition, some complementary analysis of PET images, e.g., image texture analysis [4], can also provide supplementary evidence for outcome evaluation. Although extracting features from these information sources has been claimed to be predictable, their Recurrence No-Recurrence Disease-Free Disease-Positive tumour (a) Lung Tumours (b) Esophageal Tumours Fig. 1. Example FDG-PET images from different views; (a) recurrence and no-recurrence instances before treatment of lung tumour; (b) disease and disease-free instances before treatment of esophageal tumour. further application is still hampered by a practical difficulty: as often encountered in the medical domain, many information sources are partly unreliable, heterogeneous and conflicting with each other. For instance, due to the system noise and limited resolution of PET imaging, as well as the effect of small tumor volumes, some of the (texture and intensity) features extracted from FDG-PET images are imprecise and unreliable. As a result, finding ways to select discriminative features from imperfect information sources, and properly fuse them together turns out to be a key issue. As a powerful framework for reasoning with uncertain and imprecise information, the theory of belief function is utilized in this thesis to address this challenge during the construction of the decision-aid system. II. PROGRESS OF RECENT WORK A. An Evidential Classifier based on Feature Selection The proposed method is composed of a feature selection procedure and a two-step classification strategy, both based on a specific mass function construction method. It uses features of Dempster s rule, Yager s rule and Shafer s discounting procedure to achieve a reasonable representation TABLE I. AVERAGE PREDICTION ACCURACY (AVE±STD, IN %) OF THE MODIFIED EK-NN CLASSIFIER WITH DIFFERENT FEATURE SELECTION METHODS. EFS DENOTES THE PROPOSED FEATURE SELECTION METHOD. Method Lung Tumour Data Esophageal Tumour Data Accuracy Robustness Accuracy Robustness All features 76±44 n/a 64±49 n/a SFS 84± ±44 51 SFFS 72± ±40 53 SVMRFE 92± ±44 80 EFS 100± ±

80 (a) Lung tumor data: recurrence ; no-recurrence (b) Esophageal tumor data: disease-positive; disease-free PCA NCA ELT ELT-FS Fig. 2. Two-dimensional transformation results of different methods. ELT and ELT-FS denote, respectively, the proposed feature transformation method with/without the sparsity regularization. of uncertainty and imprecision in the Evidential K-NN (EK- NN) classifier [5]. A new criterion based on belief functions is constructed for feature selection: 1 n n i=1 q=1 c (P l i (ω q ) t i,q ) 2 +ρ 1 n n m i (Ω)+ξ Spa, (1) i=1 in which the first term minimizes the average training error; the second term penalizes feature subsets that result in high uncertainty and imprecision; the last term, which is an approximation of the l 0 -norm regularization, forces the selected feature subset to be sparse. As a global optimization method, the integer genetic algorithm has been used to solve this optimization problem. The proposed method has been compared with some other feature selection methods on a lung tumor data set and an esophageal tumor data set (examples images can be seen in Fig. 1). Results shown in TABLE I demonstrate the effectiveness of the proposed method. B. Evidential Distance Metric Learning To maximize the performance of the EK-NN classifier in our application, a distance metric learning method based on belief functions has been proposed. A specific loss function with sparsity regularization has been designed for learning a low-dimensional transformation matrix A: l(a) = 1 n loss i + λ A 2,1, (2) n i=1 in which the first term minimizes the imprecision regarding each observation s class membership; while the second term, namely l 2,1 -norm sparse regularization of A is included to control the influence of imprecise input features on the output transformation via feature selection. As a differentiable function in respect of A, Eq. (2) is then minimized using a quasi-newton method. As an example of the evaluation on the two real patient data, we visualized the dimension reduction in 2D achieved using different methods, as shown in Fig. 2. It can be seen that different classes in both data sets are better separated by our methods than using other methods. The best separation is achieved using our feature transformation method with the sparsity regularization (ELT-FS). III. FUTURE WORK In the future, we will further evaluate the proposed distance metric learning method on more and larger data sets with different types of tumors. Moreover, to further improve the prediction accuracy, we will attempt to include more features that extracted from other complementary sources of information, such as CT, FLT-PET, FMISO-PET images, etc. After that, as accurate tumor segmentation is a precondition for precise feature extraction, we will study how to segment tumor lesions using multi-tracer PET images to optimize our decision-aid system. If everything goes well,i plan to finish my thesis at the End of March A. Papers IV. PUBLICATIONS C. Lian, S. Ruan and T. Denœux, An evidential classifier based on feature selection and two-step classification strategy, Pattern Recognition, Vol. 48, pages , C. Lian, S. Ruan, T. Denœux, et al., Outcome prediction in tumour therapy based on Dempster-Shafer Theory, IEEE 12th International Symposium on Biomedical Imaging (ISBI 2015), New York, USA, pages 63-66, April C. Lian, S. Ruan, T. Denœux, et al., Dempster-Shafer Theory based Feature Selection with Sparse Constraint for Outcome Prediction in Cancer Therapy, 18th International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI 2015), Munich, Germany, October 2015 (conditionally accepted). B. Abstracts C. Lian, et al., Cancer Therapy Outcome Prediction based on Dempster-Shafer Theory and PET Imaging, AAPM 57th Annual Meeting and Exhibition (AAPM 2015), California, USA, July (accepted as a finalist for the John R. Cameron young investigator competition.) REFERENCES [1] P. Lambin, R. G. van Stiphout, M. H. Starmans, E. Rios-Velazquez, G. Nalbantov, H. J. Aerts, E. Roelofs, W. van Elmpt, P. C. Boutros, P. Granone et al., Predicting outcomes in radiation oncology multifactorial decision support systems, Nature Reviews Clinical Oncology, vol. 10, no. 1, pp , [2] H. J. Aerts, E. R. Velazquez, R. T. Leijenaar, C. Parmar, P. Grossmann, S. Carvalho, J. Bussink, R. Monshouwer, B. Haibe-Kains, D. Rietveld et al., Decoding tumour phenotype by noninvasive imaging using a quantitative radiomics approach, Nature Communications, vol. 5, [3] H. Mi, C. Petitjean, B. Dubray, P. Vera, and S. Ruan, Prediction of lung tumor evolution during radiotherapy in individual patients with PET. Medical Imaging, IEEE Transactions on, vol. 33, no. 4, pp , [4] F. Tixier, M. Hatt, C. C. Le Rest, A. Le Pogam, L. Corcos, and D. Visvikis, Reproducibility of tumor uptake heterogeneity characterization through textural feature analysis in 18F-FDG PET, Journal of Nuclear Medicine, vol. 53, no. 5, pp , [5] T. Denœux, A K-nearest neighbor classification rule based on Dempster- Shafer theory, Systems, Man and Cybernetics, IEEE Transactions on, vol. 25, no. 5, pp ,

81 Conception et Commande d un Avion pour la Recherche des Personnes Disparues Abstract Le projet vise à développer un véhicule aérien sans pilote (UAV), qui est léger et facile à déployer pour l utilisation dans la recherche des personnes disparues. La délimitation de la zone de recherche sera faite en utilisant d une interface graphique soit sur un PC ou sur une tablette numérique. LUGO CÁRDENAS Israel Directeurs de thèse : LOZANO Rogelio, SALAZAR Sergio Équipe : ASER I. OBJECTIFS ET CONTEXTE Cette étude propose le développement d un système basé sur l utilisation des drones pour l exploration de zones reculées ainsi comme la détection des personnes dans des zones dangereuses. Personnes en détresse signifie des gens qui ont besoin d une intervention des services d urgence; par exemple: les gens encerclés dans une baie par marée haute, les inondations ou les gens disparues dans la forêt. Afin de tester les lois de commande l élaboration d un simulateur de vol a été faite. Avec ce simulateur on peut valider les lois de commande avant d être utilisées dans la plate-forme expérimentale. La plate-forme expérimentale est constitué par un avion de aile fixe avec un autopilote PIXHAWK. Ce travail est partiellement financé par le Conseil National Mexicain pour des Sciences et de la Technologie (CONACYT). II. AVANCEMENT Le travail de thèse inclut la extension de génération de trajectoires et la conception díune stratégie de suivi de trajectoire, ainsi que le développement d un simulateur de modèle complet de l avion pour la validation des lois de commande développées. Le développement d une plateforme expérimentale pour valider les approches proposées sera présenté A. GÈnÈration de trajectoire On a déjà connu la génération de trajectoires en utilisant de les Dubins paths[1](les chemins de Dubins) pour generer une nouvelle trajectoire. Les chemins de Dubins sont composés d exactement trois segments de chemin: Deux arcs de rayon minimal ρ. Une ligne droite de longueur d. Les quatre cas de chemins Dubins sont LSL, LSR, RSR, RSL. O lequel R signifie un virage à droite, le L un virage à gauche et le S un dèplacement en ligne droit. Fig. 1. 3D Dubins Paths B. Extension de la Génération de trajectoire au 3D La base pour l utilisation des chemins de Dubins est un rotation autour d un cercle. Si on ajoute l altitude a un cercle, on peut le considérer comme l extension 3D d un cercle. En utilisant de la même stratégie, mais avec l extension de cercle à cylindre, on peut choisir parmi huit possibilités pour la génération de trajectoires. Les huit cas de chemins Dubins 3D sont LSLU, LSRU, RSRU, RSLU, LSLD, LSRD, RSRD, RSLD. Où U et D représentent vertical défilement vers le haut ou vers le bas. Comme est montre sur la Fig. 1. Nous pouvons dire que la configuration initiale et finale est donnée par c i (p i, ψ i ) c f (p f, ψ f ) où p i = [x i y i z i ] T est la position iniciele, p f = [x f y f z f ] T la position finale, ψ i l angle de lacet iniciale et ψ f l angle de lacet finale Nous pouvons définir la trayectoire cylindrique p cyl (s) = c+ [ ] R cos (λs + ψ) R sin (λs + ψ) sr tan (γ) où p cyl (s) = [p x (s) p y (s) p z (s)] T est la position au long de la trajectoire paramétrée par la longueur d arc s, 67

82 Fig. 2. Trajectoires 3D RSLD (a), RSLD (b) c = [c x c y c z ] T est le centre du cercle qui forme le cylindre, ψ est l angle sous lequel la rotation commence, γ est l angle angle ascendante ou descendante, R est le radious de cercle et λ est le sens de la rotacion. Nous pouvons définir la trayectoire en ligne droite [ ] s cos (ψ) p lign (s) = p i + s sin (ψ) s tan (γ) En utilisant ces equations, nous pouvons générer des trajectoires 3D comme dans la Fig. 2. C. Plate-forme experimentale Dans cette section, nous présentons la plate-forme expérimentale (figure 4) qui fonctionne comme un banc d essai pour la loi de commande prototypage. La plate-forme est constitué díun avion de aile fixe avec un PIXHAWK qui a la fonctionne díautopilote ainsi quíun mini-ordinateur Master- Mind qui à la implémentation de la génération et suivi de trajectoire. L avion a été équipé avec un autopilot qui permet une commande soit manuel, soit semi-autonome, soit autonome; il est equipé des capteurs suivants (voir Fig. 3): GPS Capteurs inertiels Tube de Pitot Modem (Transmition des données) D. Simulateur Une application C.Net personnalisée a été développé nommé MAV3DSim (Multi-Aerial Vehicle 3D Simula-tor). Une explication détaillée du fonctionnement de base du simulateur peut être trouvé dans [2]. On a développé un Hardware- In-the-Loop(HIL) Simulator, Áa veut dire, que le simulateur HIL utilise le hardware du plate-forme expérimentale pour le calcul de lois de commande. Ensuite, envoyé comme entrée du simulateur qui envoie des données GPS et centrale inertielle. Le simulateur est une validation importante de lois de commande avant qu ils soient mis en úuvre dans la plateforme expérimentale. Si la loi de commande fonctionne dans le simulateur, il ya une bonne chance que cela fonctionnera dans la plate-forme expérimentale. Dans la Fig 4, nous avons testé une loi de commande pour les trajectoires de suivi en 2D, qui peut être trouvé Fig. 3. Autopilot dans[3], combiné avec la régulation de l altitude avec un PD commande. Fig. 4. Suivi de trayectoire 3D III. PERSPECTIVES Avec l aide de la génération de parcours 3D, nous pouvons développer des stratégies pour le décollage et l aterrizage autonome et cela peut faire une mission totalement autonome. La recherche de personnes deviendra avec un miniordinateur Mastermind d Ascending Technologies et l utilisation de la bibliothèque OpenCV de vision par ordinateur et utiliser un type de classificateur Haar. IV. PUBLICATIONS I. Lugo-Cardenas, G. Flores, S. Salazar and R. Lozano, 2D Dubins Path Generation and Tracking for a Fixed Wing UAV, Journal of Intelligent and Robotic Systems (JINT). In revision. REFERENCES [1] L.E.Dubins, On curves of minimal length with a constraint on average curvature and with prescribed initial and terminal positions and tangents, American Journal of Mathematics, vol. 79, no. 3, pp. 497ñ516, jul [2] I. Lugo-Cárdenas, G. Flores, R.Lozano, The MAV3DSim: A Simulation Platform for Research, Education and Validation of UAV Controllers, 19th World Congress of the International Federation of Automatic Control (World IFAC 2014), Cape Town, South Africa, [3] I. Lugo-Cárdenas, G. Flores, S. Salazar and R. Lozano, Dubins Path Generation for a Fixed Wing UAV, 2014 International Conference on Unmanned Aircraft Systems (ICUAS), Orlando, FL, USA, May

83 Télé-opération de véhicules aériens dans une zone contenant des obstacles Résumé Ce travail porte sur le développement d'un système de navigation des drones pour le suivi autonome de trajectoires en extérieur ou bien pour la télé-opération haptique dans une zone contenant des obstacles. Ce système peut être utilisé dans des missions de recherche et de sauvetage de personnes. Pour ce faire, la localisation du drone est obtenue on utilisant des nouvelles techniques de vision monoculaire par ordinateur en combinaison avec algorithmes d estimation. La détection d obstacles et l évitement des collisionnes sont aussi considères en utilisant l information obtenue pour une caméra en face de drone. Diego Alberto MERCADO-RAVELL Directeurs de thèse : Rogelio lozano, Pedro Castillo Équipe : (ASER, DI, ICI, RO) I. INTRODUCTION Cette thèse s inscrit dans le projet "SEARCH", dont le but est de développer un système de recherche et de sauvetage de personnes disparues dans des environnements inconnus (par exemple dans la forêt). Sur cette problématique plusieurs objectifs ont été envisagés, nous pouvons citer par exemple : la conception d algorithmes de commande pour la stabilisation et le suivi autonome de trajectoires, l estimation d états en utilisant capteurs à bas cout, l utilisation d une flottille de plusieurs drones en formation, ainsi que la télé-opération assistée en utilisant des dispositifs haptiques et l utilisation de la vision monoculaire pour la détection d obstacles. Pour cette dernière année de thèse, l objectif a été de valider expérimentalement les lois de commande proposées. Également, on a mis dans le cahier de charges la maitrise et l application de nouvelles techniques de vision monoculaire par ordinateur, pour réaliser la navigation autonome de drones et l évitement d obstacles. II. AVANCEMENTS Pendant les deux premières années de thèse, plusieurs stratégies de commande pour le suivi de trajectoire d un ou plusieurs drones en formation ont été développées, testées en simulation numérique et validés expérimentalement. Par exemple, en [8], on a proposé une linéarisation par retour d états pour commander un quadrotor. De même, une loi de commande par modes glissants a été conçue et validé en temps réel [5]. Egalement, le problème pour estimer la position du véhicule a été adressé en utilisant algorithmes de fusion de données comme le filtre Kalman [7] et le filtrage particulaire [4]. J ai également travaillé sur la problématique de vol à l extérieur dans des conditions adverses, par exemple ; mesures bruitées du GPS (Global Positioning System, en anglais) [6], ou bien avec incertitudes inconnues et perturbations externes [3]. Figure 1. Suivi autonome de trajectoires d un quadrotor en utilisant la vision monoculaire. En plus, un travail de coopération très intéressant a été réalisé dans [2], ici le problème pour transporter une charge avec un drone par un câble est étudié. L objectif a été de minimiser les oscillations dans la charge, pour ce faire, une stratégie de commande adaptable a été conçue et testée en temps réel. Une nouvelle technique de vision monoculaire par ordinateur a été utilisée pour la localisation d un drone. Les informations visuelles sont fusionnées avec les mesures inertielles du drone pour avoir une bonne estimation de sa position. Cette technique s appelle PTAM (localisation parallèle et mapping), et il s agit d obtenir un nuage de points caractéristiques dans l image par rapport à une scène qui servira comme repère. Cet algorithme n a pas besoin de cibles, marqueurs ou scènes bien définies. Cette approche, en combinaison avec des outils très puissants comme le système d'exploitation robotique (ROS) et le drone AR.Drone2.0 (voir Figure 1) ont été utilisés, de façon simple, rapide, robuste, sécurisé et à bas cout, pour tester plusieurs lois de commande pour la navigation autonome, en spécial, stratégies linéaires, par retour d états, de mode glissantes et de commande base en passivité ont été mis en œuvre. Notre contribution dans cette méthodologie a été de pouvoir utiliser le nuage de points disperse, regarder Figure 2, pour détecter possibles obstacles en face du véhicule. Avec cette information nous avons proposé un algorithme de commande pour réaliser l évitement d obstacles. Cette loi de 69

84 commande utilise les champs de potentiel pour calculer une force répulsive qui sera appliquée au drone. III. PERSPECTIVES Nous voulons optimiser les algorithmes de détection d obstacles pour avoir une meilleure précision de la distance du drone à l obstacle. Pour ce faire, plusieurs options sont considères, comme par exemple l utilisation des filtres spécialises pour les nuages de points, ou des algorithmes pour classification sémantique pour détecter certain tipes d obstacles d intérêt, comme pet être les arbres dans le foret. Valider en temps réel et comparer d autres lois de commande sont aussi de taches dans le cahier futur de charges. Nous souhaitons également élargir les résultats pour une flottille de drones. Figure 2. Projection horizontal du nuage de points disperse. Une bonne alternative à la navigation autonome, c est la télé-opération assistée. Dans ce cas-là, l objectif a été d aider à l opérateur autant que possible pour qu il puisse commander le drone de façon sécurise et facile. Pour ce faire, on a utilisé un dispositif haptique comme celui représente dans la Figure 3. Cet appareil est équipé d actionneurs permettant le retour de force à l utilisateur. Par exemple, si l opérateur essaie de faire une manœuvre dangereuse trop proche d un mur, le dispositif haptique retournera une force en sens opposée comme avertissement, et si nécessaire, une force assez grande sera appliquée pour éviter l écrasement du drone. Des expériences sur cette thématique ont été réalisées avec résultats satisfaisants, comme on peut regarder dans la vidéo https://www.youtube.com/watch?v=-ovfyzpfs3g. La rédaction de la thèse est une tâche prioritaire dans les mois suivants. Nous préparons des publications, qui seront soumis dans des revues internationales, avec les derniers résultats sur l évitement d obstacles et la télé-opération haptique.t Publications [1] D. Mercado, P. Castillo and R. Lozano. Quadrotor s Trajectory Tracking Control using Monocular Vision Navigation. International Conference on Unmanned Aircraft Systems, Denver, USA, [2] M. E. Guerrero, D. A. Mercado, R. Lozano and C. D. Garcia. IDA-PBC Methodology for a Quadrotor UAV Transporting a Cable-Suspended Payload. International Conference on Unmanned Aircraft Systems, Denver, USA, [3] D. Mercado, P. Castillo, R. Castro and R. Lozano. 2-Sliding Mode Trajectory Tracking Control and EKF Estimation for Quadrotors. The 19 th World Congress of the International Federation of Automatic Control, Cape Town, South Africa, [4] D. Mercado, P. Castillo and R. Lozano. Quadrotors Data Fusion using a Particle Filter. International Conference on Unmanned Aircraft Systems, Orlando, USA, [5] D. Mercado, R. Castro and R. Lozano. Quadrotors Flight Formation Control Using a Leader-Follower Approach. European Control Conference, Zurich, Swiss, [6] D. Mercado, R. Castro and R. Lozano. Quadrotors Trajectory Tracking Control with Inaccurate GPS Measurements. 2 nd IFAC Workshop on Research, Education and Development of Unmanned Aerial Systems, Compiegne, France, [7] D. Mercado, G. Flores, P. Castillo, J. Escareno and R. Lozano. GPS/INS/Optic Flow Data Fusion for Positioning and Velocity Estimation. International Conference on Unmanned Aircraft Systems, Atlanta, USA, [8] D. Mercado, R. Castro and R. Lozano. Control de Quadri-rotores en un esquema de Formacion Lider-Seguidor. XV Congreso Latinoamericano de Control Automatico, Lima, Peru, Figure 2. Dispositif haptique 70

85 Ordonnancement et gestion de moyens de transport dans les systèmes flexibles de production Mohamed Amine Mkadem Directeurs de thèse : Aziz Moukrim, Mehdi Serairi Équipe : RO RÉSUMÉ - Nous nous intéressons à des problèmes d ordonnancement et de gestion de moyens de transport dans les systèmes flexibles de production et plus précisément au problème de flow-shop à deux machines avec temps de transport. Nous modélisons le problème par un programme linéaire en nombres entiers (PLNE). Un ensemble d inégalités valides est proposé afin d améliorer la relaxation linéaire. Les tests sur les différentes classes de la littérature montrent que notre approche domine toutes les bornes inférieures de la littérature. De plus, de nouvelles classes d instances difficiles ont été identifiées, pour lesquelles les résultats de la relaxation linéaire sont largement meilleurs que ceux de la littérature. MOTS-CLÉS : Recherche opérationnelle, Programmation linéaire, Flow-shop, Temps de transport, Inégalités valides. La présente thèse se déroule au sein de l équipe "Réseaux, Optimisation" du laboratoire Heudiasyc UMR CNRS Elle est encadrée par M. Aziz Moukrim et M. Mehdi Serairi et est financée par le ministère de l éducation nationale, de l enseignement supérieur et de la recherche. Elle a débuté le 01/11/2014 et doit se terminer fin I. OBJECTIFS ET CONTEXTE DE LA THÈSE Les problèmes d ordonnancement sont parmi les problèmes les plus étudiés du domaine de l optimisation combinatoire. Cet intérêt est dû au grand nombre d applications qui peuvent être modélisées par cette classe de problèmes. Dans un contexte industriel très difficile, la résolution des problèmes d ordonnancement offre des outils d aide à la décision qui permettent aux entreprises d optimiser leur processus de fabrication en termes de réduction de coût et de temps. Nous nous intéressons à la résolution des problèmes d ordonnancement et gestion de moyens de transport dans les systèmes flexibles de production. Un tel système est composé d un système de traitement de jobs et d un système de transport qui assure le déplacement des jobs entre stations. Nous nous intéressons à la résolution conjointe des problèmes d ordonnancement des jobs et de la gestion des moyens de transport qui constituent souvent des ressources critiques. L amélioration des performances doit donc passer par une bonne gestion de ces ressources. Nous modélisons le problème comme suit. Nous disposons d un ensemble de n jobs J = {1, 2,..., n}, où chaque job j est composé de deux opérations O 1,j et O 2,j. L opération O 1,j doit être exécutée, sans préemption, durant p 1,j unités de temps dans un premier atelier. Ensuite l j unités de temps sont nécessaires pour transporter le job à un deuxième atelier où l opération O 2,j doit être exécutée, sans préemption, durant p 2,j unités de temps. L objectif est de trouver un ordonnancement des jobs dans les deux ateliers qui minimise le temps de fin de la dernière opération exécutée dans le deuxième atelier, tout en s assurant que les contraintes de non préemption des opérations et de transport des jobs ne sont pas violées. Dans la première partie de la thèse, nous supposons qu un seul moyen de transport est disponible. En se référant à la notation de Graham et al. [2], le problème est noté par F 2 l j C max. Yu [6] a démontré que F 2 l j C max est NP difficile au sens fort. II. AVANCEMENT La première partie de cette thèse a été dédiée à l étude de la littérature ainsi qu à la modélisation du problème. Quatre modèles linéaires en nombres entiers, ainsi qu un ensemble d inégalités valides ont été proposés. A. Etat de l art Plusieurs variantes du problème de flow-shop vérifient que l ensemble des ordonnancements de permutation (la même séquence de jobs sur les deux machines) est dominant. Mitten [4] a démontré que F 2π l j C max est équivalent au problème de flow-shop F 2 C max à deux machines introduit par Johnson [3]. Par conséquent F 2π l j C max peut être résolu en O(n log n). Cependant, Yu [6] et Dell Amico [1] ont démontré que dans des certains cas, l ensemble des ordonnancements de permutation est dominant. Dell Amico [1] a établi ce résultat dans le cas suivant : max j J {l j } min j J {p 1,j + l j } (1) Ou max j J {l j } min j J {p 2,j + l j } (2) Yu a étendu ce résultat comme suit : l i l j +max{p 1,j, p 2,j } et l j l i +max{p 1,i, p 2,i } (i, j) J 2. (3) A notre connaissance les deux contributions principales pour F 2 l j C max sont celles de Yu [6] et Dell Amico [1]. En effet, des bornes inférieures ont été proposées dont le schéma de relaxation consiste à chevaucher les jobs sur une machine, découper les jobs en tranches unitaires, et la relaxation du 71

86 temps de transport. La dernière consiste à réduire le temps de transport de manière qu un ordonnancement de permutation soit dominant. D un autre point de vue, Dell Amico [1] a aussi proposé des heuristiques constructives et une méta-heuristique basée sur la recherche Tabou. Notons que plusieurs études se sont intéressées au cas où les temps d exécution dans les deux ateliers sont unitaires (p 1,j = p 2,j = 1). Yu et al. [7] ont démontré que le problème est NP difficile au sens fort. Yu [6] a proposé un ensemble de bornes inférieures. Ces bornes ont été améliorées par Moukrim et al. [5] dans le cas où une sous séquence de jobs est fixée sur la machine 1. De plus, Moukrim et al. [5] ont proposé un algorithme exact basé sur la méthode de séparation et évaluation. B. Modélisation Nous avons modélisé le problème en programme linéaire en nombres entiers. Nous avons considéré plusieurs versions. La différence principale réside dans le choix des variables de décision qui sont basées sur : les positions des jobs, les précédences locales entre jobs, les précédences globales entre jobs, la discrétisation de l horizon. A ce niveau, il est important de préciser que la version de discrétisation de l horizon comporte un nombre pseudopolynomial de variables qui constitue un réel handicap pour la convergence de la résolution de ce modèle. Quand aux deux premières, l introduction d un M est nécessaire afin de modéliser les contraintes de transport des jobs. Ces remarques ont été confirmées par l étude expérimentale qui montre que les instances résolues par ces modèles sont de très petite taille (au maximum n = 10). Par contre, la troisième formulation présente de meilleurs résultats et sa relaxation linéaire est de bonne qualité. Partant de ce constat nous avons proposé des inégalités valides. Ces inégalités ont un double intérêt étant donné qu elles permettent de renforcer la qualité de la relaxation linéaire du PLNE et d améliorer la convergence de la résolution du PLNE. Ces inégalités sont basées sur les raisonnements suivants : La proposition de nouvelles règles de dominance. L identification de sous instances, tel que chacune d entre elles vérifie la contrainte (3), et par conséquent un ordonnancement de permutation est dominant. L identification de ces sous instances, revient à modéliser l instance d origine sous forme d un graphe d intervalles dont on détermine les cliques maximales. Les sous instances créées sont résolues à l optimalité et des contraintes sur la durée d exécution de chaque sous instance sont considérées dans la formulation. Nous avons également exploité une propriété du problème qui spécifie que les jobs sont ordonnancés sur la seconde machine dans l ordre de leurs arrivées sur cette même machine. III. PERSPECTIVES : PLANNING JUSQU À LA FIN DE LA THÈSE, ET DATE DE SOUTENANCE PRÉVUE Pour la fin de la première année, nous aborderons la résolution exacte du PLNE. Nous envisageons d exploiter un ensemble de propriétés spécifiques au problème pour les introduire au niveau des noeuds du branch and cut du solveur. La proposition de modèles de programmation par contraintes est envisageable. La deuxième année sera consacrée à l élaboration de méthodes de résolution approchées. La troisième année concernera la proposition d un algorithme de résolution exacte basé sur la méthode de séparation et évaluation. En parallèle, il faudra rédiger le mémoire de thèse. La soutenance est prévue pour la fin de l année REFERENCES [1] M. Dell Amico. Shop problems with two machines and time lags. Operations Research, 44(5): , [2] R.L. Graham, E.L. Lawler, J.K. Lenstra, and A.H.G.Rinnooy Kan. Optimization and approximation in deterministic sequencing and scheduling: a survey. In E.L. Johnson P.L. Hammer and B.H. Korte, editors, Discrete Optimization II, volume 5 of Annals of Discrete Mathematics, pages Elsevier, [3] S. M. Johnson. Optimal two- and three-stage production schedules with setup times included. Naval Research Logistics Quarterly, 1(1):61 68, [4] L. G. Mitten. Sequencing n jobs on two machines with arbitrary time lags. Management Science, 5(3): , [5] A. Moukrim, D. Rebaine, and S. Serairi. A branch and bound algorithm for the two-machine flowshop problem with unit-time operations and time delays. RAIRO - Operations Research, 48(2): , [6] W. Yu. The two-machine flow shop problem and the one-machine total tardiness problem. PhD thesis, Eindhoven University of Technology, The Netherlands, [7] W. Yu, H. Hoogeveen, and J.K. Lenstra. Minimizing makespan in a two-machine flow shop with delays and unit-time operations is np-hard. Journal of Scheduling, 7(5): ,

87 Planification de trajectoires sur la base d une perception évidentielle pour un véhicule autonome Mouhagir Hafida Directeurs de thèse : Reine Talj (CR CNRS), Véronique Cherfaoui (MdC HDR), Frédéric Mangonneaux (Ing. R&D PSA) Équipe : ASER Abstract Les véhicules autonomes permettent de remplacer certaines fonctions réalisées par le conducteur humain, comme la perception de l environnement dynamique, la localisation, la planification des trajectoires et la décision, ou encore le contrôle des actionneurs. Cette thèse consiste à développer des méthodes de planification de trajectoires réactives locales, principalement la méthode des tentacules en forme de clothoïdes, qui tiennent compte des incertitudes de perception à travers des grilles évidentielles égo-centrées qui représentent l environnement proche du véhicule. I. INTRODUCTION Pour la conduite autonome, un des défis majeurs est de reproduire un comportement irréprochable, comparable à un comportement humain, respectant le trafic et le code de la route (ne pas gêner les autres véhicules, conduite confortable pour les passagers du véhicule, conduite éthique et non anxiogène pour les véhicules environnants). Ce comportement doit Ítre tester sur un ensemble de situations de conduite (en particulier : changement de voie, dépassement, intersections, gestion des insertions et des sorties du véhicule autonome et des autres véhicules, évitement d obstacles fixes et mobiles notamment à grande vitesse). Une conduite autonome peut être divisée en trois étapes : la perception de l environnement, la planification de trajectoires et le contrôle du véhicule: La perception de l environnement s intéresse à la localisation et la reconstruction d une partie de l environnement de véhicule correspondant à la zone dans laquelle il est susceptible d évoluer dans un futur proche, et la détection des obstacles fixes et mobiles. La planification de trajectoires a pour objectif de permettre à un véhicule de se déplacer d un point initial à un point final en tenant en compte la dynamique de véhicule et l évitemement des obstacles. Le contrôle du véhicule consiste à manoeuvrer le véhicule utilisant les actionneurs tels que, le volant, le frein et l accélérateur pour suivre la trajectoire de référence. locales, principalement la méthode des tentacules en forme de clothoïdes, en se basant sur des grilles évidentielles égocentrées. - Etude d une méthode de prédiction des grilles d occupation évidentielles qui représentent l environnement proche du véhicule et qui prennent en compte les incertitudes de la perception. - Mise en oeuvre des algorithmes développés en simulation et en expérimentation. II. A. Etude bibliographique AVANCEMENT DES TRAVAUX Une étude bibliographique [Mouhagir, 2015] a été mené sur les méthodes de planification de trajectoire et sur la perception à l aide des grilles. Cette étude nous a permise de choisir l approche réactive par génération de tentacules dans des grilles évidentielles, et afin d intégrer l incertitude de la perception, on a opté pour la méthode des POMDPs. B. Méthode des tentacules en forme de clothoïdes Le principe de cette méthode consiste à utiliser un ensemble d antennes virtuelles appelés tentacules sous forme de clothoïde (une courbe dont la courbure varie linéairement en fonction de l abscisse curviligne, et qui ressemble à la forme des routes) dans une grille d occupation égo-centrée liée au véhicule, et qui représente l environnement proche du véhicule avec la position des obstacles [Chebly at al., 2015] [Tagne, 2014](figure 1). Une fois les trajectoires virtuelles créées, une évaluation de ces dernières est éffectuée afin de choisir la meilleure selon plusieurs critères définis [Hundelshausen et al., 2008]. Le meilleur tentacule ou trajectoire de référence sera executé par le véhicule à chaque pas de calcul. Le travail proposé dans cette thèse se divise en quatre étapes principales complèmentaires : - Etude bibliographique sur la planification de trajectoires et les grille évidentielles. - Etude de méthodes de planification de trajectoires réactives Fig. 1. Principe de la méthode des tentacules 73

88 C. Grilles d occupation évidentielles Les grilles cartésiennes 2D utilisent un maillage structuré pour partitionner le plan horizontal de l environnement en cellules (figure 2). Chaque cellule correspond à une portion de surface du sol. Ainsi, la grille ressemble à une vue de dessus de la scène. L état d occupation de chaque cellule est évalué indépendamment et mise à jour à partir des informations capteurs. Journée des Doctorants Heudiasyc 23 juin 2015 Fig. 3. Vue générale d un POMDP sous forme d un diagramme d influence Fig. 2. Principe des grilles Dans le cas de grilles d occupation évidentielles [Moras, 2013], l incertitude est modélisée en utilisant le formalisme des fonctions de croyance. Le cadre de discernement Ω est défini tel que Ω = {F, O}, (F:Free, O: Occupied), le référentiel de définition est 2 Ω = {, F, O, Ω}. On considère que le cadre de discernement est exhaustif. Il existe plusieurs représentations des fonctions de croyance (mass, belief, plausibility, communality). Toutes ces représentations sont équivalentes et nous utilisons la fonction de masse m Ω telle que: m : 2 Ω [0 1] A 2 Ω m(a) = 1 (1) D. Processus décisionnels de Markov partiellement observable Le modèle des processus décisionnels de Markov (MDP) est un modèle très étudié en intelligence artificielle [Brechtel at al., 2014]. Il offre un formalisme pour modéliser et résoudre des problèmes de planification dans l incertain. Les MDP sont des chaînes de Markov visitant les états, contrôlées par les actions et valuées par les revenus(rècompenses). Résoudre un MDP, c est contrôler un agent pour qu il se comporte de manière optimale, c est-à-dire de façon à maximiser son revenu. Toutefois, les systèmes rencontrés dans la réalité peuvent souvent être modélisés comme des processus markoviens, l agent chargé de les contrôler ou d apprendre à les contrôler a rarement accès à une information suffisante pour connaître l état du processus. L agent observe le processus mais ne le connaît pas. Le formalisme des Processus Décisionnels de Markov Partiellement Observable (ou POMDP) permet justement de modéliser ce genre de situation où un agent n a accès qu à des informations souvent partielles sur le processus à contrôler. Un processus décisionnel de Markov partiellement observable (figure 3) est définit par : (S, A, Ω, p, O, r, b 0 ) où : S est l espace d état, A est l espace des actions, Ω est l espace des observations, p() sont les probabilités de transition entre états, O() sont les probabilités d observation sur les états, r() est une fonction de récompense sur les transitions d états, et b 0 est la distribution de probabilité initiale sur les états qui appartient à l espace des croyances B. Le but de l agent est de maximiser la valeur V : B R pour une croyance initiale b 0. Et pour atteindre ce but, il faut trouver une stratégie optimale π : B A et agir en conséquence. Cette valeur est définie comme la somme des récompenses pour une croyance initiale b 0 atténué par γ [0, 1] sous une stratégie π. [ ] V π (b 0 ) = E γ t r(s t, π(b t )) t=0 Sa valeur maximale corresponds à l action qu il faut exécuter. III. CONCLUSION ET PERSPECTIVES Il s avère que la méthode des POMDPs est une méthode prometteuse qui offrent un cadre robuste pour la planification dans les domaines impliquant états cachés et incertitude sur les effets des actions. Donc notre but est de la projeter sur le cas d un véhicule autonome dans un environnement représenté par des grilles évidentielles et la suite d action à étudier correspondra à une trajectoire en clothoïde. Durant cette année à l école doctorale, j ai validé 12 crédit et j ai commencé à assister aux rencontres du Groupe de Travail Automatique et Automobile (en juin à Nantes), et je compte participer à l école d été organisé par le LABEX-MS2T. RÉFÉRENCES [Brechtel at al., 2014] Brechtel S., Gindele T., and Dillmann R., Probabilistic Decision-Making under Uncertainty for Autonomous Driving using Continuous POMDPs, IEEE 17th International Conference on Intelligent Transportation Systems (ITSC) October 8-11, Qingdao, China. [Chebly at al., 2015] Chebly, A. and Tagne, G. and Talj, R. and Charara, A.Local Trajectory Planning and Tracking For Autonomous Vehicle Navigation Using Clothoid Tentacles Method, International IEEE Conference on Intelligent Vehicles Symposium (IV), Seoul, South Korea, Jun, [Hundelshausen et al., 2008] Hundelshausen F.v., Himmelsbach M., Hecker F., Mueller A., and Wuensche H.J., Driving with tentacles : Integral structures for sensing and motion, Journal of Field Robotics, Vol. 25, Issue 9, pp , [Moras, 2013] Moras J. Grilles de perception évidentielles pour la navigation robotique en milieu urbain, [Mouhagir, 2015] Mouhagir H., Lvrable thèse : Commande et planification de trajectoires sur la base d une perception évidentielle pour un véhicule autonome, [Tagne, 2014] Tagne Fokam G., Commande et planification des trajectoires pour la navigation des véhicules autonomes, (2) 74

89 Développement d une commande à modèle partiel appris Analyse théorique et étude pratique NGUYEN Huu Phuc Directeurs de thèse : CHARARA Ali, DE MIRAS Jérôme Équipe : ASER Résumé L objectif de cette thèse est de développer un nouveau concept de commande non linéaire en associant les avantages d heuristiques existantes mais actuellement distinctes. Les spécificités recherchées sont les suivantes : a) obtention d une méthode de commande qui ne nécessite que très peu de réglage sans pour autant avoir un modèle précis du système à commander, b) respect de la dynamique théorique définie par les spécifications quelles que soient les dynamiques négligées, les variations paramétriques du modèle et les perturbations. I. OBJECTIFS ET CONTEXTE En théorie classique de la commande on utilise le modèle théorique du système pour construire et vérifier l expression analytique qui va stabiliser la boucle fermée. Mais généralement, le système réel s écarte de la théorie : des paramètres peuvent varier et les perturbations ne sont pas modélisées. L objectif de cette thèse est de faire une conception d une commande non linéaire qui : minimise le nombre de réglages nécessaire permet de respecter la dynamique en boucle fermée définie dans les exigences rejettent les perturbations et les dynamiques non modélisés La mise en oeuvre pratique est effectuée en utilisant les différents démonstrateurs disponibles au laboratoire Heudiasyc (véhicules intelligents routiers et aérien, suspension magnétique). Heudiasyc appartient au réseau des laboratoires partenaire du projet ANR Equipex Robotex qui a permis l acquisition de plusieurs véhicules routiers robotisés et d une flottille de drones miniatures. La présence de ces démonstrateurs ouvre un fort potentiel de mise en oeuvre réelle afin de démontrer la viabilité des approches proposées. Cette thèse est financée par le ministère et a commencé en décembre A. Travaux réalisés II. AVANCEMENT La commande développée est basée sur l utilisation d une discrétisation numérique spatiale et temporelle du comportement du système. Dans une matrice dont les axes sont les états et les entrées du systèmes, on enregistre l état tel qu il sera à un pas de temps en fonction du point de la matrice considérée. Les points absents de la matrice sont reconstruits par interpolation. En fonction de l objectif de sortie fixé par la spécification, on cherche par un algorithme d optimisation [1] la meilleure commande permettant d atteindre l objectif à un pas d échantillonnage. Cette commande a été mise en pratique pour le palier magnétique [2]. Le premier modèle considéré est un modèle simplifié du PVTOL (Planar vertical takeoff and landing). Son équation dynamique est donnée par l équation (1) : ẍ = u 1 sin θ + ɛu 2 cos θ + δ w ÿ = u 1 cos θ + ɛu 2 sin θ 1 θ = u 2 (1) où u 1 est la force de poussée, u 2 est le couple de rotation, l angle θ est l angle de roulis du PVTOL et ɛ est un paramètre de couplage entre les deux axes. On peut introduire une perturbation δ w comme le vent au système (ici uniquement sur l axe horizontale). On utilise l équation (1) comme connaissance à priori du système pour construire des tables de prédiction. Cette commande reste lourde à calculer à cause du maillage important de l espace conjoint états-entrées de construction des tables. Pour obtenir un maillage large, un deuxième essai a été effectué. Dans ce cas, le modèle du PVTOL est approximé par un système ultra-local (2). L approximation de modèle doit ensuite être compensée par le correcteur d erreur de prédiction présent dans l algorithme de commande. ẍ = θ + F 1 ÿ = u 1 + F 2 θ = u 2 + F 3 (2) L algorithme de commande du PVTOL a été mis en pratique sur le système réel AR-Drone 2 au laboratoire. Le deuxième modèle considéré est un modèle véhicule routier. Dans ce travail, des études de pneumatique [3] et de la dynamique des véhicules ont été réalisés afin d obtenir les équations dynamiques du modèle bicyclette représentant un véhicule. Finalement, on applique la commande par inversion de modèle sur ce système [4]. En pratique, on ne peut pas modéliser le système exactement. Donc, on propose un algorithme d apprentissage pour améliorer en ligne la table de prédiction. A partir l erreur entre la sortie et la prédiction, on modifie localement la table de prédiction en utilisant une gaussienne fonction de la distance entre le point prédit et le point observé. Les figures Fig. 1 et Fig. 2 montrent l effet d apprentissage pour le changement de la masse du quadrirotor et le coefficient de poussée F = 0.2F. B. Résultats obtenus Des essais de commande ont été réalisés en simulation afin de tester pour le système PVTOL, par exemple le suivi de 75

90 Fig. 1. Fig Suivi d un cercle sans l apprentissage x0y Suivi d un cercle avec l apprentissage x0y trajectoire et des tests de robustesse, etc. La Fig. 3 montre que la trajectoire du système PVTOL converge vers la trajectoire de référence (ligne tirée-pointillée). Dans ce cas, on a une perturbation permanente δ w = 0.2 à partir de t = 22s et ɛ = Position y Disturbance Position x Fig. 3. Suivi d un cercle x0y Après étude de cet algorithme de commande en simulation, des essais réels ont été effectués sur le système quadrirotor AR-drone2. La Fig. 4 montre la trajectoire réelle obtenue par le système AR2. Dans ce cas, c est un cercle à rayon 0.5m avec la vitesse angular ω = 0.8rad/s. La Fig. 5 montre le résultat de la simulation du modèle véhicule. Dans cette simulation, la table de prédiction est générée utilisant un modèle bicyclette et le modèle véhicule est construit utilisant MapleSim [4]. III. PERSPECTIVES Application réelle de la commande sur les véhicules Zoé. Fig. 4. Fig y (m) Suivi d un cercle AR-Drone x0y ref bicycle vehicle x (m) Suivi de trajectoire pour le véhicule x0y Passer d un modèle PVTOL à un modèle de quadri rotor complet. Mise en pratique de la commande par apprentissage. Utilisation de la table de prédiction en commande à horizon fini. Date de soutenance prévue : Déc IV. PUBLICATIONS EFFECTUÉES Des publications publiées sont [4], [5] pour le véhicule et [6] pour le PVTOL. RÉFÉRENCES [1] Stéphane BONNET : Appoches numérique pour la commande des systèmes dynamiques. Thèse de doctorat, Université de Technologie de Compiègne, France, [2] J. DE MIRAS et S. BONNET : Nonlinear control of a magnetic levitation shaft by numerical inversion of its behavioral model. In 13th IEEE European Control Conference, Strasbourg, France, June [3] Hans B. PACEJKA : Tyre and Vehicle Dynamics. Butterworth-Heinemann, Oxford, second edition édition, [4] H-P. NGUYEN, J. DE MIRAS, S. BONNET et A. CHARARA : Nonlinear control for the vehicle by numerical inversion of its behavioral model. In 14th European Control Conference, Linz, Austria, July [5] H-P. NGUYEN, J. DE MIRAS, S. BONNET et A. CHARARA : Commande non linéaire en temps discret utilisant un modèle de référence d un véhicule automobile. In Sième Jounées Doctorales, Jounées Nationales MACS, Bourges, France, Juin [6] H-P. NGUYEN, J. DE MIRAS, S. BONNET et A. CHARARA : Nonlinear control of the PVTOL aircraft by numerical inversion of its behavioral model. In 23th IEEE International Conference on Control Application, Antibe, France, October

91 Prédiction énergétique d un véhicule hybride rechargeable pour la réduction de consommation de carburant Abdel Djalil OURABAH Directeurs de thèse : Thierry DENŒUX (UTC), Benjamin QUOST (UTC) et Atef GAYED (Renault) Équipe : Décision et Image Résumé Ce document résume les travaux réalisés durant la 2 ère année de cette thèse autour de la problématique d optimisation énergétique appliquée aux véhicules hybrides rechargeables. Les travaux concernant la prédiction de la consommation énergétique et l optimisation de la décharge de la batterie sur un trajet y sont présentés. Les perspectives quant à la suite de la thèse clôtureront ce document. Mots-clés : Véhicules hybrides rechargeables ; Gestion de l énergie ; Optimisation ; Prédiction de comportement ; Apprentissage ; Fusion de données ; Système de navigation. I. OBJECTIF ET CONTEXTE A. Contexte Le contexte de cette thèse est l optimisation de la dépense énergétique d un véhicule hybride rechargeable (PHEV pour Plug-in Hybrid Electric Vehicle). Un PHEV est alimenté conjointement par une source d énergie électrique et un moteur thermique conventionnel. Le degré de liberté apporté par la présence de deux motorisations pose le problème de la gestion des deux sources d énergie embarquées (thermique et électrique). L utilisation judicieuse des ressources énergétiques consiste alors soit à alterner entre ces deux sources, soit à les faire travailler conjointement, de manière à minimiser la consommation de carburant et l émission de dioxyde de carbone du véhicule. Cette stratégie d utilisation dépend d un grand nombre de paramètres, parmi lesquels le comportement de conduite (vitesse/accélération, angle du volant) ou les conditions de conduite (profil altimétrique du trajet, chargement du véhicule, température extérieure). Le comportement de conduite dépend à son tour de plusieurs facteurs, comme le contexte (urbain, autoroute ), l état du trafic (fluide, embouteillage), les conditions atmosphériques (pluie, brouillard ), qu'il n est généralement pas possible de connaître a priori. L exploitation du système de navigation embarqué peut aider à anticiper ces conditions de roulage. B. Objectif Remarquons que si le comportement et les conditions de conduite du véhicule sont parfaitement connus sur la totalité du trajet, il est possible de déterminer la stratégie d'utilisation optimale des ressources énergétiques du véhicule grâce à des méthodes d'optimisation. Une approche numérique très utilisée, qui consiste à coupler un modèle quasi-statique du véhicule [5] avec à un algorithme de Programmation Dynamique (DP) [6], permet de calculer la commande optimale minimisant le critère établi (consommation, émissions) sur le trajet défini. Notons que ces techniques sont difficilement implémentables dans un environnement embarqué car elles requirent la connaissance parfaite des futures conditions de roulage et des capacités de calculs importantes. L'optimisation des performances énergétiques d un PHEV peut donc se ramener à la prédiction des futures conditions de conduite sur chaque tronçon composant le trajet fourni par le système de navigation, sous la forme d'une catégorie énergétique (CE). On peut définir la notion de CE comme un mode d'utilisation des ressources énergétiques du véhicule correspondant à des conditions de roulage caractéristiques (par exemple vitesse élevée, trafic fluide, pente nulle). La consommation de carburant d'un PHEV est liée à la quantité d énergie électrique utilisée : la CE est donc une caractéristique propre à ce type de véhicules. Elle se différencie de la demande énergétique classique en ce que le véhicule hybride est capable d emmagasiner de l énergie électrique par freinage ou par couplage mécanique avec le moteur thermique, pour restituer cette énergie au moment opportun. L objectif de cette thèse est de développer un système permettant de prédire une CE pour chaque tronçon de la route en utilisant les informations qualitatives et quantitatives fournies par le système de navigation embarqué et les données du véhicule. Cela fait, un algorithme d optimisation qui respect les contraintes d embarquabilité pourra être utilisé pour calculer la décharge optimale de la batterie le long du trajet. C. Lieu Durant cette deuxième année j ai réalisé mes travaux principalement chez Renault, avec des points réguliers avec mon encadrant UTC. A cela s ajoute mon présentiel à l UTC pour assister aux cours dispensés par l école doctorale. D. Financement Cette thèse est réalisée dans le cadre d une convention CIFRE n 2013/0235 entre Renault et l ANRT. Un contrat de thèse établit les règles de fonctionnements entre L UTC et Renault. II. AVANCEMENT Durant la première année de thèse nous avons développé tout un processus nous permettant d enrichir une base de roulages géolocalisés par les données de la route issue d une base cartographique (HERE maps). En nous basant sur les travaux de [7] nous avons segmenté chaque enregistrement en fonction des conditions de roulage (type de route, vitesse et pente) en éléments que nous avons appelé Micro-Trajet (MT). 77

92 Conso [l/km] A l aide d un algorithme d optimisation hors ligne en DP nous avons calculé la consommation énergétique optimale pour chaque MT, celle-ci est représentée par une courbe de consommation spécifique (CCS) qui lie la consommation de carburant à l utilisation de l énergie électrique. Chaque CCS est modélisée par une fonction quadratique bornée [8] (voir Fig.1). 0.2 Journée des Doctorants Heudiasyc 23 juin 2015 gains apportés par notre stratégie sur trois trajets types sont présentés dans la Tab. I. Jusque-là trois brevets ont été rédigés. Le brevet [8] décrit globalement l approche d optimisation énergétique développée pour un PHEV et est une conséquence directe de mes travaux de thèse. Les brevets [7] et [9] sont issus de mon implication dans les problématiques traitées au sein de mon équipe à Renault ARTEMIS Embouteillage ARTEMIS Urbain ARTEMIS Extra Urbain ARTEMIS Autoroutier SoE [Wh/km] Fig. 1. Example de quatre CCS calculées pour les cycles de test ARTEMIS avec en abscisse la variation d énergie électrique (négative pour une décharge) et en ordonnée la consommation de carburant Les travaux réalisés durant cette seconde année de thèse se sont focalisés autour de deux éléments: la prédiction énergétique à partir des conditions de roulage qui a pour but de déterminer les coefficients des CCS sans utiliser la DP, et le calcul de la trajectoire de décharge optimale de la batterie. Dans un premier temps nous avons calculé à partir du profil de vitesse de chaque MT de notre base une série caractéristique tirée de [9]. Une étude de corrélation suivie d une analyse en composante principale ont permis d extraire deux prédicteurs de la consommation énergétique: la vitesse moyenne et l accélération relative positive. Par la suite, ces deux prédicteurs ont été utilisés pour faire la prédiction de la des coefficients des CCS sur les tronçons de route. Deux approches classification et régression ont été testées. L approche classification a pour principe de grouper les CCS puis de classer chaque nouveau tronçon de route dans un de ces groupes, on choisira par exemple le barycentre du groupe pour déduire les coefficients de la CCS. L approche régression permet de calculer une fonction continue qui prédit la valeur des coefficients des CCS à partir des prédicteurs, une précision de 0.64l/100km a était obtenu avec cette approche, elle sera présentée dans [6]. Fig. 2. Schéma bloc du simulateur PHEV avec les nouvelles briques de prédiction et d optimisation en vert Une fois l approche de prédiction validée nous avons poursuivi avec l étape d optimisation de la trajectoire de décharge. Un algorithme d optimisation A* a été développé pour calculer la trajectoire de décharge optimale à l aide des CCS prédites et attributs de chaque tronçon de la route. Les briques de prédiction et d optimisation ont été greffées au simulateur PHEV Renault sous Simulink (voir Fig. 2). Les III. PERSPECTIVES Il sera important de lier chaque coefficient des CCS, induit par la modélisation quadratique, au phénomène physique sousjacent afin d expliquer l impact de chaque grandeur sur le résultat de l optimisation énergétique. Après avoir validé notre approche de prédiction et d optimisation dans des conditions de fonctionnement nominales, il sera par ailleurs nécessaire de tester sa robustesse en mode dégradé: données imprécises ou manquantes, info trafic indisponible, etc. Un second article est prévu afin de publier les résultats obtenus par optimisation de la décharge de la batterie. Trajets Domicile (Banlieue) -> Travail (Centre ville) Domicile (Banlieue) -> Travail (Centre ville) -> Domicile Vacances en montagne (Alpes d'huez) Longueur [km] Economie carburant [%] Gain Rendement Moteur Thermique [%] 72,3 5,5 +0,5 137,8 3,2 +0,4 57 4,2 +1,1 TABLE I. RESULTAT DE LA STRATEGIE DE PREDICTION SUR TROIS TRAJETS TYPES IV. REFERENCES [1] D.P. Bertsekas, Dynamic Programming and Optimal Control. Athens Scientific, [2] L. Guzzella and A. Sciarretta, Vehicle Propulsion Systems Introduction to Modeling and Optimization second edition. Springer, [3] M. Maurin and J. Crauser, The Kinematic Sequences, An Atomistic Approach To Automobile Travel And The Effects Of Traffic, Recherche Transports Securite, [4] M. Debert. Stratégies optimales multi-critères, prédictives, temps réel de gestion des flux d énergie thermique et électrique dans un véhicule hybride. Thèse, Université d'orléans, [5] E. Ericsson. Independent driving pattern factors and their influence on fuel-use and exhaust emission factors, Trans. Res. vol. 6, [6] A.D. Ourabah, B. Quost, A. Gayed and T. Denœux, Estimating Energy Consumption of a PHEV using Vehicle and On-board Navigation Data, Accepted in IEEE Intelligent Vehicles Symposium, Proceedings, June [7] A.D. Ourabah and T. Miro-Padovani, Procédé de gestion de l état de charge d une batterie de traction d un véhicule hybride. Déposé à l IPNI le 03/11/2014. [8] A.D. Ourabah, X. Jaffrezic, B. Quost, A. Gayed and T. Denœux, Procédé d optimisation de la consommation énergétique d un véhicule hybride rechargeable basé sur l exploitation des données fournie par le système de navigation embarqué. En cours de dépot. [9] T. Miro-Padovani and A.D. Ourabah, Stratégie de gestion d une transmission automatique de véhicule hybride avec anticipation de la volonté conducteur. En cours de dépot. 78

93 Mobile and interactive augmented reality for driving assistance Minh Tien PHAN Thesis Directors: Indira THOUVENIN, Vincent FREMONT Team: (ICI & DI) Résumé Augmented Reality (AR) can potentially change the driver's user experience in significant ways. Nowadays, the designers can provide the visual aids and annotations that draw the driver attention to possible dangers, help the driver to accomplish their driving task. In particular, a pedestrian appear in front of the car is considered as a hazard event and can create potential danger. This thesis aims to conceive a system that use the AR cues to improve the driver awareness of pedestrian. Moreover, we take into account the driver behaviors in order to avoid the problem of visual or cognitive distraction. I. INTRODUCTION A. Context This work begun on 1 st October 2012 at Heudiasyc laboratory with the collaboration between three teams: ICI, DI and ASER from Indira Thouvenin, Vincent Frémont, Mohamed Sallak and Véronique Cherfoui. The project «MINARDA (Mobile and INteractive Augmented Reality for Driving Assistance) is focused on the design and the implementation of an ADAS in order to help the driver using augmented reality metaphors. Different perception systems such as the Mobileye for obstacle detections, the cameras for scene understanding, sensors for driver monitoring, vehicle pedal sensors and camera for face detection provide interesting data to our system. However, different questions are raised: 1. How to take into account the driver behavior in a given critical situations? 2. Which visual cues could help the driver in that situation and how? B. Objectives We limit the context and consider only the pedestrian safety applications. In other hand, we don t study the abnormal states of the driver such as fatigue, sleepiness or drunk [1]. We study the driver behaviors in the precise context whenever a pedestrian appears in front of the car. Suppose that the pedestrian can cross the road at any moment and the driver is demanded to be aware of that pedestrian in order to avoid accidents (Fig 1). This is related to the driver Situation Awareness defined by Endsley [2]. We have been working on two precise objectives: 1. Modeling and detecting the driver unawareness of pedestrian. Testing the model with the real driving on a simulator. 2. Based on this model, providing adaptive augmented reality cues to enhance his awareness of pedestrian. Analyzing the effects of the cues on the driver with the simulator. Figure 1: Case 1 and 2, the driver is supposed to be aware of pedestrian. If the driver is unaware of pedestrian (case 3), a warning should be activated. II. MODELING DRIVER AWARENESS OF PEDESTRIAN A. Based on driving actions Our hypothesis is that, in the situation with pedestrian, the driver behaves differently when he is aware and when he is unaware of that pedestrian. Therefore, by observing the driving actions, we can identify if he is aware of unaware of pedestrian. Indeed, four direct driving signals and one indirect signal are analyzed: The accelerator pedal position (a), which is normalized in [0; 1], the bigger this value mean the driver press deeper. The braking force (b), which varies in [0; 400]. The steering wheel angle: (w) which varies in [0; 1] radian. The vehicle speed (vs) which is limited at 110 km/h. The indirect signal is the time to collision. (ttc). The ttc is defined as the time required for two vehicles to collide if they continue at their present speed and on the same path. It is simply calculated as: Where and are the vehicle current speed and the pedestrian speed respectively, is the distance between the vehicle and the pedestrian. B. Using Hidden Markov Model We have done a state of art on the approaches that analyze the sequential data such as the driving actions [3]. And the Hidden Markov Model is a suitable tool for detecting the driver awareness of pedestrian based on the driving actions. In [4] we have built a DHMM (Discrete Hidden Markov Model). After that, we have ameliorated the detection by 79

94 proposing a GMHMM (Gaussian Mixture Hidden Markov Model) which avoid the discretization step. Because this step leads to a degradation of signal significations. The detail can be found in [5]. Two GMHMMs were built for Driver Awareness of Pedestrian (DAP) and Driver Unawareness of Pedestrian (DUP). For this method of classification, the likelihood ratio was calculated to determine whether the driver is likely to be aware or unaware of pedestrian. The threshold is selected to adjust the performance of the DAP/DUP classification. It is usually computed by using the log probabilities which introduces the e term in the formula. The classification occurs on the observations in a sliding time window. The figure 2 summarize the HMM-based architecture: Journée des Doctorants Heudiasyc 23 juin 2015 ii) In adaptive metaphor, the bounding box is displayed when the TTC is less than 8s and the driver is unaware of the pedestrian, the pedestrian Attention panel is displayed when the TTC is less than 4s and the driver is detected that he is unaware of pedestrian. Figure 3: HUD and Augmented reality cues concept. Figure 2: GMHMM based architecture. C. Model paramters and validation There are four key parameters for the HMM-based method: 1) the number of hidden states N; 2) The number of Gaussian component M for the emission mixture-distribution B; 3) The sliding window size; and 4) the decision threshold. All combinations of the parameters are tested with the data collected from the experiment [4]. The Receiver Operation Characteristic (ROC) curves are used to display the True Positive Rate (TPR) and the False Positive Rate (FPR) which permit to choose the best parameter combinations. The best combinations that produced the highest rates of true positives while maintaining a FPR below 5% for the generalization test. Finally, N=10, M = 2, =1.5s, and =214 were chosen. The model was also compared to simple methods that uses the static parameter for the decision, the Time-To-Collision and the Required Deceleration Parameter [5]. The results show the superiority of the HMM-based method with the 78% of good recognition, more than 20% comparing to the two simple methods. III. ENHANCING DRIVER AWARENESS OF PEDESTRIAN WITH ADAPTIVE AUGMENTED REALITY AIDS A. Head-Up-Display Simulation and AR cues The simulated HUD is a transparency zone that are rendered as a rectangle on the position that is defined to be in front of the vehicle. Two symbols above are displayed only if the driver is looking at the HUD zone (Fig 3). i) In non-adaptive metaphor, the bounding box is displayed when the TTC is less than 8s and the Pedestrian Attention panel is displayed when the TTC is less than 4s. B. Experiment and Results We realized an experiment with ten participants driving in three conditions: No-AR, AR, and Adaptive AR. For each session, there was 23 pedestrians appearing randomly on the road. The results show that i)there are significant effects on the driver with the AR cues, ii) the Adaptive AR cues help the driver to keep a good driving performance while being aware of pedestrian. IV. CONCLUSION A model of diver awareness of pedestrian has been proposed and evaluated on a driving simulator with ten participants. The evaluation will be reinforced with another experiment to analyze the effect of AR cues on the driver and to confirm the impact of adaptive AR cues. The final results will be published in Transportation Research Part F journal [6]. I am writing my thesis report and envisage to defend in October References [1] S. Arun, K. Sundaraj, and M. Murugappan (2012). Driver inattention detection methods: A review. IEEE Conference on, pages 1 6, [2] Endsley, M. R. (1995b). Toward a theory of situation awareness in dynamic systems. Human Factors, 37, [3] Phan, M. T. (2013). Estimating Driver Unawareness of Pedestrian based on Visual Behaviors and Driving Behaviors. Doctorial Consortium VISIGRAPP [4] Phan, M.T, Fremont, F., Thouvenin, Mohamed Sallak, and Veronique Cherfaoui (2014). Recognizing driver awareness of pedestrian. In Intelligent Transportation Systems (ITSC), 2014 IEEE. [5] Phan, M.T, Fremont, F., Thouvenin, Mohamed Sallak, and Veronique Cherfaoui (2015). Estimation of driver awareness of pedestrian based on Hidden Markov Model. In Vehicle Intelligent (IV), 2015 IEEE. [6] Phan, M.T, Fremont, F., Thouvenin, Mohamed Sallak, and Veronique Cherfaoui (2015). Enchacing the driver awareness of pedestrian with adaptive augmented reality aids. Journal of Trainsportation Part F, [Unpublished]. 80

95 Data sharing in Vehicular Networks Pimenta de Moraes Hermes Directeurs de thèse : Ducourthial Bertrand Équipe : RO Abstract Networks composed by vehicles (Vanets) constitute very dynamic networks. Vehicles are moving all the time, leading to uninterrupted changes in the network topology. Exchange data through these networks requires that any vehicle first recognize, or discover, other vehicles within its communication range. Perform an efficient neighbor discovering in dynamic networks without spending a lot of resources is still an open task. Additionally, focusing on data sharing, discovering neighbor nodes are not enough. Many of the discovered neighbors might be within the communication range during short periods of time, which is inadequate to data sharing. These nodes should not be considered a real neighbor because it will not be available to a real data exchange. Accordingly, this work started with a study of neighbor discovering in Vanets, going further with an analysis of the network dynamicity to choose, among discovered nodes, which ones should be considered for data sharing. Finally, data sharing algorithms are going to be study towards feasibility of data sharing applications in Vanets. I. CONTEXT AND GOALS Wireless ad hoc networks are deployed without any communication infrastructure. Wireless devices have to discover other achievable devices to enable one-hop communication. This discovering process, called Neighbor Discovery (ND), is an imperative initial step to allow many protocols as routing, medium access and topology knowledge work efficiently and correctly. Only after an initial discovery, a node can set up communications with others. For instance, Neighbor Discovery is an easy solution problem when considering a static and dense wireless network. Nevertheless, when considering dynamic networks, many additional problems arise [3]. In a dynamic network, connectivity between nodes changes over time due to mobility and finite radio communication range. Thus, a communication link can only be used for sending very few messages before disappearing [5]. Within such environments, connection disruptions and delays in message delivering are usual. Again, ND techniques focus on finding a node with whom communication is possible but, in dynamic networks, it is not enough. For example, vehicles traveling in opposite directions are going to be within communication range of each other for very few seconds. This time may be enough to a ND process but not to a data exchange. Thus, not all discovered neighbors should be considered for data sharing, dynamic algorithms must be used to constantly pursue the recognition of data sharing available nodes. Although there are many works focusing on vehicular networks [9], mostly focuses on traffic security. Still, whether studies focusing on data sharing were considered, there is a direction for applications where information disclosure takes place based on geographical areas or simply broadcasting, where every node within the transmission area receives transmitted information. Thus, it is important to note that research on data sharing in vehicular networks with a focus on distributed applications such that only some specific nodes (interested nodes) receive the data, are addressed by very few jobs. Finally, data sharing in vehicular networks considering issues as the data should not be sent by diffusion, or to all nodes in an area, but only to the interested nodes is the main goal of this work. In order to achieve this goal, an efficient neighbor discovering algorithm is required as long as a knowledgment of the network dynamic behavior [4]. This work has been done under the Network, Optimization - RO 1 group, one of the four working groups of Heudiasyc 2 (HEUristique et DIAgnostic des SYstèmes Complexes) research laboratory with support of the UTC Foundation 3. Yet, this work has been developed in interests of the project Robotex 4 - a French National Robotics platform; the European project CoMoSef 5 which aims at distributed applications in vehicle networks; the project DAPAD which has the objective of enhance the vehicle s awareness of the perceived traffic scene; and in a cooperation with the city of Compiègne(through the Arcovin Project). II. DEVELOPMENT The PhD work started with literature review about dynamic networks and data sharing through such networks. As the studies evolved, the focus was being narrowed towards data sharing in Vehicular Networks and then to Neighbor Discovering (ND). Specifically, the main topics addressed were: Adaptive data sharing approaches - searching for strategies able to appropriately adapt to the network behavior, many proposed solutions were studied as: BitTorrent, Pre-Fetching, Content- Fusion and Reputation/Rewarding strategies [10], [7]; within ND approaches, some algorithms considered were: Birthday based, Aloha-like and Prime-numbers based, among others. Next, Group algorithms were addressed - in fact, after ND algorithms find the node s neighbors, they should be classified in groups (steady neighbors, ephemeral neighbors, related nodes, etc.), here, there are solutions based on time, on applications executed and on node s interests [8]. The last topic already studied was Applications, performed by searching for applications to implement as the final phase of this PhD work. At the same time of the literature review, studies about the AIRPLUG [2] have been performed. AIRPLUG is a framework developed with main idea of be a convenient set of tools for designing complex applications for dynamic networks. The framework, which includes several implementations for 1 https://www.hds.utc.fr/heudiasyc/recherche/equipe-ro 2 https://www.hds.utc.fr

96 prototyping, real tests and studies by emulation, is going to be used as the main software library to perform tests and to the development of new solutions. Currently, the work is in progress for a new AIRPLUG module which implement ND protocols. The three solutions ready for tests are: Fix Neighbor Discovering messages are sent in a fixed rate, for example, at each 500 milliseconds. The main goal of this solutions is to provide a guideline for comparisons. Density Developed by the RO group, this solution constantly updates the time between two subsequent ND messages. An initial reference delay is chosen and then, at each ND message sent, a new delay is adopted by dividing the reference delay by the current speed of the node. The main idea is to keep the density of sent messages stable in time and space. An easy perception is, as faster the node is, more messages it sends. PistonsV2 Solution proposed by [6] which works in a similar manner to Density. The delay between two subsequent ND messages is updated accordingly to the node s speed and an additional balance factor. The balance factor is used to specify the required level of connectivity and energy saving for the network or individual nodes. As balance factor is increased, more ND messages are sent and more energy is spent. AIRPLUG software library provides yet an emulation facility called EMU [1]. With the aid of EMU, initial tests were performed to evaluate the performance of the above solutions. The tests are still beginning and only simple scenarios were used. As next steps planned can be highlighted: Obtainment of GPS traces to achieve more complex scenarios - this phase may include produce GPS traces by driving cars in real routes and collecting geographic data; Execute more tests using different scenarios; Improve EMU saving facilities in order to enable the registry of the Real Network and compare with the Discovered Network. The Real Network could be registered through the analysis of the GPS trace used to create the test scenario and finding the neighbors of each node. Discovered Network in this case represents what a node have discovered by running a specific neighbor discovering algorithm. III. OUTLOOK This work is now being performed with the aim of achieve a good neighbor discovering protocol. A good solution should be understood as an algorithm capable of constructing a perception of the network as near as possible of the real network. As described, this will require detect nodes and choose which ones are acceptable for data sharing. Afterwards, the research activities will progress with focus on data sharing between dynamic nodes. In this phase, solutions where the data should not be sent by diffusion, or to all nodes in an area, but only to the interested nodes, will be deeply studied. Then, new solutions will be proposed and tested with the final goal of enable distributed applications such as sharing knowledge about the environment. All of these tasks are planned to be finish until the end of july of 2017 with the defense of the thesis planned to september of IV. CONCLUSIONS Opportunistic Networks is a term used to refer to dynamic networks where connections are ephemeral due to the mobility behavior of the mobile nodes and, this way, connections are viewed as opportunities. Mobile ad-hoc networks (Manets), Sensor networks and Vehicular ad-hoc networks (Vanets) are known examples of such behavior. The developement of applications for this specific scenario presents a lot of challenges. Neighbor discovering and network dynamicity comprehension can be cited as challenging tasks towards the development of an efficient application to these networks. The research conducted in this PhD has these last two points as its major goals and hopes to achieve good solutions in both. Until now, there is no publications performed or submitted. The tests of the initial solutions proposed are still in a starting phase. A conference paper is expected by the end of the summer of REFERENCES [1] A. Buisset and B. Ducourthial and F. El Ali and S. Khalfallah, Vehicular Networks Emulation. In Proceedings of 19th International Conference on Computer Communications and Networks (ICCCN), [2] B. Ducourthial, Designing applications in dynamic networks: The Airplug Software Distribution. In 32nd International Conference on Computer Safety, Reliability and Security, [3] K. Wang and X. Mao and Y. Liu, BlindDate: A Neighbor Discovery Protocol. In IEEE Transactions on Parallel and Distributed Systems, [4] M. Alessandro and S. Cesare and T. Mauro and S. Niranjan, Mobility Pattern Prediction to Support Opportunistic Networking in Smart Cities. In International Conference on MOBILe Wireless MiddleWARE, Operating Systems and Applications, [5] M. Conti and S. Giordano and M. May and A. Passarella, From opportunistic networks to opportunistic computing. In IEEE Communications Magazine, [6] M. Orlinski and N. Filer, Neighbour discovery in opportunistic networks. In Ad Hoc Networks journal, Elsevier B.V., [7] P. Kamaraju and P. Lungaro and Z. Segall, A novel paradigm for context-aware content pre-fetching in mobile networks, In IEEE Wireless Communications and Networking Conference (WCNC), [8] R. Bali, and N. Kumar and J. Rodrigues, Clustering in vehicular ad hoc networks: Taxonomy, challenges and solutions, In Journal of Vehicular Communications, Elsevier Inc., [9] W. Chen and R. Guha and T. Kwon and J. Lee and Y. Hsu, A survey and challenges in routing and data dissemination in vehicular ad hoc networks. In Journal of Wireless Communications and Mobile Computing, [10] W. Yan and C. Mooi-Choo and C. Yingying, Incentive Based Data Sharing in Delay Tolerant Mobile Networks, In Journal of IEEE Transactions on Wireless Communications,

97 Nouvelles méthodes pour l apprentissage multi-objectif Puthiya Parambath Shameem Directeurs de thèse : Nicolas Usunier et Yves Grandvalet Équipe : DI Abstract Most learning algorithms are designed in a risk minimization framework, where the risk is defined as the expectation of a task-dependent cost function on the data distribution. While machine learning algorithm are nowadays applied on a variety of tasks and large-scale datasets, it turns out that the only algorithms for which strong theoretical guarantees are proved correspond to the simplest cost functions. In real life applications however, the final performance of a learning system is often measured by more complex indicators of the true enduser satisfaction, like the trade-off between precision and recall, or relevance and diversity, etc. There is currently no learning algorithms that can provably and efficiently optimize such performance indicators. In this work we study the algorithms for multi-objective learning. Our current focus is on trade-offs between false positives and false negatives in classification, but the principles apply to many objectives that may be relevant in the context of systems-of-systems. I. INTRODUCTION The goal of the PhD project is to design general methods for learning with multiple objectives. As a starting point, we addressed first the simplest case of finding optimal trade-offs between false positive (FP) and false negative (FN) rates in binary classification. More specifically, we first consider the problem of finding an optimal binary classifier in terms of F - measure, a non-linear aggregation measure of FP and FN. The F -measure is extensively used for classifier evaluation when classes are imbalanced, and in particular in domains such as information extraction or bio-informatics. Despite the ubiquitous usage of F -measures in classifier performance evaluation, very little work has been done on designing algorithms that can provably find an optimal classifier for F -measures in general. In binary classification problems, earlier work suggest that F -measure maximizing classifier can be found by thresholding the posterior probability of the positive class. Practical algorithms based on the structured output prediction framework were devised to optimize the F - measure for binary classification or a specific notion of F - measure in multi-label classification [1], but there is little evidence that such methods are theoretically valid. So far, we studied the theoretical properties of the F - measure function, which can be reduced to cost-sensitive learning problem through scalarization technique. Scalarization is a standard technique for finding a optimal solution of multiobjective optimization problem. In addition, we carried out experiments to demonstrate the fact that F -measure maximizing classifier can be constructed using the scalarization techniques, by choosing proper values of hyper-parameters. II. F -MEASURE MAXIMIZATION F -measure functions are pseudo-linear in false positives and false negatives. Maximising or minimising a pseudo-linear functions can be reduced to maximizing or minimizing the weighted sum of the individual objective components, false positive and false negative. This corresponds to the costsensitive learning problem. Moreover, the F -measure measure is a trade-off between precision and recall, which can be cast as a bi-criterion optimization problem [2]. Using the scalarization method for multi-objective optimization problem [3], this problem can be written as weighted sum of two objectives i.e. minimizing false positives and false negatives. Geometrically, minimizing the weighted-sum of the objectives finds a supporting hyper-plane for the feasible set. Hence for different values of weiht vectors we can find the Pareto front of the problem. Pareto front is the set of optimal solution of a multi-objective problem. State-of-the-art techniques for F -measure maximization are based on finding a decision rule which minimizes the false negatives and false positives on the training data. Weighted Logistic Regression, Thresholded Logistic Regression, Weighted SVM etc are all based on this principle. Another important algorithm is SVM perf [1], which uses linear discriminant functions to model the multivariate mappings in the training sample. We suggest that best-in-class (we consider only hyper-plane classifier hypothesis set) separating hyper-plane corresponding to a Pareto optimal point can be constructed by the proper selection of both the weight vector and the bias term. We suggest Thresholded Weighted Logistic Regression (TW-LR) and Thresholded Weighted SVM (TW-SVM), as extension to Weighted Logistic Regression and Weighted SVM respectively which finds a classifier by varying both the weight vector and bias term. The resulting classifier provides an optimal trade-off between precision and recall. III. MAIN RESULT Our theoretical analysis of F -measures holds for binary, multiclass and multilabel classification. We show that F - measure maximization can be reduced to cost-sensitive classification with unknown costs. We then propose an algorithm with provable guarantees to obtain an approximately optimal classifier for the F -measure by solving a series of costsensitive classification problems. The strength of our analysis is to be valid on any dataset and any class of classifiers, extending the existing theoretical results on F -measures, which are asymptotic in nature. We present numerical experiments to illustrate the relative importance of cost asymmetry and 83

98 thresholding when learning linear classifiers on various F - measure optimization tasks. IV. EXPERIMENTS Our results suggest that cost-sensitive classification algorithms may be preferable to the more usual probability thresholding method. We compare cost-sensitive classification, as implemented by SVMs with asymmetric costs, to thresholded logistic regression, with linear classifiers. Besides, the structured SVM approach to F 1 -measure maximization SVM perf [1] provides another baseline. For completeness, we also report results for thresholded SVMs, cost-sensitive logistic regression, and for the thresholded versions of SVM perf and the cost-sensitive algorithms (a thresholded algorithm means that the decision threshold is tuned a posteriori by maximizing the F 1 -score on the validation set). Cost-sensitive SVMs and logistic regression (LR) differ in the loss they optimize (weighted hinge loss for SVMs, weighted log-loss for LR), and even though both losses are calibrated in the cost-sensitive setting (that is, converging toward a Bayes-optimal classifier as the number of examples and the capacity of the class of function grow to infinity) [4], they behave differently on finite datasets or with restricted classes of functions. We may also note that asymptotically, the Bayesclassifier for a cost-sensitive binary classification problem is a classifier which thresholds the posterior probability of being class 1. Thus, all methods but SVM perf are asymptotically equivalent, and our goal here is to analyze their non-asymptotic behavior on a restricted class of functions. Although our theoretical developments do not indicate any need to threshold the scores of classifiers, the practical benefits of a post-hoc adjustment of these scores can be important in terms of F 1 -measure maximization. The reason is that the decision threshold given by cost-sensitive SVMs or logistic regression might not be optimal in terms of the costsensitive 0/1-error, as already noted in cost-sensitive learning scenarios [5], [6]. The datasets we use are Adult (binary classification, 32,561/16,281 train/test ex., 123 features), Letter (single label multiclass, 26 classes, 20,000 ex., 16 features), and two text datasets: the 20 Newsgroups dataset News20 1 (single label multiclass, 20 classes, 15,935/3,993 train/test ex., 62,061 features, scaled version) and Siam 2 (multilabel, 22 classes, 21,519/7,077 train/test ex., 30,438 features). All datasets except for News20 and Siam are obtained from the UCI repository 3. A constant feature with value 100 was added to each dataset to mimic an unregularized offset. The results, averaged over five random splits, are reported in Table I. The Adult dataset is an example where all methods perform nearly identically; the surrogate loss used in practice seems unimportant. On the other datasets, we observe that thresholding has a rather large impact, and especially for SVM perf ; this is also true for the other classifiers: the unthresholded SVM and LR with symmetric costs (unreported here) 1 cjlin/libsvmtools/datasets/multiclass.html\ #news20 2 cjlin/libsvmtools/datasets/multilabel.html\ #siam-competition https://archive.ics.uci.edu/ml/datasets.html TABLE I. (MACRO-)F 1 -MEASURES (IN %). OPTIONS: T STANDS FOR THRESHOLDED, CS FOR COST-SENSITIVE AND CS&T FOR COST-SENSITIVE AND THRESHOLDED. Baseline SVM perf SVM perf SVM SVM SVM LR LR LR Options T T CS CS&T T CS CS&T Adult Letter News Siam were not competitive as well. The cost-sensitive (thresholded) SVM outperforms all other methods, as suggested by the theory. It is probably the method of choice when predictive performance is a must. On these datasets, thresholded LR behaves reasonably well considering its relatively low computational cost. Indeed, LR is much faster than SVM: in their thresholded cost-sensitive versions, the timings for LR on News20 and Siam datasets are 6,400 and 8,100 seconds, versus 255,000 and 147,000 seconds for SVM respectively. Note that we did not try to optimize the running time in our experiments. In particular, considerable time savings could be achieved by using warmstart. V. CONCLUSION Our analysis of F -measures, leverages the property of pseudo-linearity of some of them to obtain a strong nonasymptotic reduction to cost-sensitive classification. The results hold for any dataset and for any class of function. Our experiments on linear functions confirm theory, by demonstrating the practical interest of using cost-sensitive classification algorithms rather than using a simple probability thresholding. However, they also reveal that, for F -measure maximization, thresholding the solutions provided by cost-sensitive algorithms further improves performances. VI. PROGRESS This PhD started in December 2013, one conference paper was published at NIPS [7], and the paper long version is about to be submitted. Our future plan is to develop this type of algorithms on a specific type of real-life application. REFERENCES [1] T. Joachims, A support vector method for multivariate performance measures, in Proceedings of the 22nd International Conference on Machine Learning. ACM Press, 2005, pp [2] M. Ehrgott and X. Gandibleux, Multiple Criteria Optimization. State of the art annotated bibliographic surveys. Kluwer Academic, Dordrecht, [3] S. Boyd and L. Vandenberghe, Convex Optimization. New York, NY, USA: Cambridge University Press, [4] I. Steinwart, How to compare different loss functions and their risks, Constructive Approximation, vol. 26, no. 2, pp , [5] Y. Grandvalet, J. Mariéthoz, and S. Bengio, A probabilistic interpretation of SVMs with an application to unbalanced classification, in NIPS, [6] F. R. Bach, D. Heckerman, and E. Horvitz, Considering cost asymmetry in learning classifiers, J. Mach. Learn. Res., vol. 7, pp , Dec [7] S. P. Parambath, N. Usunier, and Y. Grandvalet, Optimizing f-measures by cost-sensitive classification, in Advances in Neural Information Processing Systems 27. Curran Associates, Inc., 2014, pp

99 Une approche Système-de-Systèmes pour la modélisation et l'intégration des facteurs humains dans l'analyse de risque Subeer Rangra Directeurs de thèse: Mohamed Sallak +, Walter Schön +, Fréderic Vanderhaegen* *LAMIH, UMR CNRS Équipe: ASER Résumé Les erreurs humaines sont l une des causes majeures des accidents dans les systèmes de transport. L'objectif de cette thèse est la proposition d une méthodologie pour l intégration du facteur humain et en particulier la fiabilité humaine dans les méthodes d analyse de risque dans les systèmes de systèmes (SdS) de transport. Les domaines d'application étant les systèmes de signalisation ferroviaire et les systèmes d'aide à la conduite. I. OBJECTIFS ET CONTEXTE Selon les statistiques, dans le domaine de transport, l'erreur humaine est souvent la principale cause des accidents. Récemment une étude [1] a indiqué qu'au moins 75% des accidents ferroviaires mortels en Europe entre 1990 et 2009 étaient dus à des erreurs humaines. Cependant, une étude australienne [2], basée sur plus de 100 rapports d'accidents ferroviaires a conclu que la plupart des accidents attribués à des erreurs humaines ont été causés par les conditions dans lesquelles les humains ont eu à intervenir. Cette étude et plusieurs autres dans le domaine de systèmes critiques à haut risque ont surtout conclu que les erreurs humaines sont les conséquences de certaines procédures. Par conséquent, nous avons besoin de comprendre, d'identifier et de fournir des méthodes afin d'améliorer la fiabilité humaine pour un fonctionnement sûr de ces systèmes. La fiabilité humaine et/ou l'erreur humaine peuvent être définies en termes de causes de dysfonctionnement comportemental humain et/ou de leurs conséquences sur le système. Des méthodes d analyse de la fiabilité humaine (Human Reliability Analysis - HRA) [3], initialement développées dans le domaine nucléaire, peuvent être exploitées pour déterminer la probabilité d'erreur humaine dans nos travaux. Les Performance Shaping Factors (PSF) permettent la prise en compte des conditions dans lesquelles l humain intervient ainsi que l'environnement qui influence la performance humaine d'une manière positive ou négative afin de quantifier les probabilités d'erreur humaine (Human Error Probability - HEP). L'objectif de cette thèse est de proposer un modèle quantitatif formel pour calculer la fiabilité humaine, afin de l'intégrer dans un modèle global SdS pour l'analyse de risques d'accidents. Notre premier domaine d application concerne les SdS de transport ferroviaire. Ces SdS sont composés de différents acteurs humains (conducteurs, superviseurs, personnel de maintenance, ) et des systèmes de signalisation qui coopèrent afin de réaliser des tâches en commun. Le système de signalisation étudié est le système européen de gestion de trafic ferroviaire (European Rail Traffic Management System - ERTMS), qui est une initiative visant à unifier les systèmes de signalisation de différents pays et à remplacer ainsi les 27 systèmes de signalisation utilisés en Europe. Notre deuxième domaine d'application concerne les systèmes d'aide à la conduite pour le automobile (Advanced Driver Assistance System - ADAS). Cette thèse a débuté en Octobre 2014 dans l équipe ASER. Elle est financée par le Labex MS2T. II. AVANCEMENT Dans la première année de cette thèse, après l étude de l'état de l'art relatif à ce domaine, nous avons identifié les défis qui existent et certains travaux spécifiques qui peut être exploités. Deuxièmement, les premières tâches que nous avons réalisées sont expliqués ci-dessous. A. Vers un modèle global SdS pour la fiabilité humaine Une première étude [4] a justifié la nécessité d intégrer la fiabilité humaine dans un modèle global SdS pour l analyse de risque. Cette étude a également énuméré les défis existants pour la quantification de la fiabilité humaine en général et dans nos domaines d'application en particulier. Ce travail a également présenté un plan détaillé de notre modèle formel d'évaluation HRA au niveau du SdS (cf. Fig. 1). Notons que quelques cas d études simples ont également été fournis dans ce travail. B. Vers un modèle HRA basé sur les PSF Dans [5], nous avons présenté les premières démarches pour l obtention d un modèle HRA basé sur les PSF. Les données des facteurs humains et les PSF ont été obtenus à partir d'une étude de facteur humain réalisée par l'era (European Railway Agency) ainsi que d'autres travaux dans le domaine du transport ferroviaire. Un niveau de quantification est associé à chaque PSF pour le calcul des HEP. III. PERSPECTIVES Dans la suite des travaux de cette thèse, nous allons exploiter notre liste de PSF pour la construction des Valuations Based Systems (VBS) utilisés pour la modélisation des situations de risque. Nous allons également proposer l'élaboration de scénarios particuliers d interaction entre l humain et les systèmes, de conduite et de supervision ferroviaire en utilisant les simulateurs de la plateforme ferroviaire pour le calcul des HEP nominaux. 85

100 2015. Le papier [5] a aussi été accepté et nous allons le présenter à la conférence AHFE 2015, le 27 Juillet D un autre côté, nous avons réalisé un travail en commun avec le CEA-LIST qui a été soumis dans le cadre du projet PERFECT [8], et une contribution a également été faite dans le papier [9]. Jusqu'à présent j ai validé 10 crédits ECTS. J'ai assisté également à une réunion du GDR-I HAMASYTI et à une réunion plénière du projet PERFECT. Fig. 1. Vue d'ensemble de la méthodologie proposée. Pour expliquer la différence entre l analyse de risque d un seul système et l analyse de risque au niveau des SdS, on se réfère à la définition suivante [6]: While it is true that minor individual program risks could be major risks to the SoS, it is also true that significant system risks may have little or no impact on the SoS functionality. Furthermore there may be risk to a set of SoS objectives which are not risks to the constituent systems (e.g., unwanted emergent behavior, infrastructure, integration risks, and cost risk). Ainsi nous avons comme objectif la rédaction d un document qui justifie le fait de considérer les systèmes de signalisation ferroviaire comme étant des SdS. Nous souhaitons donner une définition de nos SdS d un point de vue compositionnel et fonctionnel afin d identifier les objectifs de ces SoS et les risques qui empêchent la réalisation de ces objectifs. Les propositions faites dans [7] peuvent être exploitées pour développer un modèle d'analyse quantitative du risque de notre SdS. Notre objectif principal sera l étude des propriétés émergentes. Ces études seront essentielles pour éviter les états indésirables qui sont difficiles à caractériser. Il faut signaler aussi que dans certains retours de rapporteurs de nos papiers soumis à des conférences, nous avons reçu quelques remarques très intéressantes. Ces remarques indiquent qu'un travail considérable doit être réalisé afin d aller au-delà des définitions traditionnelles de la fiabilité humaine. Elles indiquent également la nécessité de considérer dans nos études les barrières de sécurité ainsi que la quantification du coût de la tâche humaine. Pour l'instant, nous n envisageons pas que notre modèle puisse couvrir tous les comportements humains possibles ou qu il puisse fournir une probabilité universelle de l'erreur humaine. Nous visons uniquement la proposition d une méthodologie de modélisation et de calcul des valeurs imprécises des HEP dans nos cas d application indiqués précédemment. References [1] A.W. Evans, Fatal train accidents on Europe s railways: , Accident; Analysis and Prevention. 43 (2011) [2] G.D. Edkins, and C.M. Pollock, The influence of sustained attention on Railway accidents, Accident Analysis & Prevention. 29 (1997) [3] A.J. Spurgin, Human Reliability Assessment Theory and Practice, CRC Press, [4] S. Rangra, M. Sallak, W. Schön, and F. Vanderhaegen, On the Study of Human Reliability in Transportation Systems of Systems, in: 10th System of Systems Engineering Conference (SoSE), IEEE Xplore, San Antonio, TX, USA, 2015: pp [5] S. Rangra, M. Sallak, W. Schön, and F. Vanderhaegen, Human reliability assessment under uncertainty - towards a formal method, in: 6th International Conference on Applied Human Factors and Ergonomics - AHFE2015, (in Press), Elsevier Science Direct, Las Vegas, USA, [6] Systems Engineering Guide for Systems of Systems, US Department of Defense (DoD), Washington, DC, [7] A. Kinder, M. Henshaw, C. Siemieniuch, and C. Wrigley, A Model Based Approach to System of Systems Risk Management, in: 10th System of Systems Engineering Conference (SoSE), 2013: pp [8] A. Faivre, A. Lapitre, A. Lanusse, M. Perin, S. Rangra, M. Sallak, et al., Two methods for modeling and verification of safety properties of railway infrastructures, in: 6th International Conference on Industrial Engineering and Systems Management, IESM 2015, (unpublished), IEEE, Seville, Spain, n.d. [9] Z. Kais, M. Sallak, W. Schon, S. Rangra, and R. Sacile, A UML approach for modeling and verification of Railway signalling Systems specifications, in: 10th International Conference on MOdeling, Optimization and SIMlation - MOSIM14, Nancy, France, IV. PUBLICATIONS Le papier [4] a été présenté lors d'une conférence internationale sur les Systèmes de Systèmes IEEE SoSE 86

Digital Workplace et Gestion des connaissances Concepts et mise en oeuvre

Digital Workplace et Gestion des connaissances Concepts et mise en oeuvre Avant-propos 1. Objectif du livre 17 2. Illustrations des exemples de ce livre 18 2.1 Office 365 comme plateforme technologique pour une digital workplace 18 2.2 SharePoint et Yammer à l honneur 18 3.

Plus en détail

Une méthode d apprentissage pour la composition de services web

Une méthode d apprentissage pour la composition de services web Une méthode d apprentissage pour la composition de services web Soufiene Lajmi * Chirine Ghedira ** Khaled Ghedira * * Laboratoire SOIE (ENSI) University of Manouba, Manouba 2010, Tunisia Soufiene.lajmi@ensi.rnu.tn,

Plus en détail

smart M2M interconnectez machines et objets pour développer votre activité et accroître l efficience de vos processus métiers

smart M2M interconnectez machines et objets pour développer votre activité et accroître l efficience de vos processus métiers smart M2M interconnectez machines et objets pour développer votre activité et accroître l efficience de vos processus métiers smart M2M créer de nouveaux usages industriels, logistiques, urbains, domestiques,

Plus en détail

Les systèmes embarqués et les tendances technologiques: une évolution constante, une innovation continue!

Les systèmes embarqués et les tendances technologiques: une évolution constante, une innovation continue! Les systèmes embarqués et les tendances technologiques: une évolution constante, une innovation continue! Vasiliki Sfyrla Une approche des systèmes embarqués Les systèmes embarqués existent depuis longtemps.

Plus en détail

Prise de position de la section 7. travail sur une possible partition

Prise de position de la section 7. travail sur une possible partition Prise de position de la section 7 travail sur une possible partition Notre prise de position est structurée comme suit : dans une première partie, nous expliquons le contexte dans lequel notre travail

Plus en détail

Les nouveaux métiers de l embarqué et de l internet des objets

Les nouveaux métiers de l embarqué et de l internet des objets Les nouveaux métiers de l embarqué et de l internet des objets Organisation de la session Etat de lieux des systèmes embarqués et de l IoT Laurent George, Professeur à ESIEE Paris, responsable de la filière

Plus en détail

RECOMMANDATIONS DE SECURITE

RECOMMANDATIONS DE SECURITE PREMIER MINISTRE Secrétariat général de la défense et de la sécurité nationale Agence nationale de la sécurité des systèmes d information Paris, le 14 février 2013 N 524/ANSSI/SDE RECOMMANDATIONS DE SECURITE

Plus en détail

Nacira Salvan. Responsable Pôle Architecture Sécurité Direction Infrastructure IT SAFRAN. CRiP Thématique Sécurité de l informatique de demain

Nacira Salvan. Responsable Pôle Architecture Sécurité Direction Infrastructure IT SAFRAN. CRiP Thématique Sécurité de l informatique de demain Nacira Salvan Responsable Pôle Architecture Sécurité Direction Infrastructure IT SAFRAN Nacira.salvan@safran.fr CRiP Thématique Sécurité de l informatique de demain 03/12/14 Agenda Quelques définitions

Plus en détail

L Informatique aujourd hui : Nouveaux défis scientifiques et réflexions sur la recherche

L Informatique aujourd hui : Nouveaux défis scientifiques et réflexions sur la recherche L Informatique aujourd hui : Nouveaux défis scientifiques et réflexions sur la recherche Joseph Sifakis Directeur de Recherche CNRS Laboratoire VERIMAG Paris, 23 juin 2008 L évolution de l Informatique

Plus en détail

Ingénierie d entreprise et de système d information dirigée par les modèles : quels usages?

Ingénierie d entreprise et de système d information dirigée par les modèles : quels usages? Ingénierie d entreprise et de système d information dirigée par les modèles : quels usages? Hervé Panetto, Xavier Boucher, Pierre-Alain Millet To cite this version: Hervé Panetto, Xavier Boucher, Pierre-Alain

Plus en détail

Technologies pour le developpement durabe des produits intelligents

Technologies pour le developpement durabe des produits intelligents Technologies pour le developpement durabe des produits intelligents Dimitris Kyritsis (Kiritsis) EPFL, ICT for Sustainable Manufacturing dimitris.kiritsis@epfl.ch EPFL/STI/IGM/ICT for Sustainable Manufacturing

Plus en détail

Optimisez vos processus informatiques, maximisez le taux de rendement de vos actifs et améliorez les niveaux de service

Optimisez vos processus informatiques, maximisez le taux de rendement de vos actifs et améliorez les niveaux de service Solutions de gestion des actifs et services Au service de vos objectifs d entreprise Optimisez vos processus informatiques, maximisez le taux de rendement de vos actifs et améliorez les niveaux de service

Plus en détail

Sécurisation du stockage de données sur le Cloud Michel Kheirallah

Sécurisation du stockage de données sur le Cloud Michel Kheirallah Sécurisation du stockage de données sur le Cloud Michel Kheirallah Introduction I Présentation du Cloud II Menaces III Exigences de sécurité IV Techniques de sécurisation 2 26/02/2015 Présentation du Cloud

Plus en détail

Réalisation d un logiciel de Visioconférence Cahier des charges

Réalisation d un logiciel de Visioconférence Cahier des charges Master 1 Informatique Professionnel et Recherche Unifié Réalisation d un logiciel de Visioconférence Cahier des charges Version 2.0 du 06/02/08 envoyée à M. Michel Leclère, responsable du Master 1 Informatique

Plus en détail

THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par.

THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par. École Doctorale d Informatique, Télécommunications et Électronique de Paris THÈSE présentée à TÉLÉCOM PARISTECH pour obtenir le grade de DOCTEUR de TÉLÉCOM PARISTECH Mention Informatique et Réseaux par

Plus en détail

Secteur Industries - Manufacturing

Secteur Industries - Manufacturing Secteur Industries - Manufacturing isatech est spécialiste des solutions de gestion d entreprise Microsoft Dynamics ERP, CRM et Office365 Les problématiques du secteur industriel Selon le gouvernement,

Plus en détail

Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services

Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services 69 Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services M. Bakhouya, J. Gaber et A. Koukam Laboratoire Systèmes et Transports SeT Université de Technologie de Belfort-Montbéliard

Plus en détail

Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie

Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie 1 Présenté par: Yacine KESSACI Encadrement : N. MELAB E-G. TALBI 31/05/2011 Plan 2 Motivation

Plus en détail

Master Informatique Aix-Marseille Université

Master Informatique Aix-Marseille Université Aix-Marseille Université http://masterinfo.univ-mrs.fr/ Département Informatique et Interactions UFR Sciences Laboratoire d Informatique Fondamentale Laboratoire des Sciences de l Information et des Systèmes

Plus en détail

IBM Global Technology Services Service Management

IBM Global Technology Services Service Management IBM Global Technology Services La voie vers la transformation de l informatique L INFORMATIQUE, UN SOUTIEN AUX MÉTIERS DE L ENTREPRISE Les dirigeants considèrent aujourd hui l informatique comme un levier

Plus en détail

INFORMATION CONNECTED

INFORMATION CONNECTED INFORMATION CONNECTED Solutions Métiers Primavera pour l Industrie des Services Publics Gestion de Portefeuilles de Projets Garantir l Excellence Opérationnelle grâce à la Fiabilité des Solutions de Gestion

Plus en détail

Efficacité énergétique pour les particuliers : une solution pour le monitoring énergétique

Efficacité énergétique pour les particuliers : une solution pour le monitoring énergétique Efficacité énergétique pour les particuliers : une solution pour le monitoring énergétique Orange Labs Jérôme Descos, Recherche & Développement 13 mars 2012, présentation au Colloque Energ&TIC² travaux

Plus en détail

e need L un des premiers intégrateurs opérateurs Cloud Computing indépendants en France

e need L un des premiers intégrateurs opérateurs Cloud Computing indépendants en France e need L un des premiers intégrateurs opérateurs Cloud Computing indépendants en France Sommaire Cloud Computing Retours sur quelques notions Quelques chiffres Offre e need e need Services e need Store

Plus en détail

DOSSIER DE PRESSE Salon Mondial de l Automobile Paris 2014

DOSSIER DE PRESSE Salon Mondial de l Automobile Paris 2014 DOSSIER DE PRESSE Salon Mondial de l Automobile Paris 2014 02/10/2014 Introduction Depuis plus de 30 ans, Altran anticipe le besoin croissant d innovation technologique dans tous les principaux secteurs

Plus en détail

Surmonter les 5 défis opérationnels du Big Data

Surmonter les 5 défis opérationnels du Big Data Surmonter les 5 défis opérationnels du Big Data Jean-Michel Franco Talend Connect 9 octobre 2014 Talend 2014 1 Agenda Agenda Le Big Data depuis la découverte jusqu au temps réel en passant par les applications

Plus en détail

Qu est ce que le Cloud Computing?

Qu est ce que le Cloud Computing? Qu est ce que le Cloud Computing? Makhlouf Hadji Ingénieur de Recherche Qu est ce que le Cloud Computing? Agenda: Virtualisation des Ressources Introduction au Cloud Computing Caractéristiques du Cloud

Plus en détail

SYNTHESE D ARCHITECTURES D ENSEMBLES DYNAMIQUES D HELICOPTERES.

SYNTHESE D ARCHITECTURES D ENSEMBLES DYNAMIQUES D HELICOPTERES. SYNTHESE D ARCHITECTURES D ENSEMBLES DYNAMIQUES D HELICOPTERES. 1 LE CADRE DES TRAVAUX Les travaux s inscrivent dans le cadre de l amélioration des performances des ensembles dynamiques d Hélicoptères.

Plus en détail

Digital Workplace. et Gestion. Concepts et mise en œuvre. Gilles BALMISSE. des connaissances

Digital Workplace. et Gestion. Concepts et mise en œuvre. Gilles BALMISSE. des connaissances Digital Workplace et Gestion des connaissances Gilles BALMISSE Table des matières 1 Avant-propos 1. Objectif du livre.......................................... 17 2. Illustrations des exemples de ce livre.........................

Plus en détail

CHARTE INFORMATIQUE LGL

CHARTE INFORMATIQUE LGL CHARTE INFORMATIQUE LGL Selon la réglementation indiquée dans la charte informatique du CNRS, tout accès aux ressources informatiques du LGLTPE nécessite une authentification des personnels. Cette authentification

Plus en détail

Initiation à la fouille de données et à l apprentissage automatiq

Initiation à la fouille de données et à l apprentissage automatiq Initiation à la fouille de données et à l apprentissage automatique 1 Laboratoire d Informatique Fondamentale de Marseille Université de Provence christophe.magnan@lif.univ-mrs.fr www.lif.univ-mrs.fr/

Plus en détail

AAA/SWITCH e-infrastructure for e-science

AAA/SWITCH e-infrastructure for e-science AAA/SWITCH e-infrastructure for e-science 1. Situation de départ: SWITCH a réalisé avec ses partenaires l infrastructure d authentification et d autorisation (SWITCHaai), qui permet aux étudiants et collaborateurs

Plus en détail

APX et VCE, Modèle d industrialisation de l intégration et du déploiement. Olivier BERNARD, VCE

APX et VCE, Modèle d industrialisation de l intégration et du déploiement. Olivier BERNARD, VCE APX et VCE, Modèle d industrialisation de l intégration et du déploiement Olivier BERNARD, VCE Généralisation des réseaux, suprématie d IP Consumérisation des terminaux informatiques Evolution vers une

Plus en détail

Projet ECOSIM : Plate-forme Multi-Scénario de Simulation Dynamique de Gestion en Ligne.

Projet ECOSIM : Plate-forme Multi-Scénario de Simulation Dynamique de Gestion en Ligne. Projet ECOSIM : Plate-forme Multi-Scénario de Simulation Dynamique de Gestion en Ligne. Patrice Saunier EXOSIM S.A 7, Boulevard Mirabeau 95100 ARGENTEUIL Tel : (33) 1.30.76.60.13 Fax : (33) 1.30.76.06.14

Plus en détail

Les datas = le fuel du 21ième sicècle

Les datas = le fuel du 21ième sicècle Les datas = le fuel du 21ième sicècle D énormes gisements de création de valeurs http://www.your networkmarketin g.com/facebooktwitter-youtubestats-in-realtime-simulation/ Xavier Dalloz Le Plan Définition

Plus en détail

Séminaire Partenaires Esri France 7-8 juin 2011 - Paris Cloud Computing Stratégie Esri

Séminaire Partenaires Esri France 7-8 juin 2011 - Paris Cloud Computing Stratégie Esri Séminaire Partenaires Esri France 7-8 juin 2011 - Paris Cloud Computing Stratégie Esri Gaëtan LAVENU Plan de la présentation Evolution des architectures SIG Qu'est ce que le Cloud Computing? ArcGIS et

Plus en détail

Intempora S.A. présente le

Intempora S.A. présente le Intempora S.A. présente le logiciel de prototypage RT Maps Gilles MICHEL +33 1 41 90 03 59 - +33 6 07 48 84 82 gilles.michel@intempora.com 1 De la recherche à l industrie Le logiciel RT Maps est un puissant

Plus en détail

Secteur Finance - Assurance

Secteur Finance - Assurance Secteur Finance - Assurance isatech est spécialiste des solutions de gestion d entreprise Microsoft Dynamics ERP, CRM et Office365 Les problématiques du secteur financier Selon l INSEE, en 2011, le secteur

Plus en détail

Approche organisationnelle basée sur le paradigme agent pour la synthèse & la réutilisation des connaissances en ingénierie collaborative

Approche organisationnelle basée sur le paradigme agent pour la synthèse & la réutilisation des connaissances en ingénierie collaborative Approche organisationnelle basée sur le paradigme agent pour la synthèse & la réutilisation des connaissances en ingénierie collaborative Hind Darwich, doctorante en thèse CIFRE au sein de la société TDC

Plus en détail

Sélection de variables groupées avec les forêts aléatoires. Application à l analyse des données fonctionnelles multivariées.

Sélection de variables groupées avec les forêts aléatoires. Application à l analyse des données fonctionnelles multivariées. Sélection de variables groupées avec les forêts aléatoires. Application à l analyse des données fonctionnelles multivariées. Baptiste Gregorutti 12, Bertrand Michel 2 & Philippe Saint Pierre 2 1 Safety

Plus en détail

CED-ST 2013-2014 Liste des Sujets de Recherche Formation Doctorale : STIC Responsable de la Formation : Pr. L. OMARI (lahcen.omari@usmba.ac.

CED-ST 2013-2014 Liste des Sujets de Recherche Formation Doctorale : STIC Responsable de la Formation : Pr. L. OMARI (lahcen.omari@usmba.ac. CED-ST 2013-2014 Liste des Sujets de Recherche Formation Doctorale : STIC Responsable de la Formation : Pr. L. OMARI (lahcen.omari@usmba.ac.ma) N.B. : Les étudiants qui ont déposé leurs demandes d'inscription

Plus en détail

Hébergement MMI SEMESTRE 4

Hébergement MMI SEMESTRE 4 Hébergement MMI SEMESTRE 4 24/03/2015 Hébergement pour le Web Serveurs Mutualités Serveurs Dédiés Serveurs VPS Auto-Hébergement Cloud Serveurs Mutualités Chaque Serveur héberge plusieurs sites Les ressources

Plus en détail

Analyse abstraite de missions sous PILOT

Analyse abstraite de missions sous PILOT Analyse abstraite de missions sous PILOT Damien Massé EA 3883, Université de Bretagne Occidentale, Brest damien.masse@univ-brest.fr Résumé Nous étudions la possibilité de réaliser un analyseur par interprétation

Plus en détail

Testing : A Roadmap. Mary Jean Harrold. Présentation de Olivier Tissot

Testing : A Roadmap. Mary Jean Harrold. Présentation de Olivier Tissot Testing : A Roadmap Mary Jean Harrold Présentation de Olivier Tissot Testing : A Roadmap I. L auteur II. Introduction sur les test : les enjeux, la problématique III. Les tests : roadmap IV. Conclusion

Plus en détail

TRAVAIL AUTOUR D ESPACES DE TRAVAIL COLLABORATIF DANS LE CADRE DE L UTILISATION D ORDINATEURS PORTABLES AU COLLÈGE.

TRAVAIL AUTOUR D ESPACES DE TRAVAIL COLLABORATIF DANS LE CADRE DE L UTILISATION D ORDINATEURS PORTABLES AU COLLÈGE. N 332 - RANUCCI Jean Francis 1 TRAVAIL AUTOUR D ESPACES DE TRAVAIL COLLABORATIF DANS LE CADRE DE L UTILISATION D ORDINATEURS PORTABLES AU COLLÈGE. Introduction Etude empirique de l apport de l usage des

Plus en détail

Résumé CONCEPTEUR, INTEGRATEUR, OPERATEUR DE SYSTEMES CRITIQUES

Résumé CONCEPTEUR, INTEGRATEUR, OPERATEUR DE SYSTEMES CRITIQUES Aristote ----- Cloud Interopérabilité Retour d'expérience L A F O R C E D E L I N N O V A T I O N Résumé Les systèmes d'information logistique (SIL) sont des outils qui amènent des gains de productivité

Plus en détail

agility made possible

agility made possible DOSSIER SOLUTION Flexibilité et choix dans la gestion d infrastructure Le SI peut-il répondre aux attentes métier face à la complexité croissante des infrastructures et aux importantes contraintes en termes

Plus en détail

Entreposage de données complexes pour la médecine d anticipation personnalisée

Entreposage de données complexes pour la médecine d anticipation personnalisée Manuscrit auteur, publié dans "9th International Conference on System Science in Health Care (ICSSHC 08), Lyon : France (2008)" Entreposage de données complexes pour la médecine d anticipation personnalisée

Plus en détail

La fédération des infrastructures cloud

La fédération des infrastructures cloud La fédération des infrastructures cloud Ecole IN2P3 : Maîtriser le cloud Charles LOOMIS (LAL) 4 juillet 2014 Questions importantes Est-ce que la fédération des ressources est nécessaire? Si oui, comment

Plus en détail

Modélisation agent d une Architecture Logicielle de commande d un Véhicule Autonome

Modélisation agent d une Architecture Logicielle de commande d un Véhicule Autonome Modélisation agent d une Architecture Logicielle de commande d un Véhicule Autonome ENNAJI Mourad LASC université de Metz Ile du Saulcy B.P 80794 57 012 METZ Ennaji@lasc.sciences.univ-metz.fr Résumé Cet

Plus en détail

Enjeux prudentiels des données utilisées par les entreprises d assurance : le point de vue du superviseur

Enjeux prudentiels des données utilisées par les entreprises d assurance : le point de vue du superviseur Enjeux prudentiels des données utilisées par les entreprises d assurance : le point de vue du superviseur Atelier «Information et assurance» Institut de Science Financière et d Assurances ISFA Université

Plus en détail

Objets connectés, avez-vous donc une âme?

Objets connectés, avez-vous donc une âme? Objets connectés, avez-vous donc une âme? Bernard Ourghanlian Directeur Technique et Sécurité Microsoft France Qu est ce que l Internet des Objets? «Le réseau des objets physiques contenant des technologies

Plus en détail

Projet ANR SAMOGWAS. Specific Advanced MOdels for Genome-wide Association Studies. Journée de lancement officielle. Nantes - vendredi 11 octobre 2013

Projet ANR SAMOGWAS. Specific Advanced MOdels for Genome-wide Association Studies. Journée de lancement officielle. Nantes - vendredi 11 octobre 2013 Projet ANR SAMOGWAS Specific Advanced MOdels for Genome-wide Association Studies Journée de lancement officielle Nantes - vendredi 11 octobre 2013 1 Les partenaires LINA Nantes GIGA-R Liège INSERM Nantes

Plus en détail

Cloud Computing : forces et faiblesses

Cloud Computing : forces et faiblesses Chapitre 7 Cloud Computing : forces et faiblesses 1. Présentation Cloud Computing : forces et faiblesses Le monde informatique a connu une véritable révolution ces dernières années avec l'apparition d'un

Plus en détail

Conception Exécution Interopérabilité. Déploiement. Conception du service. Définition du SLA. Suivi du service. Réception des mesures

Conception Exécution Interopérabilité. Déploiement. Conception du service. Définition du SLA. Suivi du service. Réception des mesures Software propose une offre d intégration unique, qui apporte l équilibre parfait entre investissements et performances pour les entreprises qui doivent sans cesse améliorer leurs processus. Des caractéristiques

Plus en détail

L Internet des Objets : Une opportunité à saisir pour la Suisse

L Internet des Objets : Une opportunité à saisir pour la Suisse IoT Capteurs Connectés Yverdon Nov 2014 L Internet des Objets : Une opportunité à saisir pour la Suisse Jean-Paul Bardyn, Vice-President, CTO Le Marché de l Internet des Choses Le Marché des Objets Connectés

Plus en détail

Adaptabilité d un MOOC aux styles d apprentissage. Hubert Kadima Directeur de Recherche LARIS/EISTI Email : hubert.kadima@eisti.fr

Adaptabilité d un MOOC aux styles d apprentissage. Hubert Kadima Directeur de Recherche LARIS/EISTI Email : hubert.kadima@eisti.fr Adaptabilité d un MOOC aux styles d apprentissage Hubert Kadima Directeur de Recherche LARIS/EISTI Email : hubert.kadima@eisti.fr Agenda 1. Contexte : l apprentissage dans le projet PLACIS 2. Choix du

Plus en détail

Cloud Computing et SaaS

Cloud Computing et SaaS Cloud Computing et SaaS On a vu fleurir ces derniers temps un grands nombre de sigles. L un des premiers est SaaS, Software as a Service, sur lequel nous aurons l occasion de revenir. Mais il y en a beaucoup

Plus en détail

Bienvenue chez Axis Communications.

Bienvenue chez Axis Communications. Bienvenue chez Axis Communications. Présentation de la société Axis Webinar 30 octobre 2014 Vision d Axis Innovation pour un monde plus intelligent, plus sûr Mission d Axis Ensemble, nous sommes les pionniers

Plus en détail

Sélectionner la bonne base de données de gestion de configurations pour mettre en place une plate-forme efficace de gestion de services.

Sélectionner la bonne base de données de gestion de configurations pour mettre en place une plate-forme efficace de gestion de services. Solutions de Service Management Guide d achat Sélectionner la bonne base de données de gestion de configurations pour mettre en place une plate-forme efficace de gestion de services. Aujourd hui, toutes

Plus en détail

Repenser le SI à l'ère du numérique : apports des solutions de big data, cloud computing et confiance numérique

Repenser le SI à l'ère du numérique : apports des solutions de big data, cloud computing et confiance numérique Repenser le SI à l'ère du numérique : apports des solutions de big data, cloud computing et confiance numérique Extraits d analyses publiées par MARKESS International Emmanuelle Olivié-Paul epaul@markess.com

Plus en détail

Data Mining et Big Data

Data Mining et Big Data Data Mining et Big Data Eric Rivals LIRMM & Inst. de Biologie Computationnelle CNRS et Univ. Montpellier 14 novembre 2015 E. Rivals (LIRMM & IBC) Big Data 14 novembre 2015 1 / 30 Introduction, contexte

Plus en détail

COMMENT PERSONNALISER L APPRENTISSAGE DANS UN COURS EN LIGNE OUVERT ET MASSIF (CLOM) (MOOC)?

COMMENT PERSONNALISER L APPRENTISSAGE DANS UN COURS EN LIGNE OUVERT ET MASSIF (CLOM) (MOOC)? COMMENT PERSONNALISER L APPRENTISSAGE DANS UN COURS EN LIGNE OUVERT ET MASSIF (CLOM) (MOOC)? Rim Bejaoui, Gilbert Paquette, Josianne Basque, France Henri Centre de recherche LICEF, Télé-université 5800,

Plus en détail

Spring IDE. Mise en œuvre. Eclipse

Spring IDE. Mise en œuvre. Eclipse A Spring IDE Bien que Spring mette à disposition d intéressants mécanismes afin d améliorer l architecture des applications Java EE en se fondant sur l injection de dépendances et la programmation orientée

Plus en détail

Semestre HPC. Violaine Louvet. Institut Camille Jordan - CNRS louvet@math.univ-lyon1.fr. Labex MILyon, Printemps 2016

Semestre HPC. Violaine Louvet. Institut Camille Jordan - CNRS louvet@math.univ-lyon1.fr. Labex MILyon, Printemps 2016 Semestre HPC Violaine Louvet Institut Camille Jordan - CNRS louvet@math.univ-lyon1.fr Labex MILyon, Printemps 2016 V. Louvet (ICJ) Semestre HPC Printemps 2016 1 / 9 Présentation du semestre Modélisation

Plus en détail

Vers la conception interactive d une hiérarchie sémantique de descripteurs d images

Vers la conception interactive d une hiérarchie sémantique de descripteurs d images PROPOSITION DE STAGE Année 2016 Laboratoire L3i Sujet de stage : Vers la conception interactive d une hiérarchie sémantique de descripteurs d images Résumé du travail proposé : Ce travail s intéresse à

Plus en détail

GESTION DU RÉSEAU DANS LES ENVIRONNEMENTS DISTRIBUÉS. Défis et Opportunités pour l Entreprise

GESTION DU RÉSEAU DANS LES ENVIRONNEMENTS DISTRIBUÉS. Défis et Opportunités pour l Entreprise GESTION DU RÉSEAU DANS LES ENVIRONNEMENTS DISTRIBUÉS Défis et Opportunités pour l Entreprise I. INTRODUCTION Le développement des réseaux ne se limite pas à leur taille et à leurs capacités, il concerne

Plus en détail

Architectures informatiques dans les nuages

Architectures informatiques dans les nuages Architectures informatiques dans les nuages Cloud Computing : ressources informatiques «as a service» François Goldgewicht Consultant, directeur technique CCT CNES 18 mars 2010 Avant-propos Le Cloud Computing,

Plus en détail

ASG CloudFactory Transformez votre IT avec l orchestration du Cloud & l automatisation des services TECHNOLOGY TO RELY ON

ASG CloudFactory Transformez votre IT avec l orchestration du Cloud & l automatisation des services TECHNOLOGY TO RELY ON ASG CloudFactory Transformez votre IT avec l orchestration du Cloud & l automatisation des services TECHNOLOGY TO RELY ON L industrie automobile comme modèle Transformer l IT Dans les années 1950s, l industrie

Plus en détail

Analyse de la démographie des objets dans les systèmes Java temps-réel

Analyse de la démographie des objets dans les systèmes Java temps-réel Analyse de la démographie des objets dans les systèmes Java temps-réel Nicolas BERTHIER Laboratoire VERIMAG Responsables du stage : Christophe RIPPERT et Guillaume SALAGNAC le 29 septembre 26 1 Introduction

Plus en détail

THE NEW STYLE OF SERVICE DESK, ANYTIME, ANYWHERE MARDI 11 FÉVRIER, DOMINIQUE DUPUIS, DIRECTRICE DE LA RECHERCHE

THE NEW STYLE OF SERVICE DESK, ANYTIME, ANYWHERE MARDI 11 FÉVRIER, DOMINIQUE DUPUIS, DIRECTRICE DE LA RECHERCHE THE NEW STYLE OF SERVICE DESK, ANYTIME, ANYWHERE MARDI 11 FÉVRIER, DOMINIQUE DUPUIS, DIRECTRICE DE LA RECHERCHE SOMMAIRE Les enquêtes du CXP SaaS / Cloud Mobilité Big Data Conclusion 2 SOMMAIRE Les enquêtes

Plus en détail

Stratégie intelligente de reprise d activité pour les postes de travail : postes de travail sous forme de service (DaaS) LIVRE BLANC

Stratégie intelligente de reprise d activité pour les postes de travail : postes de travail sous forme de service (DaaS) LIVRE BLANC Stratégie intelligente de reprise d activité pour les postes de travail : postes de travail sous forme de service (DaaS) LIVRE BLANC Sommaire Résumé analytique.... 3 L improbable n a jamais été aussi probable....

Plus en détail

Nos Solutions PME VIPDev sont les Atouts Business de votre entreprise.

Nos Solutions PME VIPDev sont les Atouts Business de votre entreprise. Solutions PME VIPDev Nos Solutions PME VIPDev sont les Atouts Business de votre entreprise. Cette offre est basée sur la mise à disposition de l ensemble de nos compétences techniques et créatives au service

Plus en détail

Transformation IT de l entreprise COMMENT PROTÉGER VOS DONNÉES ET APPLICATIONS À L ÈRE DE LA MOBILITÉ?

Transformation IT de l entreprise COMMENT PROTÉGER VOS DONNÉES ET APPLICATIONS À L ÈRE DE LA MOBILITÉ? Transformation IT de l entreprise COMMENT PROTÉGER VOS DONNÉES ET APPLICATIONS À L ÈRE DE LA MOBILITÉ? L a montée en puissance des fuites de données en tout genre et l explosion des volumes de données

Plus en détail

Environnements de Développement

Environnements de Développement Institut Supérieur des Etudes Technologiques de Mahdia Unité d Enseignement: Environnements de Développement Mme BEN ABDELJELIL HASSINE Mouna m.bnaj@yahoo.fr Développement des systèmes d Information Syllabus

Plus en détail

Solution A La Gestion Des Objets Java Pour Des Systèmes Embarqués

Solution A La Gestion Des Objets Java Pour Des Systèmes Embarqués International Journal of Engineering Research and Development e-issn: 2278-067X, p-issn: 2278-800X, www.ijerd.com Volume 7, Issue 5 (June 2013), PP.99-103 Solution A La Gestion Des Objets Java Pour Des

Plus en détail

Influence De La Taille Du Jeton Sur Les Performances De L algorithme D'exclusion Mutuelle De Ricart - Agrawala

Influence De La Taille Du Jeton Sur Les Performances De L algorithme D'exclusion Mutuelle De Ricart - Agrawala Influence De La Taille Du Jeton Sur Les Performances De L algorithme D'exclusion Mutuelle De Ricart - Agrawala Sarah Benkouider, Souhila Labgaa 2, Mohamed Yagoubi 3 Université Amar Telidji Département

Plus en détail

Secteur Recherche Santé

Secteur Recherche Santé Secteur Recherche Santé isatech est spécialiste des solutions de gestion d entreprise Microsoft Dynamics ERP, CRM et Office365 Les problématiques du secteur de la santé Selon l INSEE, le secteur de la

Plus en détail

ANALYSE MULTI CAPTEUR DE SIGNAUX TRANSITOIRES ISSUS DES SYSTEMES ELECTRIQUES

ANALYSE MULTI CAPTEUR DE SIGNAUX TRANSITOIRES ISSUS DES SYSTEMES ELECTRIQUES ANALYSE MULTI CAPTEUR DE SIGNAUX TRANSITOIRES ISSUS DES SYSTEMES ELECTRIQUES Bertrand GOTTIN Directeurs de thèse: Cornel IOANA et Jocelyn CHANUSSOT 03 Septembre 2010 Problématique liée aux Transitoires

Plus en détail

Pentaho Business Analytics Intégrer > Explorer > Prévoir

Pentaho Business Analytics Intégrer > Explorer > Prévoir Pentaho Business Analytics Intégrer > Explorer > Prévoir Pentaho lie étroitement intégration de données et analytique. En effet, les services informatiques et les utilisateurs métiers peuvent accéder aux

Plus en détail

DOSSIER SOLUTION CA ERwin Modeling. Comment gérer la complexité des données et améliorer l agilité métier?

DOSSIER SOLUTION CA ERwin Modeling. Comment gérer la complexité des données et améliorer l agilité métier? DOSSIER SOLUTION CA ERwin Modeling Comment gérer la complexité des données et améliorer l agilité métier? CA ERwin Modeling fournit une vue centralisée des définitions de données clés afin de mieux comprendre

Plus en détail

Item 169 : Évaluation thérapeutique et niveau de preuve

Item 169 : Évaluation thérapeutique et niveau de preuve Item 169 : Évaluation thérapeutique et niveau de preuve COFER, Collège Français des Enseignants en Rhumatologie Date de création du document 2010-2011 Table des matières ENC :...3 SPECIFIQUE :...3 I Différentes

Plus en détail

Culture numérique Cloud computing

Culture numérique Cloud computing Culture numérique Cloud computing Hervé Le Crosnier Université de Caen Basse-Normandie herve.lecrosnier@unicaen.fr Processus John McCarthy «computation may someday be organized as a public utility.» Transformations

Plus en détail

Francis JAMBON Laboratoire d Informatique de Grenoble

Francis JAMBON Laboratoire d Informatique de Grenoble Francis JAMBON Laboratoire d Informatique de Grenoble Mise en œuvre de l oculométrie dans différents contextes d usage Analyse ergonomique Tuteurs intelligents IHM adaptatives Interaction via le regard

Plus en détail

INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE

INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE I N T E RS Y S T E M S INTERSYSTEMS CACHÉ COMME ALTERNATIVE AUX BASES DE DONNÉES RÉSIDENTES EN MÉMOIRE David Kaaret InterSystems Corporation INTERSySTEMS CAChé CoMME ALTERNATIvE AUx BASES de données RéSIdENTES

Plus en détail

COMPUTING. Jeudi 23 juin 2011 1 CLOUD COMPUTING I PRESENTATION

COMPUTING. Jeudi 23 juin 2011 1 CLOUD COMPUTING I PRESENTATION C L O U D COMPUTING Jeudi 23 juin 2011 1 2 Une nouvelle révolution de l IT 2010+ Cloud Computing 2000s Service Oriented Archi. 1990s Network Computing 1980s Personal Computing 1970s Mainframe Computing

Plus en détail

" Défis environnementaux, le retour de la voiture par la révolution numérique "

 Défis environnementaux, le retour de la voiture par la révolution numérique " Défis environnementaux, le retour de la voiture par la révolution numérique " Joseph Beretta Président Automobile technologies & Mobilité Expertise 2015 Les défis environnementaux Les challenges de l

Plus en détail

Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et

Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et l'anglais. L'étudiant a le choix entre deux filières

Plus en détail

Groupe de travail Infrastructures de recherche

Groupe de travail Infrastructures de recherche Groupe de travail Infrastructures de recherche Note sur les particularités des infrastructures pour une recherche dans le numérique Version internet - 30/04/2015 Les plates- formes numériques, outils et

Plus en détail

Séminaire Partenaires Esri France 6 et 7 juin 2012 Paris. ArcGIS et le Cloud. Gaëtan LAVENU

Séminaire Partenaires Esri France 6 et 7 juin 2012 Paris. ArcGIS et le Cloud. Gaëtan LAVENU Séminaire Partenaires Esri France 6 et 7 juin 2012 Paris ArcGIS et le Cloud Gaëtan LAVENU Agenda Qu'attendent nos clients du Cloud Computing? Les solutions de Cloud ArcGIS dans le Cloud Quelles attendent

Plus en détail

Valorisez. pleinement vos recherches. Avec Aroccam * Recherche Recherche opérationnelle. Enseignement. Produit

Valorisez. pleinement vos recherches. Avec Aroccam * Recherche Recherche opérationnelle. Enseignement. Produit Avec Aroccam * Valorisez pleinement vos recherches Recherche Recherche opérationnelle Enseignement Produit Roland CHAPUIS, Christophe DEBAIN, Cédric TESSIER * Créé par LASMEA, Cemagref, Effidence Problématiques

Plus en détail

L ergonomie de vos formulaires web permet-elle une expérience utilisateur optimale? QAS Intuitive Search

L ergonomie de vos formulaires web permet-elle une expérience utilisateur optimale? QAS Intuitive Search L ergonomie de vos formulaires web permet-elle une expérience utilisateur optimale? QAS Intuitive Search A l écoute du marché et de ses mutations, Experian Marketing Services a développé un outil de saisie

Plus en détail

Une proposition d extension de GML pour un modèle générique d intégration de données spatio-temporelles hétérogènes

Une proposition d extension de GML pour un modèle générique d intégration de données spatio-temporelles hétérogènes 303 Schedae, 2007 Prépublication n 46 Fascicule n 2 Une proposition d extension de GML pour un modèle générique d intégration de données spatio-temporelles hétérogènes Samya Sagar, Mohamed Ben Ahmed Laboratoire

Plus en détail

Cloud Computing Concepts de base Année académique 2014/15

Cloud Computing Concepts de base Année académique 2014/15 Concepts de base Année académique 2014/15 Qu'est que le? online 2 Qu'est que le? Cela s'est-il produit auparavant? Innovation Produit Service 3 Qu'est que le? Considérons-le comme-ça... Crée ta propre

Plus en détail

LAN Intégré : accéder

LAN Intégré : accéder LAN Intégré : accéder accédez à votre réseau local sans contrainte de lieu ni de temps La solution WLAN (Wireless Local Area Network) pour réseaux locaux sans fil fonctionne de la même manière que les

Plus en détail

e-biogenouest CNRS UMR 6074 IRISA-INRIA / Plateforme de Bioinformatique GenOuest yvan.le_bras@irisa.fr Programme fédérateur Biogenouest co-financé

e-biogenouest CNRS UMR 6074 IRISA-INRIA / Plateforme de Bioinformatique GenOuest yvan.le_bras@irisa.fr Programme fédérateur Biogenouest co-financé e-biogenouest Coordinateur : Olivier Collin Animateur : Yvan Le Bras CNRS UMR 6074 IRISA-INRIA / Plateforme de Bioinformatique GenOuest yvan.le_bras@irisa.fr Programme fédérateur Biogenouest co-financé

Plus en détail

Présentation du sujet de thèse Schémas temporels hybrides fondés sur les SVMs pour l analyse du comportement du conducteur

Présentation du sujet de thèse Schémas temporels hybrides fondés sur les SVMs pour l analyse du comportement du conducteur Présentation du sujet de thèse Schémas temporels hybrides fondés sur les SVMs pour l analyse du comportement du conducteur Réalisé par : Bassem Besbes Laboratoire d Informatique, Traitement de l Information

Plus en détail

Cisco Unified Computing Migration and Transition Service (Migration et transition)

Cisco Unified Computing Migration and Transition Service (Migration et transition) Cisco Unified Computing Migration and Transition Service (Migration et transition) Le service Cisco Unified Computing Migration and Transition Service (Migration et transition) vous aide à migrer vos applications

Plus en détail

SÛRETÉ DE FONCTIONNEMENT ET ARCHITECTURE GVA SÉMINAIRE ARCHITECTURES AGILES DE SYSTÈMES COMPLEXES BASÉES SUR DDS, LA VÉTRONIQUE EN CAS D EXEMPLE

SÛRETÉ DE FONCTIONNEMENT ET ARCHITECTURE GVA SÉMINAIRE ARCHITECTURES AGILES DE SYSTÈMES COMPLEXES BASÉES SUR DDS, LA VÉTRONIQUE EN CAS D EXEMPLE SÛRETÉ DE FONCTIONNEMENT ET ARCHITECTURE GVA SÉMINAIRE ARCHITECTURES AGILES DE SYSTÈMES COMPLEXES BASÉES SUR DDS, LA VÉTRONIQUE EN CAS D EXEMPLE PLAN Architecture GVA et NGVA SDF dans Architecture GVA

Plus en détail

SNCC SCADA MES Vecteurs d intégration

SNCC SCADA MES Vecteurs d intégration SNCC SCADA MES Vecteurs d intégration Paris, le 6 juin 2013 Improving your execution systems Parcours Personnel 30 années d expérience en informatique industrielle ABSY (1983-1988 : constructeur SNCC)

Plus en détail