Journées de l Ecole Doctorale des Sciences Pour L Ingénieur

Dimension: px
Commencer à balayer dès la page:

Download "Journées de l Ecole Doctorale des Sciences Pour L Ingénieur"

Transcription

1 Journées de l Ecole Doctorale des Sciences Pour L Ingénieur Programme des Présentations de Thèse par les Doctorants de 1 ère Année Clermont-Ferrand Campus des Cézeaux Pôle Physique (Amphi 9109) 20 et 21 avril 2011 Supervisé par : Françoise PALADIAN, directrice de l E.D. S.P.I. Organisé par : Faouzi JAZIRI, LIMOS (faouzi.jaziri@isima.fr) Geoffrey GARCIA, LIMOS (geoffrey.garcia.63@gmail.com) Romain POGORELCNIK, LIMOS (romain.pogorelcnik@isima.fr) Charles ROUGE, CEMAGREF LISC (charles.rouge@gmail.com)

2

3 JEDSPI 2011 : Programme Mercredi 20 avril 8h - 10h: Première session de présentations. 10h 10h30 : Pause café 10h30-12h30: Deuxième session de présentations. 12h30 13h30 : Déjeuner 13h30 14h30 : Conférence de Colin de La Higuera «La recherche : considérations stratégiques et éthiques» 14h30-15h30: Troisième session de présentations. 15h30 16h : Pause café 16h - 18h: Quatrième session de présentations.

4 JEDSPI 2011 : Programme Jeudi 21 avril 8h - 10h: Cinquième session de présentations. 10h 10h30 : Pause café 10h30-12h30: Sixième session de présentations. 12h30 13h30 : Déjeuner 13h30-15h30: Septième session de présentations. 15h30 16h : Pause café 16h - 18h: Huitième session de présentations.

5 JEDSPI 2011 : Conférence «La recherche : considérations stratégiques et éthiques» Dr. Colin de La Higuera Professeur à l Université de Nantes La recherche n'est pas qu'une activité. C'est aussi un métier. En tant que tel, il est important d'aborder ce métier de façon professionnelle, en essayant de décrypter un certain nombre de clés : Quels peuvent être nos objectifs? à court, moyen et long terme? Quelles sont les qualités requises, celles à développer? Comment fonctionnent les différents processus d'évaluation? Comment s'y préparer? Nous attacherons, dans cet exposé, une attention particulière aux questions d'éthique : Pourquoi ces questions sont-elles fondamentales pour les chercheurs? Quelles sont les différentes formes de comportement non acceptable? Les conséquences de celles-ci? Dans l'exposé, nous chercherons plus à comprendre le fonctionnement de la recherche qu'à décrire celui-ci. Biodata: Colin de la Higuera got his PhD at Bordeaux University, France in He has worked in the Universities of Bordeaux 1, Montpellier 3, Saint-Etienne and is now Professor at Nantes University. He has been involved in a number of research themes, including algorithmics, formal language theory, pattern recognition. His main research interest lies in grammatical inference, a field in which he is the author of a number of research papers and of a monograph, Grammatical Inference: Learning Automata and Grammars, published in He has developed algorithms, studied learning models and has been trying to link classical formal language frameworks (using the Chomsky hierarchy) with alternative ways of defining languages, inspired by linguistic considerations or techniques developed in pattern recognition. He has been chairman of the International Community in Grammatical Inference ( ) and is now in charge of the curriculum development programme in the European Network PASCAL 2.

6 JEDSPI 2011 : Détail des sessions Session 1 TOURE Omar (page 1) Représentation des propriétés d équilibre dans les produits carnés par un modèle thermodynamique de solution aqueuse : détermination et prédiction des activités pour des espèces chargées en particulier Na + AKROUN Lakhdar (page 2) Modélisation et interrogation de modèles de processus métier CHADEBECQ François (page 3) Reconstruction 3D par vision artificielle active à partir d images endoscopiques digestives DHIFLI Wajdi (page 5) Fouille de données complexes : le cas des graphes évolutifs GOUBET David (page 7) Projet FUI ECOMEF ( ) : Eco-conception d un outil de mécanisation pour le bûcheronnage dans les peuplements feuillus. Méthodologies de Conception Innovante. ISMAILI-ALAOUI Amine (page 9) Propriétés diélectriques et rhéologiques de fluides organiques complexes : une complémentarité pour une caractérisation in-situ MAHAMAT ATTEIB Ibrahim Doutoum (page 11) Cartographie et détection de changement automatique par imagerie de télédétection pour le suivi environnemental en Afrique Saharienne et Subsaharienne PAGNETTI Alberto (page 12) Modélisation électromagnétique transitoire des câbles sous-marins électriques

7 JEDSPI 2011 : Détail des sessions Session 2 CHALFOUN Imad (page 13) Pilotage adaptatif pour les systèmes mécatroniques reconfigurables GIRAUDEAU Fabien (page 15) Contribution à l évaluation probabiliste de la sûreté sismique des centrales nucléaires PERNOT Pierre-Alban (page 17) Prise en compte de la flexibilité et de la performance industrielle et financière lors de la planification stratégique de la Supply Chain SAIDI Rabie (page 20) Classification de données complexes : Cas des structures protéiques JAZIRI Faouzi (page 22) Développement d algorithmes bioinformatiques pour l analyse des biopuces ADN pour l environnement SAIFOUNI Omar (page 23) Modélisation des effets rhéologiques couplés dans les multimatériaux à comportement complexe AHMAD Maqsood (page 25) The University Timetabling Problem BASHIR Bushra (page 27) Location-Allocation problem and Home Care problem

8 JEDSPI 2011 : Détail des sessions Session 3 ESSAHBI Nabil (page 29) Conception et modélisation d'une cellule robotisée pour la séparation de muscles dans le procédé de découpe de viande ROSSIGNOL Cindie (page 31) Bioproduction de molécules hydrophobes en système membranaire LARNAOUT Dora (page 33) Localisation globale d une caméra mobile en milieu urbain à l aide du contexte SUBRIN Kevin (page 35) Amélioration de la capabilité des robots sériels par gestion des redondances, calibration vision, commande en effort

9 JEDSPI 2011 : Détail des sessions Session 4 CARTADE Pierre (page 37) Commande en formation de véhicules agricoles CHABANE Yahia (page 39) Recherche sémantique d images médicales en utilisant une ontologie BOMBRUN Laure (page 41) Prédiction de l effet de la diminution de la teneur en sel sur la qualité du jambon cuit Analyse des étapes de traitement thermique et de conservation du produit GONZALEZ Damien (page 42) Méthodes discrètes basées voxels pour les modèles déformables avec contrôle topologique en segmentation d'images 3D KHODJET-KESBA Mahmoud (page 43) Nouvelles approches d identification d obstacles en utilisant un Radar UWB (Ultra Wide Band) LARDY Romain (page 44) High Performance Vulnerability Assessment with constrained Design of Experiments using a model driven engineering approach Application to: climate change vulnerability of grassland / livestock systems LOOSLI Cédric (page 46) Les méthodes duales pour la segmentation, le filtrage et le suivi d'objets MARCHANT Maïté (page 48) Modélisations multi-échelles des systèmes nanophotoniques à base de matériaux intelligents

10 JEDSPI 2011 : Détail des sessions Session 5 BENDADOUCHE Rimel (page 50) Intégration de données agri-environnementales provenant d'un réseau de capteurs sans fil dans un entrepôt de données BUI The Quang (page 52) Virtual screening from Vietnamese natural products using GRID computing DURIF Sébastien (page 54) Etude analytique du comportement de poutres cellulaires à ouvertures sinusoïdales POUZET Mathieu (page 56) Analyse de l'environnement par techniques de SLAM visuel pour la surveillance en robotique DANG Cong Thuat (page 58) Fiabilité des structures et des systèmes mécaniques en comportement dynamique stochastique et application à la construction des courbes de fragilité sismique HARKOUSS Rami (page 60) Quantification des évolutions biochimiques, structurales, texturales, des effets sur la diffusion de l eau et du sel, et des conséquences microbiologiques induits par une forte réduction de la teneur en sel lors de la fabrication de jambons secs MAMERI Djelloul (page 61) Conception et routage dans des réseaux de capteurs sans fil à l aide de structures combinatoires REGUIEG Hicham (page 63) Gestion des processus dans le Cloud Computing

11 JEDSPI 2011 : Détail des sessions Session 6 AMIN ALI Mohamed (page 64) Conception de couches nanostructurées en vue Application au capteur de gaz COMPTE Benoît (page 65) Reconstruction 3D de surfaces rigides et déformables par le mouvement, application à la cœlioscopie EL SAHMARANY Lola (page 66) Etude et mise en œuvre d'une méthode de diagnostic de câbles par retournement temporel RICHIER Mathieu (page 68) Conception de dispositifs actifs de maintien de stabilité pour les véhicules évoluant en milieux naturels PASSERAT-PALMBACH Jonathan (page 70) Calcul stochastique distribué sur Grille hybride utilisant des GPGPU BEN TOUHAMI Haytem (page 72) Statistiques bayésiennes et fusion de données pour des modèles d évaluation des impacts du changement climatique BRESSON Guillaume (page 73) Localisation d une flotte de véhicules communicants par approche de type SLAM visuel décentralisé GARCIA Geoffrey (page 75) Une approche logicielle du traitement de la dyslexie : étude de modèles et applications

12 JEDSPI 2011 : Détail des sessions Session 7 AZRAN Aymeric (page 77) Développement et caractérisation de matériaux composites innovants : Intégration de fonction de conductivité sur matériaux composites pour l aéronautique. FETNACI Nawal (page 79) Segmentation discrète 3d des structures vasculaires ŁUBNIEWSKI Paweł (page 81) Assistance peropératoire pour le traitement endovasculaire des dissections aortiques ROUGE Charles (page 83) Viabilité et résilience: quel apport de la modélisation mathématique et informatique? SAMACA MARTINEZ Ricardo (page 84) Analyse thermomécanique par thermographie infrarouge d élastomères indemnes et entaillés sous chargements cycliques SOUIDI Kaies (page 85) Effet de la configuration des agitateurs et de la rhéologie du liquide sur la dispersion du gaz: Etude expérimental et numérique JANNET Basile (page 87) Evaluation de l influence de la non-stationnarité du milieu de propagation dans le processus de retournement temporel (RT) par la méthode de collocation stochastique LLANCA-VARGAS Daniel (page 89) Mise au point d une méthodologie de diagnostic et de qualification des ouvrages enterrés en service

13 JEDSPI 2011 : Détail des sessions Session 8 DAVIS Marc (page 90) Modélisation, conception et réalisation d un véhicule agile à quatre roues, articulé et motorisé, capable de retomber sur ses roues suite à une phase balistique (ROBCAT) MARY Arnaud (page 92) Problèmes de générations: Cas des dominants d'un graphe MOHAMAD Baraa (page 93) Medical Database Management on the Cloud DOAN Trung Tung (page 95) Etude du déploiement d un réseau sentinelle pour la surveillance de la grippe aviaire avec la technologie des grilles SAULNIER Florence (page 97) Influence de traitements physico-chimiques des renforts sur le comportement mécanique et la durabilité des composites à base de co-produits de bois CARTADE Colin (page 99) Paramétrisation régulières optimales de surfaces discrètes

14

15 Résumés des communications orales

16 Première session : mercredi 20 avril, 8h Nom : TOURE Prénom : Oumar Mail : oumartourefr@yahoo.fr Laboratoire : LGCB (Laboratoire de Génie Chimique et Biochimique) Représentation des propriétés d équilibre dans les produits carnés par un modèle thermodynamique de solution aqueuse : détermination et prédiction des activités pour des espèces chargées en particulier Na + Directeur de thèse : Claude-Gilles DUSSAP Mail : dussap@gecbio.univ-bpclermont.fr Présentation du sujet de thèse Cette thèse s inscrit dans le cadre du projet «Na -» financé par l Agence Nationale de la Recherche (ANR) et initié en Janvier Ce projet a pour objectif de réduire la teneur en sel dans les produits de charcuterie (jambon sec et jambon cuit). L approche suivie est basée sur l analyse des mécanismes physiques (macro/micro) et biochimiques responsables du développement de la qualité du produit ainsi que sur la modélisation des transferts et des cinétiques réactionnelles. Ce travail de thèse concerne la partie modélisation et calcul prédictif des activités à partir de modèles de solutions aqueuses. Cette thèse se déroule au sein du Laboratoire de Génie Chimique et Biochimique (LGCB) en étroite collaboration avec la Société ProSim SA. Ce travail de thèse comporte deux volets complémentaires. Le premier volet porte sur les développements logiciels absolument nécessaires pour que les modèles puissent être exploités et testés par les partenaires du programme «Na -». Il concerne les points suivants : Interfaçage du modèle le plus récent développé au LGCB sur le simulateur développé par la Société Prosim SA «Simulis Thermodynamics». Implémentation des aspects réactionnels et de la prise en compte des équilibres d hydratation, de complexation et d équilibres redox. Structuration de la base de données des paramètres du modèle. Identification des paramètres d interaction pour des groupements chimiques d intérêt à partir de résultats expérimentaux acquis dans le programme de recherche «Na -» et/ou à partir de résultats publiés. Le second volet porte sur le développement du modèle proprement dit. Les points suivants pourront y être abordés : Travail sur la partie électrostatique du modèle, en particulier sur la prédiction de la constante diélectrique. Calcul prédictif (simulation moléculaire) des constantes d équilibre réactionnelles et comparaison aux grandeurs identifiées. Calcul prédictif des constantes de dissociation et de complexation. Calcul prédictif des propriétés de formation des composés d intérêt. Calcul prédictif des propriétés de formation des radicaux libres avec l objectif de la modélisation du potentiel redox. Ces deux volets seront développés de façon complémentaire, sachant qu il doit y avoir un travail en synergie entre des travaux plus théoriques, exploitant autant que possible les avancées récentes en modélisation moléculaire, et leur implémentation dans la suite logicielle «Simulis Thermodynamics» mise au point par la Société Prosim. Les résultats, en termes de sélection de modèles et de suites logicielles seront utilisés dans le cadre de deux autres thèses financées sur le même programme de recherche Na -. 1

17 Première session : mercredi 20 avril, 8h Nom : AKROUN Prénom : Lakhdar Mail : akroun@isima.fr Laboratoire : LIMOS Modélisation et interrogation de modèles de processus métier Directeur de thèse : Professeur Farouk Toumani Mail : farouk.toumani@isima.fr Présentation du sujet de thèse Cette thèse porte sur les processus métiers, leurs modélisations et la formulation de requêtes sur ses modèles. Les processus métier sont devenus une des parties les plus importantes des systèmes d informations. De manière plus précise ils représentent les activités qui caractérisent l entreprise mais aussi la logique d enchainement des ces activités. La modélisation des processus métier permet de générer des processus exécutables, d analyser les processus et de les réutiliser. Il existe beaucoup de langage de modélisations des processus métier mais la plus part sont orientés activités (BPEL, BPMN), c'est-à-dire qu ils se focalisent sur les activités et leurs enchainement, mais font passer les ressources (données) utilisés au second plant. Nous nous somme intéressé plus particulièrement a une récente approche de modélisation, l approche orientée artefacts, qui permet de prendre en considération aussi bien les activités d un processus que les données qu il manipule. Un artefact est une entité informationnelle qui englobe les informations les plus pertinentes d un processus métier et nous permet de suivre le processus du début jusqu'à se qu il atteigne son but. Un artefact a un cycle de vie (l ensemble d états par les quelles il peut passer jusqu'à ce qu il atteigne son but), des services (les activités du processus métier) qui agissent sur l artefact et le modifie, ainsi que des règles régissant l enchainement des appelles aux services. Les modèles de processus métier sont une mine d information, d un part pour réutiliser des parties de ces modèles dans la conception de nouveaux processus, de plus ils permettent de comprendre le fonctionnement du processus. Vu que l approche artefact englobe plusieurs aspects des processus métier (les activités et les données utilisées), en posant des questions sur ce genre de modèle on retrouve plus d information sur les processus métier que les autres modèles. 2

18 Première session : mercredi 20 avril, 8h Nom : CHADEBECQ Prénom : François Mail : f.chadebecq@gmail.com Laboratoire : LASMEA Reconstruction 3D par vision artificielle active à partir d images endoscopiques digestives Directeurs de thèse : Adrien Bartoli, Christophe Tilmant Mail : Adrien.Bartoli@gmail.com, christophe.tilmant@isima.fr Présentation du sujet de thèse Le projet ANR SYSEO regroupant l'institut National Polytechnique de Grenoble, l'université Blaise Pascal de Clermont-Ferrand, les Hospices Civils de Lyon ainsi que la société Vichyssoise Yansys Medical, vise à développer de nouvelles techniques d'imagerie pour l'assistance aux praticiens hospitaliers, dans le cadre de l'endoscopie digestive. L'endoscopie (du grec ''endom'': à l'intérieur) est une technique d'imagerie médicale qui consiste à insérer dans le corps du patient, par voie naturelle ou par le biais d'une petite incision, un tube muni d'une camera et d'un système d'éclairage. Elle peut être utilisée dans un cadre diagnostique mais également interventionnel. Ce mode opératoire est généralement qualifié de mini-invasif car il ne présente pas les risques liés à une opération chirurgicale traditionnelle, notamment les risques infectieux. Dans le cadre d'interventions digestives hautes ou basses, les gastro-entérologues disposent d'un endoscope souple (fibroscope) muni de canaux opérateurs permettant l'insertion d'instruments chirurgicaux (pinces à biopsie...). Ce mode opératoire présente de nombreux intérêts de par son caractère non invasif qui réduit grandement les risques liés à une opération ainsi que les traumatismes qui lui sont inhérents. A contrario, il présente également des inconvénients majeurs pour le chirurgien. Ce dernier ne dispose que des images en 2 dimensions du moniteur, il perd donc la notion de distance et ne doit s appuyer que sur son expérience et ses connaissances anatomiques pour se créer une carte mentale des organes explorés. Cela induit une difficulté dans l'appréhension quantitative des données relatives aux organes potentiellement lésés. La mesure de certaines tumeurs telles que les polypes pouvant être présents dans le colon est essentielle au diagnostique et à la décision du praticien concernant une éventuelle résection. De plus, la liberté de mouvement de l endoscope, mais également des instruments chirurgicaux, étant limitée, il peut être délicat de percevoir certaines anomalies occultées par des replis ou simplement planes (sur la surface de la zone diagnostiquée). L'objectif de cette thèse est de développer des techniques d'imagerie permettant d'exploiter les images recueillies par l'endoscope afin de proposer de nouvelles méthodes d'aide aux diagnostiques et à la détection de polypes ou de lésions gastro-intestinales. De premiers axes de recherche ont été définis en concertation avec les intervenants praticiens hospitalier et les intervenants issus de la recherche en imagerie: une reconstruction partielle ou totale de l'organe exploré par le praticien la détection de polypes la mesure de polypes ou de lésions l'aide au diagnostique par classification de la tumeur selon les standards de classification des lésions néoplasiques (''classification de Paris''). 3

19 Première session : mercredi 20 avril, 8h Diverses spécialités de l'imagerie sont impliquées dans ces problématiques et certaines seront principalement étudiées durant le doctorat, notamment les problématiques de reconstruction en trois dimentions. La thèse a débuté le premier mars 2011 et la première problématique traitée concerne la mesure de polypes ou de lésions en parrallèle d'une étude bibliographique. 4

20 Première session : mercredi 20 avril, 8h Nom : DHIFLI Prénom : Wajdi Mail : dhifli@isima.fr Laboratoire : LIMOS Fouille de données complexes : le cas des graphes évolutifs Directeur de thèse : MEPHU NGUIFO Engelbert Mail : mephu@isima.fr Présentation du sujet de thèse La recherche de motifs (sous-graphes) fréquents dans un graphe a fait l objet de nombreux travaux (voir ci-dessous). Mais très peu de travaux ont été consacrés à la fouille de graphes dynamiques, notamment de graphes évoluant dans le temps. La dynamique dans les graphes est présente dans le domaine du web, des réseaux sociaux, de la génomique, etc En effet ce problème revêt une importance dans l étude des réseaux d interaction protéine-protéine en métagénomique. L étude des métagénomes (ou génomique environnementale) concerne l ensemble des séquences d ADN extraites des communautés multi-espèces prélevées dans l environnement. Le défi de la métagénomique consiste à relier les informations génomiques issues des clones à l organisme ou à l écosystème duquel l ADN a été extrait. Dans ce contexte, extraire des motifs pertinents permettant une comparaison multi-espèces de séquences contribuera à accroître la compréhension des phénomènes régissant l évolution des communautés multi-espèces. Les approches proposées dans la littérature et intégrant la dynamique dans les graphes, concernent principalement les graphes dans les réseaux sociaux, et les particularités des contextes métagénomiques ne sont que rarement traités. L objectif de la thèse consistera à élaborer de nouvelles méthodes et algorithmes efficaces de fouille de graphes dynamiques, notamment pour le contexte des données métagénomiques. Le travail consistera donc à : - Etudier les méthodes de représentation appropriées des graphes, et tenant compte de l aspect temporel ; - Etudier les méthodes de recherche de sous-graphes fréquents, et notamment dans le contexte temporel ; - Proposer de nouveaux algortihmes de recherche de sous-graphes dans un contexte dynamique ; - Etudier leur validité, notamment dans le cas de données métagénomiques. Bibliographie Christopher Palmer, Phillip Gibbons and Christos Faloutsos, ANF: A Fast and Scalable Tool for Data Mining in Massive Graphs, KDD 2002, Edmonton, Alberta, Canada, July 2002 B. McKay. Practical graph isomorphism. Congressus Numerantium, 30:45--87, 1981 L. Dehaspe, H. Toivonen, and R. King. Finding frequent substructures in chemical compounds, KDD'98 5

21 Première session : mercredi 20 avril, 8h T. Gärtner, P. Flach, and S. Wrobel, On Graph Kernels: Hardness Results and Efficient Alternatives, COLT/Kernel 03 T. Gärtner, P. Flach, and S. Wrobel, On Graph Kernels: Hardness Results and Efficient Alternatives, COLT/Kernel 03 C. Faloutsos, K. McCurley, and A. Tomkins, Fast Discovery of 'Connection Subgraphs, KDD'04 H. Hu, X. Yan, Yu, J. Han and X. J. Zhou, Mining Coherent Dense Subgraphs across Massive Biological Networks for Functional Discovery, ISMB'05 J. Huan, W. Wang, D. Bandyopadhyay, J. Snoeyink, J. Prins, and A. Tropsha. Mining spatial motifs from protein structure graphs, RECOMB 04 G. Jeh, and J. Widom, Mining the Space of Graph Properties, KDD'04 H. Hu, X. Yan, Yu, J. Han and X. J. Zhou, Mining Coherent Dense Subgraphs across Massive Biological Networks for Functional Discovery, ISMB'05 M. Kuramochi and G. Karypis, GREW: A Scalable Frequent Subgraph Discovery Algorithm, ICDM 04 M. Koyuturk, A. Grama, and W. Szpankowski. An efficient algorithm for detecting frequent subgraphs in biological networks, Bioinformatics, 20:I200--I207, 2004 T. Washio and H. Motoda, State of the art of graph-based data mining, SIGKDD Explorations, 5:59-68, 2003 Jimeng Sun, Spiros Papadimitriou, Philip S. Yu, and Christos Faloutsos, GraphScope: Parameter-free Mining of Large Time-evolving Graphs ACM SIGKDD Conference, San Jose, CA, August Hanghang Tong, Spiros Papadimitriou, Philip S. Yu and Christos Faloutsos Proximity Tracking on Time- Evolving Bipartite Graphs SDM 08, Atlanta, GA, April 24-26, Hanghang Tong, Yehuda Koren, and Christos Faloutsos, Fast Direction-Aware Proximity for Graph Mining ACM SIGKDD Conference, San Jose, CA, August Jimeng Sun, Charalampos E. Tsourakakis, Evan Hoke, Christos Faloutsos and Tina Eliassi-Rad Two heads better than one: pattern discovery in time-evolving multi-aspect data Journal Data Mining and Knowledge Discovery 17, 1, pp , August,

22 Première session : mercredi 20 avril, 8h Nom : GOUBET Prénom : David Mail : david.goubet@ifma.fr Laboratoire : Laboratoire de Mécanique et Ingénieries (LaMI) Projet FUI ECOMEF ( ) : Eco-conception d un outil de mécanisation pour le bûcheronnage dans les peuplements feuillus. Méthodologies de Conception Innovante. Directeur de thèse : Grigore GOGU Mail : grigore.gogu@ifma.fr Co-encadrant : Jean-Christophe FAUROUX Mail : jean-christophe.fauroux@ifma.fr Présentation du sujet de thèse. L exploitation forestière est un processus qui vise à mobiliser le bois présent dans nos forêts, tout en favorisant le développement des arbres restants. En cela, ce processus s intègre parfaitement dans la gestion durable nos forêts. L exploitation forestière se décompose généralement en deux étapes successives. La première consiste à abattre les arbres, les ébrancher et éventuellement les billonner. Au cours de la seconde étape, les grumes ou les billons obtenus précédemment sont amenés en lisière de forêt où ils pourront ensuite être repris par des transporteurs routiers à destination des entreprises de première transformation. L abattage, l ébranchage et le billonnage sont des opérations de bûcheronnage qui peuvent être réalisées manuellement, à l aide de tronçonneuses. Toutefois, les années 70 ont vu apparaître, en France et en Europe, des engins permettant de mécaniser et automatiser cette étape de l exploitation. En 2009, 58% des résineux récoltés étaient abattus grâce à de tels outils, tandis que les peuplements feuillus étaient encore abattus à 96% manuellement. Poussée par les politiques de développement durable et par la flambée du prix des énergies fossiles, la demande de bois issu de feuillus augmente de plus en plus. Inversement, la pénibilité et l extrême dangerosité du travail en forêt entraîne une diminution du nombre de bûcherons manuels qualifiés. Ces deux phénomènes couplés poussent à présent les industriels à s intéresser à la mécanisation des peuplements feuillus. Toutefois, par la forme flexueuse de leur tronc, par la grosseur et la dureté de leurs branches, par l organisation en cépées de leurs pieds, les feuillus ne se prêtent pas aussi facilement à la mécanisation que les résineux qui ont un tronc droit, des branches régulières et de faible section et une implantation dite de «franc pied». 7

23 Première session : mercredi 20 avril, 8h Les travaux de recherche présentés ici visent donc à mettre en évidence les problèmes de bûcheronnage réalisé à l aide de machines existantes et à y remédier tout en augmentant la productivité de 40%. La recherche de solutions innovantes sera notamment menée avec les méthodes d'innovation et de créativité telles que TRIZ/TIPS/WOIS et les méthodes de synthèse morphologique telles que la morphologie évolutionniste. Une attention toute particulière sera apportée sur le respect de l environnement dans la conception. Cette thèse s intègre dans un projet beaucoup plus vaste, le projet FUI-ECOMEF, qui est soutenu par les Régions Auvergne et Limousin, le Ministère de l Industrie et l Union Européenne. Un grand nombre d experts de l exploitation forestière sont réunis autour de ce projet piloté par le FCBA. 8

24 Première session : mercredi 20 avril, 8h Nom : ISMAILI-ALAOUI Prénom : Amine Mail : amine.ismaili-alaoui@cemagref.fr Laboratoire : UR TSCF, Cemagref (Site de Montoldre) PROPRIETES DIELECTRIQUES ET RHEOLOGIQUES DE FLUIDES ORGANIQUES COMPLEXES : UNE COMPLEMENTARITE POUR UNE CARACTERISATION IN-SITU Directeurs de thèse : Jean-Christophe Baudez, Fabrice Leroux Encadrant : Emilie Dieudé-Fauvel Mail : jean-christophe.baudez@cemagref.fr, Fabrice.LEROUX@univ-bpclermont.fr et emilie.dieudefauvel@cemagref.fr Présentation du sujet de thèse Dans un contexte actuel incitant à l'amélioration des procédés de valorisation agricole ou énergétique des déchets organiques, les transformations physiques que subissent ces matériaux avant d'être valorisés doivent être maîtrisées. Il est donc essentiel d'approfondir en particulier l'étude de leurs propriétés rhéologiques afin de conduire au mieux les procédés et de dimensionner les installations. La problématique de ce projet s'articule autour de l'approfondissement d'une corrélation entre propriétés rhéologiques et diélectriques et ce, indépendamment de la composition ou de l'âge du matériau. Des travaux antérieurs (Dieudé-Fauvel et al., 2009) ont montré l'existence d'une relation entre résistivité et viscosité apparente pour les boues. Il s'agit donc prioritairement de trouver la signification physique des paramètres de cette équation puis d'élargir l'approche à d'autres matériaux de différentes consistances. La partie bibliographique a d'abord porté sur les principales propriétés physico-chimiques et structurales des boues. Ensuite, trois sous-parties ont été abordées. La première est l'étude rhéologique : principes des mesures en cisaillement simple (en particulier les tests de fluage) et des mesures dynamiques par oscillations, propriétés rhéologiques des boues (l'accent a été mis sur le comportement viscoélastique, la thixotropie, le seuil d'écoulement, le module de rigidité complexe ). La deuxième partie concerne essentiellement la technique de spectroscopie d'impédance, les diagrammes d'impédance, la détermination des propriétés diélectriques (notamment le calcul de la résistivité et de la permittivité), la relaxation, les fréquences de relaxation (diélectrique et intrinsèque). En dernier lieu, nous nous sommes intéressés aux travaux antérieurs concernant le couplage entre propriétés diélectriques et rhéologiques pour différents matériaux (tels que les boues, les polymères chargés, les argiles ) de façon à étayer l'analyse des résultats futurs. La partie expérimentale a été entamée par l'étude d'un matériau modèle (gel de coiffure) qui a un comportement rhéologique proche de celui des boues pâteuses (Baudez, 2001). L'influence de la concentration du gel sur les différents paramètres rhéologiques ainsi que l'influence de la température ont été étudiées : Le seuil d'écoulement varie avec la concentration et la température 9

25 Première session : mercredi 20 avril, 8h et on a des tendances proches de celles des boues résiduaires. Par contre, le modèle d'herschel- Bulkley qui a permis de calculer des paramètres tels que la consistance ou l'indice d'écoulement n'est pas applicable à toutes les concentrations. En dynamique, les tests ont permis de définir deux grandeurs rhéologiques, la fréquence de croisement (sur les représentations des modules dynamiques en fonction de la fréquence) ainsi que l'énergie de cohésion, puis de caractériser leurs variations. Ensuite, après étalonnage de la cellule diélectrique et modification de l'interfaçage afin d'exécuter un balayage continu en fréquences, une caractérisation diélectrique a été effectuée dans chaque cas (diagramme de Nyquist en impédance et calcul de la résistivité et de la permittivité). L'analyse de ces diagrammes est un moyen pour déterminer la résistance propre et éventuellement la fréquence de relaxation diélectrique pour certains échantillons. En marge de cette étude, nous avons commencé à aborder les influences de certains paramètres protocolaires tels que la durée du fluage, le glissement, la valeur de l'entrefer Il s'agira surtout de se placer dans des conditions permettant une caractérisation du matériau étudié, sans intervention de phénomènes perturbateurs. Dans la suite du projet et avant d'aborder les boues, nous étudierons un autre matériau modèle, la bentonite, qui est fortement thixotrope et qui présente une évolution de la structure dans le temps sans aucune modification de la composition. L'objectif est de s'intéresser à l'évolution des paramètres rhéologiques et diélectriques en fonction de la structure. Le raisonnement sera le même que précédemment : variation d'un paramètre (température ou concentration) et suivi des caractéristiques en fonction de l'autre paramètre. Les caractérisations se feront séparément dans un premier temps puis simultanément. Ces caractérisations, pour les boues, permettront d'approfondir la corrélation déjà établie en utilisant le couple de variables {viscosité apparente, résistivité} et de rechercher si d'autres couples de variables sont plus adaptés. Dès lors, il s'agira de suivre les évolutions de ces couples définis en fonction du temps. L'ensemble de ces travaux, sur des matériaux modèles ou réels, a pour objectif de parvenir à l'approfondissement de cette corrélation entre propriétés rhéologiques et diélectriques. Références Dieudé-Fauvel, E. et al. (2009). "Improving rheological sludge characterization with electrical measurements.". Chemical Engineering Research And Design 87 : Baudez, J. C. (2001). "Rhéologie et physico-chimie des boues résiduaires pâteuses pour l'étude du stockage et de l'épandage.". Sciences de l'environnement. Paris, Ecole Nationale du Génie Rural, des Eaux et des Forêts : 235p. 10

26 Première session : mercredi 20 avril, 8h Nom : MAHAMAT ATTEIB Prénom : Ibrahim Doutoum Mail : Doutoum@isima.fr Laboratoire : LIMOS (Laboratoire d'informatique, de Modélisation et d'optimisation des Systèmes) Cartographie et détection de changement automatique par imagerie de télédétection pour le suivi environnemental en Afrique Saharienne et sub - saharienne Directeur de thèse : Philippe Lacomme (MCF, HDR) Mail : placomme@isima.fr Encadrants : Christophe Gouinaud (gouinaud@isima.fr), Mamadou Kaba Traoré (traore@isima.fr) Présentation du sujet de thèse De nos jours le satellite est vu comme une source d'information sur le globe. L'accroissement du nombre d'images à traiter ainsi que les demandes de plus en plus grandes de mesures fiables et quantitatives poussent à l'usage de techniques automatiques. De nombreux capteurs imageurs de télédétection sont actuellement en cours d'exploitation. L'offre d'images, optique ou radar, de résolution élevée permet d'envisager un renouveau des études réalisées par fusion de données multi capteurs dans le domaine du suivi de phénomènes environnementaux et plus particulièrement de l'impact de l'homme sur son milieu naturel. La diversité des images disponibles nous permet de penser que les techniques de détection de changements peuvent être également appliquées dans les zones désertiques dans des buts de préventions des dangers ou dans la recherche de personne. En particulier le suivi du déplacement des cordons des dunes est d'un intérêt indéniable pour prévenir la coupure de voies de communication terrestre. Ces deux genres d'études nécessitent des opérations de cartographie importantes sur des échelles de temps différentes et très courtes dans le deuxième cas. Il convient donc de développer des méthodes automatiques permettant de détecter des éléments de paysage sur des capteurs différents de façon à permettre des études à cours ou à long terme. En effet dans les applications citées plus haut, il faut s'affranchir de l'obsolescence des capteurs dans le cas d'études à long terme et du délai de passage d'un même capteur dans le cas d'étude à très court terme. Le sujet de thèse proposé ici concerne plus particulièrement la modélisation de la texture des zones désertique et des variations inter capteur. Dans un premier temps, la recherche sera orientée sur l'étude des effets du terrain sur les statistiques des textures. Les variations inter pixel devront être modélisées puis simulées de façon à permettre de faire des prédictions d'aspect de nature à définir les limites des méthodes de traitement d'image actuel. Dans un deuxième temps, il faudra un ensemble d'objets dont la cartographie est intéressante pour le suivi de ce type de zone. Enfin, nous définirons des méthodes automatiques adaptées à la cartographie est au suivi pour les phénomènes dont l'étude aura révélé la pertinence. Les méthodes autorisant l'utilisation simultanée de plusieurs capteurs seront privilégiées. Les phénomènes qu'il nous semble d'ores et déjà intéressant d'étudier sont : 1. le suivi du déplacement des dunes 2. le suivi de l'extension des agglomérations urbaines 3. la dégradation des zones agricoles en milieu semi désertique. 11

27 Première session : mercredi 20 avril, 8h Nom : PAGNETTI Prénom : Alberto Mail : alberto.pagnetti@edf.fr Laboratoire : LASMEA Modélisation électromagnétique transitoire des câbles sous-marins électriques Directeur de thèse : Françoise Paladian Mail : Francoise.PALADIAN@lasmea.univ-bpclermont.fr Présentation du sujet de thèse But de cette thèse est la modélisation électromagnétiques des câbles souterrains et sous-marins pour le transport de puissance. Cette modélisation est visée à l implémentation d un modèle pour le logiciel EMTP-RV. Ces modèles sont des modèles temporels, étant donné que le logiciel EMTP simule des phénomènes transitoires. Les paramètres sont d abords calculés dans le domaine fréquentiel, et ensuite transformés vers le domaine temporel à l aide de technique de fitting. Mon but spécifique est de générer les paramètres électriques de différentes sortes de câbles dans le domaine fréquentiel, partant des paramètres géométriques / matériaux de ceux-ci. On vise à prendre en compte certains effets antérieurement négligés (notamment l effet de proximité, l effet de couche de semi-conducteur, et d autres effets.) L aspect innovateur de la thèse se place principalement dans la modélisation de câbles avec structures non coaxiales, notamment les câbles tripolaires, non présents dans EMTP. Entre ces câbles, de grande intérêt sont les câbles tripolaires sous-marins, qui peuvent /vont servir pour les liaisons haute tension des éoliennes offshores, ou pour certains liaisons insulaires. En détail l effet de proximité peut avoir (dans certaines configurations) un effet non négligeable sur la propagation des phénomènes transitoires (notamment les surtensions) le long du câble. Pendant le cours de la thèse on envisage aussi d améliorer certaines défaillances présentes aujourd hui dans les modèles de câbles unipolaires. La technique utilisée pour la description des effets de proximité est une semi-analytique, il s agit notamment de développer un code adapté aux calculs des configurations demandées, qui remplace les calculs faits à l aide de logiciels éléments finis. 12

28 Deuxième session : mercredi 20 avril, 10h30 Nom : CHALFOUN Prénom : Imad Mail : imad.chalfoun@ifma.fr Laboratoire : LaMI Pilotage adaptatif pour les systèmes mécatroniques reconfigurables Directeur de thèse : M. RAY Pascal Mail : pascal.ray@ifma.fr Co-encadrement de thèse : M. KOUISS Khalid, M. BOUTON Nicolas Résumé : L objectif de ces travaux de thèse est de contribuer au développement d un concept innovant de systèmes de production agiles. Il s intéresse particulièrement au développement des parties pilotage, commande et système d information qui devront permettre l agilité de la partie physique reconfigurable car composée de plusieurs postes de travail déplaçables à l aide d un robot mobile. Pour mener à bien cette étude, nous préconisons une méthode qui s appuie sur une approche componentielle distribuée. Ainsi, le système sera construit à base de composants «intelligents» (matériels et/ou logiciels) qui collaboreront pour former un ensemble cohérent auto-organisé. Doté de ces caractéristiques, le système sera capable de se reconfigurer au niveau physique et au niveau logique pour chaque lancement d un nouveau produit de façon à optimiser la production et à rationaliser l utilisation des ressources. Contexte et problématique de la recherche : Pour les entreprises industrielles, construire des systèmes de production capables de s adapter rapidement aux différentes modifications de leur environnement, est un atout essentiel pour leur compétitivité et leur rentabilité. Dans ce contexte, certaines entreprises ont fait le choix de mettre en place des systèmes de production flexibles. Mais, ces systèmes restent mal adaptés aux productions en grandes et moyennes séries (comportant de nombreuses opérations manuelles) ou lorsque la valeur ajoutée est faible. Objectifs et méthodologie : Dans le cas de ces productions en grandes et moyennes séries et lorsque la valeur ajoutée est faible, nous proposons de développer un nouveau concept de systèmes agiles reconfigurables, où l agilité est définie par l habileté à changer de position. Pour cela, nous proposons de concevoir et de construire le système à partir de composants matériels et logiciels reconfigurables et déplaçables ; et également proposer un pilotage et une commande capables de gérer l agilité des composants afin de les exploiter pour adapter la production en fonction de la demande, des contraintes et des aléas. Ces composants doivent alors collaborer pour former un ensemble cohérent et auto-organisé. Ils doivent donc être porteurs de l'intelligence nécessaire à l'agilité souhaitée et disposer des connections matérielles, logiques et logiciels rendant les évolutions de la configuration réalisables. Pour ce faire, la méthodologie employée nécessitera de combiner différentes approches afin d être capable de prendre les bonnes décisions en termes de reconfiguration et sur la manière de les 13

29 Deuxième session : mercredi 20 avril, 10h30 déployer au niveau de tous les composants du système. Les recherches intégreront, entre autres, les concepts de l approche MDA (Modelling Driven Architecture) et la conception par composants. Enfin, les travaux de recherche seront validés sur un démonstrateur industriel composé de plusieurs postes de travail reconfigurables et déplaçables à l aide d un robot mobile. Il sera installé au sein de la plate-forme AIP-PRIMECA Auvergne qui est une plate-forme de mutualisation dans le domaine de la productique. Originalité de l approche proposée : Le projet présente de nombreux points qui en font un projet original et novateur : Un nouveau concept d atelier capable de changer significativement de morphologie pour s adapter à différentes productions et situations. Une validation de ce concept sur un démonstrateur grandeur nature. Une nouvelle vision du cycle de vie des systèmes de production. Une prise en compte dès les phases de conception des capacités de reconfiguration. Les compétences demandées pour ce travail sont pluridisciplinaires entre la mécanique, l automatique, la gestion industrielle et l informatique. La part des technologies d information et de communication est très importante et transversale à tous les niveaux. Les principaux verrous identifiés peuvent être répartis selon 4 axes : produits et de procédés intégrant l agilité. code de contrôle. traçabilité, maintenance, etc. sation industrielle : choix et gestion des configurations, définition des postes de travail, découpage des tâches opérateurs, optimisation, etc. 14

30 Deuxième session : mercredi 20 avril, 10h30 Nom : GIRAUDEAU Prénom : Fabien Mail : fabien-externe.giraudeau@edf.fr Laboratoire : LaMSID (Clamart) CONTRIBUTION A L'ÉVALUATION PROBABILISTE DE LA SÛRETÉ SISMIQUE DES CENTRALES NUCLÉAIRES Directeur de thèse : Michel Fogli Mail : michel.fogli@polytech.univ-bpclermont.fr Présentation du sujet de thèse Dans le cadre des Etudes Probabilistes de Sûreté, on caractérise la fragilité sismique des installations nucléaires par des "courbes de fragilité". On appelle " défaillance d'une structure " le dépassement par une variable d'intérêt (ici la réponse en déplacement de la structure) d'un seuil admissible prédéfini. La courbe de fragilité d'une structure représente ainsi sa probabilité de défaillance en fonction du niveau d'excitation sismique. Quelle que soit la méthode mise en œuvre, l'élaboration d'une courbe de fragilité nécessite une connaissance du comportement "ultime" des structures qui est, dans la majorité des cas, nonlinéaire. De plus, pour les essais comme pour les calculs numériques temporels, il est nécessaire de disposer d'accélérogrammes réels ou générés de manière artificielle. On souhaite ici développer des méthodologies d'évaluation de ces courbes, voire surfaces, de fragilité, intégrant le retour d'expérience, le jugement d'expert et les résultats numériques de Monte-Carlo. In fine, ces méthodologies doivent permettre d'obtenir des estimations pertinentes des courbes de fragilité, en proposant une mise en œuvre compatible avec un cadre industriel. Il a été décidé d'examiner les points suivants : proposition de méthodes améliorant la performance et la robustesse des simulations, développement de méthodes d'actualisation des courbes de fragilité et analyse de sensibilité. Dans un premier temps, on souhaitait évaluer l'influence des méthodes de génération aléatoire de signaux sismiques sur les courbes de fragilité d'une structure au comportement non linéaire. Trois modèles ont été étudiés plus en détail, tous basés sur un modèle de bruit blanc filtré. Pour un premier modèle de structure très simple, un oscillateur non linéaire à un degré de liberté, et pour chaque modèle de génération de signaux, on peut facilement relever la distribution des maxima des réponses par simulations de Monte-Carlo, et en déduire les courbes de fragilité. Mais les simulations de Monte-Carlo coûtent cher, et pour des structures plus complexes il faut obtenir autrement les courbes de répartitions des maxima. On utilise le processus de fiabilité en fonction du temps, qui représente la probabilité que la structure n'ait pas dépassé son seuil de défaillance à un instant donné. Pour des processus gaussiens stationnaires, plusieurs modèles simples sont connus, comme celui de Vanmarcke, ou celui consistant à supposer que les extrema de la réponse répondent à un processus de Markov: ils donnent des résultats très proches de ceux observés. Ces modèles simples utilisent tous les très utiles formules de Rice, qui relient maxima et franchissements de seuil [1]. 15

31 Deuxième session : mercredi 20 avril, 10h30 On cherche donc pour l'instant à élargir ces résultats aux processus non stationnaires et non gaussiens, en utilisant des généralisations des formules de Rice établies par Jean-Marc Azaïs [2]. On retiendra le modèle proposé par Zentner & Poirion, basé sur l'expansion de Karhunen-Loeve [3]. Références [ 1 ] Preumont A. Vibrations aléatoires et analyse spectrale. Presses polytechniques et universitaires romandes, [ 2 ] Azaïs J-M, Wschebor M. Level sets and extrema of random processes and fields. Wiley, 2009 [ 3 ] Zentner I, Poirion F. New methods for the generation or enrichment of seismic ground motion data basis. Communication au congrès EURODYN

32 Deuxième session : mercredi 20 avril, 10h30 Nom : PERNOT Prénom : Pierre-Alban Mail : pernot@isima.fr Laboratoire : LIMOS UMR CNRS 6158 Prise en compte de la flexibilité et de la performance industrielle et financière lors de la planification stratégique de la Supply Chain Directeur de thèse : Mr Tchernev / co-directeur : Mr Kemmoe Mail : tchernev@isima.fr / kemmoe@isima.fr Présentation du sujet de thèse Introduction Le sujet de thèse présentée dans ce document a pour objet la prise en compte de la flexibilité et de la performance industrielle et financière lors de la planification stratégique de la Supply Chain. Celle-ci se déroule dans le cadre d une convention CIFRE sous la direction de Mr Tchernev et de Mr Kemmoe et fait l objet d un contrat recherche entre le LIMOS et Michelin. Les termes du sujet n étant pas forcément explicites, ceux-ci seront définis tour à tour dans la suite de cette présentation. Ainsi, nous introduirons, dans une première partie la notion de «Supply Chain» puis celle de «planification stratégique». Ensuite, dans une troisième partie sera introduite la notion de «flexibilité» ce qui nous permettra, à la fin, de décrire brièvement l objet de la thèse. I) La notion de Supply Chain La notion de Supply Chain, appelées aussi chaîne logistique, est apparue dans le monde des entreprises dans les années soixante. Celle-ci recouvre tous les acteurs intervenant dans la fabrication d un produit ou la réalisation d un processus ; elle peut donc être définie comme l ensemble des entreprises allant du fournisseur des fournisseurs au distributeur final en passant par les différents fabricants, entrant dans la réalisation d un produit. L apparition de cette notion correspond à un tournant puisqu elle coïncide avec la prise de conscience, de la part des entreprises, de la nécessité d intégrer l ensemble de ses partenaires au sein d un processus de décision, et ceci afin de faire face à la concurrence ainsi qu aux modifications de l environnement économique. Ainsi, la notion de planification de la chaîne logistique est apparue, celle-ci s ajoutant à celle effectuée habituellement par les entreprises composant cette dernière. II) La notion de planification stratégique de la Supply Chain La planification stratégique peut être caractérisée par l horizon de temps considéré ainsi que par le type de décisions prises. Ces dernières recouvrent toutes celles ayant un impact à long terme sur le fonctionnement de la Supply Chain. Elles correspondent donc à la localisation des usines, à l affectation des produits dans les usines, au choix des volumes de production, aux choix des partenaires (fournisseurs de matières premières, manufacturiers, distributeurs ). Elles peuvent 17

33 Deuxième session : mercredi 20 avril, 10h30 également consister à établir des contrats entre les différents acteurs de la Supply Chain, sur les quantités à produire et d éventuelles pénalités en cas de retard de livraison. Ces décisions sont prises pour une période couvrant, selon les entreprises, les trois aux dix prochaines années. De plus, leur échelle est mensuelle, c est-à-dire, par exemple, que des décisions seront prises pour tous les mois des quatre prochaines années. L objectif de la planification stratégique est d aboutir à une configuration conduisant à une Supply Chain compétitive et capable de s adapter à son environnement. Or, ce but ne peut être atteint que par la prise en compte de la flexibilité au même titre que les éléments mentionnés précédemment. III) La notion de flexibilité Durant les dernières décennies l environnement économique n a cessé d évoluer. Ainsi, d une demande uniforme et relativement stable, nous sommes passé à une ère de la personnalisation («customisation»), un raccourcissement des durées de vies des produits et à une variabilité de la demande. Ceci s ajoutant à une hausse de la concurrence a conduit les entreprises à construire des systèmes de production flexibles afin de répondre rapidement aux variations de la demande en termes de produits désirés et de quantités demandées. Cette prise en compte de la flexibilité s est ensuite étendue assez logiquement au domaine de la Supply Chain. En effet, pour un manufacturier, avoir assez de flexibilité, pour ajuster à la hausse sa production, ne sert à rien si ses fournisseurs de matières premières n ont pas la même capacité. Beaucoup de définition de la flexibilité existe dans la littérature ; par conséquent nous n en citerons qu une à savoir la capacité de s adapter, à moindre coûts et rentablement, à toute variation de l environnement. Celle-ci peut être déclinée sous la forme de différents types. Ainsi, on peut mentionner par exemple, la flexibilité travail, qui représente la capacité à ajuster à la hausse comme à la baisse le nombre d employés et de modifier leurs tâches, la flexibilité de routage qui représente la capacité de fabriquer un même produit selon différents procédés ou encore la flexibilité machine représentant la capacité des machines à fabriquer plusieurs produits différents. Tous les éléments que nous venons de mentionner définissent le sujet de la thèse dont l objectif est précisé dans la partie suivante. IV) Objectif de la thèse Comme mentionné précédemment la prise en compte de la flexibilité lors de la planification stratégique de la Supply Chain est un élément important puisqu il conditionne, en partie, la réussite d une entreprise et de ses partenaires économiques. De plus, réaliser un outil de production et une chaîne logistique flexible s avère relativement coûteux. Par conséquent, ces décisions doivent être prises en mesurant leur impact sur les performances de l entreprise et les coûts engendrés afin d assurer une certaine rentabilité économique. Ceci prend tout son sens lorsque l on sait qu un outil de production partiellement flexible mais bien dimensionné permet, bien souvent, d atteindre le même niveau de performance qu un autre pleinement flexible. 18

34 Deuxième session : mercredi 20 avril, 10h30 L objectif de la thèse est donc de proposer une modélisation de la Supply Chain permettant de réaliser un outil d aide à la décision dont l objectif sera de permettre le dimensionnement de la flexibilité d une Supply Chain en en mesurant les impacts en termes d investissements nécessaires et de gains apportés. 19

35 Deuxième session : mercredi 20 avril, 10h30 Nom : SAIDI Prénom : Rabie Mail : saidi@isima.fr Laboratoires : LIMOS UMR 6158 CNRS, UBP, URPAH, FST, U Tunis El Manar Classification de données complexes : Cas des structures protéiques Directeurs de thèse : Mondher Maddouri (Tunis), mondher.maddouri@rnu.fst.tn Engelbert MEPHU NGUIFO (Clermont-Ferrand), mephu@isima.fr Présentation du sujet de thèse La classification des données biologiques est l'un des importants défis ouverts dans la bioinformatique, vu son apport dans la résolution des problèmes surgissant dans la biologie comme la détection des gènes, l identification des zones codantes dans l ADN, la prédiction des structures et des fonctions des protéines [Sarac et al., 2008]. La réponse à ces questions par les moyens biochimiques et les analyses in vitro s avère très coûteuse en temps et en argent. En effet, certaines tâches, telles que la détermination de la structure tridimensionnelle des protéines, peuvent s étendre sur des mois voire des années alors que la quantité des séquences biologiques générées par les différents programmes de séquençage connaît une croissance exponentielle. Le défi n est désormais la collecte des données biologiques mais plutôt leur exploration in silico de manière assez efficace et rapide à travers la conception et le développement de méthodes informatiques [Aluru, 2005 ; Daras et al., 2006]. Ce sujet de thèse se situe dans le cadre de la continuité du travail effectué en Master Informatique intitulé Effet du Codage sur la Fouille des Séquences Biologiques : Cas de la Classification [Saidi et al, 2007 (c)]. Nous avons alors continué dans la perspective d extraction de motifs et leur utilisation pour la classification des données biologiques (ADN, ARN, protéine). Cependant, la description des protéines restreinte à la structure primaire classique (séquence linéaire) ne parvient pas parfois à fournir des informations précises surtout dans les problèmes de prédiction de fonctions puisque les séquences négligent les conformations spatiales des protéines (structures tertiaires 3D) qui sont fortement liées à leurs fonctions [Doppelt et al., 2007]. Nous supposons que la prise en compte de ces informations peut aider à réduire le taux d erreur de la classification, ce qui aide à l automatisation de plusieurs applications relatives aux rôles que jouent les protéines telles que la prédiction des maladies, la fabrication pharmaceutique, la détection des anomalies de santé Avant de passer à l exploration des structures 3D, un effort a été consacré pour expérimenter davantage notre méthode de codage sur la classification des séquences protéines [Saidi et al, 2007 (b)] [Saidi et al, 2007 (a)]. Les résultats obtenus nous ont encouragés à aborder un problème très intéressant en biologie qui est la prédiction des structures quaternaires (des structures formées par plusieurs unités 3D) à partir des séquences. En effet, les structures quaternaires sont impliquées dans plusieurs processus biologiques tels que la réplication chromosomique, signal transduction, le processus de métabolisme [Terry and Richard, 1998]. Nous avons proposé un system de classification qui combine notre méthode de codage qui utilise les matrices de substitution [Saidi et al, 2007 (c)] et 20

36 Deuxième session : mercredi 20 avril, 10h30 le classifieur Machines à Vecteurs de Support (Vector support Machines SVM). Les taux de précision de classification obtenues, varient entre % et %, qui a surpassé les résultats obtenus dans d autres travaux qui ont traité le même problème avec la même base de données (717 séquences protéiques) *Yu et al., Ce travail a fait l objet d une partie d un article soumis et publié dans le journal BMC Bioinformatics [Saidi et al., 2010]. Nous avons aussi étendu notre approche pour traiter des grandes masses de données. Nous avons déployé notre méthode sur un cluster et nous l avons comparé à BLAST l outil classique des biologistes. Les résultats montrent non seulement une compétitivité en terme de taux d erreur mais aussi un grand écart en terme de temps en faveur de notre méthode. Notre approche constitue le noyau d un projet régional (PREFON_META) de classification de séquences protéiques qui a fait l objet d un poster à la conférence JOBIM [Saidi et al., 2010 (b)]. En outre, une étude bibliographique a été faite sur les structures protéiques et leur exploration notamment l extraction des motifs. Une étude a été aussi menée sur l exploration des ensembles de points dans l espace dans la mesure où les protéines, dans leurs formes spatiales, correspondent à des ensembles de points ; où chaque point peut être un atome, un acide aminé ou un fragment de la protéine. Nous avons étudié la transformation des protéines sous la forme de graphes d acides aminés. Nous avons présenté certaines méthodes existantes, mis l accent sur leurs points de faiblesse et proposé des améliorations possibles. Nous avons aussi proposé une méthode de construction de graphes que nous supposons donner une description fiable des protéines. Cette exactitude est exprimée en terme de l appariement entre l interaction chimique existante entre 2 acides aminés et la liaison entre 2 nœuds du graphe [Saidi et al., 2009 (a)]. Nous avons comparé notre méthode avec une autre largement utilisée par les bioinformaticiens en vue de tester l apport de chaque méthode de codage dans une tâche de fouille de donnée. Cette comparaison est basée sur l évaluation des motifs 3D extraits par le système Subdue [Ketkar et al., 2005] en prenant en entrée des graphes de protéine. L étude expérimentale menée a montré que notre méthode de construction de graphes de protéine permet l extraction de motifs plus intéressants [Saidi et al., 2009 (b)]. Notre méthode de construction de graphes de protéine nous permet d avoir des représentations fiables des protéines sous la forme de graphes pour pouvoir appliquer notre algorithme d extraction de motifs spatiaux (des motifs sous la forme de graphes). Cet algorithme est implémenté en java et il est portable sur toutes les plateformes. Par rapport aux systèmes de fouille de graphes existant, notre système présente une complexité algorithmique plus réduite et il est sensé pouvoir traiter des grandes masses de données. Des efforts ont été menés autour de la validation de notre système d extraction de motifs spatiaux par des tests sur des données réelles. Nous avons pris en compte la nature structurée de ces motifs lors de leur utilisation dans le processus de classification de manière à pouvoir appliquer les méthodes standards de classification supervisée comme les arbres de décisions, et de classification non supervisée comme les règles d associations *Cornuéjols & Miclet, Les résultats expérimentaux montrent que notre méthode permet d extraire des motifs spatiaux de qualité permettant d améliorer considérablement la classification 21

37 Deuxième session : mercredi 20 avril, 10h30 Nom : JAZIRI Prénom : Faouzi Mail : jaziri@isima.fr Laboratoire : LIMOS + LMGE Développement d algorithmes bioinformatiques pour l analyse des biopuces ADN pour l environnement Directeurs de thèse : David Hill, Pierre Peyret Mail : david.hill@univ-bpclermont.fr, pipeyret@univ-bpclermont.fr Présentation du sujet de thèse Cette thèse se déroule conjointement dans deux laboratoires de l université Blaise Pascal à Clermont- Ferrand: LIMOS (Laboratoire d'informatique Modélisation et Optimisation des Systèmes; et LMGE (Laboratoire Microorganismes : Génome et Environnement sous la direction des professeurs David HILL et Pierre PEYRET. Résumé : Les micro-organismes constituent la plus grande diversité du monde vivant grâce à leurs capacités d adaptation exceptionnelles. Ces micro-organismes sont des acteurs essentiels au bon fonctionnement des divers écosystèmes. La compréhension du fonctionnement des écosystèmes et les rôles joués par les micro-organismes reste un enjeu majeur de l'écologie microbienne. Le développement de nouvelles approches de génomique permet d'appréhender la complexité de ces systèmes. Ainsi, les biopuces ADN représentent des outils à haut débit de choix permettant d étudier le niveau d expression ou la présence de plusieurs milliers de gènes simultanément. Cependant, le développement de méthodes de séquençage à haut débit entraîne une accumulation exponentielle des données de séquences dans les bases de données internationales. Cette masse de séquence n est pas toujours facilement exploitable du fait de la redondance d informations, de mauvaises ontologies et de séquences de mauvaises qualités rendant difficile l extraction des données pertinentes. La conception de biopuces ADN et leurs exploitations nécessitent de disposer en amont de bases de données pertinentes. Le sujet de thèse porte sur le développement de nouveaux algorithmes pour l analyse automatisée de biopuces ADN phylogénétiques et fonctionnelles. Ces algorithmes devront permettre d effectuer la détermination des sondes sur les grilles de calcul. De part la complexité des modèles biologiques, le traitement des images des biopuces ADN nécessite également la définition d un algorithme d aide à la décision. Mots clefs : Biodiversité microbienne, génomique, Biopuces ADN, phylogénie, métabolisme, bioinformatique, grilles de calculs, GP-GPU. 22

38 Deuxième session : mercredi 20 avril, 10h30 Nom : SAIFOUNI Prénom : Omar Mail : omar.saifouni@ifma.fr Laboratoire : LaMI MODELISATION DES EFFETS RHEOLOGIQUES COUPLES DANS LES MULTIMATERIAUX A COMPORTEMENT COMPLEXE Directeur de thèse : Jean-François Destrebecq Co-directeur : Rostand Moutou-Pitti Mail : destrebecq@ifma.fr Présentation du sujet de thèse La connaissance de la rhéologie des matériaux est indispensable pour l évaluation du comportement mécanique dans le temps et de la durabilité des composants structuraux. Lorsque certains matériaux comme le béton, le bois, les polymères etc. sont sollicités, leurs champs mécaniques évoluent au cours du temps, du fait du caractère viscoélastique de leur comportement. Parallèlement, ces matériaux sont susceptibles de développer des dégradations qui influent sur leurs propriétés mécaniques et donc sur la pérennité des structures qu ils constituent. Cet endommagement est modélisé par une variable interne représentative qui évolue en fonction des états mécaniques au cours du temps. Il existe également des sollicitations telles que la variation de température, la variation d humidité ou le retrait, qui induisent des déformations libres qui influent sur l état mécanique du matériau. Dans le cas de multimatériaux, une complexité supplémentaire résulte de la diversité des comportements mécaniques en présence. A titre d exemple on peut citer l association béton/alliage à mémoire de forme pour laquelle l interaction entre les comportements des deux matériaux est susceptible d influer de manière significative sur la pérennité de l état de précontrainte uni- ou multiaxial induit par l effet mémoire. On peut citer aussi les structures en béton précontraint ou les bétons d enrobages en cas de corrosion des armatures dans lesquels les effets rhéologiques sont déterminants pour l évolution des états mécaniques et la résistance au cours de temps. Enfin, on peut citer les matériaux à comportement anisotrope tel que le bois qui se présente comme un matériau orthotrope, pour lequel les variations de volume liées à la variation de son état hydrique provoquent l apparition de contraintes internes. Le comportement viscoélastique linéaire est exprimé soit par une équation différentielle généralement associée à des modèles rhéologiques (Maxwell, Kelvin), soit par une équation intégrale basée sur le principe de superposition de Boltzmann. Dans ce contexte, les travaux de thèse consistent à proposer une modélisation, bien adaptée au calcul numérique, des effets rhéologiques dans l espace tridimensionnel des multimatériaux à comportement hétérogène (élastique ou viscoélastique) en utilisant une loi de comportement incrémentale à grand pas de temps exprimée en relaxation sur la base du modèle de Maxwell généralisé. Les différentes formulations proposées seront couplées à l endommagement des matériaux (béton, bois) et aux déformations libres (variations d'humidité, variation de température). Une méthode d'identification des paramètres du modèle à partir de données expérimentales 23

39 Deuxième session : mercredi 20 avril, 10h30 appropriées sera mise en oeuvre. L objectif est de développer un modèle de calcul par élément finis qui s'applique à toutes les classes des matériaux viscoélastiques énumérés précédemment afin d aider à mieux apprécier la durabilité des ouvrages. Articles soumis en vue de présentation dans des conférences : Saifouni O., Moutou Pitti R., Destrebecq J.F. «An incremental constitutive law for damaging viscoelastic materials», SEM Annual Conference, Uncasville, Connecticut USA, 8p, Juin, Saifouni O., Moutou Pitti R., Destrebecq J.F. «Un modèle incrémental à grands pas de temps pour l analyse de la dégradation du béton armé exposé à la corrosion», 29ème Rencontres Universitaires de Génie Civil, AUGC, Tlemcen, 10p, Juin, Saifouni O., Moutou Pitti R., Destrebecq J.F. «Evaluation des contraintes de dessiccation dans une rondelle de bois vert par une approche viscoélastique incrémentale», 20ème Congrès Français de Mécanique, CFM, Besançon, 6p, 28-02, Septembre,

40 Deuxième session : mercredi 20 avril, 10h30 Nom : AHMAD Prénom : Maqsood Mail : maqsood_math@yahoo.com Laboratoire : LIMOS The University Timetabling Problem Directeur de thèse : Christophe CAUX, Michel GOURGAND Mail : Christophe.Caux@ifma.fr, Michel.Gourgand@isima.fr Introduction A timetabling problem can be defined as the problem of assigning a number of events (lectures, exams, meetings,..) to a limited number of time periods by using specific resources in accordance with a set of constraints. Wren [1] defines timetabling as follows: Timetabling is the allocation, subject to constraints, of given resources to objects being placed in space time, in such a way as to satisfy as nearly as possible a set of desirable objectives. It is also widely accepted that university timetabling problems can be arranged into two main categories: examination timetabling problems and course timetabling problems. Constraints There are hard and soft constraints. Hard constraints have a higher priority than soft, their satisfaction is usually mandatory [2], they could be categorized into five main classes, which are following: Unary Constraints, Binary Constraints, Capacity Constraints, Event Spread Constraints and Agent Constraints. Objective Functions Many Objective functions have been used in literature, their use depends upon the problem requirements and desirable results. Some of them are given below: minimize the violation of soft constraints, minimize the total number of non-assigned optional subjects, maximize cost which is the measure of desirability of staff preferences, maximize total sum of rooms and timeslots preference values. We usually want to minimize the infeasibility of the soft constraints and also to penalize the redundant and non preferred times [3], spread out events over the time period for each student, minimize the distance between rooms of an exam that is being held in multiple rooms and to minimize splitting an exam over several rooms, minimize the total maximum load of invigilators and maximum assignment. Solving Methodology Roughly speaking, we have three types of algorithms to solve timetabling problems by Metaheuristics. One-stage optimization algorithms [4]: in general allow the violation of both hard and soft constraints within a timetable and the aim is then to search for a solution that gives an appropriate satisfaction of both. Two-stage optimization algorithms [5]: in these methods, one find feasible solution on first stage and in second phase try to satisfy soft constraints. Algorithms that allow relaxations [6]: in these algorithms violation of hard constraints are not allowed and to obtain such results one can relax some other feature of the problem. Then attempts are made to satisfy the soft constraints. These algorithms will attempt to satisfy the soft constraints but not at the expense of violating any of the hard constraints. 25

41 Deuxième session : mercredi 20 avril, 10h30 Solution Methods A wide variety of approaches to timetabling problems have been described in the literature and some of them tested on real data. These can be roughly divided into four types. Which are following: sequential methods, cluster methods, constraint based approaches and metaheuristic methods. In sequential methods [7] timetabling problems are represented as graphs where events are represented as vertices and conflicts between events are represented by edges. In cluster methods set of events is split into groups which satisfy hard constraints and then the groups are assigned to time slots to satisfy the soft constraints. In constraint based approaches the problem is modeled as a set of variables with finite domains. Values within the domains for the variables are assigned sequentially to construct the solutions for the problem. Metaheuristics [8,9] begin with one or more initial solutions and employ search strategies that try to avoid local optima. The five most used meta heuristic paradigms in university timetabling are: Evolutionary Algorithms, Ant Colony Optimisation, Tabu Search, Simulated Annealing, and (Iterated) Local Search. However, some other techniques, like Neural Networks and Hyper-heuristics [10], might also be considered as metaheuristics by some researchers. Conclusion Concluding this review, it is apparent that timetabling problems have been addressed using a variety of different computational approaches. In this article, we have focused our attention on different methodologies to solve these problems. It is important that although each scheme seems to have its advantages and disadvantages, it is not the case that any particular class of algorithm is universally superior to any other. Indeed, it is only likely that certain approaches are more suited to certain types of problem-situations and certain types of user requirements. Timetabling problems usually vary from institution to institution in terms of objectives and constraints. Many current successful time tables were applied in the institutions where they were formed. There should be a search work which should intelligently choose the right method in the right situation. We are looking for a generalized framework which can handle a wide range of problems. References [1] A.Wren. Scheduling, timetabling and rostering - A special relationship? In: Burke and Ross (eds), Springer-Verlag, Berlin, Heidelberg: 46 75, [2] Cagdas Hakan Alodag, Gulsum Hocaoglu, Murat Alper Basaran. The effect of neighborhood structures on tabu search algorithm in solving course time tabling problem. Expert Systems with Applications 36: , [3]E.K.Burke, S.Petrovic. Recent research directions in automated timetabling. European Journal of Operational Research 140: , [4] K.Smith, D.Abramson, D.Duke. Hopfield neural networks for timetabling: formulations, methods, and comparative results. Comput Ind Eng 44(2): , [5] R.Lewis. Metaheuristics for University course timetabling. PhD thesis, School of Computing, Napier University, Edinburgh, October [6] S.Daskalaki, T. Birbas. Efficient solutions for a university timetabling problem through integer programming.. European Journal of Operational Research 197: , [7] J.M.Thompson, K.A.Dowsland. A robust simulated annealing based examination timetabling system. Comput Oper Res 25(7/8) : , [8] E.K.Burke, A.J. Eckersley, B.McCollum, S. Petrovic, R.Qua. Hybrid variable neighbourhood approaches to university exam timetabling. European Journal of Operational Research 206: 46-53, [9] Zhipeng Lu, Jin-Kao Hao. Adaptive tabu search for course timetabling. European Journal of Operational Research 200: , [10] N.Pillay, W.Banzhaf. A study of heuristic combinations for hyper-heuristic systems for the uncapacitated examination timetabling problem. European Journal of Operational Research 197: ,

42 Deuxième session : mercredi 20 avril, 10h30 Nom : BASHIR Prénom : Bushra Mail : bushra_gill@yahoo.com Laboratoire : LIMOS Location-Allocation problem and Home Care problem Directeurs de thèse : Christophe CAUX, Michelle CHABROL Mail : Christophe.Caux@ifma.fr, chabrol@isima.fr Introduction This summary is about the application of Location-Allocation (LA) problem in health care and Home Care (or Hospital at home problem) and proposes a unified approach for their optimization. The LA problem seeks to simultaneously determine the optimal facility locations and the assignment of customers to the selected facilities. The objective is to maximize the population accessibility and to minimize the costs. Home Care (HC) problem is the way of treatment in which a patient receives all his care at his home by health professionals. HC replaces the traditional hospitalization or helps in the early discharge of a patient. The objective of HC is to assign health professionals to patients at minimum cost, while satisfying various constraints. Literature Review The research literature in health care facility location is abundant. In [1] M. J. Côté and S.S. Syam solved the cost minimization problem of the location and allocation of specialized health care services with service proportion requirements. K. Dong-Guen and K. Yeong-Dae [2] considered a long-term care facility location problem with the objective of balancing the loads of the facilities, developed a heuristic algorithm and found a better performance as compared to CPLEX. C. Akjiratikarl et al. [3] applied Particle Swarm Optimization (PSO) to the scheduling of home care workers with the objective of minimization of the total distance traveled by all care workers and found better results across all the test problems. M. Hensher et al. [4] studied three HC schemes in West London for early discharge orthopaedic patients, comparing their costs with those of hospital care and showed that HC may substitute for hospitalization but it will not necessarily save the resources. R. Remonnay et al. [5] compared the costs of anti-cancer chemotherapy in home versus hospital care in a French area. The results showed that the interest of developing home care in chemotherapy is questionable as regards costs. Although a lot of studies showed that Home Care is cheaper than traditional hospitals, but costs studies are very sensitive to the point of view of costs and to the kind of costs included in the research [6]. Also the articles found in literature are case studies and disease specific. So we cannot conclude generally. A Unified Approach We suppose that all the health facilities already exist in the given area. Now we want to assign the patients to health facilities in order to increase the accessibility and reduce the costs. We can call it as patient allocation problem. This modified LA problem is more applicable in advanced countries than its original problem. If we combine the patient allocation problem and home care problem into a unified problem as shown in FIG.1, this can result in a much better use of health care system. The patients are assigned 27

43 Deuxième session : mercredi 20 avril, 10h30 traditionally either to Home care or Health care Network by their doctor based on the health status but this choice includes some more important criteria like availability of uniform equitable health services, patient s choice, clinical criteria, social criteria, residential criteria, various costs and so on. For this purpose, we can introduce an intermediate structure called Evaluation Center between hospitalization and home care which consists of a team of manager, operation research specialists and doctors. Their objective is to assign patients either to a traditional hospital network or home care service. They will study each patient case in coordination with his family physician. After completing the care in a chosen service, the patient file will be re-assessed to analyze for further proceeding which can be continuity of care in the same service or Change of service or End of Treatment. Patient Family Physician Evaluation Center Hospital and health care network Home Care Re-assessment End of Treatment FIG. 1 Unified approach of Health Care System Conclusion Our problem is to find the more efficient system not only in terms of costs but it also includes other criteria like bio-medical effect, quality of life and patient s satisfaction. The main advantages of this unified system can be optimal use of resources, increase in accessibility and availability of health services, improved coordination of health care system, reduced cost, good quality health services, balance of workload and higher satisfaction level of patients. On the other side, we need high set up costs in the start for opening these evaluation centers. Références [1] M.J. Coté, S.S. Syam. A location allocation model for service providers with application to not-for-profit health care organizations. Omega 38: , [2] K. Dong-Guen, K.Yeong-Dae. A branch and bound algorithm for determining locations of long-term care facilities. European Journal of Operational Research [3] C. Akjiratikarl, P. Yenradee, P. R. Drake, PSO-based algorithm for home care worker scheduling in the UK. Computers & Industrial Engineering 53: , [4] M. Hensher, N. Fulop, S. Hood and S. Ujah. Does hospital-at-home make economic sense? Early discharge versus standard care for orthopaedic patients. Journal of the Royal Society of Medicine 89, October [5] R.Remonnay, Y. Devaux, H. Spath, F. Chauvin and M.O. Carrere. Cost comparison between chemotherapy in hospital at home versus standard hospital care based on a randomised crossover trial. International Society of Technolog Assessment in Health Care. Meeting: 17, [6] R.V. Carlos, B. Valérie, A. Vincent and X. Xialon. Hospital-at-Home versus Traditional Hospital, a literature review. Proceedings of conference GISEH

44 Troisième session : mercredi 20 avril, 14h30 Nom : ESSAHBI Prénom : Nabil Mail : nabil.essahbi@ifma.fr Laboratoire : LaMI Conception et modélisation d'une cellule robotisée pour la séparation de muscles dans le procédé de découpe de viande Directeur de thèse : Mr Grigore Gogu Co-encadreur: Mr Belhassen Chedli bouzgarrou Mail : grigore.gogu@ifma.fr Présentation du sujet de thèse : Mes travaux de recherches interviennent dans le cadre du projet ARMS au sein de l équipe Machine, Mécanisme et Systèmes du LaMI. C est un projet ANR dont l objectif est de concevoir un système robotisé multi-bras pour la séparation de muscles dans le procédé de découpe de viande bovine. Ce projet s inscrit dans le contexte de l industrie agroalimentaire de la découpe de viande. Il découle d une problématique socio-économique liée à la pénurie de main d œuvre dans ce secteur, de la dangerosité du métier de la découpe manuelle et des conditions très difficiles du travail. La robotisation de ce procédé est une voie prometteuse pour assurer la compétitivité de cette industrie en France et préserver ses spécificités. L objectif du projet ARMS est l étude de la robotisation du procédé de séparation des muscles et des os. Et il focalisera sur la mise en œuvre d une cellule robotisée multi-bras innovante. Ce projet s attaque à un défi scientifique et technologique inhérent à l hétérogénéité et la variabilité de la matière manipulée et d un environnement en évolution. Il est confronté à l ensemble de problèmes : - la modélisation et la poursuite de corps déformables ; - la perception améliorée et active en temps réel ; - commande basée capteur ; - conception optimale de système multi-bras robotisé - commande de robots redondants ; - la commande multi-robots. - modélisation de la manipulation et de la préhension 29

45 Troisième session : mercredi 20 avril, 14h30 Dans ce cadre, mes travaux de thèse portent sur le développement de modèles physiques nécessaires à l alimentation de toute la stratégie de commande. Ce sont des modèles de corps déformables. Le but est de contribuer à la définition des lois de commandes multi-bras adaptées à chaque tâche : la trajectoire des bras des robots ainsi que les efforts appliqués sont définis à partir des données issues du modèle physique, du retour d effort et du système d imagerie de reconstitution qui va accompagner le système. Le développement de ces modèles passe par une étude comparative des différentes méthodes de modélisation. Le choix de la méthode la plus approprié doit satisfaire quelques critères, à savoir : le réalisme, l interactivité (simulation en temps réel) et la découpe (valable en grandes déformations). Le modèle proposé devra aussi tenir compte des interactions qui peuvent avoir lieu entre le corps manipulé et les bras des robots (outils de manutention, de découpe ) pour assimiler au mieux le comportement en temps réel de la viande en contact avec des corps rigide. L avancemenent dans l étude bibliographique nous a permis de cerner le choix des méthodes de modélisation de corps mous qui s adaptent aux grandes déformations et à la résolution en temps réel : Il s agit du modèle des masse ressort (MSM) et de la méthode des masse tenseur (TMM). Les deux modèles sont physiquement très différents car les masses ressorts sont une représentation discrète et dépendante de la topologie du maillage, tandis que la méthode des masses tenseur est basée sur une représentation continue de la matière qui est indépendante de la topologie. Par rapport au modèle de masse-ressort, le modèle de masse-tenseur calcule la force par la mécanique des milieux continus et est donc indépendant de la topologie de maillage. Le but actuel est de mener une étude comparative entre les deux méthodes en vue de choisir celle qui s adaptera le mieux à la résolution de notre problème. Mon travail de thèse comporte également une partie de conception mécanique : il s agit ici d optimiser le système multi-bras robotisé et de concevoir les outils de manutention et de manipulation de la viande de façon à ce qu ils s adaptent au mieux aux les tâches de découpe et de séparation de muscle. Cette partie sera abordée ultérieurement. 30

46 Troisième session : mercredi 20 avril, 14h30 Nom : ROSSIGNOL Prénom : Cindie Mail : cindie.rossignol@neobiosys.com Laboratoire : LGCB Polytech Clermont-Ferrand Bioproduction de molécules hydrophobes en système membranaire Directeur de thèse : Christian Larroche Mail : christian.larroche@univ-bpclermont.fr Présentation du sujet de thèse La production industrielle de molécules hydrophobes (notamment les arômes et fragrances) se fait aujourd hui par voie chimique ou par extraction végétale. La synthèse biotechnologique se heurte à d importants freins technologiques. En fermenteur classique, l apparition de molécules hydrophobes entraîne la formation d une seconde phase à la surface du milieu de culture. Ceci présente l avantage d une mise en œuvre simple. Toutefois, la cinétique de production est lente, les rendements sont faibles, le produit peut-être perdu par entraînement et la purification est difficile. De plus, le composé formé peut être toxique pour le biocatalyseur et à terme stopper complètement son action. L ajoût d une phase organique supplémentaire milieu biphasique- apporte un certain nombre de réponses, notamment par la création d un réservoir de phase organique qui permet de disposer d une réserve de substrat hydrophobe et qui isole le produit du compartiment réactionnel, tirant ainsi la réaction dans le sens de la production. De plus, sous l action de l agitation, une importante interface est déployée entre les deux phases et permet donc un échange rapide des composés. Les vitesses de réaction ne sont pas limitées par le transfert dans une telle configuration. Enfin, la présence de cette phase supplémentaire permet de limiter les pertes par entraînement en cas de produits volatils. Cette méthode a fait ses preuves mais présente encore de nombreux freins technologiques. En effet, solvant organique polluant, pertes par entraînement, perte d activité du catalyseur, purification difficile (émulsion stable) sont des problèmes récurrents lors de bioconversions en milieu biphasique. Les objectifs de la thèse visent à améliorer cette technique en utilisant une technologie à membrane et à développer un savoir-faire permettant d adapter cette méthode à différentes bioproductions de molécules hydrophobes. Le procédé mis en place devra remplir un certain nombre de critères : conservation des avantages des systèmes biphasiques (effet réservoir de la phase organique), absence d émulsion stable, facilité de purification du produit, limitation des pertes par entrainement, préservation de l activité de la biomasse, utilisation de solvants verts en guise de phase organique et recyclage de la phase organique. 31

47 Troisième session : mercredi 20 avril, 14h30 Ce travail s appuie sur une bioconversion modèle bien maîtrisée au laboratoire, la transformation de l alpha-pinène oxyde en isonovalal par Pseudomonas rhodesiae en milieu biphasique eau/héxadécane. Cette manipulation demande plusieurs étapes de préparation : la production de la biomasse (démarrage de la souche sur boîte de Pétri, préculture en fiole Erlenmeyer et production en bioréacteur sur alpha-pinène et glucose) ; le traitement de la biomasse rendant accessible l enzyme d intérêt au substrat et la bioconversion en elle-même, en milieu biphasique dans une fiole Erlenmeyer thermostatée et agitée. La production de biomasse est une étape qui demande beaucoup de temps, d où l intérêt de protéger la biomasse par un système membranaire. Une preuve de concept a été réalisée dès le début de la thèse. Une cellule de diffusion est utilisée, elle est composée de deux compartiments reliés par un passage où l on peut placer une membrane pour séparer milieu réactionnel et solvant d extraction. Chaque compartiment est thermostaté et agité par un barreau aimanté. La biomasse se situe du côté aqueux et l autre compartiment sert de réservoir pour le produit. L apport de substrat (alpha-pinène oxyde) s effectue du côté aqueux. L effet protecteur de la membrane sur la biomasse a été mis en évidence dans ces conditions. La biomasse est restée active bien plus longtemps que lors des bioconversions classiques en milieu biphasique. Tout d abord, deux tests doivent être mis en place pour pouvoir déterminer quels sont la membrane et le solvant d extraction à utiliser. Un test en cellule de diffusion permettant de mesurer la vitesse de passage du produit à travers la membrane indiquera quelle est la membrane la plus appropriée. La mise en contact direct des deux phases donnera la répartition du produit à l équilibre et permettra de choisir le solvant d extraction. En étudiant ces protocoles, différents problèmes se sont posés : les méthodes analytiques ne sont pas adaptées et les composés utilisés ne sont pas stables dans les conditions expérimentales utilisées. Les méthodes de dosage ont été adaptées. En effet, alors qu en système biphasique simple on ne dose que la phase organique, il faut maintenant disposer aussi d une méthode analytique pour la phase aqueuse. La méthode de dosage dans la phase organique (Chromatographie Phase Gazeuse) a été adaptée afin de pouvoir travailler à faible concentration (étude du coefficient de partage à dilution infinie) et une nouvelle méthode a été mise en place pour la phase aqueuse par Chromatographie Phase Gazeuse Spectroscopie de Masse. La stabilité du substrat en phase aqueuse a aussi été étudiée. L alpha-pinène oxyde se révèle très peu stable dans l eau où il se dégrade en alpha-campholénal, trans-carvéol, trans-sobrerol et E-Caren en un temps relativement court (entre 10 et 40 minutes). Pour sa part, l isonovalal est stable en phase aqueuse mais subit d importantes dégradations sous l effet de la chaleur. L étude de sa stabilité lors de son dosage en phase organique est en cours d étude. 32

48 Troisième session : mercredi 20 avril, 14h30 Nom : LARNAOUT Prénom : Dorra Mail : dorra.larnaout@cea.fr Laboratoire : LVIC CEA Saclay LOCALISATION GLOBALE D UNE CAMERA MOBILE EN MILIEU URBAIN A L AIDE DU CONTEXTE Directeur de thèse : Michel DHOME Mail : michel.dhome@lasmea.univ-bpclermont.fr Présentation du sujet de thèse Au cours des dernières années, le développement des systèmes d'aide à la navigation a connu un grand essor. Ces systèmes reposent généralement sur la localisation par GPS, offrant ainsi une localisation globale avec une précision de l'ordre d'une dizaine de mètres. Si le service offert par ces systèmes est suffisant hors agglomération, celui-ci est limité en ville ou à l'intérieur des bâtiments : perte du signal, précision insuffisante, Pour faire face à cette problématique, le CEA LIST explore depuis plusieurs années des solutions de localisation par vision dans un environnement de grande dimension. Des technologies d'estimation de mouvements relatifs ainsi que de localisation globale d'une caméra dans les villes ont ainsi été développées. Ces travaux ont démontré la qualité de service que pouvait procurer un tel système de localisation. L'objectif de nos travaux consiste donc de poursuivre ce champ d'investigations en approfondissant l'exploitation du contexte urbain. Un environnement urbain implique la présence de bâtiments, de piétons, de voitures, de signalisations routières Les connaissances a priori sur cet environnement sont autant d'indices pouvant aider le processus en question. En effet, si les approches basées sur la localisation par vision monoculaire connues aussi sous le nom du SLAM monoculaire permettent actuellement la construction de la trajectoire du véhicule en mouvement sur une grande échelle, celles-ci présentent néanmoins quelques limites à corriger et certains challenges à relever encore plus si la localisation doit être faite en ligne (en temps réel) à savoir : L absence de la géo-localisation dans le processus SLAM Les dérives engendrées par les longues trajectoires o Accumulation d erreur o Dérive du facteur d échelle Dans ce cadre, l exploitation des modèles 3D de l environnement parcouru par la caméra pouvait améliorer résultats en termes de précision et rendre ainsi le processus SLAM plus robuste face à des telles problématiques. Un premier champ de recherche consiste à exploiter non pas seulement le modèle 3D de l environnement mais également le reste du contexte urbain. Notamment, l utilisation des points 33

49 Troisième session : mercredi 20 avril, 14h30 d intérêt appartenant à l environnement en plus de ceux appartenant au modèle dans le processus d ajustement de faisceau contribue au raffinement de la reconstruction du SLAM classique. Par ailleurs, la détection des voitures ainsi que la présence éventuelle des piétons pourrait nous informer sur le plan du sol dans l'image ce qui permettra l estimation de l'échelle des éléments observés. Par conséquent, la reconnaissance d'éléments spécifiques au contexte urbain peut aider à évaluer la position de la caméra avec plus de précision et ceci en améliorant d une part l étape de l ajustement de faisceau et d autre part en limitant les dérives dues aux fausses estimations du facteur d échelle. Une autre idée d'amélioration des algorithmes de reconstruction de l'environnement observé consistera à se baser plutôt sur une représentation de plus haut niveau de ce dernier. En effet, l'environnement est actuellement reconstruit sous la forme d'un nuage de points difficilement interprétable. En structurant ce nuage de points ou en reconstruisant des primitives de plus haut niveau, (eg. surfaces planaires), les éléments de la scène observés (les murs, le sol, ) pourront être identifiés de manière plus aisée et plus robuste. Ces éléments seront autant d'indices qui faciliteront ensuite la localisation globale de la caméra. 34

50 Troisième session : mercredi 20 avril, 14h30 Nom : SUBRIN Prénom : Kévin Mail : Kevin.Subrin@ifma.fr Laboratoire : Laboratoire de Mécanique et d Ingénierie (LaMI) Amélioration de la capabilité des robots sériels par gestion des redondances, calibration vision, commande en effort Directeur de thèse: Grigore Gogu grigore.gogu@ifma.fr Co-directeur de thèse : Youcef Mezouar youcef.mezouar@lasmea.univ-bpclermont.fr Encadrant : Laurent Sabourin laurent.sabourin@ifma.fr Présentation du sujet de thèse Les machines outils et les robots ont évolué fondamentalement ces dernières années et remettent en cause cette dualité. Les exigences en termes de capacités cinématiques et dynamiques (UGV) ont vu l émergence de nouvelles architectures (parallèles, hybrides). Ce développement a aussi été une révélation sur le potentiel notamment des robots sériels pour l usinage. L offre des robots dans le secteur se développe mais leur précision et leur comportement dynamique peuvent être améliorés. En effet, les structures sérielles montrent une anisotropie du comportement qui impacte la précision attendue. De plus, l utilisation d un robot industriel sériel pour l usinage ou le parachèvement restreint fortement les conditions d utilisation. En effet, le phénomène de coupe ou d abrasion engendre des sollicitations variables. Le manque de rigidité statique et dynamique des architectures sérielles se traduit par une déformation de la structure et des vibrations au niveau de l outil. Cela entraîne un défaut géométrique et un marquage sur la surface de la pièce. Toutefois, les constructeurs de robots industriels commencent à proposer des solutions pour ces opérations d usinage, basée sur des structures de robots gros porteurs plus rigides (figure 1). Notre étude porte sur l intégration des redondances cinématiques permettant de pallier en partie ce problème en positionnant au mieux la tâche à réaliser dans un espace de travail optimal. Cependant, les systèmes mécaniques, basés jusqu à présent sur une commande référencée modèle impliquent la définition et la prise en compte du comportement réel pour garantir la qualité attendue en terme de précision. Aussi, une partie des travaux sera consacrée à la calibration par la vision permettant à notre modèle d être globalement optimisé pour une tâche donnée. La gestion des redondances fait appel à la mise en œuvre de critères d optimisation visant à privilégier un comportement adapté. Par le passé, des critères ont été implémentés et ont cherché à privilégier les aspects suivants : éloignement des positions singulières, manipulabilité, éloignement des butées articulaires, rigidité, etc. Ces critères, bien que nécessaires, sont insuffisants pour la réalisation de tâches complexes et il importera d en définir des nouveaux. L étude du comportement sous sollicitation dynamique (usinage, ) des machines et des robots suscite actuellement de nombreux travaux concernant entre autre la caractérisation de carte de rigidité. Notre approche consistant à utiliser une commande en effort et la gestion de la redondance nous permettra de connaitre plus précisément la sollicitation et de proposer ensuite une modification du comportement. Cette thèse s inscrit dans le cadre du projet Innov@pôle. Il associe 35

51 Troisième session : mercredi 20 avril, 14h30 deux laboratoires de l Université Blaise Pascal, le LaMI et le LASMEA. La mise en œuvre d une cellule redondante (robot sériel & retourneur), l utilisation d une calibration du modèle par vision (laser Tracker et vision rapide) et une commande en effort permettra l amélioration de la capabilité de la cellule. Dans une première partie, nous présentons un état de l art sur les avancées dans l intégration des robots sériels pour des tâches d usinage. Une seconde partie présentera les contraintes liées au processus et les critères associés pour la gestion de la redondance permettant de répondre aux contraintes des procédés (efforts, vitesse, précision). La dernière partie présente une modélisation de la cellule redondante à 8 degrés de liberté (figure 1). Figure 1 : Présentation des 8 axes à piloter Modélisation sous ABB RobotStudio 36

52 Quatrième session : mercredi 20 avril, 14h30 Nom : CARTADE Prénom : Pierre Mail : pierre.cartade@cemagref.fr Laboratoire : unité TSCF, équipe TEAM, Cemagref COMMANDE EN FORMATION DE VÉHICULES AGRICOLES Directeur de thèse : Philippe Martinet Mail : Philippe.MARTINET@lasmea.univ-bpclermont.fr Présentation du sujet de thèse L'objectif général de cette thèse est de proposer de nouveaux algorithmes de commande pour le contrôle latéral et longitudinal sur trajectoire de référence d'une flotte de robots mobiles à roues évoluant en milieu naturel, un opérateur se trouvant sur une des machines ou à l'extérieur pour superviser les opérations. Véhicules en formation Le domaine d'application privilégié de cette thèse est le monde agricole, il pourra exploiter ces travaux sur le plan économique puisque la demande de moins de main d'oeuvre, la possibilité de faire tourner les machines jours et nuits, la libération de l'opérateur pour des tâches autres que la conduite permettent d'augmenter la productivité et aussi sur le plan écologique puisque l'emploi d'engins plus petits et plus maniables va limiter la dégradation des sols. L'objectif principal de la thèse est de démontrer la faisabilité technique de nouveaux outils robotiques dans un contexte agricole, afin d'en tester leur potentiel. Ainsi, dans le cadre strict de 37

53 Quatrième session : mercredi 20 avril, 14h30 cette thèse, la finalité opérationnelle est la mise en place d'un démonstrateur composé de plusieurs véhicules tout-terrains autonomes référencés relativement à un véhicule leader (potentiellement conduit manuellement). Ces robots capables d'évoluer dans une formation reconfigurable devront maintenir leurs positions relatives de façon précise afin d'effectuer une tâche représentative d'un travail agricole. L'organisation de la flotte (convoi, formation en aile d'avion ) fixée préalablement devra être capable de s'adapter aux éventuelles erreurs d'une des entités pour optimiser la surface de traitement. De plus, le maintien précis de la flotte nécessite la mise en place de plusieurs lois de commande adaptatives avancées sur chaque entité, requérant une sélection assurant la stabilité. Pour atteindre cet objectif il est nécessaire de prendre en compte les faibles conditions d'adhérence dans la modélisation (l'hypothèse classique de roulement sans glissement n'étant plus valide en milieu naturel) afin de permettre ensuite la synthèse de lois de commande garantissant un suivi précis des trajectoires. Le choix d'un modèle cinématique étendu avec des paramètres supplémentaires (eg. les angles de dérives) décrivant de façon prépondérante les glissements latéraux et longitudinaux paraît approprié. Leur estimation sera réalisée de manière indirecte avec différentes techniques d'observation. Le modèle d'état sera converti sous forme chaînée, permettant l'étude de lois de commande non-linéaires. L'ajout de la commande prédictive permet de prendre en compte le retard des actionneurs. Tous les véhicules de la flotte sont asservis sur une même trajectoire de référence, les écarts latéraux inter-véhicules sont maintenus par une commande en vitesse sur les véhicules suiveurs. Les algorithmes, plus complexes, devront prendre en considération les éventuelles erreurs de l'une des unités mobiles, chaque véhicule devra pouvoir répondre de façon autonome à toute situation particulière sans déstabiliser l'ensemble. D'autre part en milieu toutterrain, on utilise le GPS et les véhicules communiquent par WiFi, mais ces liaisons peuvent être coupées ce qui rend les véhicules aveugles, on doit alors les arrêter. Pour pallier ce problème l'ajout d'un capteur de vision semble pertinent. Or, contrôler une formation de robots impose que l'on puisse voir dans toutes les directions, d'où l'idée d'un capteur omnidirectionnel. Il pourrait apporter une aide à la commande lorsque le GPS/WiFi est présent et permettre de commander le robot lorsque les liaisons sont temporairement perdues. 38

54 Quatrième session : mercredi 20 avril, 16h Nom : CHABANE Prénom : Yahia Mail : yahia.chabane@isima.fr Laboratoire : LIMOS Recherche sémantique d images médicales en utilisant une ontologie Directeur de thèse : Pr. Farouk TOUMANI Mail : ftoumani@isima.fr Co-directeur de thèse : Dr. Christophe REY Mail : christophe.rey@univ-bpclermont.fr Contexte et état de l'art : Dans de nombreux domaines de la médecine, comme la radiologie et maintenant la gastroentérologie, l'utilisation d'images médicales est devenu cruciale dans, par exemple, le diagnostic, la chirurgie, l'éducation, les enquêtes judiciaires,... C'est pourquoi nous pouvons observer une augmentation drastique du volume des images médicales produites et utilisées. La chaîne de traitement d'images médicales est basée (au moins) sur les étapes suivantes: (i) la génération d'images en salle d'opération, (ii) l annotation basique des images pendant l'intervention, (iii) le stockage des images, (iv) l annotation détaillée après l intervention, (v) la recherche d'images médicales (durant un examen médical, avant une conférence, durant l examen d un malade,...), (vi) la recherche multi-modale (sur le net, sur un PC, sur un appareil mobile,...),... Chercher des images médicales parmi des téraoctets d'images peut être fastidieux. C'est pourquoi, en plus des méthodes syntaxiques traditionnelles de recherche d'information, des méthodes sémantiques pour la recherche d images médicales en fonction de leur annotation doivent être définies. Ces problématiques ont été traitées dans deux principaux projets internationaux. Le projet Theseus, et surtout son scénario MEDICO [Theseus-Medico], met l'accent sur l'acquisition, la recherche et le traitement des connaissances sur le Web et les aspects économiques correspondants. Le projet est financé par le gouvernement allemand. Il regroupe 11 entreprises (parmi d'autres SAP, Fraunhofer, Siemens, Deutsche Thomson) et 8 universités et centres de recherche allemands. Dans ce grand projet, le scénario MEDICO vise à établir des normes concernant les aspects syntaxiques et sémantiques des images médicales, des ontologies, dans le but de construire un moteur de recherche intelligent et robuste dans le domaine médical [MM09, MRS09]. Le projet [AIM], géré par Stanford Center for Biomedical Informatics Research, vise à mettre en place une norme d annotation des images médicales, des ontologies. Une version de cette norme est déjà en utilisation dans le projet [cabig] qui vise à créer une plateforme permettant un échange facile de données et images sur le cancer. Un logiciel d'annotation utilisant l'ontologie RadLex est proposé et utilisé dans ce contexte [ipad]. Défis : Etudier de façon sémantique l'annotation, le stockage, l interrogation et l'extraction des images médicales est un défi car il est à l intersection de nombreuses questions connexes. Comment stocker et interroger les images médicales quand ils sont sur des supports divers (comme le nuage)? 39

55 Quatrième session : mercredi 20 avril, 16h Comment traiter les normes de fichier d images médicales telles que DICOM? Quel raisonnement concevoir pour mettre en œuvre la vision web sémantique? Quelles interfaces utilisateur développer afin de permettre l accessibilité des images depuis n'importe quel appareil? Comment annoter les Images? Quel langage de requêtes peut être utilisé? Comment assurer l'accès anonyme et sécurisé aux images? Toutes ces questions doivent être prises en compte afin de diriger la conception d'un mode sémantique de la recherche d'images médicales. Proposition : L'approche proposée sera basée sur la conception d'une ontologie médicale. En utilisant cette ontologie l'annotation sera plus facile, et doit permettre de rechercher des images par un raisonnement logique incluant la requête de l'utilisateur, les annotations des images et l'ontologie. Un aspect original de l'œuvre sera l'étude du raisonnement d abord ensuite la création de l'ontologie qui répond le mieux à ce raisonnement. Le langage logique devra être un dialecte OWL. Certains ouvrages existants ont déjà étudié de manière sémantique la recherche d'images médicales en utilisant des raisonnements OWL. Pourtant, il n'existe aucune norme dans ce domaine. En général, les raisonnements de recherche sémantique sont fondamentaux, ils sont essentiellement basés sur de la classification (tests de subsomption). Le raisonnement qui doit être proposé dans le cadre de cette thèse doit offrir plus de souplesse, par exemple, être capable de détecter les incohérences entre les requêtes et les images, ou en étant capable de trouver des images avec les annotations qui ont le plus de points communs avec les requêtes. L'une des principales difficultés dans ces approches est le compromis entre l'expressivité de langue (pour décrire l'ontologie, les annotations et des requêtes) et la complexité de calcul. Bien sûr, une étude détaillée du raisonnement proposé devra être réalisé. Par la suite d autres aspects pourront être étudiés, comme notamment l impact sur le raisonnement du stockage sur nuage des images. Références : [AIM] Annotation and Image Markup (AIM) project. Standford Center for Biomedical Informatics Research. [cabig] cancer Biomedical Informatics Grid project. [ipad] bimm.stanford.edu/main/ipad [MM09] Context-Driven Ontological Annotations in DICOM Images: Towards Semantic PACS, Manuel Möller, Saikat Mukherjee. Proc. of International Joint Conference on Biomedical Engineering Systems and Technologies, Porto, Portugal, o.a., 1/2009 [MRS09] RadSem: Semantic Annotation and Retrieval for Medical Images. M. Moeller, S. Regel, M. Sintek. Proceedings of the 6th Annual European Semantic Web Conference (ESWC2009). June 2009 [Theseus-Medico] Theseus project - Medico scenario

56 Quatrième session : mercredi 20 avril, 16h Nom : BOMBRUN Prénom : Laure Mail : laure.bombrun@clermont.inra.fr Laboratoire : INRA, Unité QuaPA PREDICTION DE L EFFET DE LA DIMINUTION DE LA TENEUR EN SEL SUR LA QUALITE DU JAMBON CUIT ANALYSE DES ETAPES DE TRAITEMENT THERMIQUE ET DE CONSERVATION DU PRODUIT Directeur de thèse : Alain KONDJOYAN Mail : alain.kondjoyan@clermont.inra.fr Présentation du sujet de thèse Bien que le chlorure de sodium soit largement utilisé par l industrie agroalimentaire pour ces propriétés fonctionnelles, il apparaît aujourd hui important de diminuer sa teneur dans les produits transformés pour des questions de santé publique. En effet, la surconsommation de sodium dans les sociétés occidentales entraîne une augmentation du risque de maladies cardiovasculaires. En Europe, environ 20 % de la consommation de sodium provient des produits carnés et 13 % de la charcuterie. C est ainsi que le projet de recherche ANR «Na moins», dans lequel s inscrit cette thèse, cherche à réduire la teneur en sel dans les produits de charcuterie. En particulier, cette thèse CIFRE financée par l Institut Français du Porc (IFIP) vise à fournir aux industriels des informations et des outils permettant de réduire la teneur en sel dans le jambon cuit tout en assurant une bonne qualité technologique (rendement, tenue de tranche) et sensorielle (couleur, texture) des produits. Lors de la fabrication du jambon cuit, le sel, sous forme de saumure, est injecté dans les muscles, qui, après un malaxage sous vide, subissent un long traitement thermique à une température peu élevée (< 70 C). Le chlorure de sodium est impliqué dans les propriétés technologiques (rétention en eau, solubilisation des protéines), dans l élaboration des qualités sensorielles et dans la conservation du jambon cuit. Trois mécanismes impliqués dans la fabrication du jambon cuit seront analysés en lien avec la teneur en sel. (1) Tout d abord, le phénomène d adhésion sera étudié : le sel permet la solubilisation des protéines myofibrillaires thermogélifiantes entraînant l adhésion des différents muscles du jambon au cours de la cuisson. L étude mécanique de l adhésion des pièces de viande sera menée en parallèle de l identification et de la caractérisation des protéines impliquées. Une étude histologique permettra d interpréter le phénomène à une échelle microscopique. (2) Le deuxième phénomène étudié sera l oxydation : des analyses d oxydation des lipides et des protéines et leur effet sur la couleur seront effectuées au cours de la transformation du jambon cuit et de sa conservation sous différentes atmosphères et sous différentes conditions d éclairage, en tenant compte de différentes teneurs en nitrite. (3) Enfin, les pertes de jus à la cuisson seront modélisées en fonction de la force ionique et de l itinéraire technologique. Ces transferts de matière seront interprétés en s aidant de mesures biochimiques qui renseignent sur l état des protéines (solubilité et de l hydrophobie). Lors de ce travail de thèse, les qualités gustatives du produit ne seront pas évaluées. La modélisation de ces phénomènes permettra de décrire quantitativement l évolution de la qualité des jambons cuits lors de la diminution de la teneur en sel et aboutira à la réalisation d un simulateur utilisable par les industriels via l IFIP. 41

57 Quatrième session : mercredi 20 avril, 16h Nom : GONZALEZ Prénom : Damien Mail : Damien.Gonzalez@isima.fr Laboratoire : LIMOS Méthodes discrètes basées voxels pour les modèles déformables avec contrôle topologique en segmentation d'images 3D Directeur de thèse : Rémy Malgouyres Mail : remy.malgouyres@u-clermont1.fr Présentation du sujet de thèse Les modèles déformables constituent un des outils les plus populaires pour la segmentation d'image, plus particulièrement dans les cas où une connaissance à priori est nécessaire. Dans ce contexte, plusieurs contributions ont été faites pour la création de modèles déformables discrets avec conservation de la topologie avec les énergies classiques, internes et externes. Le LSIIT et IGM ont particulièrement contribué à l'état de l'art dans le domaine de la segmentation en imagerie médicale. Fort de cette expertise (et des récents avancements du LSIIT et d'igm dans les aspects théoriques de la topologie discrète), une nouvelle méthodologie de segmentation basée sur les modèles déformables discrets avec connaissances à priori et conservation de la topologie est étudiée par le LSIIT. Cette méthodologie repose sur un exemple (patron de relevés précis, géométriquement et topologiquement correcte) et sur un champ de déformation continue qui préserve la topologique (obtenue par un recalage non rigide entre les valeurs exactes et l'image à traiter). Un autre challenge est le traitement des images autres que binaires, celles qui contiennent plus de deux classes. Malgré des solutions partielles, ce problème reste ouvert. 42

58 Quatrième session : mercredi 20 avril, 16h Nom : KHODJET-KESBA Prénom : Mahmoud Mail : khomah84@gmail.com Laboratoire : LASMEA Nouvelles approches d identification d obstacles en utilisant un Radar UWB (Ultra Wide Band) Directeur de thèse : Khalil EL KHAMLICHI DRISSI Mail : drissi@lasmea.univ-bpclermont.fr Présentation du sujet de thèse Cette thèse est en cotutelle entre le LASMEA (Université Blaise Pascal, France) et l ISRC (SKK University, Corée du sud) dans le cadre du projet BRI «Cognitive Personal Transport Service Robot». Le radar «Radio Detection And Ranging» utilise les ondes radio pour détecter et déterminer la distance et/ou la vitesse d'objets, le développement technologique permet d utiliser le radar comme un capteur pour identifier et classer les différentes cibles. Un objet éclairé par une onde électromagnétique va rediffuser cette onde et en l analysant, nous allons extraire les pôles naturels de résonance par une méthode appelée «Matrix Pencil», la valeur de ces pôles dépend des caractéristiques géométriques (la longueur, le rayon) et physiques (permittivité relative, ) de la cible, le but est de retrouver ces caractéristiques a partir du signal diffusé par la cible. Dans un premier temps, nous allons travailler sur des cibles canoniques en utilisant des expressions analytiques et en faisant des simulations avec un logiciel de modélisation électromagnétique «FEKO» dans le but de voir le comportement du champ électrique en fonction des caractéristiques de la cible, par la suite nous considérons par exemple qu un humain ou un arbre est un cylindre diélectrique et qu une voiture est une hémisphère métallique. Nous allons développer ensuite des algorithmes de traitement de signal afin d identifier et de classer les différentes cibles. Enfin, nous envisageons d implémenter les algorithmes développées sur des circuits électroniques pour une application en temps réel. 43

59 Quatrième session : mercredi 20 avril, 16h Nom : LARDY Prénom : Romain Mail : romain.lardy@clermont.inra.fr Laboratoire : INRA-UREP High Performance Vulnerability Assessment with constrained Design of Experiments using a model driven engineering approach Application to: climate change vulnerability of grassland / livestock systems Directeur de thèse : Pr. David Hill LIMOS, Dr. Gianni Bellocchi INRA-UREP Mail : drch@isima.fr, gianni.bellocchi@clermont.inra.fr Context and application domain Vulnerability is the degree to which human and environmental systems are likely to experience harm due to a perturbation or stress. It has become in recent years a central focus of the global change (including climate change) and sustainability science research communities [Füssel 2007]. Such new emphasis on vulnerability marks a shift away from traditional scientific assessment, which limits analysis to the perturbing agents (e.g. climate change, extremes) and the corresponding impacts, towards an examination of the system being stressed and its ability to respond [Luers et al., 2003]. Grassland/livestock system vulnerability to climate should be evaluated both in terms of biophysical vulnerability (production losses and increased greenhouse gas emissions) and in terms of socioeconomic vulnerability (e.g. for smallholders and pastoralists in developing regions). As shown by the IPCC AR4 report [Easterling et al., 2007], potential adaptation strategies for livestock farms have seldom been studied, and without adequate assessment of adaptation the vulnerability to climate change could be overstated. Significant advances in the domain were made thanks to the development and use of advanced modelling approaches to simulate mechanistically grassland and livestock systems. This was partly done thanks to the PASIM model (Pasture Simulation Model, modeles/pasim.htm) [Riedo et al., 1998] and its improvements [Graux et al. 2009], [Graux et al., 2011b], [Graux 2011]. Thesis work The thesis will aim at revising the vulnerability concept and existing approaches to quantify and analytically treat it. Novel approaches to vulnerability assessment (e.g. Bayesian statistics, fuzzy-logic based indicators, ) are meant to be developed (and evaluated in a comparative fashion) that integrate the state of the system relative to thresholds of resilience to climate-driven hazards, the sensitivity of the system to climate forcing, exposure and adaptive capacity. These objectives are shared by FP7 European projects such as CARBO-Extreme ( and ANIMALCHANGE, in which INRA-UREP plays roles of coordination. Vulnerability assessment is the kind of work that needs a huge amount of runs of the studied model, and distributing the computation is an important requirement. However, to deploy an application into a distributed environment is time-consuming and requires knowledge that is highly dependent on the platform (software and hardware). Moreover, the distribution can be made on platforms of different kinds (SMP server, cluster, grid...). Tools are available [Reuillon et al. 2010], which attempt 44

60 Quatrième session : mercredi 20 avril, 16h to hide this heterogeneity by providing uniform and easy access to the computing resources. However several challenges remain: 1. to take advantage of the specificities of each platform, while making abstraction of the details. This implies to provide a formal representation of the targeted distributed system, and to be able to optimize the distribution of the computation on this system, using operations research techniques if necessary. 2. to provide model driven software framework that allows for different strategies and goals to explore a model. The primary goal is to tackle vulnerability assessment, but the framework should be designed to address other techniques based on model exploration, like running replications for stochastic simulation, or optimizing criteria of the model using metaheuristics [Lazarova et al 2008] (e.g. genetic algorithms). 3. to propose abstractions, which will tackle the distribution of experimental plans with specified constraints. The DoE (Design of Experiments) domain will be considered and revisited and a metamodel will be proposed to specify the high performance platform, the DoE choices and constraints and the vulnerability assessment techniques. This thesis work will contribute to provide detailed views of uncertainties and of the likely vulnerability to climate change of contrasted grassland / livestock systems in France and elsewhere. Modular software tools will have to be produced according to the current software and hardware challenges and will integrate alternative solutions to vulnerability assessment according to modern software engineering concepts (high-performance computation). Easterling, W.E., P.K. Aggarwal, P. Batima, K.M. Brander, L. Erda, S.M. Howden, A. Kirilenko, J. Morton, J.-F. Soussana, J. Schmidhuber, F.N. Tubiello, Food, fibre and forest products. Climate Change 2007: Impacts, Adaptation and Vulnerability. Contribution of Working Group II to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, M.L. Parry, O.F. Canziani, J.P. Palutikof, P.J. van der Linden, C.E. Hanson (Eds.), Cambridge University Press, Cambridge, United Kingdom, Füssel, H.-M., Vulnerability: a generally applicable conceptual framework for climate change research. Global Environmental Change, 17, Graux, A.-I., Modeling climate change impacts on grassland ecosystems. Adaptation strategies for forage production systems, Blaise Pascal University, Ph.D. thesis, 535 p. Graux, A.-I., Gaurut, M., Agabriel, J., Baumont, R., Delagarde, R., Delaby, L. and Soussana, J.-F., Development of the Pasture Simulation Model for assessing livestock production under climate change. Agriculture, Ecosystems and Environment (accepted). Graux, A-I., Soussana, J-F., Lardy, R., Hill, D., 2009 Modélisation du changement climatique sur les prairies, Sciences (AFAS), Sp. Issue on Climate & Biodiversity Changes, pp Lazarova M., Borovska P., "Comparison of Parallel Metaheuristics for Solving the TSP". ACM International Conference Proceeding Series. 2008, vol 374, pp. II.12-1 II Luers, A.L., Lobell, D.B., Sklar, L.S., Addams, C.L., Matson, P.A., A method for quantifying vulnerability, applied to the agricultural system of the Yaqui Valley, Mexico. Global Environmental Change, 13, Reuillon R., Chuffart F., Leclaire M., Faure T., Dumoulin N., Deffuant G., Hill D., "Declarative Task Delegation in OpenMOLE". IEEE, International Conference on High Performance Computing and Simulation (HPCS). 2010, pp Riedo, M., Grub, A., Rosset, M., Fuhrer, J., A pasture simulation model for dry matter production and fluxes of carbon, nitrogen, water and energy. Ecol. Model. 105,

61 Quatrième session : mercredi 20 avril, 16h Nom : LOOSLI Prénom : Cédric Mail : cedric@loosli.fr Laboratoire : LIMOS Les méthodes duales pour la segmentation, le filtrage et le suivi d'objets Directeur de thèse : En codirection avec Stéphanie Jehan-Besson et Jonas Koko Mail : jehan@isima.fr, koko@sp.isima.fr Présentation du sujet : Les approches de segmentation et restauration d images sont souvent basées sur une modélisation variationnelle du critère et résolues par le biais d'edps (Equations aux Dérivées Partielles). L'une des raisons de l'essor de ces méthodes réside dans le fait que ces modèles permettent de combiner des contraintes géométriques avec des informations photométriques complexes (critères statistiques, texture, bruit). Cependant, seul un minimum local peut être trouvé (dépendant de l'initialisation du contour) et le temps de calcul pour atteindre la convergence reste important notamment en 3D. Des travaux récents ont proposé de reformuler le problème de minimisation de telle sorte à obtenir un problème convexe et donc des minima globaux. La résolution peut alors être obtenue en utilisant les approches duales qui sont très efficaces en coût de calcul et faciles à implémenter. L'objectif de cette thèse sera d'explorer cette voie afin d'obtenir des modèles flexibles et rapides pour la segmentation et le filtrage dans les images 3D. Différents termes d'attaches aux données géométriques ou photométriques seront élaborés et testés. Des premiers algorithmes utilisant des méthodes de relaxation par blocs ont été mis en place récemment au LIMOS et serviront de base à cette étude. Méthodes et Résultats : 1 Méthode du lagrangien augmenté pour des images couleurs Actuellement, nous travaillons sur le filtrage d images couleurs bruitées par un bruit impulsionel («salt and paper»). L énergie qu on souhaite minimiser se formalise comme très souvent en 2 parties : la première qui est un terme de lissage et la seconde qui est un terme d attaches aux données. Nous utilisons un modèle standard qui intègre la Variation Totale pondérée et la norme L1. On cherche donc une fonction qui minimise en étant le plus fidèle possible à l image. Le problème s écrit alors de la manière suivante : 46

62 Quatrième session : mercredi 20 avril, 16h où V est un espace de fonction approprié, est le domaine de l image, est un paramètre réel strictement positif, u = ( correspondant aux 3 canaux rouge, vert et bleu. La fonction est une fonction positive, décroissante et indépendante de. Pour résoudre ce problème, on utilise la méthode de relaxation par blocs d Uzawa, dans laquelle les méthodes duales interviennent. Nous sommes dans la phase de tests et préparons une présentation pour IMACS 2011 en Mai. Résultat de la méthode du lagrangien augmenté pour des images en niveau de gris. Figure 1 Image originale Image bruitée Image restaurée 2/ Méthode par patch non-locale supervisée Par ailleurs, nous avons cherché à proposer une méthode non-locale supervisée par patch. La fonction g permet d adapter le lissage qui peut parfois faire disparaître des zones qui ne sont pas du bruit. On peut retrouver souvent son utilisation pour mieux conserver les détails et contours d une image en utilisant le gradient de cette dernière. Ici nous sommes dans l optique de vouloir filtrer tout un type de motif rencontré dans une image. C'est au travers de la fonction g que nous intégrons une carte des distances entre patchs. Figure 2 Résultat de la méthode par patch. Nous souhaitons retirer le grillage. Image originale : oiseau sur grillage. Image finale 47

63 Quatrième session : mercredi 20 avril, 16h Nom : MARCHANT Prénom : Maïté Mail : maite.marchant@ifma.fr Laboratoires: LaMI Equipe de Recherche «Mécanique et Matériaux» MODELISATIONS MULTI-ECHELLES DES SYSTEMES NANOPHOTONIQUES A BASE DE MATERIAUX INTELLIGENTS Directeurs de thèse : Prof. Y. Lapusta, LAMI et Prof. N. Gippius, Chaire d'excellence, LASMEA Co-encadrement : MCF Florence Labesse-Jied, LaMI / IUT de Montluçon Mail : yuri.lapusta@ifma.fr ; Nikolay.GIPPIUS@lasmea.univ-bpclermont.fr ; fllabess@moniut.univbpclermont.fr Présentation du sujet de thèse Introduction : Ce projet lie les compétences du LaMI (équipe «Matériaux & Structures») concernant les matériaux actifs et intelligents avec les compétences du LASMEA (Groupe MATELEC ) dans le domaine de la nano-photonique. Ce projet s intègre parfaitement dans l Action Transdisciplinaire "Matériaux et Modélisations multi-échelles" de l'institut Pascal qui sera mise en place prochainement. A l échelle internationale, le projet bénéficiera également de collaborations actives avec des spécialistes étrangers de renommée internationale (Harvard aux Etats-Unis, Karlsruhe Institut of Technology en Allemagne). Matériaux intelligents et nano-photonique : Les matériaux intelligents ou actifs sont capables de se déformer en réponse à des excitations physiques ou chimiques, naturelles ou provoquées, venant de l'extérieur. Ces matériaux réagissent «mécaniquement» (déformation, contrainte) à des stimuli divers : Stimuli physiques : comme la température, les champs électriques ou magnétiques et même la lumière (champ électromagnétique) ; Stimuli chimiques : tels que le ph, les interactions ioniques et les agents chimiques vont modifier la disposition des chaînes de polymères et les interactions entre celles-ci et les solvants au niveau moléculaire. Parmi les différents types de stimuli pouvant être utilisés pour déclencher une déformation, la lumière est très intéressante, car la lumière peut interagir avec le matériau sans contact direct et avec une très grande précision. En outre, divers types de modulations sont disponibles en termes d intensité, d énergie (longueur d onde), de polarisation, etc. Les polymères photosensibles sont des macromolécules qui changent leurs dimensions, propriétés optiques ou électroniques quand ils sont éclairés avec une lumière de longueur d onde appropriée. Parmi les modifications observées chez les polymères photosensibles, citons : la modification de la configuration moléculaire (polymère photosensible) ; la modification de sa constitution (polymère photo-réactif) ; la modification réversible en couleur (polymère photochromique) 48

64 Quatrième session : mercredi 20 avril, 16h Les principales retombées attendues concernent les télécommunications optiques, les systèmes de visualisation, l'imagerie biomédicale ainsi que les interconnexions optiques à la frontière entre les circuits électroniques et l'optique. Objectif de la recherche : Les matériaux étudiés pour ce projet sont les hydrogels. Les hydrogels sont formés d'un réseau de chaînes de polymères dont certaines parties sont solvatées par les molécules d'eau et les autres parties sont chimiquement ou physiquement liées les unes aux autres. Cette structure leur confère des propriétés intéressantes : ils gonflent, mais ne se dissolvent pas dans l'environnement aqueux. Les hydrogels sensibles à la lumière ont des applications très intéressantes car le stimulus lumineux peut être commandé instantanément et libéré pendant un temps bien défini avec une grande précision. Il existe deux types d hydrogels sensibles à la lumière : Les hydrogels sensibles aux UV ont été synthétisés par l introduction d une molécule (bis (4- diméthylamino) phénylméthyl leucocyanure) dans le réseau du polymère. À une température donnée, les hydrogels gonflent en réponse au rayonnement UV. Les hydrogels sensibles à la lumière visible sont préparés en introduisant un chromophore sensible à la lumière. Quand la lumière est appliquée à l hydrogel, le chromophore absorbe la lumière qui est alors dissipée localement comme la chaleur, augmentant la température de l hydrogel. Cela provoque le gonflement du matériau. L objectif de ce projet est de développer des modélisations multi-échelles du comportement des systèmes nano-photoniques à base de matériaux intelligents en utilisant la méthode éléments finis. Des modélisations seront développées sur les bases de la mécanique des solides, de l électrostatique, de la thermodynamique et de la cinétique. Ces modélisations traiteront, entre autres, d aspects essentiels tels que l interaction entre la contrainte et le champ physique concerné (champs électrique, lumière), ainsi que différents mécanismes du comportement et de la rupture de ces matériaux. 49

65 Cinquième session : jeudi 21 avril, 8h Nom : BENDADOUCHE Prénom : Rimel Mail : rimel.bendadouche@cemagref.fr Laboratoire : Cemagref - LIMOS Intégration de données agri-environnementales provenant d'un réseau de capteurs sans fil dans un entrepôt de données Directeur de thèse : Kun Mean HOU Encadrants Cemagref : Jean Pierre CHANET Gil DE SOUSA Présentation du sujet de thèse Au cours des dernières décennies et grâce à l'avancée des systèmes embarqués et des technologies sans fil, les réseaux de capteurs sans fil (RCSF) ou «Wireless Sensor Network (WSN)» connaissent une évolution grandissante. Un RCSF est généralement constitué d'un nombre de nœuds capteurs (de quelques centaines à des milliers) qui stockent, traitent et relient des données capturées en utilisant les technologies sans fil [Cheng 2011]. Ces réseaux ont un intérêt particulier pour les applications militaires, domotiques, médicales ou bien encore dans la surveillance de phénomènes environnementaux et des infrastructures critiques. Le Cemagref est un institut de recherche qui s'intéresse en particulier au domaine agri environnemental, un domaine où l'acquisition ainsi que le traitement des données est crucial. La figure suivante présente l'architecture d'un système d'intégration de données dans le contexte agri-environnemental, grâce à un outil ETL «Extract Transform Load». 50

66 Cinquième session : jeudi 21 avril, 8h On constate que les données peuvent être issues de différentes sources (RCSF, base de données ). L'objectif de notre travail est essentiellement centré sur l'exploitation des données agrienvironnementales issues d un RCSF et la mise à disposition des données à l'utilisateur final. En outre, les RCSF se caractérisent par des ressources d'énergie, mémoire et puissance de calcul limitées. Dans notre travail, nous tenons à prendre en compte ces contraintes pour l'intégration des données afin d'améliorer la durée de bon fonctionnement du réseau. Afin de tenir compte de ces contraintes, nous proposons dans le cadre de cette thèse d'intégrer le contexte du réseau : contexte de mesure des nœuds, contexte d'intégration des données... Les ontologies permettent de formaliser la connaissance et sont donc une approche possible pour décrire le contexte de mise en œuvre des RCSF. L'utilisation des ontologies va nous permettre notamment de modéliser, structurer et classifier les flux de données générés par le réseau de capteurs. Elle va nous permettre aussi de choisir la politique d'intégration de données en considérant le contexte de fonctionnement du capteur. Elle va également nous servir à définir différentes applications à partir d'un modèle générique. Le terme «ontologies» a été utilisé dans une grande variété de contexte applicatif (recherche documentaire, santé,...) mais, dans notre cas, l'ontologie va être le langage commun utilisé pour décrire le RCSF et ses flux de données. Ontosensor [Goodwin 2006], SDO [Eid et al. 2007] et SSN [SSN 2010] sont des exemples d'ontologies de capteurs permettant de telles descriptions. Dans le cache de cette thèse, nous allons donc intégrer le contexte de mise en œuvre des RCSF depuis le capteur jusqu'au système d'information grâce, entre autres, aux ontologies et proposer une méthode d'intégration de données adaptée au contexte agri-environnemental. References [SSN 2010] SSN ontology, [Cheng 2011] X. Cheng, Hierarchical distributed data classification in wireless sensor networks, Computers communications, February [Eid 2007] M. Eid, R. Liscano and A. El Saddik, A Universal Ontology for Sensor Networks Data, In IEEE International Conference on Computational Intelligence for Measurement Systems and Applications, pp , [Goodwin 2006] C. Goodwin and D. J. Russomanno, An ontology-based sensor network prototype environment. In Fifth International Conference on Information Processing in Sensor Networks. 51

67 Cinquième session : jeudi 21 avril, 8h Nom : BUI Prénom : The Quang Mail : buithequang@gmail.com Laboratoire : Laboratoire de physique corpusculaire Virtual screening from Vietnamese natural products using GRID computing Directeur de thèse : Vincent BRETON Mail : breton@clermont.in2p3.fr Présentation du sujet de thèse 1. Context of Ph.D project As we know it takes a lot of time and money to introduce a new drug to the market. According to the recent research, the cost of each new discovery averages $800 million. And the whole process of new drug discovery and development can take up to 12 years in the average including preclinical, clinical stages and so on. Besides, the neglected tropical diseases need fast and cheap answers. Fortunately, thanks to the rapid development of science and technology, more and more known and registered proteins with three dimensional structures are now available. Also, there have been more and more libraries of knows chemicals. Concerning to the information technology, the computing power has dramatically increased and better quality of prediction for bioinformatics softwares. The drawback is that the CPU time consumption is too long. For a high-throughput screening, it might take centuries to complete. The solution is to use GRID enabled virtual screening to speed up the process and minimize the costs Vietnam has a long history of traditional medicine, which heavily depends on its medical plants. According to the statistic evidence, Vietnam has nearly 4,000 registered species of medical plants. The Institute of Natural Products Chemistry (INPC) in Hanoi, Vietnam, has extracted thousands of Natural compounds. There are more and more malaria protein structures 2. Workflow of project A database of ligands will be prepared based on the database of natural products that have been isolated from Vietnamese sources. The database of proteins will be prepared using the RCSB protein data bank. The Docking will be performed by using Autodock4 software. The best scoring structures will be moved to the refinement stage then. These factors will be considered in this step, such as the availability for the isolation, the ability of the organic synthesis, the results from the QSAR studies, the interactions between ligands and proteins and so on. Chosen compounds will be prepared for testing experiments in the lab. The source for the macromolecules is the RCSB protein data bank and the protein will be chosen according to the literature. All the proteins will be prepared in the pdbqt files and store in the AMGA database 52

68 Cinquième session : jeudi 21 avril, 8h The software used for docking simulation is autodock4 and the best candidates will be sorted by their energy. 3. Target of project We will use virtual screening on the infrastructure GRID for the database of ligands of Vietnam. Now, we begin with malaria, one malady has many researches on it. After that, we can research about others maladies. 53

69 Cinquième session : jeudi 21 avril, 8h Nom : DURIF Prénom : Sébastien Mail : sebastien.durif@polytech.unvibpclermont.fr Laboratoire : LaMI Etude analytique du comportement de poutres cellulaires à ouvertures sinusoïdales. Directeur de thèse : Pr. Abdelhamid Bouchaïr Mail : bouchair@cust.univ-bpclermont.fr Présentation du sujet de thèse Le thème principal porte sur le comportement mécanique des poutres cellulaires reconstituées à partir de poutres standards avec ouvertures dans l âme. L objectif de la recherche est de maîtriser ce comportement en vue de proposer des modèles analytiques de prédiction de la résistance et de la rigidité. La démarche scientifique consiste à combiner les approches expérimentale, numérique et analytique. Le but étant, à partir d essais sur poutre à échelle 1, de valider un modèle numérique capable de représenter le comportement complexe de ces poutres. Une fois le modèle numérique validé, celui-ci servira de base à une étude paramétrique permettant de définir un modèle analytique. Les poutres cellulaires sont de plus en plus utilisées dans le domaine de la construction métallique. En effet, les constructeurs ont souvent recours à des profilés importants afin de répondre aux exigences de grandes portées. Ces profilés, en contrepartie de l excellente résistance vis-à-vis de structures très étendues, sont d une hauteur d âme non négligeable. Si l on se retrouve avec en plus des équipements de services, cela augmente la hauteur d étage de manière conséquente. La solution a donc été de concevoir des poutres avec des trous isolés ou uniformément répartis, permettant donc le passage des conduits à travers l âme. Cependant la présence de ces ouvertures perturbe le comportement mécanique de ces poutres. Le fait de percer l âme ne réduit que très peu sa résistance à la flexion mais cela empêche le bon transfert du cisaillement. Ce transfert de cisaillement s équilibre par flexions locales aux quatre coins de l ouverture ; on parle de flexion Vierendeel. Cette flexion locale se traduit soit par une plastification des sections aux coins de l ouverture soit par une instabilité locale de l âme en bord libre. Plusieurs modèles de calcul permettent déjà de considérer ces différents modes de ruine et d en établir la résistance. Figure 1- Phénomènes locaux autour d une ouverture dans l âme d une poutre Les méthodes de calcul ont commencé à se développer avec l évolution d une autre forme de poutre; celle des poutres aux ouvertures régulièrement espacées, les poutres cellulaires. Ces poutres, sans compter la possibilité de faire passer les gaines techniques, sont aussi utilisées comme expression architecturale. Cette nouvelle forme de poutre entraine de nouveaux modes de ruine, avec par exemple le flambement du montant intermédiaire induit par le différentiel d efforts axiaux dans les 54

70 Cinquième session : jeudi 21 avril, 8h membrures de part et d autre du montant (figure 1). L évolution des procédés de conception ont finalement mené vers la conception d une dernière forme d ouverture, une ouverture sinusoïdale, avec la poutre Angelina TM (figure 2). Figure 2- Exemple de plancher avec poutres Angelina TM (à gauche) exemple de modélisation (à droite) L avantage de cette forme, outre son esthétique, est qu elle offre une plus large gamme de taille d ouverture, permettant ainsi le passage de gaines rectangulaires par rapport aux ouvertures circulaires. Cependant, son ouverture est beaucoup plus allongée. Ainsi le critère dominant est donc le transfert du cisaillement par flexion locale. On peut aisément faire une analogie aux poutres à grandes ouvertures rectangulaires ou hexagonales afin de pouvoir exploiter les règles de calcul déjà établies. Cependant, dans le cas de l ouverture sinusoïdale, on est en présence d une ouverture avec une variation section sur toute la demi-longueur de l ouverture. Ainsi, la ruine ne s opère plus dans des zones évidentes à caractériser. D autant plus que l importante taille des ouvertures implique donc un élancement de paroi en bord libre qui facilite l instabilité par flexion Vierendeel plutôt que la plastification de section. Pour le moment aucun code de calcul ne permet d obtenir une estimation correcte de la résistance de ces sections au voilement local. Afin de mieux comprendre et d analyser le comportement de ces poutres, des essais ont été effectués dans le cadre de cette thèse au sein du laboratoire du LaMI. Ces essais consistent à tester trois poutres Angelina TM à échelle 1 avec un système de mesure par capteurs de déplacement, mesure video et mesure avec jauges de déformation. Un exemple du montage et de mode de ruine est donné par la figure 3. Figure 3- Photographie du montage d une poutre pour l essai à la ruine (à gauche) exemple d un mode de ruine (à droite). Ces essais permettent de valider le modèle numérique sur-lequel reposera une étude paramétrique pour établir un modèle analytique servant à déterminer la résistance au voilement élastique de plaque soumises aux conditions limites propres à celles inhérentes aux sections dans une ouverture de poutre Angelina TM. Ce modèle pourra ensuite être adapté à d autres formes d ouvertures et de plus, s orienter vers une application à températures élevées pour des dimensionnement tenant compte de l incendie. 55

71 Cinquième session : jeudi 21 avril, 8h Nom : POUZET Prénom : Mathieu Mail : mathieu.pouzet@effidence.com Laboratoire : CEMAGREF CIFRE Effidence Analyse de l'environnement par techniques de SLAM visuel pour la surveillance en robotique Directeur de thèse : Christophe Debain Mail : christophe.debain@cemagref.fr Présentation du sujet de thèse La surveillance de lieux étendus tels que des villes, des gares, des aéroports est un enjeu socioéconomique de plus en plus important. Aussi depuis plusieurs années les acteurs de la sécurité civile et militaire s équipent de systèmes de vidéo-surveillance. Cependant la surveillance de lieux très étendus et parfois inconnus ou pas encore bien maîtrisés (intervention militaire à l étranger) nécessite des systèmes plus autonomes ajoutant une composant mobilité à l ensemble. Ainsi les villes utilisent de plus en plus des caméras fixes de type «Dôme» permettant une rotation motorisée sur 360 degrés, une inclinaison motorisée sur 180 degrés et un zoom également motorisé (on parle alors de caméra PTZ 1 ). De même les acteurs militaires se servent de petits véhicules télé-opérés et équipés de caméras similaires pour assurer la protection de zones d intervention. Dans ces deux cas les images fournies par les caméras doivent encore être complètement interprétées par des opérateurs dont le travail est alors extrêmement fastidieux et peu efficace (en moyenne un opérateur pour 6 caméras fixes et un opérateur pour une caméra mobile). A l image de nombreuses autres sociétés, l entreprise innovante Effidence propose des algorithmes «intelligents» de traitement d images permettant de détecter automatiquement des personnes ou des objets suspects. Les alarmes déclenchées par ces «automatismes» permettent de diminuer fortement le caractère fastidieux du travail des opérateurs qui peuvent alors focaliser leurs efforts sur les tâches d intervention. Cependant les algorithmes à la base de ces systèmes agissent pas soustraction d arrière plan et nécessitent donc des images fixes. Ce projet de recherche vise à concevoir des algorithmes capables d extraire des informations d images provenant de caméras en mouvement. Ces informations serviront aussi bien à la surveillance qu au pilotage du fonctionnement du système. Ainsi pour un robot mobile, il s agira d assurer sa localisation tout en analysant sont environnement (reconstruction du modèle numérique de terrain, identification d éléments ou de personnes suspects). De même pour la vidéoprotection, il faut être capable d estimer position et orientation des caméras mobiles tout en recherchant à caractériser les origines de mouvements dans la scène par exemple. 1 Caméra PTZ : caméra dont l'orientation (Pan et Tilt) et le facteur de zoom sont commandables. 56

72 Cinquième session : jeudi 21 avril, 8h En ce qui concerne l'état de l'art, les systèmes de vidéo-protection dits «intelligents» sont principalement basés sur des algorithmes de soustraction d arrière plan avec différentes techniques de mise à jour permettant d intégrer certaines perturbations. Dans ce cadre, les solutions appliquées au traitement des images provenant des caméras mobiles consistent à immobiliser ces caméras pendant un temps court pour appliquer les techniques classiques précédemment évoquées. Clairement ces méthodes sont très sous-optimales par rapport aux possibilités que donnent ces capteurs dont la vitesse de rotation peut être très élevée. D autres solutions proposent d utiliser la position de la caméra avec des arrières plans pré-enregistrés. Si ces méthodes évitent les arrêts de la caméra elles sont très sensibles à la justesse de la position donnée par les capteurs internes du dispositif. Un recalage est alors nécessaire, utilisant des techniques d'appariement de points dans l'image dites de mozaicing coûteuses en temps de calcul. Au sujet des véhicules télé-opérés de surveillance, les principaux systèmes vendus actuellement utilisent encore une surveillance totalement manuelle. Pour les deux systèmes, la principale difficulté vient du mouvement de l objectif de la caméra ou même de la caméra en elle-même. Il faudrait à la fois estimer le mouvement de la caméra et détecter les éléments en mouvement dans l image, voir reconstruire l environnement 3D. Depuis plusieurs années de telles méthodes sont étudiées par les laboratoires de recherches : pour l estimation de la position de la caméra et la reconstruction de l environnement on parlera de méthode SLAM (Simultaneous Localization And Mapping) et pour la détection de mouvement dans l image d une caméra elle-même en mouvement, on parlera de SLAMMOT (Simultaneous Localization And Mapping and Moving Object Tracking). Ces méthodes en sont encore à l état de recherche et leur évaluation dans le cas de systèmes de surveillance fixes et mobiles représente une grande partie des travaux de cette thèse. En effet, le SLAM visuel, à l'interface du monde de la robotique et de la vision artificielle, s'insère très bien dans le savoir faire de la société Effidence, tant du point de vue fusion de données que du point de vue extraction de paramètres visuels. Cette thèse amènera donc à mettre au point un système de SLAM visuel dans des environnements dynamiques en s'appuyant sur les travaux de la société en matière d'intelligence artificielle et sur les travaux des laboratoires partenaires (Cemagref, LASMEA 2 ). 2 Laboratoire des Sciences et Matériaux pour l Electronique, et d Automatique 57

73 Cinquième session : jeudi 21 avril, 8h Nom : DANG Prénom : Cong-Thuat Mail : Cong-Thuat.DANG@ifma.fr Laboratoire : LaMI FIABILITE DES STRUCTURES ET DES SYSTEMEES MECANIQUES EN COMPORTEMENT DYNAMIQUE STOCHASTIQUE ET APPLICATION A LA CONSTRUCTION DES COURBES DE FRAGILITE SISMIQUE Directeur de thèse : Pascal RAY, Professeur des Universités, Pascal.Ray@ifma.fr Co-encadrant : Thien-Phu LE, Maître de Conférences, Thien-Phu.Le@ifma.fr Contexte : Aujourd hui, le besoin de quantifié des risques des structures et des systèmes mécaniques soumis à l aléa d environnement devient primordial. Si dans le contexte statique, ce problème est déjà arrivé à certaine maturité, c est loin d être le cas dans le contexte dynamique et il ne reste qu à la phase exploratoire pour le problème de dynamique stochastique. D une part, c est parce qu il est difficile d étendre immédiatement le résultat théorique donné par la dynamique stochastique des cas simples aux structures et systèmes réels. D autre part, l application directe des techniques de fiabilité développées dans le contexte statique au contexte dynamique implique un gros moyen de calcul et souvent inapplicable à cause de la présence d un nombre important des variables aléatoires. En plus, plusieurs séismes de différentes intensités ont récemment frappé de nombreux pays en occasionnant des pertes considérables en vies humaines et d importants dégâts matériels (les accidents nucléaires de Fukushima au Japon font partie des conséquences du tsunami engendré par le séisme du 11 mars 2011, par exemple). Ces taux de dégâts ont encouragé les chercheurs du génie parasismique à élaborer des solutions afin de réduire ce risque sismique. Plusieurs travaux ont été réalisés dans cet axe afin de comprendre réellement la façon dont un séisme affecte une structure. Un outil performant souvent utilisé dans ce domaine est fourni par les courbes de fragilité. Application de la thèse : L application visée de la thèse est la construction par simulation sismique des courbes de fragilité. Une courbe de fragilité est définie par la probabilité de défaillance d une structure ou d une partie d une structure pour un niveau sismique donné. Ce niveau est caractérisé par une variable qui peut être l une des suivantes : PGA (Peak Ground Acceleration), PGV (Peak Ground Velocity) ou PGD (Peak Ground Displacement), L utilité d une telle courbe est pertinente puisque: - Lors de la phase de dimensionnement : on peut choisir quel niveau sismique à appliquer afin d atteindre une probabilité de défaillance donnée. - Lorsque le séisme apparaît : grâce à l intensité sismique mesurée, on peut estimer rapidement les pertes potentielles afin de déclencher un plan d aide efficace. - Lors de la phase de réhabilitation des structures après séisme : on peut évaluer de façon rapide l état des structures pour intervenir. Objectifs de la thèse : Le but de ce travail de thèse est de proposer une nouvelle méthode d évaluer la fiabilité des structures ou systèmes mécaniques (machines d UGV par exemple) dans le contexte dynamique stochastique avec un coût de calcul raisonnable. Une telle méthode devra d une part appliquer adéquatement le résultat de la dynamique stochastique au problème de fiabilité. Elle nécessite 58

74 Cinquième session : jeudi 21 avril, 8h d autre part d adapter les techniques et outils existants de la fiabilité dans le contexte statique au contexte dynamique stochastique afin de les rendre utilisables. Ces deux tâches sont à réaliser réciproquement et vont donc nécessiter une étude approfondie des différents éléments : - Simulation des séismes: Les excitations sismiques réelles sont enregistrées par des stations de mesures partout dans le monde. Ces données sont souvent sous forme d accélération temporelle, téléchargeable sur internet. On peut trouver également les informations associées, telles que : PGA, PGV, PSa, magnitude, distance à la source, Mais, le nombre d enregistrements est limité pour mener une étude de fiabilité. En plus, lorsqu un nombre important d enregistrements est nécessaire, on peut utiliser les enregistrements des stations différentes mais ces séismes n appartiennent pas à une même famille et il y a toujours un aléa relié à la région où les données sont collationnées. Il est ainsi nécessaire d avoir un générateur numérique des séismes pour les études de simulations puisqu on a besoin des populations importantes de séismes. Il est également la seule issue lorsqu on a des systèmes non-linéaires où l application de la dynamique stochastique n est pas possible pour prévoir les valeurs extrêmes ou pour des régions où il n y a pas encore de séismes mais le risque sismique est présent ou les enregistrements sont manquants. - Modélisation des structures et des systèmes mécaniques sous excitation stochastique. La réponse sismique des structures et des systèmes mécaniques est obtenue dans la plupart des cas par les méthodes de calcul numérique. Elle dépend de plusieurs facteurs (modèles de comportement, algorithmes choisis, mise en œuvre du modèle : maillage, discrétisation en temps ). Le temps de calcul de la réponse dynamique devient extrêmement long si la non-linéarité structurale est présente. - Evaluation des probabilités de défaillance. La probabilité de défaillance peut être estimée par la moyenne empirique des indicateurs de défaillance suivant la méthode de Monte-Carlo. Toutefois, le problème à résoudre ici contient plusieurs variables aléatoires et les probabilités de défaillance cibles sont souvent faibles. Le temps de calcul du problème par la méthode de Monte-Carlo est très important. Il est alors nécessaire d appliquer d autres méthodes plus robustes en termes de coût calcul numérique. Avancement de la thèse : La thèse a commencé au mois de janvier Il est actuellement en phase des études bibliographiques. 59

75 Cinquième session : jeudi 21 avril, 8h Nom : HARKOUSS Prénom : Rami Mail : rami.harkouss@clermont.inra.fr Laboratoire : INRA de Theïx (unité QuaPA) Quantification des évolutions biochimiques, structurales, texturales, des effets sur la diffusion de l eau et du sel, et des conséquences microbiologiques induits par une forte réduction de la teneur en sel lors de la fabrication de jambons secs. Directeur de thèse : Pierre-Sylvain MIRADE Mail : pierre-sylvain.mirade@clermont.inra.fr Présentation du sujet de thèse L agroalimentaire est une branche importante du secteur génie chimique, de par le génie des procédés. L une des problématiques actuelles dans l industrie alimentaire, et plus précisément lors de la fabrication de charcuteries en raison de problèmes de santé publique (hypertension, maladies cardiovasculaires ), est de réduire la quantité du sel, notamment lors de la fabrication des jambons secs, et ce, sans altérer la qualité finale du produit transformé (texture, goût, conservation ). Développement : Le travail de thèse comporte deux parties : une partie expérimentale complétée par une partie modélisation. Pour cela, la thèse a pour objectifs de : Etablir un lien clair entre protéolyse, structure et texture, en prenant en compte la nature différente des muscles et différentes concentrations en eau et en sel, pour, au final, obtenir un modèle prédisant quantitativement l évolution temporelle et spatiale de l état d avancement de la protéolyse dans un jambon en cours de séchage. Etudier expérimentalement (imagerie RMN, saucissonnage d échantillons) et numériquement (développement d un modèle de transferts de matière couplés eau/sel) la diffusion du sel et de l eau à l intérieur d une pièce de viande en cours de séchage, pour, au final, obtenir un modèle prédisant quantitativement l évolution temporelle de la distribution spatiale des concentrations en eau et en sel à l intérieur d un jambon. Evaluer la stabilité microbiologique des pièces de viande séchées, de teneur réduite en sel, par estimation de l évolution de l a w en surface (expérimentation en microbioréacteurs) et à l intérieur (modélisation numérique). Et enfin, idéalement, combiner l ensemble des modèles développés (concentrations en sel, en eau, a w, protéolyse, microbiologie prévisionnelle) pour aller vers un démonstrateur. 60

76 Cinquième session : jeudi 21 avril, 8h Nom : MAMERI Prénom : Djelloul Mail : mameri@isima.fr Laboratoire : LIMOS, UMR 6158 CNRS Conception et routage dans des réseaux de capteurs sans fil à l aide de structures combinatoires Directeurs de thèse : Fatiha BENDALI, Maître de Conférences HDR ; Jean Mailfert, Maître de conférences Mail : bendali@isima.fr, mailfert@isima.fr Présentation du sujet de thèse A la différence des réseaux filaires ou cellulaires, les réseaux de capteurs sans fil ne disposent d aucune structure de connexion prédéfinie. Les communications entre deux capteurs, munis d antennes omnidirectionnelles, se font soit directement lorsqu ils sont à portée radio, soit grâce à d autres capteurs intermédiaires. Depuis une dizaine d années, ces réseaux ont donné lieu à un grand nombre de publications [4,6]. Un réseau de capteurs sans fil peut être modélisé comme un graphe non orienté G= (V, E) où chaque sommet de V représente un capteur et l existence d une arête dans E dépend de la puissance des deux capteurs et leur distance euclidienne. La connexité entre les capteurs sans fil est indispensable pour acheminer toutes les informations collectées par les capteurs vers la station de base. Pour assurer cette connexité, il est naturel d utiliser les ensembles dominants connexes dans le graphe de communication [1,6]. Un sous-ensemble S inclus dans V est dominant connexe de G si le sous réseau induit par S est connexe et tout sommet de V est soit dans S ou adjacent à S. Les performances d un réseau augmentent avec la réduction de la taille du dominant connexe. Cependant, minimiser sa cardinalité est un problème NP-Difficile [3]. Des structures plus faibles que celle du dominant connexe, ont alors été proposées [2,5]. Nous explorons actuellement la notion d indépendant maximal faiblement connexe. Un sousensemble S de V est indépendant maximal faiblement connexe si le graphe partiel formé par les arêtes ayant exactement une extrémité dans S, est connexe. Nous avons montré que la minimisation du cardinal de l indépendant maximal faiblement connexe est aussi un problème NP-difficile sur un graphe connexe général. Une heuristique en O(n 3 ) a été proposée pour le déterminer. L idée générale de l heuristique est de sélectionner un sommet-maître à chaque itération d une manière bien définie (heuristique déterministe) ou aléatoire (heuristique stochastique) (cf. Figure 1). Des tests numériques sont faits sur des classes particulières de graphe comme les grilles. 61

77 Cinquième session : jeudi 21 avril, 8h Figure 1 : Sélection des sommets-maître par l heuristique gloutonne. N(S)= ensemble des voisins des sommets de S. Perspectives 1. Affiner les résultats de complexité dans des situations particulières telles que les grilles régulières où la station de base du réseau est à l extérieur de la grille. 2. Décrire les solutions du problème de l indépendant maximal faiblement connexe par une étude polyèdrale. 3. Collaborer avec l équipe SMIR-LIMOS dirigée par M. Kun-Mean Hou pour valider les topologies obtenues. 4. Poursuivre sur des problèmes de routages. Références [1] X. Cheng, D.Z. Du, M. Cardei. Connected domination in ad hoc wireless networks. Proc. 6 th International Conference on Computer Science and Informatics, [2] J. E. Dunbar, J. W. Grossman, J. H. Hattingh, S. T. Hedetniemi, A. A. McRea. On weakly-connected Domination in graphs. Discrete Math., 167/168, : , [3] M. R. Garey, D. S. Johnson. Computers and intractibility. A guide to the theory of NP-completeness, W. H. Freeman & Co., New York, [4] Zhui Luo, Bingwen Wang, Leijiang Guo. A survey on Connected Dominating Set Construction Algorithm for Wireless Sensor Networks. Information Technology Journal,9(6): ,2010. [5] A. C. Santos, F. Bendali, J. Mailfert, C. Duhamel, K. M. Hou. Heuristics for designing Energy-Efficient Wireless Sensor Network Topologies. Journal of Networks, 4(6): , [6] P.J Wan, K. M. Alzoubi, O. Frieder. Distributed construction of connected dominating set in wireless ad hoc networks. ACM/Springer Mobile Netw. App. 9(2):149,

78 Cinquième session : jeudi 21 avril, 8h Nom : REGUIEG Prénom : Hicham Mail : reguieg@isima.fr Laboratoire : LIMOS Directeur de thèse : Pr F.TOUMANI Mail : ftoumani@isima.fr Gestion des processus dans le Cloud Computing Présentation du sujet de thèse Le Cloud computing (informatique dans les nuages) est un paradigme émergent qui consiste à offrir à des clients des dispositifs de stockage, de traitement et de communication sur des serveurs virtualisés, distants et interconnectés entre eux. La virtualisation, qui donne l'illusion d'une disponibilité de ressources à l'infini, ainsi que l'acquisition des ressources à la demande conjuguée avec une facturation à l'usage sont des caractéristiques importantes de ce type d'environnement. Ces caractéristiques impliquent des changements importants à la fois au niveau des modèles économiques des usagers mais aussi dans les solutions techniques utilisées habituellement pour le stockage et l'exécution des applications informatiques. De nombreux outils ont été développés récemment pour faciliter l'usage du Cloud et permettre aux entreprises de tirer profit des avantages d'un tel environnement. Cependant, force est de constater que la technologie actuelle n'est pas encore suffisamment mûre pour permettre aux utilisateurs d'exploiter tout le potentiel du Cloud. En effet, la majeure partie des organisations rencontre des difficultés pour : déterminer l'intérêt ou pas de migrer (une partie de) leurs applications vers le Cloud, de définir la bonne configuration du Cloud à utiliser, d'élaborer un modèle de déploiement de leurs applications au sein du Cloud, de définir et mettre en place une stratégie dynamique d'utilisation des ressources, et de manière générale de (re)configuration du Cloud, en fonction de l'évolution des besoins. Pour répondre à ces questions, nous proposons dans ce travail d'étudier les différentes manières d'exécuter des applications dans le Cloud. En particulier, nous examinerons différentes types d'applications (e.g., dataflow, traitement intensif des données, processus métier, etc) et nous explorerons les différentes stratégies pour les implémenter sur le Cloud. Une étape importante dans ce travail concernera l'élaboration d'un modèle de calcul pour le Cloud. Un tel modèle permettra de capturer les caractéristiques principales de l'environnement d'exécution du Cloud en fournissant notamment : une description précise (formelle) de la manière dont les programmes sont exécutés sur le Cloud (élasticité des ressources, etc.), un modèle de coût qui tient compte à la fois des paramètres classiques tels que le temps d'exécution et l'espace mémoire utilisé mais intègre aussi le coût économique liés à l'utilisation des ressources du Cloud. un modèle de stockage qui définit la manière dont les données sont stockées et accéder, un modèle de communication qui définit les différentes possibilités de communication interne au Cloud et entre le Cloud et l'environnement extérieur. 63

79 Sixième session : jeudi 21 avril, 10h30 Nom : AMIN ALI Prénom : Mohamed Mail : Mohamed.Amin_Ali1@etudiant.univbpclermont.fr Laboratoire : LASMEA CONCEPTION DE COUCHES NANOSTRUCTURÉES EN VUE APPLICATION CAPTEUR DE GAZ Directeurs de thèse : Pr BIDEUX Luc & Mme VARENNE Christelle (HDR) Mail : Luc.BIDEUX@lasmea.univ-bpclermont.fr, Christelle.VARENNE@lasmea.univ-bpclermont.fr Présentation du sujet de thèse Le sujet de thèse est réalisé en collaboration entre les équipes «Surfaces & Interfaces» et «Microsystème capteurs chimiques» du LASMEA (Laboratoire des Sciences et Matériaux pour l Électronique et d Automatique). Cette thèse porte sur la réalisation des couches nano-structurées à base de semiconducteurs III-V pour diverses applications dans l opto et la micro-électronique. Pour cela, nous nous sommes intéressés à la réalisation des masques d alumine nano-poreux, afin de pouvoir élaborer des nano-couches 3D (nano-pores, nano-piliers,..) sur des substrats III-V (GaN/GaAs(100), InN/InP(100)). Cette conception se fait soit par nitruration d îlots métalliques autoorganisés soit par remplissage des nano-pores réalisés sur ces derniers. De plus, cette thèse possède une application environnementale qui est la réalisation de couches actives pour les capteurs de gaz atmosphériques polluants tels que l ozone (O 3 ) et le dioxyde d azote (NO 2 ). Une fois, ces nanostructures réalisées, il faudra les caractériser, à l aide de techniques d analyses structurales comme la spectroscopie Auger, la spectroscopie photo-électronique des rayons X et UV, et la spectroscopie EPES, technique développée par l équipe «Surfaces & Interfaces» qui porte sur l interaction élastique des électrons avec la matière. Nous devons aussi les caractériser morphologiquement à l aide de la microscopie électronique en balayage (MEB). On réalisera par la suite des tests sous gaz pour améliorer la sensibilité et la fiabilité des capteurs de gaz. 64

80 Sixième session : jeudi 21 avril, 10h30 Nom : COMPTE Prénom : Benoît Mail : ben_compte@yahoo.fr Laboratoire : ISIT Reconstruction 3D de surfaces rigides et déformables par le mouvement, application à la cœlioscopie Directeur de thèse : Adrien Bartoli Mail : adrien.bartoli@gmail.com Présentation du sujet de thèse Ma thèse se déroule au sein du laboratoire ISIT (Image Science for Interventional Techniques), dans l'équipe ALCoV (Advanced Laparoscopy with Computer Vision). La laparoscopie, également appelée cœlioscopie, est une technique mini-invasive de chirurgie de la cavité abdominale, mais rend le geste chirurgical plus difficile. L'objectif d'alcov est de fournir de nouveaux outils pour la formation au geste chirurgical et la prise de décision en utilisant la réalité virtuelle, la vision par ordinateur et la chirurgie assistée par réalité augmentée. Mes travaux se concentrent principalement sur la reconstruction de surfaces en environnement rigide ou déformable. Je travaille notamment sur les warps, qui sont des fonctions de R² dans R² permettant de modéliser la transformation géométrique entre deux images, ce qui est particulièrement utile en vision stéréo. Je me suis intéressé plus particulièrement aux warps B-spline et NURBS qui sont paramétrés par un ensemble de points de contrôle, chaque point du warp étant un barycentre d'un nombre défini de points de contrôle voisins. Ces warps permettent de modéliser le déplacement inter-image correspondant à l'observation d'une surface déformable. Comme on peut s'en douter, si la surface ne s'est pas déformée entre les deux prises de vues, nous nous trouvons dans un cas particulier. On peut alors se poser la question de savoir si, dans ce cas, la paramétrisation du warp ne pourrait pas être simplifiée. Ceci a abouti à la formulation de deux nouveaux warps qui permettent de modéliser une surface rigide et qui sont des cas particuliers des warps B-spline et NURBS. Ils ont aussi la particularité d'être la projection d'un modèle 3D sur l'image cible, ceci nous permet donc d'obtenir la surface 3D reconstruite lors de la même opération. Ces warps peuvent trouver une application dans le cadre de la reconstruction de surfaces abdominales peu déformables sous laparoscopie. 65

81 Sixième session : jeudi 21 avril, 10h30 Nom : EL SAHMARANY Prénom : Lola Mail : lola.el-sahmarany@cea.fr Laboratoire : Laboratoire de Fiabilisations des systèmes embarqués (CEA Saclay) Etude et mise en œuvre d'une méthode de diagnostic de câbles par retournement temporel Directeur de thèse : Pierre Bonnet Mail : pierre.bonnet@lasmea.univ-bpclermont.fr Présentation du sujet de thèse : Avec l augmentation des systèmes embarqués dans différents moyens de transport et des réseaux de communication, la longueur et le nombre d interconnexions électriques ne cessent d augmenter. La fiabilité de ces systèmes embarqués repose en partie sur la fiabilité des interconnexions. Il faut donc pouvoir connaître l état de ces réseaux filaires pour éviter tout type de dysfonctionnements lorsqu un défaut met en panne tout un système. Il existe plusieurs types de défauts : défauts non francs (isolement, résistif, etc. ) et défauts francs (court circuit et circuit ouvert) ayant chacun leurs propres caractéristiques. L enjeu principal de mon travail de recherche repose sur le développement de nouvelles méthodes de diagnostic des câbles pour la maintenance ou le suivi en ligne de l état du réseau. Ces différentes méthodes doivent permettre de détecter et localiser certains types de défauts dans les câbles. Parmi ces méthodes on peut distinguer les méthodes classiques d inspection visuelle, test d impédance et les méthodes de réflectométrie largement utilisés et facilement embarquable. Cette dernière repose sur la propagation d une forme d onde électromagnétique dans le câble et sur l exploitation de ou des ondes réfléchies causées par des discontinuités d impédance le long du câble. Généralement les méthodes par réflectométrie sont très bien adaptées pour détecter et localiser les défauts francs.en ce qui concerne la détection des défauts non francs des améliorations en terme de mesure et traitement sont nécessaires pour ces méthodes. D où la nécessité d étudier une nouvelle approche, basée sur les principes du retournement temporel pour s affranchir de ces limitations. L idée de base est qu au lieu d utiliser un signal prédéfini, comme pour les méthodes de réflectométrie, on utilise un signal optimal, adapté parfaitement au câble considéré et à ses inhomogénéités de propagation. Ce signal sera insensible à la dispersion, qui a pour effet de modifier la forme de signal, ce qui rend plus difficile la détection et la localisation des défauts. L idée qui vient ensuite est alors la suivante : on envoie une forme d onde dans un câble, on applique le retournement temporelle au signal réfléchi, on le réinjecte et ainsi de suite. Même avec les pertes, moyennant un certain gain à chaque retournement temporel, on peut espérer converger vers un signal propre du système. Une étude mathématique préalable du système permet de préciser les idées et montre que le signal après les allers-retours multiples converge vers un signal qui ne se déforme plus après propagation. Les objectifs de cette thèse visent à étudier cette méthode, la simuler et évaluer ses performances, puis étudier sa mise en œuvre dans le cas du diagnostic externe et du diagnostic embarqué. Les simulations s'appuieront sur un modèle à développer ou sur des codes existants, la 66

82 Sixième session : jeudi 21 avril, 10h30 mise en œuvre se fera avec du matériel de laboratoire dans un premier temps puis par un prototypage FPGA en tenant compte des problématiques de l'embarqué. Travaux de recherche : Pour bien comprendre le principe des méthodes de diagnostic filaire, il est nécessaire de comprendre comment se propage une onde électromagnétique dans une ligne de transmission [1]. Dans cette partie, je présente une méthode numérique qui permet de résoudre les équations de télégraphistes : la méthode des différences finies dans le domaine temporel (FDTD). La FDTD offre une solution pour analyser des lignes dans les environnements réels, comme l automobile ou l aéronautique. C est une méthode explicite et d implémentation simple. Elle consiste à discrétiser le domaine étudié par un réseau de points à mailles rectangulaires et à convertir les équations différentielles en équations aux différences. Elle est la meilleure méthode qu on peut utiliser pour étudier la propagation 1D [2]. Pour illustrer le phénomène de propagation et valider la FDTD, on a implémenté un signal source de type impulsionnel dans un câble de longueur 500 m avec trois configurations différentes : circuit ouvert, court circuit et charge. Une partie expérimentale a été faite aussi sur un toron de câble de signalisation ferroviaire de la SNCF de longueur 500 m en respectant les mêmes conditions de la partie numérique pour la comparer ensuite avec les résultats calculés avec la méthode FDTD. On injecte une impulsion gaussienne (signal symétrique).on applique le retournement temporel sur le signal réfléchi et on le réinjecte dans le toron de câble. Le signal (retourné temporellement) réfléchi est dispersé, atténué et redevient à peu près symétrique. Axes de recherche à moyen terme : Le travail qui va être réalisé dans la suite consiste à réaliser les mêmes mesures expérimentales décrites ci-dessus mais sur un câble SNCF vieilli et à les comparer avec les mesures faites sur le câble sain. Cette comparaison va nous montrer en se basant sur la symétrie du signal réfléchi l état du câble par rapport à son vieillissement. Un signal réfléchi non symétrique nous montre que le câble est vieilli. Ces résultats vont être comparés avec la simulation du code FDTD qui prend en compte la dispersion provoquée par le fait que les diverses composantes fréquentielles du signal se propagent à des vitesses différentes le long du câble. Un calcul de coefficient d asymétrie du signal reçu est nécessaire pour étudier son évolution en fonction du paramètre linéique du câble. Pour la suite des essais de simulation avec le code FDTD sur le retournement temporel et la détection de défauts localisés dans une simple ligne sans perte adaptée à ses extrémités sont aussi importants pour vérifier la fiabilité de la nouvelle approche concernant la détection des défauts. Références bibliographiques : *1+ N.Ravot, Analyse et dignostic de réseau filaire complexes par réflectométrie, thèse de doctorat de l université Paris Sud 11, octobre [2] D.M.Sullivan, «Electromagnetic simulation using the FDTD method», Piscatway: IEEE Press Series on RF and Microwave Technology, New York,

83 Sixième session : jeudi 21 avril, 10h30 Nom : RICHIER Prénom : Mathieu Mail : mathieu.richier@cemagref.fr Laboratoire : Cemagref Conception de dispositifs actifs de maintien de stabilité pour les véhicules évoluant en milieux naturels Directeurs de thèse : Christophe DEBAIN Mail : christophe.debain@cemagref.fr Présentation du sujet de thèse La thèse a pour objet le développement de systèmes de sécurité actifs pour les véhicules évoluant en milieux naturels (agriculture, entretien d'espaces verts, génie civil). Sur ce type de terrains les véhicules peuvent être soumis à de fortes pentes où des surfaces glissantes augmentant fortement le risque d'accidents lié au renversement. Par exemple pour les véhicules légers tout terrains (VLTT : types quads), ces renversements longitudinaux ou transversaux représentent 93% des accidents d'après une étude du CEMAGREF faite en De plus pour les engins lourds (tracteur, automoteurs de chantier), il est difficile d'offrir une protection passive (arceaux de protection) efficace en cas de renversement compte-tenu de leur dimensionnement. Il est ainsi important d'explorer le développement de systèmes actifs de prévention du renversement pour améliorer la sécurité des opérateurs dans le monde professionnel des utilisateurs de VLTT mais aussi pour les particuliers. De plus ces systèmes, offrant une meilleure estimation de la dynamique des véhicules, peuvent permettre l'amélioration de l'efficacité des commandes des robots autonomes devant évoluer en milieu naturel. En effet ils doivent pouvoir prédire les situations à risques afin de calculer au mieux leurs trajectoires et leur vitesse. Ils doivent pouvoir aussi s'adapter en temps réel aux conditions du terrain (pente, adhérence ) afin d'éviter des situations périlleuses qui engendre des coûts matériels et surtout un arrêt temporaire de sa fonction. Ce sujet a déjà été amorcé par Nicolas BOUTON lors de sa thèse au Cemagref [ ]. Il a développé des algorithmes d'observation qui permettent la prévention et le calcul du risque de renversement. Ces algorithmes ont été validés que ce soit sur le quad permettant de prévenir le conducteur du risque de renversement, ou sur le robot autonome RobuFAST pour lequel une sécurité active améliorant sa contrôlabilité dynamique (renversement, tête-à-queue) a été développée. Malgré l'importance des résultats obtenus, on peut néanmoins citer trois limites majeures à ses algorithmes : La géométrie du terrain n'est pas considérée, Seule la dynamique latérale a été étudiée, La position du conducteur n'est pas prise en compte. Depuis le début de cette thèse, un effort de recherche a été effectué sur la prise en compte de la géométrie du terrain. Un modèle mécanique associé à un premier algorithme ont été développés, permettant l estimation du risque de renversement latéral quel que soient les conditions d adhérence et la pente. En outre, ce système est accompagné d un algorithme permettant 68

84 Sixième session : jeudi 21 avril, 10h30 l anticipation de ce risque. L ensemble des ces résultats font l objet à l heure actuelle d une demande de publication pour la conférence d IROS La suite de cette thèse a pour objectif d'améliorer le système actuel et d étudier les différents types de renversement ainsi que l'influence du conducteur sur la stabilité dynamiques des VLTT. Il conviendra de faire un état de l'art complet et de comparer différentes possibilités en orientant les avancées vers un système à coût contenu. En effet, une future industrialisation impliquera un coût d'instrumentation compatible avec le prix du véhicule. Une fois une solution choisie, la synthèse d'algorithmes adressant tous les types de renversements sera alors étudiée. En parallèle une étude approfondie devra être faite sur l'étude de l'influence de la position du conducteur et de la manière dont on peut la prévoir et/ou l'observer. Enfin, l'interaction avec le conducteur sera envisagée, non seulement par son avertissement, mais aussi par une action sur les commandes du VLTT. Il s'agit ainsi de créer un système actif de sécurité complet avec avertissement plus "interaction" directe sur la dynamique du véhicule. Finalement un système intégré sera réalisé puis validé tant sur le plan théorique que pratique. 69

85 Sixième session : jeudi 21 avril, 10h30 Nom : PASSERAT-PALMBACH Prénom : Jonathan Mail : passerat@isima.fr Laboratoire : LIMOS Calcul stochastique distribué sur Grille hybride utilisant des GPGPU Directeur de thèse : David Hill Mail : david.hill@univ-bpclermont.fr Présentation du sujet de thèse Thématique : Grille de calcul hétérogène, calcul stochastique hybride à base de GPGPU Domaines de recherche : Résumé : Simulations stochastiques à événements discrets, appliquée aux Sciences de la Vie Depuis fin 2007, les GPGPU (General Purpose Graphical Processing Unit) proposent des puissances de calcul très nettement supérieures aux processeurs classiques avec des consommations électriques très réduites *Owens et al Les applications potentielles sont pour l instant réduites à 15% des logiciels scientifiques [Lerner 2009]. En effet, pour exploiter ces machines, il faut développer des méthodes de programmation hybride adaptées aux applications. On associe un ou plusieurs GPU à une machine hôte et il est possible de faire communiquer ces machines hybrides pour créer des machines parallèles virtuelles de grande taille. La programmation des machines hybrides est très délicate avec, d une part, une importante hiérarchie de mémoire disposant de performances très différentes, d autre part des blocs et des grilles de threads impliquant un type de code avec peu de branchements hétérogènes pour chaque bloc de threads. Le sujet de thèse vise à proposer une méthode de programmation parallèle hybride adaptée à la simulation stochastique à événements discrets pour les Sciences de la Vie [Hill 2009] et à la tester sur des architectures parallèles hybrides. Ces méthodes devront prendre en compte les limites héritées des GPU en ce qui concerne les normes et standards du calcul scientifique [Godeke 2005]. Les applications concernées sont celles qui peuvent utiliser une organisation SIMD des codes (Single Instruction, Multiple Data). Dans ce contexte, nous souhaitons nous intéresser plus particulièrement à la parallélisation sur GPGPU et grille de GPGPU de simulations stochastiques, à l exécution parallèle de plans nécessitant du calcul intensif. Les techniques de programmation parallèle hybride s apparentent à ce que nous appliquons lorsque nous combinons des directives OpenMp et l envoi de message avec MPI *Innocenti et al Nous retrouvons par exemple récemment l utilisation de GPGPU pour de l alignement de séquences [Svetlin et al 2009] [Trapnel et al 2009]. Nous souhaitons 70

86 Sixième session : jeudi 21 avril, 10h30 de plus concevoir une grille hybride à échelle locale en faisant des propositions pour adapter les middlewares existants. À ce jour, notre travail commence à porter ses fruits. Nous avons publiés deux articles lors de conférences internationales [Passerat-Palmbach et al 2010 ; Passerat Palmbach et al 2011], et tissées des relations avec des équipes de recherche étrangère (Professeur Matsumoto, Université de Tokyo, Japon). Quelques références : [Goddeke et al 2005] Dominik Goddeke, Robert Strzodka, and Stefan Turek. Accelerating Double Precision (FEM) Simulations with (GPUs). Proceedings of ASIM th Symposium on Simulation Technique, *Hill Hill D., Simulation Informatique au Service des Sciences de la Vie, Presses de l Université Blaise Pascal, 2009, 210 p. [Innocenti et al 2009] Innocenti E, Silvani X., Muzy A., Hill D., "A software framework for fine grain parallelization of cellular models with OpenMP: Application to fire spread", Environmental Modelling & Software, Vol 24, 2009, pp [Lerner 2009] Lerner, Larry "Viewpoint: Mass GPUs, not CPUs for EDA simulations", EE Times, retrieved May 3, [Owens 2007] John D. Owens, David Luebke, Naga Govindaraju, Mark Harris, Jens Krüger, Aaron E. Lefohn, and Tim Purcell. "A Survey of General-Purpose Computation on Graphics Hardware". Computer Graphics Forum, volume 26, number 1, 2007, pp [Passerat-Palmbach et al 2010] Passerat-Palmbach, J.; Mazel, C.; Mahul, A., Hill, D., "Reliable Initialization of GPU-enabled Parallel Stochastic Simulations Using Mersenne Twister for Graphics Processors", ESM 2010, 2010, [Svetlin et al 2009] Svetlin A. Manavski, Giorgio Valle (2008). "CUDA compatible GPU cards as efficient hardware accelerators for Smith-Waterman sequence alignment". BMC Bioinformatics 9 (Suppl 2) : S10. [Trapnell et al 2009] Cole Trapnell, Michael C. Schatz, Optimizing data intensive GPGPU computations for DNA sequence alignment, Parallel Computing, Volume 35, Issues 8-9, August-September 2009, Pages , ISSN [Passerat-Palmbach et al 2010] Passerat-Palmbach, J.; Mazel, C., Hill, D., "Pseudo-Random Number Generation on GP-GPU", IEEE/ACM/SCS PADS 2011, Accepted paper to be published. 71

87 Sixième session : jeudi 21 avril, 10h30 Nom : BEN TOUHAMI Prénom : Haythem Mail : haythem.ben-touhami@clermont.inra.fr Laboratoire : INRA, Unité de Recherche sur l'ecosytème Prairial (UREP) Statistiques bayésiennes et fusion de données pour des modèles d évaluation des impacts du changement climatique Directeurs de thèse : Gianni Bellocchi (UREP, INRA Clermont-Ferrand) Vincent Barra (LIMOS, Université Blaise Pascal, Clermont-Ferrand) Mails : gianni.bellocchi@clermont.inra.fr, vincent.barra@isima.fr Présentation du sujet de thèse L agriculture représente 10 à 15 % des émissions de gaz à effet de serre ce qui justifie que c est un secteur amené à jouer un rôle important dans la réduction des émissions de ces gaz. Notre objectif global étant d étudier l impact des changements climatiques dû principalement aux flux de gaz à effet de serre. L enjeu de la thèse sera de contribuer à l évaluation des incertitudes liées aux sorties de modèles d impact climatique et au paramétrage des modèles grâce à des méthodes de statistiques bayésiennes, ces méthodes basées sur le théorème de Bayes permettent de calibrer les sorties et améliorer les résultats du modèle en réduisant l incertitude liée à ces sorties. Notre démarche se basera essentiellement sur l utilisation du modèle d écosystème prairial PASIM (Riedo et al., 1998), qui a déjà été utilisé pour simuler à l échelle de l Europe la contribution des prairies au bilan de gaz à effet de serre (Vuichard et al., 2007). Au cours de cette thèse, nous envisageons d estimer, en premier lieu, les paramètres les plus influents sur les sorties du modèle, ce qu on appelle l analyse de sensibilité, pour déterminer les paramètres à calibrer. En second lieu, nous procédons à appliquer et à intégrer la calibration bayésienne avec le modèle PASIM en utilisant différents outils informatiques (algorithmes, scripts, logiciels ) et à comparer les résultats obtenus avant et après la calibration pour essayer d améliorer ces résultats et réduire l incertitude. Mots clé: changement climatique, modèles, analyse de sensibilité, calibration bayésienne, réduction d incertitude. 72

88 Sixième session : jeudi 21 avril, 10h30 Nom : BRESSON Prénom : Guillaume Mail : guillaume.bresson@univ-bpclermont.fr Laboratoire : LASMEA LOCALISATION D'UNE FLOTTE DE VEHICULES COMMUNICANTS PAR APPROCHE DE TYPE SLAM VISUEL DECENTRALISE Directeur de thèse : Roland Chapuis Mail : roland.chapuis@lasmea.univ-bpclermont.fr Présentation du sujet de thèse Dans le cadre d'applications exploitant des flottes de véhicules partiellement ou entièrement automatisés, il est nécessaire que chaque véhicule puisse connaître non seulement sa propre position, mais aussi celle de ses congénères, et ce avec une bonne précision pour des applications de guidage global par exemple. Les techniques de localisation et cartographie simultanée ont évolué de manière importante ces dernières années. Ainsi, avec une simple caméra, un véhicule est en mesure de construire une carte de l'environnement et s'y localiser. Cette technique peut donc répondre de manière efficace à la contrainte de localisation des véhicules d'une flotte. Cependant, dans ce cas, si chaque véhicule est capable de se localiser, ce sera donc tout en construisant sa propre carte, qui sera différente de celle de ces congénères. Ici, il s'agit de réaliser un SLAM (Simultaneous Localisation And Mapping) décentralisé (il n'y a pas d'intermédiaire qui collecte les données des différents véhicules) visant à faire partager les informations de chaque véhicule afin de construire une carte commune globale tout en y localisant l'ensemble de la flotte des véhicules et tout en précisant l'environnement dans lequel ils évoluent (un point vu d'un véhicule sera plus précis dès lors qu'il sera vu par un autre). Il est important de noter que le fait de préciser les points du monde aura pour conséquence de préciser la position de chaque véhicule dans le monde. De plus, les techniques de SLAM visuel peuvent être économes en termes de points d'intérêt du monde, la transmission de cette information aux congénères sera plus simple et sûre. Ce concept est intéressant car il constitue en fait un réseau de capteurs beaucoup plus efficace en terme de précision qu'un seul capteur embarqué dans un seul véhicule. Néanmoins, plusieurs problèmes compliquent cette tâche : 4. la communication entre les véhicules peut être rompue ou sujette à des latences 5. les informations échangées entre les véhicules peuvent transiter d'un véhicule A vers un véhicule C en passant par un véhicule B. Ce point, intéressant, puisqu'il permet de réaliser des communications sur de très longues distances, présente le défaut que les même informations peuvent arriver plusieurs fois sur un même véhicule (phénomène de data incest ou de rumeur) 73

89 Sixième session : jeudi 21 avril, 10h30 Des travaux récents au LASMEA ont néanmoins permis de lever ces verrous dans le cas du partage de la localisation traditionnelle (GPS) de véhicules communicants. L'objectif de la thèse sera donc d'exploiter ces travaux afin d'effectuer la localisation d'une flotte de véhicules communicants par SLAM décentralisé (les mêmes traitements sont appliqués sur chaque véhicule) en prenant en compte les contraintes réelles de l'application (pertes de communication, latences, désynchronisation des données, etc). 74

90 Sixième session : jeudi 21 avril, 10h30 Nom : GARCIA Prénom : Geoffrey Mail : geoffrey.garcia.63@gmail.com Laboratoire : LIMOS Une approche logicielle du traitement de la dyslexie : étude de modèles et applications Directeur de thèse : Vincent BARRA Mail : vincent.barra@isima.fr Présentation du sujet de thèse Les troubles cognitifs spécifiques concernent une part importante de la population mondiale, en particulier les troubles spécifiques du développement du langage, tels que la dyslexie/dysorthographie dont environ 10% des personnes sont atteintes en langue française. Dans un autre domaine de la pathologie cérébrale, les maladies neuro-dégénératives entraînent aussi des troubles de la communication ; par exemple, la maladie de Parkinson (environ patients en France) génère des troubles de l écriture majeurs à la fois pour des raisons motrices (diminution du geste d écriture) et pour des raisons cognitives (déficit de la capacité de «penser» l action et de l exprimer par des verbes). Insuffisamment reconnus, ces difficultés de communication vont poser des problèmes croissants de santé publique. Notre projet est focalisé sur la production du langage écrit. En effet le langage écrit, bien que modifié par la technologie dans son mode de réalisation (le crayon étant remplacé par l ordinateur) tient une place majeure dans la communication de chaque individu au sein des sociétés occidentales (par exemple du fait de l utilisation de plus en plus répandue d internet). A l heure actuelle, il existe un certain nombre de solutions de remédiation et/ou rééducation. Certaines de ces méthodes utilisent un support informatique. Ainsi il existe actuellement des solutions portables permettant d aider le patient à s affranchir des tâches «de bas niveau» de la production du langage écrit ou tout du moins d en faciliter la réalisation. Cependant le paramétrage ainsi que l évaluation de l efficacité de ces approches se fondent sur l observation des performances du patient ainsi que son ressenti : l adaptation de cette remédiation à un type de handicap et à chacune des personnes handicapées nécessite donc une mise au point délicate. D autre part cette aide informatique doit être fondée sur des connaissances de base relatives aux mécanismes cognitifs et neurophysiologiques qui sous-tendent les performances. La nature des fonctions étudiées est cognitive, c'est-à-dire qu elle tient à la manière dont le cerveau traite l information, ainsi que des perturbations résultant de pathologies développementales ou acquises. A ce titre il parait judicieux de combiner analyse de productions gestuelles (ou graphomotrices) et analyse de l état cérébral (offline et/ou online) du patient, permettant ainsi d associer l analyse et le traitement du signal d activité cérébrale (recueilli si possible en temps réel à l aide de techniques non invasives comme l électroencéphalographie ou EEG) aux performances recueillies grâce aux interfaces informatiques. Nous comptons ainsi pouvoir mieux diagnostiquer les déficits du patient et augmenter sensiblement l efficacité des solutions de remédiation. D autre part nous utiliserons la réalité virtuelle afin de renforcer, pour le sujet se soumettant à ces expériences, le 75

91 Sixième session : jeudi 21 avril, 10h30 ressenti d immersion au sein de l environnement virtuel. Par cette immersion nous comptons obtenir de meilleurs résultats en éloignant le patient d éventuelles distractions et/ou surcharges cognitives. Ce projet s inscrit parfaitement dans une démarche d évolution technologique dans la mesure où nous souhaitons intégrer une analyse de l activité cérébrale en EEG, ce qui actuellement ne se fait qu en laboratoire de façon plutôt laborieuse ou à destination de patients pour lesquels des solutions personnelles et artisanales sont mises en place. En effet il ne faudra pas que notre solution soit aussi complexe d utilisation que les solutions d électroencéphalogramme (même portable) actuellement sur le marché. Malheureusement il n existe pas actuellement de dispositif matériel permettant d effectuer de manière conjointe un EEG, un enregistrement des mouvements oculaires et une immersion en réalité virtuelle. Il va donc falloir développer cette interface multi-modale pour laquelle nous envisageons le cahier des charges suivant : la réalisation d électroencéphalogrammes simplement, mais efficacement à prix raisonnable une immersion en réalité virtuelle (dispositif passif ou actif) l acquisition des déplacements oculaires aussi bien sur un écran, une feuille de papier qu en réalité virtuelle la gestion d entrées-sortie audio (microphone + enceintes) ne perturbant pas l ensemble Du côté des résultats, nous étudierons les corrélations entre variations du signal EEG et performances dans des tâches de langage ainsi que les relations entre amélioration des performances à la faveur des indices et aides fournis par l environnement virtuel et changements de l activité cérébrale. Ce dispositif intégré devrait permettre de mieux caractériser les déficits des patients et d optimiser les aides qui peuvent être fournies. Ainsi nous pourrons, quasiment en direct avec les progrès du patient, réajuster le type de remédiation proposé. L analyse de la partie graphomotrice de la production écrite sera quant à elle assurée par une tablette tactile ou graphique. Le but de cette thèse sera d utiliser des technologies de pointe en matière d imagerie cérébrale, de réalité virtuelle, de traitement de données et d ergonomie afin de développer des solutions informatiques (logicielles et/ou matérielles) de nouvelle génération dans le domaine du traitement des troubles spécifiques du langage. Ce projet devrait déboucher sur la réalisation d une solution industrielle, d aide à la décision diagnostique et de remédiation, qui sera produite par la société auvergnate Logolexie/Medialexie, spécialisée dans le développement de solutions pour les troubles spécifiques du langage et handicaps de communication. 76

92 Septième session : jeudi 21 avril, 13h30 Nom : ARZAN Prénom : Aymeric Mail : a.azran@ifma.fr Laboratoire : LaMI Développement et caractérisation de matériaux composites innovants : Intégration de fonction de conductivité sur matériaux composites pour l aéronautique. Directeur de thèse : Pr. Yuri Lapusta Mail : lapusta@ifma.fr Présentation du sujet de thèse La thèse CIFRE JTT Composite / IFMA a pour but de mettre en évidence le potentiel des composites dans des applications où la conduction thermique est nécessaire ainsi que de montrer les différentes problématiques rencontrées. De nos jours, le gain de masse des équipements embarqués dans des systèmes de transport est une préoccupation croissante et un défi permanent. En effet, cet atout est synonyme de : - Diminution de la consommation du fait de la diminution de la masse embarquée (avec en corollaire la réduction d émission de gaz à effet de serre) - Augmentation de l autonomie et donc de la durée de vol - Augmentation de la charge transportable La diminution de la masse est donc devenue un objectif majeur au cours des dernières années avec l accroissement des économies d énergie et les objectifs de réduction d émission de gaz à effet de serre définis dans ACARE. En particulier, l utilisation importante de drains thermiques autour des cartes de traitements de l information, calculateurs, alimentations, met en évidence un besoin de matériaux à la fois légers et dissipateurs thermiques. Les projets R&D dans lesquels s inscrit cette thèse vise donc à obtenir un matériau composite à forte conductivité thermique dans les trois directions de l espace tout en conservant de bonnes propriétés mécaniques. Cette thèse a donc pour but d étudier les composites thermodurcissables à matrice organique ainsi que certains composites thermoplastiques, plus facilement recyclables et donc moins impactant d un point de vue environnemental. Le sujet de la conduction thermique (selon les trois axes) n est que très peu développé en regard des sujets de conduction électrique. En effet, une première étude bibliographique nous a démontré qu il n y a quasiment pas de publications sur ce thème, et il n existe actuellement aucun produit fini disponible sur le marché. 77

93 Septième session : jeudi 21 avril, 13h30 Après une phase d étude bibliographique approfondie, les travaux menés dans le cadre de cette thèse seront orientés sur les sujets suivants: - mise en évidence et quantification de l impact de l architecture 3D du renfort textile sur les propriétés physiques du matériau composite - mise en évidence et quantification de l impact des paramètres du procédé d imprégnation sur les propriétés physiques du matériau composite - mise en évidence et quantification de l impact de la résine et de ses adjuvants (nano charges,...) sur les propriétés physiques du matériau composite - étude de compatibilité entre les différentes configurations matériaux / process - mise au point de modèle numérique de comportement des matériaux développés (mécanique, thermique et électrique) Un des objectifs majeurs est de créer une base de données matériaux qui servira de support pour la conception de pièces composites thermo-conductrices dans une phase industrielle. La première phase du projet a consisté en une très large prospection de toutes les fibres disponibles sur le marché et la sélection de celles offrant les meilleures caractéristiques au niveau de la conductivité thermique. Nous avons pu constater que très peu de données thermiques sont disponibles sur les fiches techniques des fabricants de fibres. En conséquence, nous avons mis en évidence une corrélation entre le module d Young (en fait la microstructure du graphite), la densité de carbone et la conductivité thermique et donc, nous avons pu sélectionner, en l absence de données thermiques, les fibres les plus rigides. En parallèle, il a fallu développer une méthode pour mesurer les conductivités thermiques longitudinale et transversale. Pour ce faire, il a fallu concevoir un moule modulable permettant de fabriquer des éprouvettes toriques de différentes formes pour découper des disques de composites qui permettront la mesure de la diffusivité thermique du matériau et donc sa conductivité thermique homogénéisée. Une méthode inverse sera utilisée pour déterminer les propriétés intrinsèques des fibres de carbone (tenseur de conductivité thermique longitudinale et transverse). Le moule conçu permet de maîtriser les paramètres suivants : - l orientation des fibres - le taux de fibres La phase de détermination des paramètres procédés optimaux est en cours de finalisation et il va être possible de caractériser les fibres sélectionnées que nous avons approvisionnées. En parallèle, nous avons commencé la phase de modélisation et de corrélation physique/modèle en travaillant sur une fibre unitaire noyée dans un VER de résine sans couche d interface. 78

94 Septième session : jeudi 21 avril, 13h30 Nom : FETNACI Prénom : Nawel Mail : nawal.fetnaci@u-clermont1.fr Laboratoire : ISIT Segmentation discrète 3d des structures vasculaires Directeur de thèse : Christophe LOHOU Mail : christophe.lohou@iut.u-clermont1.fr Présentation du sujet de thèse 1. Contexte scientifique Bruno MIGUEL, Chirurgien Cardiaque au CHU Gabriel Montpied de Clermont Ferrand et chercheur à l ISIT (Image Science for Interventional Techniques), dirige, du côté médical, l axe «Interventional planning and assistance for ascending aorta dissections» ; Christophe LOHOU gère cet axe d un point de vue méthodologique. L objectif de cet axe est d améliorer la prise en charge des patients en phase préopératoire et d offrir une assistance peropératoire aux chirurgiens durant l intervention. 2. Contexte médical L aorte est la plus grande artère du corps humain, elle est composée de trois tuniques: l'intima, la media et l'adventice. La dissection aortique (DA par la suite) est une maladie vasculaire grave due à un clivage longitudinal de la média aortique. Une déchirure dans l intima (porte d entrée intimale) met en communication la lumière vasculaire du conduit normal du sang (vrai chenal) avec la média disséquée (flap), entraînant l irruption de sang sous pression dans la nouvelle cavité (faux chenal) (voir figure 1). Des solutions thérapeutiques, chirurgicales ou par cathétérisme ont été mises au point pour traiter la DA, mais dans le cas d'une dissection dans la partie ascendante de l'aorte, le seul traitement actuel possible reste chirurgical. La dissection aortique reste parmi les urgences cardio-vasculaires les plus graves, avec une mortalité spontanée estimée de 1% à 2% par heure pendant les premières heures. Sa fréquence serait de 5 à 10 par million d habitants et par an. Elle serait à l origine de 1% des morts subites et, malgré les progrès importants des techniques d investigation diagnostique et de la prise en charge médicochirurgicale, son pronostic reste aléatoire. 3. Problématiques de la thèse L objectif de ce travail de thèse est la réalisation d un modèle de segmentation préopératoire de l aorte dans des images médicales (images CT) de DA. Plus précisément, l obtention des chenaux, flap et porte d entrée permettrait d assister le chirurgien dans l établissement de son diagnostic ou durant l intervention ; notamment dans le cas expliqué précédemment à savoir dans la partie ascendante. Le cadre de notre recherche peut être considéré comme une niche médicale : Les DAs sont relativement peu étudiées, d un point de vue traitement d images, par rapport aux anévrysmes aortiques abdominaux et lorsqu elles le sont, elles ne concernent que la partie descendante. Les quelques travaux exploitant cette zone sont relativement récents et datent de 2006 à 2009 *cf. SAUR+. A notre connaissance, un seul travail s est porté sur le flap *cf. KOVACS+ et 79

95 Septième session : jeudi 21 avril, 13h30 présente l inconvénient d une forte hypothèse géométrique (géométrie régulière des chenaux pour l utilisation de la transformée de Hough). Les données présegmentées en phase préopératoire serviront à un recalage en phase peropératoire (ce qui fait l objet d une autre thèse en cours). 4. Méthodologie envisagée Le travail de thèse consiste alors à réaliser la segmentation complète de l aorte. Pour ce faire, nous nous sommes fixés une méthode de segmentation par modèles déformables. L étude que j ai réalisée sur ces modèles m a permis d extraire leurs avantages et leurs inconvénients et de choisir le modèle à utiliser : Fast Marching. La figure 2 illustre le résultat d un test de segmentation à base de l algorithme Fast Marching sur une coupe 2d niveaux de gris d une de nos images de dissection aortique. flap faux porte chenal d entrée vrai chenal Figure 1 : dissection aortique [1] Figure 2 : segmentation par fast marching i La segmentation envisagée doit nous offrir les éléments suivants : Détection de la paroi externe de l aorte, Détection des vrai et faux chenaux, Détection du flap, Cartographie des déchirures intimales, Distinction automatique des chenaux. 5. Originalité de la thèse Les principales problématiques de cette thèse sont : 1. La propagation du front : Lorsqu on fera la segmentation des deux chenaux, une initialisation de la méthode fast marching sera faite pour chacun d entre eux de façon isolée : les deux fronts se propageront ainsi de manière indépendante. Au niveau des bords du flap, la propagation devra être stoppée afin de le détecter. La difficulté majeure réside dans le fait que rien n empêche un front de passer d un chenal à un autre à travers les portes d entrées ; la matrice Hessienne et la topologie digitale devraient nous permettre de résoudre ce problème. 2. La distinction automatique des chenaux : Un seul travail [cf. Kovacs] concerne la distinction automatique du vrai et faux chenal. Ce travail est basé sur la différence de contraste entre les deux chenaux, ce n est pas forcément le cas dans nos images. Ce qui nous oblige à définir des critères supplémentaires pour offrir une meilleure distinction. [1] 80

96 Septième session : jeudi 21 avril, 13h30 Nom : ŁUBNIEWSKI Prénom : Paweł Mail : lubniewski@gmail.com Laboratoire : ISIT CaVITI Assistance peropératoire pour le traitement endovasculaire des dissections aortiques Directeur de thèse : Christophe Lohou (MCF HDR IUT du Puy) Mail : christophe.lohou@iut.u-clermont1.fr Présentation du sujet de thèse Problématique La problématique de cette thèse est liée au traitement endovasculaire des dissections aortiques de l aorte ascendante. L objectif est de développer une méthode de recalage de l aorte dans les images temporelles d angiographie, effectuées en cours d intervention. La dissection aortique est une maladie grave, produite par la rupture de la paroi interne de l aorte créant aussi un ou plusieurs chenaux de circulation de sang inhabituels. Le traitement endovasculaire des dissections aortiques de l aorte ascendante n est pas encore bien exploré et est une thématique pertinente pour la recherche. État de l art Tout d abord, l état de l art pour l aspect clinique des dissections aortiques a été préparé. Puis l état de l art concernant la thématique du recalage a été effectué. Il s agit des algorithmes classiques, mais aussi de ceux qui sont spécialisés pour l imagerie médicale. Ensuite, l état de l art du traitement des images médicales a été fait. Il comprend plusieurs types d acquisitions (tomodensitométrie rayons X ou TDM, angiographie, imagerie par résonance magnétique, tomographie par émission de protons) et de modalités des images. La classification des méthodes de recalage a également été affinée. Elle présente l ensemble des méthodes existantes, ses caractéristiques et propriétés, avec plusieurs types de classement. À partir de cette classification, les méthodes prises en compte pour la problématique de la thèse ont été sélectionnées. Environnement informatique Un programme de visualisation et de traitement des images médicales a été créé. Il nous permettra ainsi de tester les algorithmes développés ultérieurement et de visualiser leurs résultats. Le programme permet déjà de charger des données (fichiers DICOM, par exemple tomodensitométrie ou angiographie), et d'effectuer une visualisation selon un rendu volumique et selon les 3 vues anatomiques classiques. Du point de vue informatique, le programme utilise plusieurs bibliothèques multiplateformes telles que Qt, VTK, ITK, GDCM. Il est hébergé sur le le système de «forge» proposé par l'université d'auvergne. Son système de génération CMake indique la possibilité également de le développer sur des plate-formes multiples. Au sein du programme de visualisation, une première approche du modèle paramétrique de l aorte a été créée. C est une variante du cylindre généralisé : l axe du cylindre est défini par une suite de segments connexes, dont les extrémités sont les centres de cercles de rayons 81

97 Septième session : jeudi 21 avril, 13h30 variables. Cette approche permet de construire une forme englobante autour de l aorte présente dans les images tomodensitométriques. La bibliothèque ITK (Insight Segmentation and Registration Toolkit) a été envisagée pour le traitement des images et l implémentation des algorithmes. Plusieurs tests des méthodes de recalage existantes dans ITK ont été effectués. Cela a permis de favoriser certaines parties de la bibliothèque ITK (en fonction de ses points forts concernant les méthodes de recalage, mais aussi en fonction des points faibles comme ceux de la documentation relativement pauvre pour un traitement en particulier ou de la difficulté d'implémentation). Résultats déjà obtenus sur le recalage Une interface permettant les tests de différentes méthodes de recalage a été intégrée dans le programme. Après avoir choisi la méthode et ses paramètres et avoir déplacé l une des images (représentée par une forme tubulaire), le programme effectue la mise en correspondance des repères jusqu à convergence. Axes de recherche prévus pour la suite de la thèse La chaîne de traitement est constituée des tâches suivantes : 1. élaboration d un système de changement des repères : le patient (préopératoire) le volume TDM (préopératoire) le modèle de l aorte l aorte dans une séquence d angiographie (peropératoire) le capteur d angiographie (peropératoire) le patient (peropératoire) ; 2. proposition d un modèle paramétrique de l aorte étant à la fois suffisamment élaboré (capable de prendre en compte les déformations en jeu) et efficace, par exemple pour des calculs rapides d intersections ; 3. recalage du modèle de l aorte avec la séquence des images d angiographie peropératoires ; 4. définition et détection des déformations de l aorte dans le temps (causées par le flux sanguin) : il faudra exprimer les mouvements de l aorte en excluant des déplacements non conformes à l anatomie. Intérêt de la thèse L un des problèmes les plus importants de cette thèse concerne la mise en correspondance du modèle de l aorte (en 3 dimensions) avec l image d angiographie («plate», en 2 dimensions). L aorte dans les images peropératoires n est pas visible : le seul moyen de la voir est d introduire du produit de contraste, mais ce n est possible que pour un bref instant (à cause de la toxicité du produit de contraste). L une des innovations de cette thèse consiste à reconstruire la forme de l aorte par fusion de plusieurs images de la séquence d angiographie par extraction (par ordinateur) du produit de contraste passant à l intérieur de l aorte. C est un problème non-trivial à cause des déformations continues de l artère. La première étape du recalage devrait rapidement donner des résultats approximatifs. Une deuxième piste envisagée concerne la définition de descripteurs de forme pouvant aider les opérations de recalage ; il s agit d une approche tout à fait originale dans ce cadre. La correspondance entre les propriétés de la forme obtenue à partir de l angiographie et les projections du modèle de l aorte 3D pourrait accélérer le calcul de la transformation initiale entre les images pré- et peropératoires. Le recalage précis, quant à lui, sera effectué à partir des reconstructions numériques de radiographie (DRR). Pour cela, on s inspirera des algorithmes de la simulation 2D/3D (radiographies), implémentés par S. Aouadi (durant sa thèse à l ERIM). Enfin, pour détecter les déformations de l aorte dans les images successives d angiographie, des algorithmes de détection de mouvement seront mis en œuvre. À partir du mouvement «global» (dans l image d angiographie), il faudra isoler le mouvement propre de l aorte (2D), puis trouver la déformation 3D du modèle. 82

98 Septième session : jeudi 21 avril, 13h30 Nom : ROUGÉ Prénom : Charles Mail : charles.rouge@cemagref.fr Laboratoire : Cemagref LISC VIABILITÉ ET RÉSILIENCE : QUEL APPORT DE LA MODÉLISATION MATHÉMATIQUE ET INFORMATIQUE? Directeur de thèse : Dr. Guillaume Deffuant Mail : guillaume.deffuant@cemagref.fr Présentation du sujet de thèse La résilience d'un système complexe renvoie à sa capacité: A) de supporter des perturbations sans perte de fonctions ni changement total d'organisation, ou B) de rétablir rapidement ces fonctions et cette organisation dans le cas où elles seraient affectées. Cette notion a été appliquée avec succès à de nombreux systèmes sociaux et environnementaux. La théorie de la viabilité est, elle, un formalisme mathématique adapté à la gestion de tels systèmes. Son objet est de définir les stratégies de contrôle qui permettent à un système dynamique de rester dans un ensemble d'états désirables. Autrement dit, elle permet de définir les moyens d'atteindre un objectif (ici, la résilience) sur le long terme. Aussi intéressante cette théorie soit-elle, il reste des obstacles à franchir pour la rendre pratique à utiliser dans de très nombreuses applications. Les deux principaux problèmes ainsi identifiés sont: 1) ce formalisme, tel qu'il est, ne permet pas de prendre explicitement en compte les notions de risque, mais aussi d'incertitude (que cette dernière soit liée au modèle ou aux mesures effectuées sur un système) et 2) la "malédiction" de la dimension ne permet de prendre en compte qu'un nombre limité de variables d'état à la fois. Différentes pistes sont envisageables pour répondre au type de difficulté 1). Par exemple, le couplage de la théorie de la viabilité avec des filtres de Kalman non-linéaires pourrait permettre d'incorporer les différentes sources d'incertitude, tandis que l'introduction de méthodes fiabiliste pourrait aider à envisager les pires configurations pour lesquelles la gestion de systèmes sociauxenvironnementaux doit trouver des solutions. Mais cela suppose d'abord l'existence d'un algorithme très précis et efficace pour calculer (au moins en dimension réduite) des surfaces délimitant les états viables dans différents cas. Un tel algorithme apporterait également de meilleures réponses que les algorithmes de viabilité existants lorsque le système est de dimension plus élevée, apportant ainsi un début de solution au problème 2). C'est donc par là que commence mon travail de thèse de doctorat. 83

99 Septième session : jeudi 21 avril, 13h30 Nom : SAMACA MARTINEZ Prénom : José Ricardo Mail : samacaricardo@gmail.com Laboratoire : LaMI Analyse thermomécanique par thermographie infrarouge d élastomères indemnes et entaillés sous chargements cycliques Directeur de thèse : Jean-Benoît Le Cam Co-encadrants : Xavier Balandraud et Evelyne Toussaint Mail : lecam@ifma.fr Présentation du sujet de thèse I/ Contexte Dans le cadre de ses études sur les performances des pneumatiques en roulage stationnaire, Michelin s intéresse particulièrement au comportement des élastomères chargés soumis à des sollicitations cycliques. Du fait de ses propriétés viscoélastiques et évolutives, l élastomère dissipe une énergie qui participe à son échauffement ainsi qu à celui de son environnement. En fonction des conditions d usage, l élévation de température du pneumatique peut impacter fortement ses performances, ainsi que la tenue en fatigue de ses constituants caoutchoutiques. Pour bien orienter les choix de conception du matériau, il importe donc de maîtriser les phénomènes de dissipation et d échauffement activés à la fois dans le matériau indemne et au voisinage des fissures. II/ Objectifs L objectif de la thèse est de caractériser le comportement thermomécanique des milieux élastomères. Dans un premier temps, il s agira de mettre en œuvre un protocole expérimental permettant d obtenir les champs cinématique et thermique en surface d éprouvettes indemnes soumises à des sollicitations cycliques de nature diverse. Ces mesures couplées seront réalisées à partir de dispositifs expérimentaux originaux développés au sein du Laboratoire de Mécanique et Ingénieries et devront permettre de caractériser le comportement thermomécanique des matériaux fournis par la manufacture Michelin. En particulier, le traitement numérique des mesures dans le cadre théorique de la thermodynamique des processus irréversibles devra permettre de calculer les sources de chaleur en tout point de la surface observée. Les résultats seront ensuite comparés aux prédictions réalisées à partir du code de calcul interne à l entreprise. Dans un second temps, le protocole expérimental s appliquera à des essais sur éprouvettes entaillées et il s agira de calculer de nouveau les sources de chaleur produites au cours d essais cycliques, mais en pointe de fissure. L enjeu dans ce cas est multiple, d une part réaliser des mesures de champ à l échelle locale avec de grands déplacements des points observés au voisinage de la fissure, d autre part évaluer les contributions relatives des phénomènes dissipatifs aux sources de chaleur avec, au premier ordre, la viscoélasticité et l endommagement. Une modélisation du fonctionnement de la zone endommagée pourra constituer l aboutissement de cette thèse. III/ Déroulement La thèse venant de débuter, les premiers travaux ont consisté à prendre en main les moyens d analyse expérimentaux et de calculs formels. 84

100 Septième session : jeudi 21 avril, 13h30 Nom : SOUIDI Prénom : Kaies Mail : kaies.souidi@gmail.com LGCB : Laboratoire de Génie Chimique et Biochimique Effet de la configuration des agitateurs et de la rhéologie du liquide sur la dispersion du gaz: Etude expérimental et numérique Directeur de thèse : Gholamreza Djelveh Mail : djelveh@univ-bpclermont.fr Présentation du sujet de thèse Les produits foisonnés ou mousses occupent une place de plus en plus importante dans l'industrie, cosmétique et agroalimentaire. En modifiant les propriétés rhéologiques et l apparence du produit initial, l introduction de gaz lui apporte corps et souplesse, lui donnant par exemple un aspect plus homogène et une distribution plus uniforme de la matière. Ils sont donc un débouché prometteur pour les industries cosmétiques et alimentaires. Les émulsions liquides utilisées pour le foisonnement sont généralement complexes et de nature non-newtoniennes. Elles contiennent différents ingrédients, tels que protéines, émulsifiants, matières grasses et hydrocolloïdes. Leurs comportements rhéologique et interfacial dépendent d une part de leur composition et d autre part des paramètres de procédé. Peu d études concernent l effet combiné de ces paramètres lorsque le foisonnement est réalisé en continu. En effet quel que soit le mode de dispersion du gaz, sans l action des macromolécules capables d abaisser la résistance à la rupture des interfaces gaz-liquide, la dispersion de gaz ne présentera jamais une structure de mousse stable. En revanche, une stabilisation trop rapide des interfaces s opposera aux effets dispersifs de l action mécanique et bloquera la dispersion. La complexité de l opération de foisonnement résulte principalement de la difficulté à contrôler les cinétiques de ces deux étapes pour une formulation donnée lors d un changement de conditions opératoires ou d extrapolation. Or par exemple les appareils généralement utilisés pour réaliser le foisonnement sont soit du type rotor-stator (cisaillement élevé, faible temps de dispersion) soit du type échangeur à surface raclée (cisaillement faible, temps dispersion important). Là aussi, la relation entre le taux de cisaillement et la dispersion du gaz n est toujours pas définie. Par ailleurs, Ces derniers sont fortement consommatrices d'énergie, bien qu'il n'existe aucune preuve qu'ils correspondent à la technologie optimale pour la dispersion du gaz. Dans le cadre de cette thèse, notre objectif est d une part, d étudier l effet de la géométrie du système de dispersion sur les propriétés des mousses et les performances en termes d efficacité de foisonnement. D autre part, nous intéresserons aux mécanismes de rupture et de dispersion à l échelle des bulles. Le dispositif expérimental est une colonne cylindrique mécaniquement agitée de 35 mm de diamètre et 40 cm de hauteur. L entrefer entre le système d agitation mobile et la paroi de la colonne est de 1 mm. Le système d agitation est constitué de pales à angle droit de 33 mm de diamètre et 10 mm de longueur axiale. Les paramètres géométriques que nous allons faire varier sont le nombre de pales (np), l angle entre deux pales consécutives (θ) et leur écartement (δ). L injection du gaz et de liquide est réalisée en co-courant au bas de la colonne. Des débitmètres permettent de mesurer le débit de gaz (G) et de liquide (L). La fraction de gaz présente dans la colonne ( th G G L ) est variable. En sortie de la colonne, le taux de vide de la mousse ( ( L F ) ) est mesuré par densimétrie, permettant ainsi de déterminer l efficacité de L foisonnement ( Eff / ). La distribution de taille et le diamètre moyen de Sauter (d th 32 = Σd 3 i /Σd 2 i ) est déterminée par une méthode d analyse d image par microscopie. Ensuite par une simulation numérique (CFD) déterminer les champs de gradients de vitesse et gradient de pression pour chaque configuration. L objectif est de voir comment il est possible de 85

101 ε/εth d32 (µm) Septième session : jeudi 21 avril, 13h30 relier les informations obtenu à l échelle locale aux résultats expérimentaux à l échelle du procédé. Pour mieux comprendre le mécanisme de rupture des bulles nous avons associé à ces démarches une approche optique dont l objectif est de visualiser la rupture d une bulle isolée lorsqu elle est soumise à une contrainte de cisaillement. L objectif final de cette étude est de concevoir un outil mieux adapté que ceux utilisés actuellement au foisonnement des émulsions pour les applications alimentaires ou cosmétiques. A titre d exemple les résultats expérimentaux et numériques pour les quatre configurations sont reportés sur les figures 1 et 2. 1,2 δ = 0 mm; θ = 30 δ = 5 mm; θ = 30 δ = 0 mm; θ = 0 δ = 5 mm; θ = 0 25 δ = 0 mm; θ = 30 δ = 5 mm; θ = 30 δ = 0 mm; θ = 0 δ = 5 mm; θ = 0 1,0 20 0,8 15 0,6 10 0,4 5 0,2 0, N (tpm) N(tpm) a) b) Fig.1. Effet de la configuration δ (distance entre deux pales) et θ (angle entre deux pales) sur : (a) Efficacité de foisonnement (b) Diamètre moyen des bulles. (Nombre de pales, np = 7 ; G/L = 1/3). Les résultats montrent que l angle θ entre les pales le plus favorable à l incorporation du gaz est 30. Par contre en écartant les pales, l efficacité de dispersion du gaz diminue (Fig.1a). Excepté pour la configuration (δ = 0 mm et θ = 30 ), on remarque que l efficacité diminue avec la vitesse de rotation N (Fig 1.a). En conclusion cette étude a permis de montrer qu il existe une géométrie optimale pour favoriser la dispersion du gaz. Il s agit alors d une configuration comportant 7 pales sans écartement (δ = 0 mm) mais avec un angle θ = 30 entre deux pales successives. Par ailleurs nos résultats montrent (Fig1.b) que la configuration des pales n a pas d effet sur le diamètre moyen de sauter (d 32 ). Ce diamètre est également peu sensible à l augmentation de la vitesse d agitation. Des expériences effectuées sur un système couette dans une gamme de taux de cisaillement comparable à celle de nos systèmes d agitation ont montré également peu de sensibilité de diamètre moyen avec la vitesse de rotation. a) b) c) d) Fig. 2. Contours de gradient de cisaillement (s -1 ) à un niveau axial de 50 mm de la base de la colonne de foisonnement ; Re = 24: a) δ = 0 mm ; θ = 0 ; b) δ = 0 mm ; θ = 30 ; c) δ = 5 mm ; θ = 0 et d) δ = 5 mm ; θ = 30. Parallèlement à ces expériences nous avons entrepris une étude numérique (CFD) en utilisant le logiciel Fluent (en collaboration avec Polytechnique de Bucarest et l université de Nantes) dans le but d avoir accès aux profils locaux de la contrainte de cisaillement dont un exemple est présenté cidessous (Fig. 2). Cette étude donne une description détaillée des champs de pression, de vitesse, de taux d élongation et de taux de cisaillement. Elle met en évidence des différences hydrodynamiques claires entre les géométries testées. Une variation axiale importante de la pression a été enregistrée lorsqu on écarte les pales. 86

102 Septième session : jeudi 21 avril, 13h30 Nom : JANNET Prénom : Basile Mail : basile.jannet@orange.fr Laboratoire : LASMEA EVALUATION DE L INFLUENCE DE LA NON-STATIONNARITE DU MILIEU DE PROPAGATION DANS LE PROCESSUS DE RETOURNEMENT TEMPOREL (RT) PAR LA METHODE DE COLLOCATION STOCHASTIQUE Directeur de thèse : Pierre Bonnet Mail : pierre.bonnet@lasmea.univ-bpclermont.fr Présentation du sujet de thèse Cette thèse s inscrit dans le cadre d une collaboration CEA-DAM (Commissariat à l Energie Atomique et aux Energies Alternatives Direction des Applications Militaires)/LASMEA (Laboratoire des Sciences et Matériaux pour l Electronique et l Automatique). Mon travail est basé principalement au LASMEA, équipe CEM (Compatibilité ElectroMagnétique), groupe MaTELEC mais aussi sur le Centre d Etudes de Gramat (Lot). Ma thèse est encadrée par Pierre Bonnet / Sébastien Lalléchère (LASMEA) et Bernard Pecqueux / Jean-Christophe Joly (CEA). A l origine développé au Laboratoire Ondes et Acoustique (LOA) *Fink+, le Retournement Temporel (RT) est un procédé étudié initialement pour focaliser des ondes acoustiques en temps et en espace. Depuis quelques années il est aussi utilisé en électromagnétisme. Le RT consiste à émettre un signal à partir d une source, à l enregistrer à l aide d un capteur, à inverser chronologiquement cet enregistrement, puis à le réinjecter à partir du point de réception. Le signal réinjecté possède des propriétés très intéressantes [Cozza] (notamment la refocalisation au point source initial) avec des applications dans le domaine médical, les télécommunications, ou encore dans le domaine militaire (entre autres). Si par définition les étapes du processus de RT nécessitent la conservation des conditions exactes du milieu de propagation, en pratique il est impossible de contrôler tous les éléments d une expérimentation (caractéristiques physiques, géométries, ). Une approche classique pour prendre en compte ces incertitudes est d utiliser une méthode de type Monte Carlo. Le problème étant sa convergence lente en n (1/2) (n étant la taille de l échantillon considéré). On peut alors se tourner vers la méthode de collocation stochastique qui donne de bons résultats avec seulement quelques itérations. L objectif de cette thèse est d analyser les impacts des incertitudes entourant les différents paramètres caractéristiques du processus de RT électromagnétique avec une utilisation optimale de la méthode de collocation stochastique. Méthodes et approche suivie 87

103 Septième session : jeudi 21 avril, 13h30 Après avoir vérifié numériquement, à l aide d un code FDTD (Finite-Difference Time-Domain) [Yee] les propriétés du RT (en particulier les focalisations spatiales et temporelles), on s intéresse aux différents aléas qui peuvent affecter ce dernier. Les éléments qui peuvent varier entre les étapes du RT sont de plusieurs types. Si on considère par exemple une cavité dans laquelle on place un émetteur, un récepteur, des objets, les propriétés physiques du milieu de propagation peuvent changer, celles des objets présents dans le milieu également. En effet, un objet métallique peut subir des déformations dues aux changements de températures, on peut imaginer également des modifications du dispositif expérimental par les opérateurs (déplacements des équipements) par exemple. Ce dernier cas de figure a fait l objet des premiers développements. Ainsi, afin d intégrer correctement les incertitudes liées à la position de la cible, il est nécessaire de disposer d un outil numérique permettant de fixer précisément ses positions. Cette fonctionnalité n existe pas par défaut dans la méthode FDTD classique *Yee+ et l implémentation d une technique de maillage adaptatif a été nécessaire. La minimisation des erreurs numériques s est révélé un point crucial quant aux buts visés, à savoir l intégration d incertitudes dans ces calculs déterministes. La référence étant obtenue à partir de simulations Monte Carlo (avec les inconvénients rappelés précédemment quant à sa vitesse de convergence), les travaux réalisés visent à comparer ces résultats avec les données obtenues pour seulement quelques simulations par la technique de collocation stochastique. Travaux à venir Dans un premier temps l espace de travail s est limité à une cavité réverbérante (pour capter un maximum d information lors de l élaboration du modèle). Pour la suite, différentes configurations peuvent être envisagées : espace libre, Chambre Réverbérante à Brassage de Modes (CRBM), espace libre avec réflecteurs, D autres types d aléas pourront aussi être examinés : matériaux utilisé pour les divers objets, leurs dimensions, les propriétés du milieu, Enfin, d autres méthodes de prise en compte des incertitudes pourront être considérées. Quelques références *Fink+ M. Fink, Time reversal of ultrasonic Fields: part I. Basic principles, IEEE Trans. Ultrason. Ferro-elect. Freq. Control, Vol. 39, No. 5, pp , Sept [Yee] K.S. Yee (1966). Numerical solution of initial boundary value problems involving Maxwell's equations in isotropic media. IEEE Transactions on Antennas and Propagation 14: *Chauviere+ C. Chauviere, J. S. Hesthaven, and L. Lurati. Computational modeling of uncertainty in time-domain electromagnetics, SIAM J. Sci. Comp., vol. 28, pp , *Cozza+ A. Cozza. Increasing peak-field generation efficiency of reverberation chamber, ELECTRONICS LETTERS, Jan. 2010, Vol. 46, No

104 Septième session : jeudi 21 avril, 13h30 Nom : LLANCA Prénom : Daniel Mail : daniel.llanca@polytech.univ-bpclermont.fr Laboratoire : LaMI Mise au point d une méthodologie de diagnostic et de qualification des ouvrages enterrés en service Directeur de thèse : M. Pierre BREUL Mail : pierre.breul@polytech.univ-bpclermont.fr Présentation du sujet de thèse Les tunnels anciens, ouvrages le plus souvent maçonnés, présentent des désordres pour la plupart liés à leur évolution depuis leur mise en service et conditionnés par facteurs divers. En effet, les informations dont nous disposons sont majoritairement issues des documents synthétiques de construction de l'époque et sont donc à prendre avec réserve (hors-profil, adaptation locale à la géologie...) sauf à mener des opérations de reconnaissances destructives. Il est donc nécessaire de développer une méthodologie permettant de fournir les caractéristiques et l état général de ces ouvrages. L entretien et la pérennisation des infrastructures existantes sont des enjeux majeurs des gestionnaires d ouvrages, pour pouvoir mener ces tâches à bien, les gestionnaires ont un réel besoin de qualification de l état de ces ouvrages. Il existe très peu de méthodes opérationnelles permettant de qualifier l ensemble des composants des ouvrages enterrés. Les méthodes de caractérisation actuelles sont le plus souvent, du fait des contraintes inhérentes à ce type d ouvrages (ouvrages en service et accès contraignants), qualitatives, globales et intégratives dans le sens où elles analysent la réponse de l ouvrage pris dans son ensemble. Afin de pouvoir développer des méthodes de diagnostic et d évaluation de l état réel de ces ouvrages plus quantitatives, il est donc nécessaire de pouvoir mieux caractériser l état de leurs différents composants (structure, contact et encaissant) et de leurs interactions. Ces travaux réalisés actuellement dans le cadre du projet ANR MéDiTOSS, en vue d obtenir une caractérisation géométrique, physique et mécanique des différents composants de ces ouvrages à partir d essais en place. La caractérisation proposée, s appuie essentiellement sur les données issues d essais géophysiques (radar et impédance) et sur des sondages géoendoscopiques et pénétrométriques. Sur la base de campagnes d essais réalisées dans des stations du métro parisien en liaison avec la RATP, nous présentons les travaux effectués afin d évaluer : (1) l état de dégradation et de résistance de la structure et (2) les caractéristiques physiques et mécaniques de l encaissant. Cette évaluation est réalisée à partir d une étude comparative des résultats d essais endoscopiques et pénétrométriques et d essais sur carottages. MOTS-CLÉS : maçonnés, désordres, caractérisation, interface, maintenance, diagnostic. 89

105 Huitième session : jeudi 21 avril, 16h Nom : DAVIS Prénom : Marc Mail : marc.davis@isima.fr Laboratoire : LIMOS / LaMI MODELISATION, CONCEPTION ET REALISATION D'UN VEHICULE AGILE A QUATRE ROUES, ARTICULE ET MOTORISE, CAPABLE DE RETOMBER SUR SES ROUES SUITE A UNE PHASE BALISTIQUE (ROBCAT) Directeur de thèse : M. Alain Quilliot (LIMOS) / M. Grigore Gogu (LaMI) Mail : quilliot@isima.fr / grigore.gogu@ifma.fr Présentation du sujet de thèse Description générale : Suite à l expérience et à la modélisation des sauts à moto-cross, il a été envisagé de contrôler, théoriquement et pratiquement, la vitesse de rotation du système Pilote+Moto autour de son axe transversal (tangage) au cours de la phase aérienne du saut. Un premier prolongement des résultats de ce travail visait à généraliser le modèle mécanique 2D en 3D, en vue de l appliquer à un véhicule à quatre roues et de contrôler également la vitesse de rotation autour de son axe longitudinal (roulis). Cependant, il est probable que ce modèle 3D ne permette pas au véhicule d atterrir sur ses quatre roues dans tous les cas de figure (ex : tremplin avec dévers). Pour cela, il faudrait que le véhicule puisse se comporter comme un chat, afin de retomber sur ses roues en jouant sur les moments cinétiques partiels des trains avant et arrière. Une solution passerait par l ajout de degrés de liberté supplémentaires dans le châssis entre les trains avant et arrière du véhicule. Énoncé du sujet : L objectif de ce projet consiste à modéliser, concevoir et réaliser un véhicule articulé robotisé à quatre roues motrices indépendantes (ROBCAT), capable de se déplacer à grande vitesse (10 m/s) en tout-terrain et de retomber à l endroit sur ses roues en cas de décollage intempestif sur un relief de profil standardisé (Ex : triangulaire, tabulaire, sinusoïdal, etc.). Ce véhicule aurait donc la capacité d effectuer un équivalent de la "vrille du chat" (cat twist), à partir des informations fournies par des capteurs embarqués mesurant les vitesses de rotation des quatre roues et les orientations absolues et relatives des trains avant et arrière. Exemples de manoeuvres : Il est attendu que le ROBCAT puisse réaliser les figures suivantes, par exemple : Sauts cabrés ou piqués, suivant que les roues avant et arrière seront accélérées ou freinées en vol (décollage d un tremplin de pente inférieure à 45 ) ; Salto arrière : décollage d un tremplin de pente supérieure à 45 ; Sauts avec vrille longitudinale : décollage d un tremplin en dévers ou irrégulier Perspective : Une extension de ce projet/sujet pourrait consister à intégrer les suspensions des roues dans le modèle mécanique et sur le véhicule ROBCAT, afin d étudier leur influence au cours de la phase précédent le décollage, et donc sur le moment cinétique du ROBCAT au début de la phase aérienne. Cette influence pourrait, par exemple, se concrétiser par la réalisation de salto avant. 90

106 Huitième session : jeudi 21 avril, 16h Applications : ROBCAT pourrait être facilement utilisé pour toute application nécessitant un engin roulant rapidement dans un milieu naturel faiblement structuré : exploration, surveillance, secours d urgences. Communications : A Review of Self-Righting Techniques for Terrestrial Animals : Communication présentée oralement à l'occasion de l'international Workshop for Bio-Inspired Robots à Nantes, du 6 au 8 avril Cette communication présente une partie de la recherche bibliographique préliminaire de ce projet. Elle s'intéresse particulièrement aux solutions employées par les animaux et les hommes pour pouvoir s'assurer de maintenir une orientation correcte par rapport au sol, notamment lors de phases balistiques. Elle décrit les manoeuvres effectuées avant de quitter le sol, les effets des mouvements des membres en phase aérienne, les procédés de retournement sans vitesse angulaire initiale (tels que ceux employés par les chats pour se retourner lors de leur chute), puis les solutions de derniers recours employés une fois le contact au sol rétabli. Modélisation du comportement en roulis d'un véhicule capable d'auto-retournement en phase balistique : Communication acceptée pour le Congrès Français de Mécanique à Besançon, du 28 août au 2 septembre Un modèle plan du comportement d'une maquette de véhicule est présenté, dans le but d'évaluer les ordres de grandeur d'efforts à transmettre par des actionneurs pour la correction d'orientation en roulis. La mise en équation formelle du problème est présentée, afin d'identifier avec précision les grandeurs responsables de la réorientation du véhicule. L'utilisation de roues de réaction et de gyroscopes est envisagée afin de valider la faisabilité technique de telles solutions. Ensuite, il est mis en évidence qu'un couplage fort existe entre les mouvements de roulis et de lacet. En effet, le moment cinétique des roues du véhicule induit lors de ces mouvements un effet gyroscopique interdisant leur découplage. Il est conclu qu'un modèle tridimensionnel est indispensable pour étudier et contrôler le mouvement du véhicule lors des phases balistiques. Experimental evaluation of self-righting opportunities for a high-speed terrestrial vehicle in ballistic phase : Résumé soumis pour le congrès Climbing and Walking Robots and the Support Technologies for Mobile Machines (CLAWAR2011) à Paris, du 6 au 8 septembre Cette étude expérimentale se focalise sur le comportement réel du véhicule retenu comme plateforme de prototypage, et sur les opportunités de correction d'orientation de cette plateforme dans l'état actuel. Une caméra rapide est utilisée pour étudier les mouvements du véhicule lors de différents essais. La faisabilité de la correction en tangage en modifiant la vitesse angulaire des roues est validée, l'opportunité d'utiliser le braquage des roues en rotation pour induire un couple gyroscopique de roulis est considérée, et le couplage mis en évidence analytiquement entre les mouvements de roulis est de lacet est observé. Financement : Ce sujet de thèse bénéfice d un financement sur trois ans par la Région Auvergne. Encadrement : Ce projet a débuté en novembre 2010 est se déroule au sein de deux laboratoires du Campus des Cézeaux à Clermont-Ferrand. Au LIMOS, le projet est dirigé par M. Alain Quilliot, et est encadré par M. Christophe Gouinaud et M. Philippe Vaslin. Au LaMI, il est dirigé par M. Grigore Gogu, et est encadré par M. Jean-Christophe Fauroux. 91

107 Huitième session : jeudi 21 avril, 16h Nom : MARY Prénom : Arnaud Mail : mary@isima.fr Laboratoire : Limos Problèmes de générations: Cas des dominants d'un graphe Directeur de thèse : Lhouari Nourine Mail : nourine@isima.fr Présentation du sujet de thèse On s'intéresse à des problèmes de génération d'objets combinatoires, notamment à celle de structures liées aux graphes. Un graphe G, est la donnée d'un couple d'ensemble V et E. Le premier est appelé ensemble de sommet et le deuxième est appelé ensemble d'arête. Chaque arête peut être vue comme un couple de sommet, si le graphe est non orienté, ou comme un tuple de deux sommet, si le graphe est orienté. Graphiquement on peut voir un graphe comme un ensemble de points reliés ou non selon que l'arête appartienne ou pas à E. Les graphes, ainsi que les structures et problèmes qui y sont associés, sont largement étudier depuis des décennies. Les problèmes classiques liés aux graphes, consistent souvent, étant donné un graphe G, à trouver le plus grand ou le plus petit sous graphe de G, vérifiant telle ou telle propriété. Ces problèmes, pour la plupart difficiles, reviennent à exhiber une structure ou à donner la taille maximale ou minimale de cette structure. Nous nous intéressons, pour notre part, étant donné un graphe G, à générer tous les sous graphe vérifiant une certaine propriété et d'étudier la complexité de ces problèmes. Plus particulièrement, on s'intéresse à la génération des dominants minimaux. Pour un graphe G=(V,E), un dominant est un sous ensemble D de sommets, tel que tout sommet du graphe est soit dans D, soit voisin d'un sommet de D. Un dominant est dit minimal si aucun sous ensemble de D n'est dominant. La question principale est de déterminer la complexité algorithmique de ce problème, c'est à dire de savoir si l'on peut trouver un algorithme efficace pour générer tous les dominants minimaux. Pour l'instant, nous savons seulement que ce problème est plus simple qu'un autre problème largement étudié mais dont la complexité exacte est toujours inconnue à ce jour (La génération des transversaux d'un hypergraphe). Nous avons cependant proposés des algorithmes pour des cas particulier dans lesquels le problème peut être résolu efficacement. Nous avons également étudié d'autres problème fortement liés à celui de la génération des dominants, tel que les dominants connexes, les dominants totaux, ou encore les dominants contenant un ensemble. Nous avons ainsi pu déterminer, contre toute attente, que ces problèmes sont algorithmiquement difficile, et qu'il n'existe donc pas d'algorithme efficace pour les résoudre. 92

108 Huitième session : jeudi 21 avril, 16h Nom : MOHAMAD Prénom : Baraa Mail : baraa. Issa.mohamad@gmail.com Laboratoire : LIMOS Medical Database Management on the Cloud Directeurs de thèse : Farouk Toumani, Le Gruenwald Encadrant : Laurent D Orazio Mail : ftoumani@isima.fr, laurent.dorazio@isima.fr INTRODUCTION In the health care industry, the management of ever-increasing medical data has become a real challenge. The outgrowth of digital medical imaging techniques, the appearance of new modalities and the longer retention of medical records proposed by medical standards authority, are all driving to a dramatic increase in storage and management needs which in turn lead to scalability, maintenance and consistent retrieval performance problems with the in-house picture archiving system (PACS), resulting in significant cost increment issue, where the cost of an exam is mostly due to its storage, which is about 75% of the total cost. Amongst medical data records, we are mainly interested in the management and storage of digital imaging and communications in medicine (Dicom), this standard is developed by the American College of Radiology (ACR) and National Electrical Manufacturers Association (NEMA), with the primarily objectives of: 1) exchanging digital image information between health care services providers, 2) integrating scanners, servers, workstations and printers regardless of device manufacturer and 3) using controlled vocabulary in this domain. Dicom file contains the medical image with all the medical records related to it (i.e. patient information, modality, etc.), The growing requirements of continuous developing web-scale applications which need to manage a huge data size and perform a complex statistical studies and analysis on this extremely large data, result in the birth of the cloud computing notion. The idea of cloud computing is to create an Internet-based computing infrastructure, whereby shared servers provide resources, software to computers and other devices on demand. Simply your Gmail account is a cloud service. With the cloud, you don t need to think about buying and installing new servers, hiring a whole team of experts to maintain your system, updating your software and antivirus, all this operations are already included in the cloud services. In addition, you don t have to anything, you simply can rent whatever you want at any time, so that you pay only as you go. Health care providers are now paying attention to the emergency of managing and storing their massive data, to avoid the current operations of buying new servers and storage systems, installing them onsite, because these operations are very time-consuming and expensive solutions. In addition, the cost of the recovery infrastructure, experts salaries etc. will be more and more challenging and will exceed expectations of health care providers. So due to this extremely huge data size, to be stored, managed and consulted, appears the importance of investing the power of cloud-based systems which provide promising solutions of cost-effective, disaster recoverability, accessibility, manageability, and availability. Examples of such cloud services providers are Amazon s Simple Storage Service (S3) which provides a data storage service, Google s File System GFS*1+, Hadoop File System HDFS*2+; which are designed to support large-scale data. In order to query and retrieve data placed on the cloud; companies have 93

109 Huitième session : jeudi 21 avril, 16h developed high-level query languages on top of MapReduce[3] environment such as Pig by yahoo[4], DryadLINQ[5] and Scope[6] by Microsoft, Hive[7] by Facebook, Jaql[8] by IBM, Sawzall[9] by Google. The goal of this thesis is to develop a cloud-based system dedicated to the management and storage of medical data especially Dicom images. Achieving this goal means that our system should meet the following objectives: 1- Integrate Dicom images on the data management system deployed on the cloud. 2- Reduce the cost of medical records storage by proposing an efficient storage model and studying the existing data storage system services proposed by cloud services providers, in order to choose the infrastructure the most adapted and cost-efficient to our constantly growing data. 3- Optimize existing query languages and storage systems and adapt it to this particular type of data where the images and the information are stored in the same file. 4- Provide a convivial and reliable search and retrieving techniques; so that, physicians can perform efficient and complicated searches easily. 5- Propose a high level of quality of service by providing the facility of querying large amount of data in clouds from mobile devices at any time. To achieve these objectives, we faced multiple problems for which need deep to reach the desired system. In the next section we highlight the problem definition of this thesis. DICOM ON THE CLOUD In order to understand the general problematic of this thesis let s take this scenario: supposing that in a giving hospital, there are 100 Dicom images produced every day, and knowing that the average size of Dicom Image is 100 MB so we need 10 GB of storage space each day! So within 5 years, there will be 182,500 images which need approximately 18 TB of storage space!. Health care providers develop increasingly new digital imaging technologies that increase the resolution of images to enhance patient care and diagnosis operations; these improvements are unfortunately associated with a disaster growth of image size. In addition, new medical devices appear constantly, resulting in new image modalities, so new data to be added and controlled and more images per study to be stored. Moreover most of medical standards impel health care providers to store medical records for a long period (7 years minimum). On the other hand, Dicom images are heterogeneous, because some tags are mandatory for a given modality and are not for another modality. So it is difficult to predict which tags will be available or not in a given image since there is not a unified schema for all Dicom images. In order to overcome this problem we have to automatically discover the schema of all the images stored on our cloud space. Furthermore, we should answer an important question: which is the most appropriate data model for storing these type of images on the cloud? These challenges make it crucial to find a solution to improve the warehousing of medical data. Bibliography [1] S. Ghemawat, H. Gobioff, and S.-T. Leung, The Google file system, *2+ P. Across and H. Hardware, The Hadoop Distributed File System : Architecture and Design, Access, 2007, pp [3] J. Dean and S. Ghemawat, MapReduce : Simplified Data Processing on Large Clusters, *4+ C. Olston, B. Reed, R. Kumar, and A. Tomkins, Pig Latin : A Not-So-Foreign Language for Data Processing, Sigmod, 2008, pp *5+ M. Isard, A. Birrell, and D. Fetterly, Dryad : Distributed Data-Parallel Programs from Sequential Building Blocks, Cluster Computing, [6] R. Chaiken, B. Jenkins, P.-åke Larson, B. Ramsey, D. Shakib, S. Weaver, and J. Zhou, SCOPE : Easy and Efficient Parallel Processing of Massive Data Sets, Cosmos, vol. 1, 2008, pp *7+ A. Thusoo, J.S. Sarma, N. Jain, Z. Shao, P. Chakka, S. Anthony, H. Liu, P. Wyckoff, and R. Murthy, Hive - A Warehousing Solution Over a Map-Reduce Framework, Hive - A Warehousing Solution Over a Map-Reduce Framework, VLDB, *8+ K. Beyer, V. Ercegovac, E. Shekita, J. Rao, and N. Li, Jaql : A query language for JSON, *9+ R. Pike, S. Dorward, R. Griesemer, and S. Quinlan, Interpreting the Data : Parallel Analysis with Sawzall, Scientific Programming Journal, 2005, pp

110 Huitième session : jeudi 21 avril, 16h Nom : DOAN Prénom : Trung Tung Mail : dttung@gmail.com Laboratoire : LPC ETUDE DU DEPLOIEMENT D UN RESEAU SENTINELLE POUR LA SURVEILLANCE DE LA GRIPPE AVIAIRE AVEC LA TECHNOLOGIE DES GRILLES Directeur de thèse : Vincent Breton Mail : breton@clermont.in2p3.fr Présentation du sujet de thèse Les maladies émergentes constituent une menace croissante pour la santé publique. L accroissement permanent des échanges internationaux lié à la mondialisation du commerce et au développement du tourisme fait qu un nouveau virus apparu à n importe quel point de la planète peut se retrouver en moins de 24 heures à l aéroport Roissy-Charles de Gaulle. Les maladies émergentes sont caractérisées par le fait qu elles sont par définition peu connues et qu il est essentiel de pouvoir accumuler rapidement un ensemble d informations biologiques, épidémiologiques et géographiques sur les foyers identifiés. Ces informations sont souvent très éparpillées géographiquement mais elles doivent être diffusées le plus rapidement possible au sein de la communauté internationale pour alimenter les travaux des chercheurs et pour permettre aux états de prendre des mesures concertées de prévention et de surveillance. Depuis 10 ans, la technologie des grilles informatiques a permis le développement de véritables infrastructures distribuées fournissant de vastes ressources de calculs et de stockage aux communautés scientifiques. Depuis 2 ans, elle met aussi à la disposition de ses utilisateurs des outils de gestion de données distribuées permettant la création de véritables fédérations de bases de données d accès sécurisé dont les informations peuvent être exploitées à des fins d analyses statistiques. Grâce à ces progrès récents, les grilles constituent aujourd hui des infrastructures très prometteuses pour la mise en place de systèmes de surveillance à l échelle internationale. L objet de la thèse est de développer et de valider un réseau sentinelle de bases de données sur les maladies émergentes avec comme premier cas d application la grippe aviaire. A partir des informations locales collectées dans les différents pays, des informations épidémiologiques fournies par les organisations internationales (OMS, FAO) et des informations des bases de données de biologie moléculaire telles que GenBank ou l Influenza Sequence Data Base à Los Alamos, il s agit de concevoir une fédération de base de données dont les clients seront les acteurs de la surveillance de cette maladie : médecins épidémiologistes, biologistes, vétérinaires,. Le choix de la technologie s appuiera sur l expérience acquise par l équipe de recherche PCSV qui depuis sa création en 2001 développe et déploie des applications biomédicales sur des infrastructures de grille. L équipe coordonne l initiative WISDOM de recherche in silico de nouveaux médicaments contre la malaria et la grippe aviaire. Depuis 2 ans, l équipe s investit dans la 95

111 Huitième session : jeudi 21 avril, 16h conception d une plate-forme de gestion sécurisée de données médicales dans le cadre des projets européens EGEE (FP6) et LifeGrid (PRAI) en s appuyant sur le catalogue de métadonnées AMGA de l intergiciel glite développé dans le cadre d EGEE. Sur la base de l expérience acquise par l équipe PCSV dans le développement d applications biomédicales sur les grilles, le doctorant concevra l architecture et prendra en charge le déploiement d un démonstrateur de réseau sentinelle pour les maladies émergentes. 96

112 Huitième session : jeudi 21 avril, 16h Nom : SAULNIER Prénom : Florence Mail : florence.saulnier@ifma.fr Laboratoire : LaMI Influence de traitements physico-chimiques des renforts sur le comportement mécanique et la durabilité des composites à base de co-produits de bois Directeur de thèse : Pr. Alexis BEAKOU Mail : alexis.beakou@ifma.fr Co-encadrante : Karine CHARLET Mail : karine.charlet@ifma.fr Présentation du sujet de thèse Dans un contexte mondial encourageant le développement des écotechnologies et le recyclage, ce travail vise à valoriser les co-produits de bois (sciures et plaquettes) provenant de l'industrie de première transformation de la région Auvergne. Actuellement, ces co-produits connaissent deux domaines de valorisation : l'énergie de combustion (chaudières et turbines à bois) et la fabrication de panneaux agglomérés (MDF). Une application intéressante, et encore peu explorée, pourrait être l'utilisation de copeaux de bois comme renforts dans des composites à matrice polymère. Toutefois, les travaux de recherche menés ces dernières années mettent en évidence les problèmes d interphase que peut présenter un tel matériau. En effet, le caractère hydrophile du bois pose un problème de compatibilité avec l'ensemble des polymères actuellement utilisés dans l'industrie, empêchant l obtention de bonnes propriétés mécaniques pour les composites qu il renforce. Il apparait alors nécessaire de modifier la surface des renforts pour diminuer leur caractère hydrophile et augmenter leur adhésion avec la matrice polymère. Différents traitements sont actuellement employés dans le domaine de l industrie et de la recherche. On peut les regrouper en deux catégories : les traitements chimiques (estérification, acétylation, greffe ou ajout d agents de liaison) et les traitements physiques (rétification, décharge corona, et pulvérisation cathodique). La rétification, en particulier, prend une place de plus en plus importante dans l industrie, notamment dans le traitement du bois d œuvre avec des résultats probants. Aussi, apparait-il intéressant de la développer à plus petite échelle, dans le traitement de renforts. Un nouveau traitement pourrait aussi être envisagé : la fluoration. Ce procédé est actuellement utilisé pour améliorer l hydrophobie de certains matériaux polymères mais aussi dans le cadre du traitement des fibres de carbone et d aramide. En effet, l élément fluor possède une forte électronégativité qui confère aux chaines fluorées un caractère hydrophobe intéressant. Ce projet de thèse s articule ainsi autour de deux axes de recherche : d une part la mise en forme de composites à base de co-produits de bois et matrice polymère, et d autre part l étude de l influence de différents traitements des renforts (acétylation, rétification et fluoration) sur les propriétés mécaniques et la durabilité de ces composites. 97

113 Huitième session : jeudi 21 avril, 16h Afin de mener à bien ces deux objectifs, une caractérisation des renforts sera d abord réalisée sous quatre aspects : étude thermique, composition chimique (pourcentage de cellulose, hémicelluloses et lignine), comportement mécanique, et caractérisation hygroscopique. Les trois traitements mis en œuvre, i.e. la rétification, la fluoration et l acétylation, feront l objet d une phase d optimisation, en prenant pour critère le comportement hygroscopique des renforts. Pour la fabrication des composites, deux matrices différentes seront utilisées : d'une part un polymère thermoplastique, le polyamide 11 (PA 11), et d'autre part une résine polyester thermodurcissable. Dans le premier cas, les composites seront réalisés par extrusion et dans le second par thermopressage. Afin d adapter le renfort aux matrices et procédés, la sciure de bois sera broyée pour être utilisée sous forme de poudre (granulométrie maximale de 500 μm). Les composites obtenus seront caractérisés sous trois aspects : leur comportement mécanique, leur comportement hygroscopique et la distribution volumique de leurs renforts. Une étude de vieillissement en enceinte climatique et milieu extérieur sera également menée. 98

114 Huitième session : jeudi 21 avril, 16h Nom : CARTADE Prénom : Colin Mail : colin.cartade@u-clermont1.fr Laboratoire : LIMOS Paramétrisation régulières optimales de surfaces discrètes Directeur de thèse : Rémy Malgouyres Mail : remy.malgouyres@u-clermont1.fr Présentation du sujet de thèse Un maillage est une discrétisation à l'aide de faces polygonales d'une surface continue. Paramétriser un maillage consiste à lui associer une version aplatie qui lui ressemble autant que possible. En pratique on calcule souvent des paramétrisations conformes car, par définition elles préservent les angles et donc l'aspect local de la surface. Les applications sont multiples, plaquage de texture, morphing, fitting de surfaces,... Dans ma thèse j'utilise une définition nouvelle de conformité discrète due à Christian Mercat pour calculer des paramétrisation conformes. La définition est suffisamment générale pour s'adapter au principaux types de maillages : maillages triangulés, quadrangulés et surtout surfaces discrètes (constituées de voxels). De plus la méthode est flexible : le calcul pratique passe par la minimisation d'énergies et permet de préserver plus ou moins les angles, les longueurs, les aires, des positions, Il est également intéressant de noter que notre définition de conformité colle davantage à la théorie continue que les autres méthodes de paramétrisation de la littérature. Pour le moment on ne paramétrise que des surfaces homéomorphes à un disque. On souhaite également traiter le cas de surfaces de topologie différentes découpées à l'aides de quadrangles et calculer des atlas de paramétrisation qui se recollent de manière «lisse». Ensuite il est prévu d'utiliser les paramétrisations résultantes pour développer des méthodes discrètes de calcul différentiel sur les surfaces de voxels. Exemples de plaquage de textures obtenus avec notre méthode : 99

Les lières. MSc in Electronics and Information Technology Engineering. Ingénieur civil. en informatique. MSc in Architectural Engineering

Les lières. MSc in Electronics and Information Technology Engineering. Ingénieur civil. en informatique. MSc in Architectural Engineering Ingénieur civil Ingénieur civil Les lières MSc in Electronics and Information Technology Engineering MSc in Architectural Engineering MSc in Civil Engineering MSc in Electromechanical Engineering MSc

Plus en détail

Les sciences de l ingénieur appliquées à la prise en charge du

Les sciences de l ingénieur appliquées à la prise en charge du Les sciences de l ingénieur appliquées à la prise en charge du cancer : enjeux et opportunités Début de cartographie des enjeux cliniques et technologiques gq Jean-François MENUDET, Cluster I-Care Cartographie

Plus en détail

Maîtriser les mutations

Maîtriser les mutations Maîtriser les mutations Avec UNE Supply chain AGILE La réflexion porte ses fruits www.cereza.fr TALAN Group Notre savoir-faire : maîtriser les mutations et en faire une force pour l entreprise Cereza,

Plus en détail

Mastère spécialisé. «Ingénierie de l innovation et du produit nouveau De l idée à la mise en marché»

Mastère spécialisé. «Ingénierie de l innovation et du produit nouveau De l idée à la mise en marché» Mastère spécialisé «Ingénierie de l innovation et du produit nouveau De l idée à la mise en marché» I- Présentation détaillée du programme d enseignement Répartition par modules et crédits ECTS : Intitulé

Plus en détail

Master Energie spécialité Energie électrique

Master Energie spécialité Energie électrique 03/12/2013 http://www.univ-fcomte.fr Master Energie spécialité Energie UFR Sciences, techniques, et gestion de l'industrie http://stgi.univ-fcomte.fr/ Dénomination officielle : Master Sciences, technologies,

Plus en détail

Architecture de réseau de senseurs : monitoring environnemental et écosystèmes forestiers

Architecture de réseau de senseurs : monitoring environnemental et écosystèmes forestiers Architecture de réseau de senseurs : monitoring environnemental et écosystèmes forestiers Présenté par : Ahmed Lakhssassi, Membres du GRMS : Marek Zaremba, Wojtek Bock et Larbi Talbi Département Informatique

Plus en détail

Prédiction de couverture de champ radioélectrique pour les réseaux radiomobiles : L apport du Système d Information Géographique ArcInfo 8

Prédiction de couverture de champ radioélectrique pour les réseaux radiomobiles : L apport du Système d Information Géographique ArcInfo 8 Prédiction de couverture de champ radioélectrique pour les réseaux radiomobiles : L apport du Système d Information Géographique ArcInfo 8 Christine TURCK 1 * et **, Christiane WEBER**, Dominique THOME*

Plus en détail

Les formations en cycle ingénieur

Les formations en cycle ingénieur Les formations en cycle ingénieur Eau, environnement, aménagement Ce domaine forme des ingénieurs capables d'explorer et d'organiser l'espace (surface et sous-sol), d'exploiter durablement les ressources

Plus en détail

Stages - le calendrier

Stages - le calendrier Stages - le calendrier BIOCHIMIE ET BIOTECHNOLOGIES Ingénieurs pluridisciplinaires formés en chimie, biochimie analytique et fonctionnelle, biologie cellulaire et moléculaire, microbiologie, physiologie

Plus en détail

Mastère spécialisé MS : «Ingénierie de l innovation et du produit nouveau

Mastère spécialisé MS : «Ingénierie de l innovation et du produit nouveau Mastère spécialisé MS : «Ingénierie de l innovation et du produit nouveau De l idée à la mise en marché» 1- Présentation détaillée du programme d enseignement Répartition par modules et crédits ECTS :

Plus en détail

AXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES

AXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES 1 AXES DE RECHERCHE - DOMAINE D'INTERET MAJEUR LOGICIELS ET SYSTEMES COMPLEXES 2 Axes de recherche L activité du DIM LSC concerne la méthodologie de la conception et le développement de systèmes à forte

Plus en détail

MABioVis. Bio-informatique et la

MABioVis. Bio-informatique et la MABioVis Modèles et Algorithmes pour la Bio-informatique et la Visualisation Visite ENS Cachan 5 janvier 2011 MABioVis G GUY MELANÇON (PR UFR Maths Info / EPI GRAVITE) (là, maintenant) - MABioVis DAVID

Plus en détail

Introduction au datamining

Introduction au datamining Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des

Plus en détail

GENIE STATISTIQUE GESTION DES RISQUES ET INGENIERIE FINANCIERE MARKETING QUANTITATIF ET REVENUE MANAGEMENT

GENIE STATISTIQUE GESTION DES RISQUES ET INGENIERIE FINANCIERE MARKETING QUANTITATIF ET REVENUE MANAGEMENT Remarque : Tous les cours sont en français, sauf contre-indication. Pour des traductions anglaises des titres, des descriptifs, et plus de renseignements, consultez l intégralité du Programme des enseignements

Plus en détail

Semestre 2 Spécialité «Analyse in silico des complexes macromolécules biologiques-médicaments»

Semestre 2 Spécialité «Analyse in silico des complexes macromolécules biologiques-médicaments» Master In silico Drug Design Semestre 2 Spécialité «Analyse in silico des complexes macromolécules biologiques-médicaments» 30NU01IS INITIATION A LA PROGRAMMATION (6 ECTS) Responsables : D. MESTIVIER,

Plus en détail

Intérêt du découpage en sous-bandes pour l analyse spectrale

Intérêt du découpage en sous-bandes pour l analyse spectrale Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,

Plus en détail

Faculté des Sciences d ORSAY

Faculté des Sciences d ORSAY Université Paris-Sud 11 Faculté des Sciences d ORSAY Personnes ressources des disciplines représentées : Département de Biologie Vice-Président : Hervé DANIEL Secrétaire : Malika DERRAS Université Paris-Sud

Plus en détail

PHYSIQUE Discipline fondamentale

PHYSIQUE Discipline fondamentale Examen suisse de maturité Directives 2003-2006 DS.11 Physique DF PHYSIQUE Discipline fondamentale Par l'étude de la physique en discipline fondamentale, le candidat comprend des phénomènes naturels et

Plus en détail

Projet ANR. Bruno Capra - OXAND. 04/06/2015 CEOS.fr - Journée de restitution (Paris) B. CAPRA

Projet ANR. Bruno Capra - OXAND. 04/06/2015 CEOS.fr - Journée de restitution (Paris) B. CAPRA Projet ANR Bruno Capra - OXAND MEFISTO : Maîtrise durable de la fissuration des infrastructures en bétons Contexte Problématique des Maîtres d Ouvrages Evaluation et prédiction de la performance des ouvrages

Plus en détail

Master de Bioinformatique et Biologie des Systèmes Toulouse http://m2pbioinfo.biotoul.fr Responsable : Pr. Gwennaele Fichant

Master de Bioinformatique et Biologie des Systèmes Toulouse http://m2pbioinfo.biotoul.fr Responsable : Pr. Gwennaele Fichant Master de Bioinformatique et Biologie des Systèmes Toulouse http://m2pbioinfo.biotoul.fr Responsable : Pr. Gwennaele Fichant Parcours: Master 1 : Bioinformatique et biologie des Systèmes dans le Master

Plus en détail

Distribution d électricité et réseaux souterrains

Distribution d électricité et réseaux souterrains Distribution d électricité et réseaux souterrains Cabos 09-2 - 3 octobre 2009 Maceió, Alagoas, Brésil Les réseaux de distribution : un enjeu essentiel Les réseaux de distribution constituent une infrastructure

Plus en détail

«SERVICES D INGENIERIE»

«SERVICES D INGENIERIE» PUNCH POWERGLIDE STRASBOURG 45 années d expériences Le pôle R & D de PPS rassemble plus d une centaine d experts, chefs de projet, ingénieurs et techniciens expérimentés en recherche et développement,

Plus en détail

DÉVELOPPEMENT INFONUAGIQUE - meilleures pratiques

DÉVELOPPEMENT INFONUAGIQUE - meilleures pratiques livre blanc DÉVELOPPEMENT INFONUAGIQUE MEILLEURES PRATIQUES ET APPLICATIONS DE SOUTIEN DÉVELOPPEMENT INFONUAGIQUE - MEILLEURES PRATIQUES 1 Les solutions infonuagiques sont de plus en plus présentes sur

Plus en détail

Résumé CONCEPTEUR, INTEGRATEUR, OPERATEUR DE SYSTEMES CRITIQUES

Résumé CONCEPTEUR, INTEGRATEUR, OPERATEUR DE SYSTEMES CRITIQUES Aristote ----- Cloud Interopérabilité Retour d'expérience L A F O R C E D E L I N N O V A T I O N Résumé Les systèmes d'information logistique (SIL) sont des outils qui amènent des gains de productivité

Plus en détail

Méthode de sureté de fonctionnement pour une maintenance efficace Application à un poste électrique (60/10KV)

Méthode de sureté de fonctionnement pour une maintenance efficace Application à un poste électrique (60/10KV) Quatrième Conférence Internationale sur le Génie Electrique CIGE 10, 03-04 Novembre 2010, Université de Bechar, Algérie Méthode de sureté de fonctionnement pour une maintenance efficace Application à un

Plus en détail

10 REPÈRES «PLUS DE MAÎTRES QUE DE CLASSES» JUIN 2013 POUR LA MISE EN ŒUVRE DU DISPOSITIF

10 REPÈRES «PLUS DE MAÎTRES QUE DE CLASSES» JUIN 2013 POUR LA MISE EN ŒUVRE DU DISPOSITIF 10 REPÈRES POUR LA MISE EN ŒUVRE DU DISPOSITIF «PLUS DE MAÎTRES QUE DE CLASSES» JUIN 2013 MEN-DGESCO 2013 Sommaire 1. LES OBJECTIFS DU DISPOSITIF 2. LES ACQUISITIONS PRIORITAIREMENT VISÉES 3. LES LIEUX

Plus en détail

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU $SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU Fabien FIGUERES fabien.figueres@mpsa.com 0RWVFOpV : Krigeage, plans d expériences space-filling, points de validations, calibration moteur. 5pVXPp Dans le

Plus en détail

Sciences Humaines et Sociales. Informatique et applications. VIGNERON Vincent vvigne@iup.univ-evry.fr STIC Traitement du signal et des images

Sciences Humaines et Sociales. Informatique et applications. VIGNERON Vincent vvigne@iup.univ-evry.fr STIC Traitement du signal et des images Sujets de thèse Ecole Doctorale "Sciences et Ingénierie" 2012-2013 Sujet de thèse Unité de recherche Nom de l'encadrant Discipline principale Discipline secondaire Navigation topologique basée sur des

Plus en détail

Master Informatique Aix-Marseille Université

Master Informatique Aix-Marseille Université Aix-Marseille Université http://masterinfo.univ-mrs.fr/ Département Informatique et Interactions UFR Sciences Laboratoire d Informatique Fondamentale Laboratoire des Sciences de l Information et des Systèmes

Plus en détail

Pourquoi l'écologie industrielle?

Pourquoi l'écologie industrielle? Pourquoi l'écologie industrielle? La société actuelle est basée sur une économie de type linéaire, c est-à-dire que nous consommons à outrance des ressources, que nous considérons comme illimitées, mais

Plus en détail

Architecture d'entreprise : Guide Pratique de l'architecture Logique

Architecture d'entreprise : Guide Pratique de l'architecture Logique Guides Pratiques Objecteering Architecture d'entreprise : Guide Pratique de l'architecture Logique Auteur : Version : 1.0 Copyright : Softeam Equipe Conseil Softeam Supervisée par Philippe Desfray Softeam

Plus en détail

«Les projets collaboratifs pour les nuls»

«Les projets collaboratifs pour les nuls» «Les projets collaboratifs pour les nuls» Les jeudis du numérique à Vannes 28/05/15 Sommaire 1) Le projet collaboratif 2) Les appels à projets 3) Le financement 4) Le rôle d Images & Réseaux Les questions

Plus en détail

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd UE 503 L3 MIAGE Initiation Réseau et Programmation Web La couche physique A. Belaïd abelaid@loria.fr http://www.loria.fr/~abelaid/ Année Universitaire 2011/2012 2 Le Modèle OSI La couche physique ou le

Plus en détail

SERVICE D ACCOMPAGNEMENT PEDAGOGIQUE DE L UNIVERSITE SORBONNE PARIS CITE

SERVICE D ACCOMPAGNEMENT PEDAGOGIQUE DE L UNIVERSITE SORBONNE PARIS CITE SERVICE D ACCOMPAGNEMENT PEDAGOGIQUE DE L UNIVERSITE SORBONNE PARIS CITE CATALOGUE DE FORMATION POUR LES ENSEIGNANTS DE USPC 2014-2015 Le service SAPIENS créé en janvier 2014 propose durant l année 2014-2015

Plus en détail

Diplôme d Université Licence d Université Sciences Physiques pour l Ingénieur (SPI) Liste des modules

Diplôme d Université Licence d Université Sciences Physiques pour l Ingénieur (SPI) Liste des modules Licence d Université Sciences Physiques pour l Ingénieur (SPI) Liste des modules Électronique numérique et informatique industrielle Informatique / réseaux Mécanique des fluides/ Transferts thermiques

Plus en détail

MASTER (LMD) PARCOURS MICROORGANISMES, HÔTES, ENVIRONNEMENTS (MHE)

MASTER (LMD) PARCOURS MICROORGANISMES, HÔTES, ENVIRONNEMENTS (MHE) MASTER (LMD) PARCOURS MICROORGANISMES, HÔTES, ENVIRONNEMENTS (MHE) RÉSUMÉ DE LA FORMATION Type de diplôme : Master (LMD) Domaine ministériel : Sciences, Technologies, Santé Mention : BIOLOGIE DES PLANTES

Plus en détail

Evaluation du LIDAR et de solutions innovantes pour la chaîne d approvisionnement du bois : les résultats du projet européen FlexWood

Evaluation du LIDAR et de solutions innovantes pour la chaîne d approvisionnement du bois : les résultats du projet européen FlexWood Evaluation du LIDAR et de solutions innovantes pour la chaîne d approvisionnement du bois : les résultats du projet européen FlexWood Le projet de recherche européen FlexWood («Flexible wood supply chain»)

Plus en détail

FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc)

FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc) 87 FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc) Dans le cadre de la réforme pédagogique et de l intérêt que porte le Ministère de l Éducation

Plus en détail

Big Data et Graphes : Quelques pistes de recherche

Big Data et Graphes : Quelques pistes de recherche Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université

Plus en détail

Le polissage par laser

Le polissage par laser B U L L E T I N T E C H N I Q U E N 4 1 B U L L E T I N T E C H N I Q U E N 4 1 Le polissage par laser Contexte Un traitement de surface est généralement réalisé dans le but d améliorer les caractéristiques

Plus en détail

TRS: Sélection des sous-graphes représentants par l intermédiaire des attributs topologiques et K-medoïdes

TRS: Sélection des sous-graphes représentants par l intermédiaire des attributs topologiques et K-medoïdes TRS: Sélection des sous-graphes représentants par l intermédiaire des attributs topologiques et K-medoïdes Mohamed Moussaoui,Wajdi Dhifli,Sami Zghal,Engelbert Mephu Nguifo FSJEG, Université de Jendouba,

Plus en détail

NO-BREAK KS. Système UPS dynamique PRÉSENTATION

NO-BREAK KS. Système UPS dynamique PRÉSENTATION NO-BREAK KS Système UPS dynamique PRÉSENTATION Table des matières Chapitre 1 : Description du système No-Break KS...3 Chapitre 2 : Fonctionnement lorsque le réseau est présent...4 Chapitre 3 : Fonctionnement

Plus en détail

Automatique Linéaire 1 Travaux Dirigés 1A ISMIN

Automatique Linéaire 1 Travaux Dirigés 1A ISMIN Automatique Linéaire 1 Travaux Dirigés Travaux dirigés, Automatique linéaire 1 J.M. Dutertre 2014 TD 1 Introduction, modélisation, outils. Exercice 1.1 : Calcul de la réponse d un 2 nd ordre à une rampe

Plus en détail

SIMULATION HYBRIDE EN TEMPOREL D UNE CHAMBRE REVERBERANTE

SIMULATION HYBRIDE EN TEMPOREL D UNE CHAMBRE REVERBERANTE SIMULATION HYBRIDE EN TEMPOREL D UNE CHAMBRE REVERBERANTE Sébastien LALLECHERE - Pierre BONNET - Fatou DIOUF - Françoise PALADIAN LASMEA / UMR6602, 24 avenue des landais, 63177 Aubière pierre.bonnet@lasmea.univ-bpclermont.fr

Plus en détail

Une conférence-débat proposée par l Institut National de la Recherche Agronomique

Une conférence-débat proposée par l Institut National de la Recherche Agronomique Economies d'énergies dans les procédés agro-alimentaires : l'optimisation coût/qualité, un équilibre pas si facile à maîtriser Une conférence-débat proposée par l Institut National de la Recherche Agronomique

Plus en détail

Note de cadrage du PEPI MACS Mathématiques Appliquées & Calcul Scientifique

Note de cadrage du PEPI MACS Mathématiques Appliquées & Calcul Scientifique Note de cadrage du PEPI MACS Mathématiques Appliquées & Calcul Scientifique Périmètre Le périmètre du PEPI concerne les méthodes et outils utilisés pour le traitement informatisé des données scientifiques.

Plus en détail

Le partenaire de votre innovation technologique

Le partenaire de votre innovation technologique w w w.. s y n e r r v v i a i a. f. r f r Quelques chiffres Création en 2002 Association loi 1901 20 salariés 17 Ingénieurs et techniciens experts dans leurs domaines et présents dans les centres de compétences

Plus en détail

Proposition de sujet de thèse CIFRE EUROCOPTER / LGI2P

Proposition de sujet de thèse CIFRE EUROCOPTER / LGI2P EUROCOPTER SAS Groupe EADS Marignane Ecole des Mines d Alès Laboratoire de Génie Informatique et d Ingénierie de Production LGI2P Nîmes Proposition de sujet de thèse CIFRE EUROCOPTER / LGI2P Titre Domaine

Plus en détail

Développement rural 2007-2013. Document d orientation

Développement rural 2007-2013. Document d orientation Développement rural 2007-2013 MANUEL RELATIF AU CADRE COMMUN DE SUIVI ET D EVALUATION Document d orientation Septembre 2006 Direction générale de l agriculture et du développement rural TABLE DES MATIÈRES

Plus en détail

GLOBAL SUPPLY CHAIN MANAGEMENT & STRATEGIE LOGISTIQUE

GLOBAL SUPPLY CHAIN MANAGEMENT & STRATEGIE LOGISTIQUE GLOBAL SUPPLY CHAIN MANAGEMENT & STRATEGIE LOGISTIQUE La logistique représentait traditionnellement l activité allant de la mise à disposition des produits finis par l usine ou le négociant jusqu à la

Plus en détail

Les ressources numériques

Les ressources numériques Les ressources numériques Les ressources numériques sont diverses et regroupent entre autres, les applications, les bases de données et les infrastructures informatiques. C est un ensemble de ressources

Plus en détail

L'intelligence d'affaires: la statistique dans nos vies de consommateurs

L'intelligence d'affaires: la statistique dans nos vies de consommateurs L'intelligence d'affaires: la statistique dans nos vies de consommateurs Jean-François Plante, HEC Montréal Marc Fredette, HEC Montréal Congrès de l ACFAS, Université Laval, 6 mai 2013 Intelligence d affaires

Plus en détail

Transmission d informations sur le réseau électrique

Transmission d informations sur le réseau électrique Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en

Plus en détail

Élargissez vos compétences en intégrant une formation Bac +6 répondant aux enjeux de l'éco-innovation

Élargissez vos compétences en intégrant une formation Bac +6 répondant aux enjeux de l'éco-innovation Mastère Spécialisé Économie circulaire : les outils de l Écologie industrielle et de l Éco-conception Bac +6 Élargissez vos compétences en intégrant une formation Bac +6 répondant aux enjeux de l'éco-innovation

Plus en détail

SERVICE PATRIMOINE CONSULTATION POUR DEMANDE DE DEVIS

SERVICE PATRIMOINE CONSULTATION POUR DEMANDE DE DEVIS SERVICE PATRIMOINE CONSULTATION POUR DEMANDE DE DEVIS CAHIER DES CHARGES RELATIF A UN AUDIT DE PERFORMANCE ENERGETIQUE DE L'INSTITUT FRANÇAIS DE MECANIQUE AVANCEE Date limite d envoi de l'offre : 30 avril

Plus en détail

UTILISATION DE LA PLATEFORME WEB D ANALYSE DE DONNÉES GALAXY

UTILISATION DE LA PLATEFORME WEB D ANALYSE DE DONNÉES GALAXY UTILISATION DE LA PLATEFORME WEB D ANALYSE DE DONNÉES GALAXY Yvan Le Bras yvan.le_bras@irisa.fr Cyril Monjeaud, Mathieu Bahin, Claudia Hériveau, Olivier Quenez, Olivier Sallou, Aurélien Roult, Olivier

Plus en détail

La Commission des Titres d ingénieur a adopté le présent avis

La Commission des Titres d ingénieur a adopté le présent avis Avis n 2010/05-10 relatif à l habilitation de l École polytechnique fédérale de Lausanne (Suisse) à délivrer des titres d ingénieur diplômé admis par l état Objet : G : accréditation et admission par l'état

Plus en détail

Ebauche Rapport finale

Ebauche Rapport finale Ebauche Rapport finale Sommaire : 1 - Introduction au C.D.N. 2 - Définition de la problématique 3 - Etat de l'art : Présentatio de 3 Topologies streaming p2p 1) INTRODUCTION au C.D.N. La croissance rapide

Plus en détail

Quels outils pour prévoir?

Quels outils pour prévoir? modeledition SA Quels outils pour prévoir? Les modèles de prévisions sont des outils irremplaçables pour la prise de décision. Pour cela les entreprises ont le choix entre Excel et les outils classiques

Plus en détail

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Détection et reconnaissance des sons pour la surveillance médicale Dan Istrate le 16 décembre 2003 Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Thèse mené dans le cadre d une collaboration

Plus en détail

L ' E N V I R O N N E M E N T À T R A V E R S L A S I M U L A T I O N N U M É R I Q U E : D E L ' I N G É N I E R I E D U B Â T I M E N T

L ' E N V I R O N N E M E N T À T R A V E R S L A S I M U L A T I O N N U M É R I Q U E : D E L ' I N G É N I E R I E D U B Â T I M E N T L ' E N V I R O N N E M E N T À T R A V E R S L A S I M U L A T I O N N U M É R I Q U E : U N E N O U V E L L E P R A T I Q U E D E L ' I N G É N I E R I E D U B Â T I M E N T Pour les bâtiments et à l'échelle

Plus en détail

ETUDE DE LA SECONDE VIE DES BATTERIES DES VEHICULES ELECTRIQUES ET HYBRIDES RECHARGEABLES

ETUDE DE LA SECONDE VIE DES BATTERIES DES VEHICULES ELECTRIQUES ET HYBRIDES RECHARGEABLES ETUDE DE LA SECONDE VIE DES BATTERIES DES VEHICULES ELECTRIQUES ET HYBRIDES RECHARGEABLES Juin 2011 Étude réalisée pour le compte de l'ademe par Schwartz and Co et AJI Europe Coordination technique : Patrick

Plus en détail

Position de l ASTEE sur l innovation en matière de services d eau et de déchets

Position de l ASTEE sur l innovation en matière de services d eau et de déchets Position de l ASTEE sur l innovation en matière de services d eau et de déchets Les services publics locaux de l environnement : des services discrets mais moteurs de développement Depuis leur mise en

Plus en détail

La mise en place d une cellule de veille

La mise en place d une cellule de veille La mise en place d une cellule de veille Floriane Giovannini IST - Antony 24 ème Rencontres OMER Lyon, les 29-30 mars 2007 Plan de la présentation Introduction à la veille Une cellule de veille : - Pourquoi?

Plus en détail

L'intelligence en mouvement. Caméras AUTODOME 7000 avec fonction de suivi intelligent

L'intelligence en mouvement. Caméras AUTODOME 7000 avec fonction de suivi intelligent L'intelligence en mouvement Caméras AUTODOME 7000 avec fonction de suivi intelligent 2 Bosch AUTODOME 7000 Les caméras IP et HD AUTODOME 7000 combinent une intelligence avancée, une flexibilité de diffusion

Plus en détail

SOLUTIONS TECHNOLOGIQUES D AVENIR

SOLUTIONS TECHNOLOGIQUES D AVENIR CPTF et CSC CYCLES COMBINES A GAZ (CCG) COGÉNÉRATION DÉVELOPPEMENT DES RENOUVELABLES SOLUTIONS DE STOCKAGE CPTF ET CSC Le parc thermique est un outil essentiel pour ajuster l offre et la demande, indispensable

Plus en détail

GENIE DES SYSTEMES INDUSTRIELS

GENIE DES SYSTEMES INDUSTRIELS MASTER SCIENCES, TECHNOLOGIES, SANTE/STAPS GENIE DES SYSTEMES INDUSTRIELS Spécialité Risques Industriels et Maintenance www.univ-littoral.fr OBJECTIFS DE LA FORMATION L objectif du master régional GSI

Plus en détail

L'évolution de VISUAL MESSAGE CENTER Architecture et intégration

L'évolution de VISUAL MESSAGE CENTER Architecture et intégration L'évolution de VISUAL MESSAGE CENTER Architecture et intégration Sommaire Résumé exécutif Base technologique : VISUAL Message Center 2 3 VISUAL Message Center Core Engine VISUAL Message Center Extended

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

LA SURVEILLANCE ET LE SUIVI DE L'ENVIRONNEMENT. Pierre Guimont Conseiller en environnement Unité Environnement Division Équipement, Hydro-Québec

LA SURVEILLANCE ET LE SUIVI DE L'ENVIRONNEMENT. Pierre Guimont Conseiller en environnement Unité Environnement Division Équipement, Hydro-Québec LA SURVEILLANCE ET LE SUIVI DE L'ENVIRONNEMENT Pierre Guimont Conseiller en environnement Unité Environnement Division Équipement, Hydro-Québec Introduction L'un des principes directeurs de la politique

Plus en détail

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com Intelligence Artificielle et Systèmes Multi-Agents Badr Benmammar bbm@badr-benmammar.com Plan La première partie : L intelligence artificielle (IA) Définition de l intelligence artificielle (IA) Domaines

Plus en détail

MASTER (LMD) GESTION DE DONNEES ET SPATIALISATION EN ENVIRONNEMENT (GSE)

MASTER (LMD) GESTION DE DONNEES ET SPATIALISATION EN ENVIRONNEMENT (GSE) MASTER (LMD) GESTION DE DONNEES ET SPATIALISATION EN ENVIRONNEMENT (GSE) RÉSUMÉ DE LA FORMATION Type de diplôme : Master (LMD) Domaine ministériel : Sciences, Technologies, Santé Mention : STIC POUR L'ECOLOGIE

Plus en détail

Industrial Phd Progam

Industrial Phd Progam Industrial Phd Progam Catalan Government: Legislation: DOGC ECO/2114/2012 Modification: DOGC ECO/2443/2012 Next: Summary and proposal examples. Main dates March 2013: Call for industrial Phd projects grants.

Plus en détail

Les clés de l'innovation. Une formation sur mesure pour les adhérents du Pôle Agri Sud-Ouest Innovation

Les clés de l'innovation. Une formation sur mesure pour les adhérents du Pôle Agri Sud-Ouest Innovation Les clés de l'innovation Une formation sur mesure pour les adhérents du Pôle Agri Sud-Ouest Innovation Vous vous interrogez sur l'innovation : Qu est-ce que cela va apporter à mon entreprise? Comment commencer?

Plus en détail

Journée SITG, Genève 15 octobre 2013. Nicolas Lachance-Bernard M.ATDR Doctorant, Laboratoire de systèmes d information géographique

Journée SITG, Genève 15 octobre 2013. Nicolas Lachance-Bernard M.ATDR Doctorant, Laboratoire de systèmes d information géographique Monitorint spatio-temporel intégré de la mobilité urbaine Monitoring spatio-temporel de l ADN urbain Une réponse aux défis, problèmes, enjeux et risques des milieux urbains Nicolas Lachance-Bernard M.ATDR

Plus en détail

Plate forme de modélisation en vue de la prédiction de la durée de vie des bétons vis-à-vis de la pénétration d agents agressifs

Plate forme de modélisation en vue de la prédiction de la durée de vie des bétons vis-à-vis de la pénétration d agents agressifs Plate forme de modélisation en vue de la prédiction de la durée de vie des bétons vis-à-vis de la pénétration d agents agressifs Phase d'initiation de la corrosion vis-à-vis de la - pénétration d'agents

Plus en détail

COMMUNIQUE DE PRESSE : L Eco-Center, nouvel investissement majeur pour faire de l Auvergne le nouveau monde du numérique

COMMUNIQUE DE PRESSE : L Eco-Center, nouvel investissement majeur pour faire de l Auvergne le nouveau monde du numérique Clermont-Ferrand, le 13 mai 2014 COMMUNIQUE DE PRESSE : L Eco-Center, nouvel investissement majeur pour faire de l Auvergne le nouveau monde du numérique Une centaine d acteurs du numérique auvergnat étaient

Plus en détail

Les exploitations de grandes cultures face à la variabilité de leurs revenus : quels outils de gestion des risques pour pérenniser les structures?

Les exploitations de grandes cultures face à la variabilité de leurs revenus : quels outils de gestion des risques pour pérenniser les structures? Les exploitations de grandes cultures face à la variabilité de leurs revenus : quels outils de gestion des risques pour pérenniser les structures? Benoît Pagès 1, Valérie Leveau 1 1 ARVALIS Institut du

Plus en détail

ÉTUDE DE L EFFICACITÉ DE GÉOGRILLES POUR PRÉVENIR L EFFONDREMENT LOCAL D UNE CHAUSSÉE

ÉTUDE DE L EFFICACITÉ DE GÉOGRILLES POUR PRÉVENIR L EFFONDREMENT LOCAL D UNE CHAUSSÉE ÉTUDE DE L EFFICACITÉ DE GÉOGRILLES POUR PRÉVENIR L EFFONDREMENT LOCAL D UNE CHAUSSÉE ANALYSIS OF THE EFFICIENCY OF GEOGRIDS TO PREVENT A LOCAL COLLAPSE OF A ROAD Céline BOURDEAU et Daniel BILLAUX Itasca

Plus en détail

CAPTEURS - CHAINES DE MESURES

CAPTEURS - CHAINES DE MESURES CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,

Plus en détail

Monitoring continu et gestion optimale des performances énergétiques des bâtiments

Monitoring continu et gestion optimale des performances énergétiques des bâtiments Monitoring continu et gestion optimale des performances énergétiques des bâtiments Alexandre Nassiopoulos et al. Journée d inauguration de Sense-City, 23/03/2015 Croissance de la demande énergétique et

Plus en détail

sentée e et soutenue publiquement pour le Doctorat de l Universitl

sentée e et soutenue publiquement pour le Doctorat de l Universitl Du rôle des signaux faibles sur la reconfiguration des processus de la chaîne de valeur de l organisation : l exemple d une centrale d achats de la grande distribution française Thèse présent sentée e

Plus en détail

Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et

Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et Organisation du parcours M2 IR Les unités d enseignements (UE) affichées dans la partie tronc commun sont toutes obligatoires, ainsi que le stage et l'anglais. L'étudiant a le choix entre deux filières

Plus en détail

Apprentissage Automatique

Apprentissage Automatique Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs

Plus en détail

imaginez-vous un univers de possibilités BOOK2014-2015 imagine yourself in a world of opportunities... http://recrutement.akka.eu

imaginez-vous un univers de possibilités BOOK2014-2015 imagine yourself in a world of opportunities... http://recrutement.akka.eu BOOK2014-2015 imaginez-vous un univers de possibilités imagine yourself in a world of opportunities... http://recrutement.akka.eu BOOK France imaginez-vous un univers de possibilités http://recrutement.akka.eu

Plus en détail

Big Data et Graphes : Quelques pistes de recherche

Big Data et Graphes : Quelques pistes de recherche Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci http://liris.cnrs.fr/hamamache.kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de

Plus en détail

C ) Détail volets A, B, C, D et E. Hypothèses (facteurs externes au projet) Sources de vérification. Actions Objectifs Méthode, résultats

C ) Détail volets A, B, C, D et E. Hypothèses (facteurs externes au projet) Sources de vérification. Actions Objectifs Méthode, résultats C ) Détail volets A, B, C, D et E Actions Objectifs Méthode, résultats VOLET A : JUMELAGE DE 18 MOIS Rapports d avancement du projet. Réorganisation de l administration fiscale Rapports des voyages d étude.

Plus en détail

NOTRE OFFRE GLOBALE STAGES INTER-ENTREPRISES

NOTRE OFFRE GLOBALE STAGES INTER-ENTREPRISES NOTRE OFFRE GLOBALE STAGES INTER-ENTREPRISES HYDRAULIQUE MOBILE 5 Stages de 4 jours ----- HM1 HM2 HM3 HM4 HM5 2 Stages SAUER DANFOSS de 2 jours ----- PVG 32 ----- POMPE 90 MOTEUR 51 ELECTRONIQUE EMBARQUEE

Plus en détail

Algèbre 40 Analyse 26 14 Stat. 1 - IES : Probabilités discrètes et calcul intégral 29,5 6 Stat. 2 - IES : Probabilités générales 54 8 UE1-02 M-E-IS

Algèbre 40 Analyse 26 14 Stat. 1 - IES : Probabilités discrètes et calcul intégral 29,5 6 Stat. 2 - IES : Probabilités générales 54 8 UE1-02 M-E-IS 1er semestre UE1-01 E Algèbre 40 Analyse 26 14 Stat. 1 - IES : Probabilités discrètes et calcul intégral 29,5 6 Stat. 2 - IES : Probabilités générales 54 8 UE1-02 M-E-IS Introduction au système SAS 25,5

Plus en détail

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION Classe de terminale de la série Sciences et Technologie du Management et de la Gestion Préambule Présentation Les technologies de l information

Plus en détail

APPEL à MANIFESTATIONS D INTERET (AMI) INVESTISSEMENTS D AVENIR EDITION 2010

APPEL à MANIFESTATIONS D INTERET (AMI) INVESTISSEMENTS D AVENIR EDITION 2010 Direction des Investissements d Avenir Direction Villes et Territoires Durables Service Bâtiment Direction Recherche et Prospective Service Recherche et Technologies avancées APPEL à MANIFESTATIONS D INTERET

Plus en détail

Document complémentaire au PPN du DUT Gestion logistique et transport

Document complémentaire au PPN du DUT Gestion logistique et transport CPN GLT Document complémentaire au PPN du DUT Gestion logistique et transport Description des parcours de modules complémentaires destinés à la poursuite d étude S'appuyant sur l'arrêté du 3 août 2005,

Plus en détail

Baccalauréat technologique

Baccalauréat technologique Baccalauréat technologique Épreuve relative aux enseignements technologiques transversaux, épreuve de projet en enseignement spécifique à la spécialité et épreuve d'enseignement technologique en langue

Plus en détail

SEP 2B juin 20. Guide méthodologique de calcul du coût d une prestation

SEP 2B juin 20. Guide méthodologique de calcul du coût d une prestation SEP 2B juin 20 12 Guide méthodologique de calcul du coût d une Sommaire Préambule 3 Objectif et démarche 3 1 Les objectifs de la connaissance des coûts 4 2 Définir et identifier une 5 Calculer le coût

Plus en détail

possibilités et limites des logiciels existants

possibilités et limites des logiciels existants possibilités et limites des logiciels existants Dominique Groleau CERMA, UMR CNRS 1563, Ecole d Architecture de Nantes Journée thématique SFT- IBPSA, Outils de simulation thermo-aéraulique du bâtiment.

Plus en détail

Transmission de données. A) Principaux éléments intervenant dans la transmission

Transmission de données. A) Principaux éléments intervenant dans la transmission Page 1 / 7 A) Principaux éléments intervenant dans la transmission A.1 Equipement voisins Ordinateur ou terminal Ordinateur ou terminal Canal de transmission ETTD ETTD ETTD : Equipement Terminal de Traitement

Plus en détail