[Résumés et abstracts]



Documents pareils
Forthcoming Database

Exemple PLS avec SAS

Instructions Mozilla Thunderbird Page 1

THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par.

Editing and managing Systems engineering processes at Snecma

COUNCIL OF THE EUROPEAN UNION. Brussels, 18 September 2008 (19.09) (OR. fr) 13156/08 LIMITE PI 53

RÉSUMÉ DE THÈSE. L implantation des systèmes d'information (SI) organisationnels demeure une tâche difficile

Bourses d excellence pour les masters orientés vers la recherche

INSTITUT MARITIME DE PREVENTION. For improvement in health and security at work. Created in 1992 Under the aegis of State and the ENIM

Photoactivatable Probes for Protein Labeling

CEPF FINAL PROJECT COMPLETION REPORT

The new consumables catalogue from Medisoft is now updated. Please discover this full overview of all our consumables available to you.

BNP Paribas Personal Finance

Natixis Asset Management Response to the European Commission Green Paper on shadow banking

Application Form/ Formulaire de demande

Présentation par François Keller Fondateur et président de l Institut suisse de brainworking et M. Enga Luye, CEO Belair Biotech

Judge Group: P Title: Quel est meilleur: le compost ou le fertilisant chimique? Student(s): Emma O'Shea Grade: 6

RAPID Prenez le contrôle sur vos données

Tex: The book of which I'm the author is an historical novel.

NOM ENTREPRISE. Document : Plan Qualité Spécifique du Projet / Project Specific Quality Plan

Qualité de la conception de tests logiciels : plate-forme de conception et processus de test

Mon Service Public - Case study and Mapping to SAML/Liberty specifications. Gaël Gourmelen - France Telecom 23/04/2007

physicien diplômé EPFZ originaire de France présentée acceptée sur proposition Thèse no. 7178

1.The pronouns me, te, nous, and vous are object pronouns.

Les lières. MSc in Electronics and Information Technology Engineering. Ingénieur civil. en informatique. MSc in Architectural Engineering

Le passé composé. C'est le passé! Tout ça c'est du passé! That's the past! All that's in the past!

An Ontology-Based Approach for Closed-Loop Product Lifecycle Management

ADHEFILM : tronçonnage. ADHEFILM : cutting off. ADHECAL : fabrication. ADHECAL : manufacturing.

Object Oriented Parallel Discrete Event Simulation: The PROSIT Approach

L OBSERVATOIRE DE LA BIOLOGIE DE SYNTHESE SYNTHETIC BIOLOGY OBSERVATORY

Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services

First Nations Assessment Inspection Regulations. Règlement sur l inspection aux fins d évaluation foncière des premières nations CONSOLIDATION

Gestion des prestations Volontaire

CLIM/GTP/27/8 ANNEX III/ANNEXE III. Category 1 New indications/ 1 re catégorie Nouvelles indications

Eléments de statistique

Instaurer un dialogue entre chercheurs et CÉR: pourquoi? Me Emmanuelle Lévesque Centre de génomique et politiques Université McGill

RISK-BASED TRANSPORTATION PLANNING PRACTICE: OVERALL METIIODOLOGY AND A CASE EXAMPLE"' RESUME

APPENDIX 6 BONUS RING FORMAT

Cheque Holding Policy Disclosure (Banks) Regulations. Règlement sur la communication de la politique de retenue de chèques (banques) CONSOLIDATION

Data issues in species monitoring: where are the traps?

FOURTH SESSION : "MRP & CRP"

Township of Russell: Recreation Master Plan Canton de Russell: Plan directeur de loisirs

Scénarios économiques en assurance

Ingénierie et gestion des connaissances

Revision of hen1317-5: Technical improvements

Ordonnancement en temps réel d un jobshop par métaheuristique hybride : étude comparative

Contents Windows

INSERTION TECHNIQUES FOR JOB SHOP SCHEDULING

Projet de réorganisation des activités de T-Systems France

The Exploration of HIV Fitness Landscapes

Improving the breakdown of the Central Credit Register data by category of enterprises

Stéphane Lefebvre. CAE s Chief Financial Officer. CAE announces Government of Canada participation in Project Innovate.

Préconisations pour une gouvernance efficace de la Manche. Pathways for effective governance of the English Channel

Modélisation géostatistique des débits le long des cours d eau.

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

Lesson Plan Physical Descriptions. belle vieille grande petite grosse laide mignonne jolie. beau vieux grand petit gros laid mignon

PEINTAMELEC Ingénierie

La solution idéale de personnalisation interactive sur internet

Integrated Music Education: Challenges for Teaching and Teacher Training Presentation of a Book Project

Formulaire de candidature pour les bourses de mobilité internationale niveau Master/ Application Form for International Master Scholarship Programme

that the child(ren) was/were in need of protection under Part III of the Child and Family Services Act, and the court made an order on

POSITION DESCRIPTION DESCRIPTION DE TRAVAIL

La coopération dans un contexte de recherches doctorales Cooperation amongst PhD researchers. Josée Charbonneau Anne- Marie Merrien 28 mai 2014

SURVEILLANCE DES EAUX SOUTERRAINES

Règlement sur le télémarketing et les centres d'appel. Call Centres Telemarketing Sales Regulation

Face Recognition Performance: Man vs. Machine

Frequently Asked Questions

MANAGEMENT SOFTWARE FOR STEEL CONSTRUCTION

Caroline Hurault-Delarue 1, Cécile Chouquet 2, Nicolas Savy 2, Isabelle Lacroix 1, Christine Damase- Michel 1

SITUATION-BASED MODELING FRAMEWORK FOR ENTERPRISE ARCHITECTURE

Bigdata et Web sémantique. les données + l intelligence= la solution

CEST POUR MIEUX PLACER MES PDF

Stratégie DataCenters Société Générale Enjeux, objectifs et rôle d un partenaire comme Data4

GEIDE MSS /IGSS. The electronic document management system shared by the Luxembourg

affichage en français Nom de l'employeur *: Lions Village of Greater Edmonton Society

TABLE DES MATIERES A OBJET PROCEDURE DE CONNEXION

ICA Congress, Brisbane 2012 Thème général : Les temps qui changent. La confiance et les archives*

CLIQUEZ ET MODIFIEZ LE TITRE

Population responses to environmental forcing : approaches to model and monitor habitat characteristics

Rountable conference on the revision of meat inspection Presentation of the outcome of the Lyon conference

Cette Leçon va remplir ces attentes spécifiques du curriculum :

Marie Curie Individual Fellowships. Jean Provost Marie Curie Postdoctoral Fellow, Institut Langevin, ESCPI, INSERM, France

iqtool - Outil e-learning innovateur pour enseigner la Gestion de Qualité au niveau BAC+2

How to Login to Career Page

CETTE FOIS CEST DIFFERENT PDF

Get Instant Access to ebook Cest Maintenant PDF at Our Huge Library CEST MAINTENANT PDF. ==> Download: CEST MAINTENANT PDF

SMALL CITY COMMERCE (EL PEQUEÑO COMERCIO DE LAS PEQUEÑAS CIUDADES)

DOCUMENTATION - FRANCAIS... 2

Quatre axes au service de la performance et des mutations Four lines serve the performance and changes

: Machines Production a créé dès 1995, le site internet

3615 SELFIE. HOW-TO / GUIDE D'UTILISATION

If you understand the roles nouns (and their accompanying baggage) play in a sentence...

MANUEL MARKETING ET SURVIE PDF

IPv6: from experimentation to services

Tier 1 / Tier 2 relations: Are the roles changing?

Modélisation prédictive et incertitudes. P. Pernot. Laboratoire de Chimie Physique, CNRS/U-PSUD, Orsay

Small Businesses support Senator Ringuette s bill to limit credit card acceptance fees

Institut français des sciences et technologies des transports, de l aménagement

WEB page builder and server for SCADA applications usable from a WEB navigator

Cedric Dumoulin (C) The Java EE 7 Tutorial

Transcription:

[Résumés et abstracts] Modélisation multi-agent de l embryogenèse animale Julien Delile, René Doursat, Nadine Peyriéras Résumé : Nous proposons un modèle computationnel de l embryogenèse animale, accompagné d une plate-forme de simulation appelée MECAGEN, qui est centré sur le couplage physico-chimique entre, d une part, la mécanique cellulaire et, d autre part, la régulation génétique avec signalisation moléculaire. La première crée la forme de l embryon, la deuxième est à la base des différents types cellulaires qui le composent. Bien sûr, ces dynamiques sont toutes deux issues d interactions au niveau moléculaire, elles-mêmes causées par les liaisons chimiques entre atomes. Cependant, au niveau cellulaire, on peut établir une distinction qualitative classique entre phénomènes émergents : la mécanique consiste essentiellement en des déplacements et déformations géométriques de la matière existante ; tandis que la chimie (ici génétique et métabolique) implique des réactions et une production de nouveaux composants. Ce projet vise à étudier les dynamiques multi-échelles des stades précoces de la morphogenèse biologique. Le développement embryonnaire y est vu comme un phénomène auto-organisé qui émerge d influences mutuelles entre comportements mécaniques et propriétés moléculaires au sein d une myriade de cellules. Les caractéristiques mécaniques des cellules (taux de division, forces d adhérence, motilité intrinsèque) sont étroitement corrélées avec leurs produits génétiques (concentrations de protéines et ligands), en fonction de leur localisation spatiale. Dans une seconde partie, nous illustrons ce modèle avec des expériences artificielles de régulation des gènes et de tri cellulaire. Le modèle et les simulations MECAGEN ont pour but de valider ou falsifier les hypothèses des biologistes sur les mécanismes de l embryogenèse. En intégrant différents processus et épisodes du développement en un tout cohérent, ils fournissent un outil expérimental et prédictif virtuel pour l étude des organismes vivants, qu ils soient sains ou pathologiques. Leur ambition est d ouvrir la voie vers de nouveaux types de tests pharmacologiques et toxicologiques in silico. Modéliser et simuler les chromosomes : propriétés physiques et fonctions biologiques Pascal Carrivain, Jean-Marc Victor et Annick Lesne Résumé : Une question centrale et encore ouverte de la biologie est de comprendre les mécanismes qui contrôlent l expression des gènes, dans des situations aussi bien normales que pathologiques. Nous défendons ici l idée que ces mécanismes impliquent de façon essentielle les propriétés physiques

2 F. Varenne, M. Silberstein, S. Dutreuil, P. Huneman (dir.) Modéliser & simuler, tome 2 de l ADN, du chromosome, et du niveau d organisation intermédiaire qu est la fibre de chromatine. Ces propriétés imposent de fortes contraintes géométriques, électrostatiques ou mécaniques qui doivent être contournées, ou au contraire utilisées, suivant les cas, par des facteurs biologiques spécifiques. Tant la mise en œuvre de cette idée que sa validation expérimentale passent par la modélisation du génome, de son organisation et de sa dynamique. Cette modélisation doit être multi-échelles et rendre compte des relations réciproques entre les caractéristiques des éléments (ici les bases de l ADN, ou bien les sites génomiques, ou bien les boucles de chromatine suivant l échelle envisagée) et les propriétés de leur assemblage. Elle doit aussi s appuyer sur notre connaissance des fonctions biologiques en jeu, pour ne retenir que les ingrédients essentiels. Des prédictions quantitatives, pouvant être confrontées aux observations disponibles in vitro et in vivo, sont obtenues par des outils de simulation innovants, inspirés des jeux vidéo et adaptés au contexte biophysique. Cette approche ouvre une nouvelle voie d étude de la régulation génétique et épigénétique des organismes vivants. Abstract : A central and yet still open question in biology is to understand mechanisms that control gene expression in either normal or pathological situations. We here argue that these mechanisms involve in an essential way the physical properties of the DNA, the chromosomes, and the intermediary level of organization achieved by the chromatin fiber. These properties reflect in strong geometrical, electrostatic and mechanical constraints, that have to be circumvented or harnessed by the --- most often specific --- biological factors. Both the implementation and the validation of this idea rely on the modeling of the genome, its organization and its dynamics. This modeling has to be multi-scale and to account for the reciprocal couplings between the elements characteristics (elements being here either the DNA bases, or genomic loci, or chromatin loops according to the considered scale) and the features of their assembly. It has also to rely on our knowledge of biological functions, so as to adequately prune the details and keep only the essential ingredients. Quantitative predictions, that could be confronted to available in vitro or in vivo observations, are obtained using novel simulation, «physical engines», inspired of video games and adapted to the biophysical context. This approach opens a new direction for investigating genetic and epigenetic regulation of living organisms. Aléatoire et variabilité dans les sciences du vivant Paul Villoutreix Résumé : Depuis Darwin nous savons que la diversité du vivant est nécessaire au maintien de la vie. La variabilité est au centre de ce processus. Pourtant la grande variété des processus dont elle est issue fait que son statut théorique est encore flou. La question se pose lorsqu il s agit de modéliser cette variabilité, doit-on considérer qu il s agit d un phénomène aléatoire?

Résumés Abstracts 3 Et dans ce cas, de quelle forme d aléatoire s agit-il? Les probabilités nous offrent un cadre pour faire du calcul sur des phénomènes aléatoires, ayant différentes origines, que ce soit dans les phénomènes chaotiques, ergodiques, quantiques ou en termes algorithmiques, et dont les caractéristiques diffèrent en fonction des domaines étudiés. La spécificité des processus biologiques, l inséparabilité des objets biologiques de l histoire qui les a constitués, entraîne une irréductibilité de la variabilité à des notions déjà constituées. La persistance de deux approches incompatibles des objets en biologie ouvre de nouvelles perspectives pour leur étude. La complexité organisationnelle du vivant, dont la reconstruction phénoménologique cherche à tenir compte, donne au modèle un rôle particulier de condition d accès à l expérience. Abstract : Since Darwin we know that the diversity of life is necessary for life to be maintained. Variability is central to this process. But the wide variety of processes from which it comes from, implies that its theoretical status is still unclear. The question arises when it comes to model this variability, should we consider it to be a random phenomenon? And if so, what form of randomness is it? Probability theory provides a framework for the calculus over random phenomena, with different origins, either in chaotic phenomena, ergodic, or quantum algorithmic terms, and whose characteristics differ depending on the areas studied. The specificity of biological processes, the inseparability of biological objects from their constitutive history, leads to an irreducibility of the variability to concepts already established. The persistence of two incompatible approaches to the objects in biology opens new perspectives for their study. The organisational complexity of the living, which is described by the phenomenological reconstruction, gives to modelling a particular role of condition of access to experience. Simulations stochastiques et calcul à haute performance : la «parallélisation» des générateurs de nombres pseudo-aléatoires David R.C. Hill Résumé : Les simulations stochastiques parallèles sont sensibles, d une part, à la qualité de la source aléatoire qu on leur fournit et d autre part, à la technique de parallélisation des flux stochastiques utilisés. Ces deux aspects caractérisent très souvent la qualité statistique des résultats. Les développements récents utilisent parfois des milliers de milliards de nombres pseudo-aléatoires nécessitant l utilisation de calculateurs parallèles et de générateurs adaptés. Les simulations stochastiques sont de plus en plus fréquemment considérées pour le calcul distribué à haute performance, cependant cela suppose une bonne connaissance des générateurs modernes et des techniques adaptées pour leur utilisation pour du calcul parallèle. Nous présentons dans ce chapitre les meilleurs générateurs modernes de nombres pseudo-aléatoires (PRNG - PseudoRandom Number Generator) du moment, affichant d excellentes propriétés statistiques et disponibles

4 F. Varenne, M. Silberstein, S. Dutreuil, P. Huneman (dir.) Modéliser & simuler, tome 2 aussi bien pour des CPUs que pour du calcul Hybride avec des accélérateurs GP-GPUs (General-Purpose Graphical Processing Units). Nous présentons aussi l éventail des techniques de parallélisation qui devraient être utilisées pour les applications de calcul à haute performance stochastique. Abstract : Parallel stochastic simulations are sensitive on the one hand, to the quality of the random source that feeds them and on the other hand, to the parallelization techniques used for the stochastic flows. These two aspects often characterize the statistical quality of the results. Recent developments sometimes use trillions of pseudo- random numbers that require the use of appropriate parallel computers and generators. Stochastic simulations are increasingly being considered for high performance distributed computing, however it requires a good knowledge of modern generators and appropriate techniques for their use in parallel computing. We present in this chapter the best current modern generators of pseudo -random numbers (PRNG - Pseudorandom Number Generator), displaying excellent statistical properties and available for CPUs as well as for the Hybrid computing with hardware accelerators like GP-GPUs (General-Purpose Graphical Processing Units). We also present the range of parallelization techniques that should be used for applications in stochastic high performance computing. Modélisation multiparadigme pour la conception des systèmes Frédéric Boulanger Résumé : La complexité des systèmes ne peut être traitée que par l abstraction sous forme de modèles, et la décomposition de ces modèles en éléments plus simples. Cela suppose que l on puisse ensuite combiner les sous-systèmes correspondants pour obtenir un système complet. Ceci est en général difficile, et les méthodes permettant de traiter l intégration de composants en un système doivent prendre en compte l hétérogénéité de ces composants, ce qui oblige à décrire explicitement comment interagissent les différents paradigmes utilisés pour les modéliser. La déduction mathématique et la théorie physique Exemple de solutions numériques physiquement utiles Sara Franceschelli Résumé : Cette étude vise à montrer comment le météorologue Edward Lorenz, dans deux papiers de 1963 et 1964, explore les propriétés des systèmes chaotiques par des allers-retours entre une déduction mathématique (basée sur la théorie des systèmes dynamiques) et une étude des solutions numériques du système dit «de Lorenz» dans un régime d instabilité. Abstract : This study aims at showing how the metereologist Edward Lorenz, in two papers of 1962 and 1964, explores the properties of chaotic systems thanks to the interplay between a mathematical deduction (based

Résumés Abstracts 5 on dynamical systems theory) and a study of the mathematical solutions of the Lorenz system in an unstability regime. Contraintes et ressources computationnelles dans l histoire de la chimie des protéines (1960-1980) Frédéric Wieber Résumé : Ce chapitre discute du développement d une chimie computationnelle des protéines au cours des années 1960 et 1970, en soulignant comment l ordinateur a pu façonner les pratiques de modélisation et de simulation des biophysiciens et biochimistes, tout comme leurs collaborations avec des spécialistes de physique statistique. Tout d abord, je rappelle brièvement pourquoi les chimistes théoriciens ont adopté, après la seconde guerre mondiale, les ordinateurs électroniques. Ceci permet d appréhender plus clairement la situation épistémologique contrainte dans laquelle se trouvaient les approches théoriques en chimie des protéines dans les années 1960. La nature des modèles de structure des protéines qui ont été construits à cette époque est alors analysée, afin de souligner le statut des données empiriques au sein de telles pratiques de modélisation et l impact de l utilisation de l ordinateur sur la généralité et la fécondité de la procédure de modélisation ayant été développée. J examine enfin comment une méthode de simulation ayant été développée en physique statistique a été adaptée à l étude des protéines. Pour une telle adaptation, des spécialistes de la méthode (provenant de la physique statistique) ont collaboré avec des chimistes des protéines. Je souligne comment l accessibilité des calculateurs et leur puissance de calcul ont conduit à cette collaboration concrète, ayant notamment permis un échange de savoir-faire et de logiciels. Abstract : This chapter discusses the development of computational protein chemistry during the 1960 s and 70 s, by focusing on the ways computer, as a technological instrument, has shaped the modeling and simulating practices of protein physical chemists, as well as their collaborations with statistical physicists. I first recall briefly why theoretical chemists have adopted electronic computers after World War II, so as to understand more clearly the constrained epistemological situation of theoretical approaches in protein chemistry in the 1960 s. I then analyze the nature of the models of protein structure that have been constructed, in order to emphasize the status of empirical data within such modeling practices and the impact of computer on the generality and fecundity of the modeling procedure devised. Next, I examine the adaptation of a simulation method, developed in the field of statistical physics, to proteins. For this adaptation, specialists of the method (from statistical physics) collaborated with protein theorists. I stress how computer s accessibility and computing facilities have led to this practical collaboration among scientists.

6 F. Varenne, M. Silberstein, S. Dutreuil, P. Huneman (dir.) Modéliser & simuler, tome 2 Modéliser et simuler les chromosomes :propriétés physiques et fonctions biologiques Pascal Carrivain, Jean-Marc Victor et Annick Lesne Résumé : Une question centrale et encore ouverte de la biologie est de comprendre les mécanismes qui contrôlent l expression des gènes, autant dans des situations normales que pathologiques. Nous défendons ici l idée que ces mécanismes impliquent de façon essentielle les propriétés physiques de l ADN, du chromosome, et du niveau d organisation intermédiaire qu est la fibre de chromatine. Ces propriétés imposent de fortes contraintes géométriques, électrostatiques ou mécaniques qui doivent être contournées, ou bien utilisées, suivant les cas, par les facteurs biologiques spécifiques. Autant la mise en œuvre de cette idée que sa validation expérimentale passent par la modélisation du génome, de son organisation et de sa dynamique. Cette modélisation doit être multi-échelles et rendre compte des relations réciproques entre les caractéristiques des éléments (ici les bases de l ADN, ou bien les sites génomiques, ou bien les boucles de chromatine suivant l échelle envisagée) et les propriétés de leur assemblage. Elle doit aussi s appuyer sur notre connaissance des fonctions biologiques en jeu, pour ne retenir les ingrédients essentiels. Des prédictions quantitatives, pouvant être confrontées aux observations disponibles in vitro et in vivo, sont obtenues par des outils de simulation innovants, inspirés des jeux vidéo et adaptés au contexte biophysique. Cette approche ouvre une nouvelle voie d étude de la régulation génétique et épigénétique des organismes vivants. Modélisation et simulation adaptatives pour les nanosciences Stéphane Redon Résumé : Au cours du XX e siècle, le développement de l ingénierie macroscopique a été fortement soutenu par les progrès en matière de conception et de prototypage numérique : les voitures, les avions, les bateaux, et de nombreux autres objets manufacturés sont aujourd hui, pour la plupart, conçus et testés sur des ordinateurs. Le XXI e siècle connaît une évolution similaire pour les systèmes nanoscopiques. Dans ce chapitre, nous discutons le besoin croissant en modélisation et en simulation pour les nanosciences, et présentons quelques méthodes adaptatives ainsi que leurs applications à l étude et à la conception de nanosystèmes. Abstract : During the twentieth century, the development of macroscopic engineering was strongly supported by advances in digital design and prototyping : cars, planes, boats, and many other manufactured goods are now, for the most part, designed and tested on computers. The twenty-first century is witnessing a similar trend for nanoscopic systems. In this chapter, we discuss the growing need for modeling and simulation for nanoscience

Résumés Abstracts 7 and present some adaptive methods and their application to the study and design of nanosystems. Comprendre le climat pour le prévoir? Sur quelques débats, stratégies et pratiques de climatologues modélisateurs Hélène Guillemot Résumé : Les modèles numériques du climat ont à la fois un objectif de connaissance et un objectif pratique de prévision. La place centrale de la modélisation du climat dans l expertise du changement climatique conduit à privilégier la fonction de simulation et de prévision ; d autre part la complexi té et le caractère holistique des modèles peuvent sembler compromettre tout espoir de relier les simulations du climat à la façon dont les processus physiques sont formulés dans les modèles. On verra dans ce chapitre que la compréhension joue pourtant un rôle important dans les stratégies, les discours mais aussi les pratiques de climatologues modélisateurs pour analyser les simulations comme pour développer les modèles, c est-à-dire des paramétrisations. Il y a chez les modélisateurs une grande diversité de pratiques et de conceptions des modèles, de leurs limites, de ce qu ils permettent de prédire ou de comprendre ; on évoquera les débats qui agitent ces communautés scientifiques sur le développement de la modélisation et les stratégies de recherche sur le climat et le changement climatique. L analogie de l agent maximisateur en biologie Johannes Martens Résumé : En biologie évolutive, il est courant d envisager les organismes au sein des populations naturelles sur le modèle d agents «rationnels» et «désireux» de maximiser la contribution de leurs gènes aux générations suivantes. Cette approche analogique, d abord apparue au sein de l écologie comportementale et de la théorie de l évolution sociale, fut récemment dénommée par Elliott Sober l heuristique de la personnification, et se trouve souvent utilisée par les modélisateurs en vue d élaborer un certain nombre de scénarios adaptatifs au sujet des caractères des organismes sans pour autant que l on dispose d un modèle exact de la relation entre les génotypes et les phénotypes. L idée consiste alors à supposer que le trait que «choisirait» un individu si celui-ci avait le choix entre différentes stratégies phénotypiques possibles est aussi celui que la sélection naturelle a dû favoriser dans cette même population. Le plus souvent, cette analogie fournit au modélisateur une approche à la fois commode et intuitive pour représenter l action de la sélection naturelle. Toutefois, les conditions d applications de cette analogie ne sont pas toujours correctement explicitées en biologie. Dans cet article, nous nous proposons donc de clarifier la nature de ces conditions, en mettant l accent sur deux sources majeures de confusion auxquelles peut

8 F. Varenne, M. Silberstein, S. Dutreuil, P. Huneman (dir.) Modéliser & simuler, tome 2 donner lieu l analogie de l agent maximisateur lorsque celle-ci se trouve utilisée comme modèle de la sélection naturelle. Abstract : In evolutionary theory, it is common to envisage organisms within natural populations as if they were rational agents striving to maximize their genetic contribution to the next generation. This approach, which goes back to the rise of behavioral ecology and social evolution theory, has been dubbed by Sober the heuristic of personification, and is often used by biologists as a shorthand to build adaptive scenarios for particular traits, without requiring an exact model of the relationship between the genotypes and the phenotypes. The core idea behind this mode of reasoning is quite simple : what would be chosen by a biological individual, if he was given the ability to choose rationally among several possible phenotypic strategies the one which would maximize its fitness, is also the trait one could expect to be favored by natural selection. Most of the time, this analogy provides the modeler with both an intuitive and convenient way of looking at the process of natural selection. However, the conditions for applying this method are rarely made explicit in biology. In this paper, we thus propose to clarify the nature of these conditions, in shedding light on two major sources of confusion concerning the use of the maximizing agent analogy as a model of natural selection. La modélisation toxico/pharmacocinétique à fondement physiologique : son rôle en évaluation du risque et en pharmacologie Céline Brochot, Marie-Emilie Willemin, Florence Zeman Résumé : La pharmacocinétique étudie qualitativement et quantitativement le devenir de xénobiotiques dans un organisme vivant. Les modèles pharmacocinétiques à fondement physiologique (appelés aussi PBPK pour physiologically based pharmacokinetic) permettent de comprendre et simuler l évolution de la concentration d une substance dans les différents organes et fluides de l organisme tout en se basant sur une description réaliste (i.e., anatomique, physiologique et biochimique) des processus d absorption, de distribution, de métabolisme et d excrétion. De par la description des processus mis en jeu, ces modèles offrent un cadre mécanistique pour réaliser les extrapolations inhérentes aux domaines de la toxicologie et de la pharmacologie (entre espèces, doses d exposition ) et pour intégrer des informations sur la substance obtenues par diverses sources (expérimentations in vitro ou in vivo, modèles structure-activité ). Dans ce chapitre, nous commençons par décrire les différentes étapes nécessaires au développement d un modèle PBPK. Ensuite nous présentons plusieurs applications des modèles PBPK en évaluation du risque toxicologique (caractérisation de la relation entre la dose d exposition et les effets toxiques, et interprétation des données de

Résumés Abstracts 9 biosurveillance humaine) mais aussi dans le domaine de l industrie pharmaceutique lors du développement d une nouvelle substance thérapeutique. Abstract : Pharmacokinetics is the study of the fate of xenobiotics in a living organism. Physiologically based pharmacokinetic (PBPK) models represent a quantitative mechanistic framework to understand and simulate the time-course of the concentration of a substance in various organs and body fluids. PBPK models provide a realistic description the absorption, distribution, metabolism and excretion processes. A PBPK model subdivides the body into compartments representing organs, and model parameters refer to anatomical, physiological, biochemical and physicochemical entities. These models are a tool well-suited for performing extrapolations inherent to toxicology and pharmacology (between species, doses ) and for integrating data obtained from various sources (in vitro or in vivo experiments, structure-activity models ). In this chapter, we first describe the development of a PBPK model from model building to the implementation in dedicated software. Then we present applications of PBPK models in toxicological risk assessment (characterization of the relationship between the exposure dose and the toxic effects, and interpretation of human biomonitoring data) and in pharmaceutical industries.