LA METHODE KANGOUROU

Dimension: px
Commencer à balayer dès la page:

Download "LA METHODE KANGOUROU"

Transcription

1 REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L' ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D'ORAN -MOHAMMED BOUDIAF- USTO-MB Faculté des Sciences Département d'informatique Sujet : LA METHODE KANGOUROU Présenté Par : BENYETTOU Assia OPTION : R.F.I.A Module : Responsable du module : Optimisation Avancée M r BENYETTOU MOHAMED

2 Sommaire Introduction 2 1.Definition Propriétés des métaheuristiques Classification Les méthodes exactes Les méthodes approchés Descente stochastique Schéma général de la descente stochastique Algorithmes basés sur la descente stochastique Méthode de descente aléatoire répétée..6 3.Evolution de descente stochastique (le recuit simulé).7 4.Du recuit simulé à l algorithme de Kangourou La méthode Kangourou Notion de voisinage Principe L algorithme du Kangourou Procédure de descente Procédure de saut Explication Les paramètres de l algorithme Avantages.15 6.Exemple de la méthode..15 Conclusion.17 Bibliographie.18 Liste des figures Figure1 :Les différentes catégories de méthode.4 Figure2 :Espace de recherche et voisinage. 9 Figure3 :La descente pour trouver un minimum local..10 Figure4 :La recherche d'un minimum local.. 11 Figure5 : Utilisation des stratégies de sélection de paramètres...13 Figure6 :Les composants d'une porte Peugeot

3 Introduction L'optimisation combinatoire est une voie d'études importante en recherche opérationnelle, en mathématiques discrètes et en informatique. Typiquement, les problèmes d'optimisation combinatoire sont faciles à définir mais difficiles à résoudre. En effet, la plupart de ces problèmes appartiennent à la classe des problèmes NP-difficiles et ne possèdent donc pas à ce jour de solution algorithmique efficace. Pour la résolution des problèmes d optimisation combinatoire de nombreuses méthodes ont été développées en Recherche Opérationnelle (RO) et en Intelligence Artificielle (IA) afin de résoudre ces problèmes. Ces méthodes peuvent être classées en deux grandes catégories : - Les méthodes exactes (complètes) capables de trouver la solution optimale si elle existe, - Les méthodes approchées (incomplètes) qui perdent la complétude afin de gagner en efficacité. Certaines méthodes ont permis de trouver des résultats optimaux pour des problèmes de taille raisonnable, mais comme le temps de calcul nécessaire pour trouver une solution risque de croître de façon exponentielle avec la taille du problème, les méthodes exactes rencontrent des difficultés dans le cas de problèmes de taille importante, mais les méthodes approchées ont prouvé leur efficacité dans ce domaine et de trouver des solutions pour des problèmes de grande taille. Depuis une trentaine d années une nouvelle génération de méthodes puissantes est apparue et qui s appelle «Métaheuristiques». 1. Définition Les métaheuristiques sont une nouvelle génération de méthodes approchées puissantes et générales, qui sont constituées d un ensemble de concepts fondamentaux et qui permettent d'aider à la conception des méthodes heuristiques pour un problème d'optimisation, ainsi les métaheuristiques sont adaptables et applicables à une large classe de problèmes. Grâce à ces métaheuristiques, on peut proposer aujourd'hui des solutions approchées pour des problèmes d'optimisation classiques de plus grande taille et pour de très nombreuses applications qu'il était impossible de traiter auparavant, comme on constate, depuis ces dernières années, que l'intérêt porté aux métaheuristiques augmente continuellement en recherche opérationnelle et en intelligence artificielle. [NET] 1.1. Propriétés des métaheuristiques On peut résumer les différentes propriétés des métaheuristiques dans les points suivants: - Les métaheuristiques sont des stratégies qui permettent de guider la recherche à une solution optimale. - Le but visé par les métaheuristiques est d explorer l espace de recherche efficacement afin de déterminer des solutions (presque) optimales. - Les techniques qui constituent des algorithmes de type métaheuristique vont de la simple procédure de recherche locale à des processus d apprentissage complexes. - Les métaheuristiques sont en général non déterministes et ne donnent aucune garantie d optimalité. - Les métaheuristiques peuvent contenir des mécanismes qui permettent d éviter d être bloqué dans des régions de l espace de recherche. - Les concepts de base des métaheuristiques peuvent être décrits de manière abstraite. 2

4 - Les métaheuristiques peuvent faire appel à des heuristiques qui tiennent compte de la spécificité du problème traité, mais ces heuristiques sont contrôlées par une stratégie de niveau supérieur. - Les métaheuristiques peuvent faire usage de l expérience accumulée durant la recherche de l optimum, pour mieux guider la suite du processus de recherche. 1.2.Classification On peut classifier les métaheuristiques selon plusieurs façons l une de ces façons est de distinguer celles qui travaillent avec une population de solutions de celles qui ne manipulent qu une seule solution à la fois. Les méthodes qui tentent itérativement d améliorer une solution sont appelées méthodes de recherche locale ou méthodes de trajectoire par exemple on a : la descente, la méthode Tabou, le Recuit Simulé, Colonies de Fourmies, la recherche à Voisinages Variables, et autres. Ces méthodes construisent une trajectoire dans l espace des solutions en tentant de se diriger vers des solutions optimales. Les méthodes qui travaillent avec une population de solutions explorent l espace de recherche et tentent à trouver des solutions approchées et parmi ces méthodes on a les algorithmes génétiques, les algorithmes mémétiques, la recherche dispersée, etc.etant donnée l'importance de ces problèmes, de nombreuses méthodes de résolution ont été développées. Ces méthodes peuvent être classées sommairement en deux grandes catégories : Les méthodes exactes (optimales) : Parmi les méthodes exactes, on trouve la plupart des méthodes traditionnelles (développées depuis une trentaine d'années) telles les techniques de séparation et évaluation progressive (SEP) ou les algorithmes avec retour arrière. Les méthodes exactes ont permis de trouver des solutions optimales pour des problèmes de taille raisonnable. Les méthodes exactes rencontrent généralement des difficultés face aux applications de taille importante Les méthodes approchées (heuristiques) : Elles sont généralement utilisées quand les méthodes optimales ne permettent pas de résoudre le problème en un temps acceptable. Elles constituent une alternative très intéressante pour traiter les problèmes d'optimisation de grande taille si l'optimalité n'est pas primordiale. On peut citer les méthodes gloutonnes et l'amélioration itérative. 3

5 Les Méthodes de Résolution Méthodes Exactes ou Optimales Méthodes Approchées ou Heuristiques Heuristiques classiques Méta-Heuristiques Méthodes basées sur La Théorie des Graphes Méthodes par recherche arborescente ou Procédures par Séparation et Évaluation (PSE) (Branch and Bound) Heuristique de Benhamamouche Heuristiques de Chen et Chern Heuristique d Efe Méthode Kangourou MK Recuit Simulé RS Recherche Tabou RT Algorithmes à Seuil Méthode de Seuil Tabou Méthodes Par Linéarisation Heuristique Simple (HRS) ou de Regroupement Méthode de de Descente Stochastique Algorithmes Génétiques AG Réseaux de Neurones RN Systèmes de Fourmis SF Figure 1 : Les différentes catégories de méthodes [BELKADI 2006] 4

6 2. Descente stochastique La recherche locale, appelée aussi la descente stochastique, amélioration itérative ou Hill Climbing, représente une classe de méthodes heuristiques très anciennes (1956). Traditionnellement, la recherche locale constitue une arme redoutable pour attaquer des problèmes réputés très difficiles tels que le voyageur de commerce et la satisfaction des clauses, Contrairement à l'approche de construction, la recherche locale manipule des configurations complètes durant la recherche. Une méthode de recherche locale est un processus itératif fondé sur deux éléments essentiels un voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration quelconque s de V, 2. Choisir un voisin s de s tel que H (s ) < H(s) et remplacer s par s et à répéter 2) jusqu'à ce que pour tout voisin s de s, H (s )> H(s). Cette procédure fait intervenir à chaque itération le choix d un voisin qui améliore strictement la configuration courante. Plusieurs possibilités peuvent être envisagées pour effectuer ce choix. Il est possible d'énumérer les voisins jusqu'à ce qu'on en découvre un qui améliore strictement (première amélioration). On peut également rechercher le meilleur voisin (meilleure amélioration). Cette dernière solution peut sembler plus coûteuse, mais le voisin découvert sera en général de meilleure qualité. 3. De plus, l'utilisation d'une structure de données appropriée peut souvent permettre de trouver directement ce meilleur voisin. Comme l'espace des solutions est fini, cette procédure de descente s'arrête toujours, et la dernière configuration trouvée ne possède pas de voisin strictement meilleur qu'elle-même. Autrement dit, la recherche locale retourne toujours un optimum local. L'avantage principal de cette méthode réside dans sa grande simplicité et sa rapidité. Mais les solutions produites sont souvent de qualité médiocre et de coût très supérieur au coût optimal. Pour remédier à ce problème, la solution la plus simple est la méthode de relance aléatoire qui consiste à générer une nouvelle configuration de départ de façon aléatoire et à recommencer une descente. On remarque cependant que cette solution ne tire aucun profit des optima locaux déjà découverts. Une autre solution consiste à accepter des voisins de même performance que la configuration courante. Cette approche permet à la recherche de se déplacer sur les plateaux, mais n'est pas suffisante pour ressortir de tous les optima locaux. La recherche locale est à la base des métaheuristiques comme la méthode Tabou et des méthodes hybrides. Notons enfin qu on trouve également l idée de recherche locale dans le célèbre algorithme du simplexe pour la programmation linéaire. 5

7 2.1. Schéma général de la descente stochastique : H : la fonction objective Best : la meilleure solution rencontrée V : le voisinage Engendrer une configuration initiale Y Best := Y ; % best est la meilleur solution rencontrés Tant que Best n est pas un optimum local, répéter Choisir y dans V(Best) tel que H(Y) < H(Best) Best := Y Fin Retourner Best 2.2. Algorithmes basés sur la descente aléatoire : La plupart des métaheuristiques à base de solution unique sont des améliorations de la méthode de descente aléatoire. Les plus simples sont des variantes de la descente aléatoire répétée, qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans l espace de recherche, et la méthode du Kangourou, qui sera présentée plus loin Méthode de Descente Aléatoire répétée : Dans une descente aléatoire répétée, un seul point est tiré de façon aléatoire, puis utilisé pour démarrer une optimisation locale. Un élément notable de cette procédure est que le point initial ainsi obtenu peut être très éloigné de l optimum global. Une amélioration possible consiste à tirer aléatoirement plusieurs points, et à choisir le meilleur pour démarrer l optimisation locale, en évitant ainsi d intensifier la recherche dans les régions peu prometteuses. La méthode décrite dans l algorithme qui suit utilise une population de points initiaux, qu elle met à jour avec de nouveaux points tirés de manière aléatoire après chaque optimisation locale. Le meilleur point de cette population est utilisé pour démarrer une descente aléatoire, après qu.il ait été éliminé de la population. 6

8 L algorithme de la Descente aléatoire répétée à base de population de points initiaux est comme suit : L algorithme ci-dessus peut être vu comme une répétition de deux étapes : Une étape d exploration, qui consiste à construire des points par échantillonnage aléatoire dans l espace de recherche, et une étape d exploitation, dans laquelle on démarre une descente à partir du meilleur point obtenu au cours des explorations précédentes. Dans l étape exploratoire, nous utiliserons la stratégie d initialisation (SI), ce qui permettra de sélectionner un sous-ensemble de paramètres intéressants. On utilisera ensuite la stratégie (SM) avec la mutation de descente, pour intensifier la recherche dans l espace des paramètres sélectionnés lors de l exploration. 3. Evolution de descente stochastique : le recuit simulé [GOURGAND ET AL, 2003] La méthode du recuit simulé s'inspire du processus du recuit physique. Ce processus utilisé en métallurgie pour améliorer la qualité d'un solide cherche un état d'énergie minimale qui correspond à une structure stable du solide. En partant d'une haute température à laquelle le solide est devenu liquide, la phase de refroidissement conduit la matière liquide à retrouver sa forme solide par une diminution progressive de la température. Chaque température est maintenue jusqu'à ce que la matière trouve un équilibre thermodynamique. Quand la température tend vers zéro, seules les transitions d'un état à un état d'énergie plus faible sont possibles. Les origines du recuit simulé remontent aux expériences réalisées par Metropolis et al. Dans les années 50 pour simuler l'évolution d'un tel processus de recuit physique. Metropolis et al utilisent une méthode stochastique pour générer une suite d'états successifs du système en partant d'un état initial donné. Tout nouvel état est obtenu en faisant subir un déplacement (une perturbation) aléatoire à un atome quelconque. 7

9 4. Du recuit simulé à l algorithme de kangourou [GOURGAND ET AL, 2003] La première idée consiste à utiliser un "recuit à température constante", c'est à dire que l'on fixe la température T de sorte que l'on accepte un certain nombre de transitions défavorables, mais pas trop. On sait, dans ces conditions, quelle est la probabilité stationnaire, sous les hypothèses d'accessibilité, homogénéité et symétrie Le choix de T conditionne évidement la qualité de concentration de la probabilité stationnaire au voisinage des états optimaux. Parmi ceux-ci, l'algorithme le plus simple est celui de la descente stochastique, dont, bien sûr, la convergence n'est pas assurée, contrairement au cas T>0, les états ne communiquant pas nécessairement. Par exemple, on peut effectuer des descentes stochastiques successives, c'est-à-dire qu'à l'issue d'une descente stochastique, lorsque l'état optimal actuel est resté de même coût durant un temps trop long, on repart d'un état initial aléatoire, pour une autre descente stochastique Analysons le comportement des algorithmes du recuit. Dans beaucoup de situations, il s'avère que la descente stochastique, si elle ne garantit pas l'obtention de l'optimum, conduit à un état d'énergie proche du minimum, et en un temps plus court que le recuit simulé à température non nulle. Lorsque le cardinal des états possibles est très grand devant le nombre de tirages aléatoires que l'on a le temps de faire, c'est donc la descente stochastique qui semble être la meilleure méthode. D'ailleurs, quand on examine une trajectoire d'un algorithme classique du recuit, on constate généralement deux phases : dans une première, la chute de la fonction à minimiser est rapide, et le "record" est battu à intervalles proches, puis, dans une deuxième, la descente est lente et des intervalles de plus en plus longs séparent deux instants où s'améliore le record. Or, dans un recuit classique, c'est justement dans la première phase que l'on va accepter le plus de transitions défavorables, alors que c'est plutôt dans la seconde que ce serait nécessaire, pour sortir d'un minimum local. La démonstration du théorème de Hajek repose sur la divergence d'une série, or il n'est pas question de laisser l'algorithme de Metropolis se dérouler indéfiniment, et l'argument permettant d'assurer que la chaîne de Markov construite finira bien par stationner en un optimum, après avoir franchi les barrières séparant éventuellement la vallée où se trouve l'état actuel de la vallée contenant un optimum, reposant sur l'infini, ne tient plus. 8

10 5. La méthode Kangourou: La méthode Kangourou est une technique d approximation fondée sur la descente stochastique qui consiste à faire une descentee aléatoire à partir de plusieurs points choisis de façon aléatoire dans l espace de recherche. Elle a été proposée par Gérard Fleury 1 en Inspiré par la méthode du recuit simulé, mais avec une stratégie très différente de recherche [SEBRENCU ET AL, 2007]. La descente stochastique n est en fait qu un cas particulier de l algorithme du kangourou (cas où le nombre de sauts est nul) [BELKADI 2006] Notion de voisinage : DEFINITION: Soit X l'ensemble des configurations admissibles d'un problème, on appelle voisinage toute application N : X 2 X. On appelle mécanisme d'exploration du voisinage toute procédure qui précise comment la recherche passe d'une configuration s X à une configuration s N(s). Une configuration s est un optimum (minimum) local par rapport au voisinage N si f(s) f(s ) pour toute configuration s N(s). [HAO ET AL., 1999] Figure 2 : Espace de recherche et voisinage 1 Gérard FLEURY : Maître de conférenc ces à l'université Blaise Pascal, Gérard Fleury est directeur de l'irem (Institut de recherche sur l'enseignement des Mathématiques). Membre du laboratoire de Mathématiques, ses recherches portent sur les probabilités numériques et leur utilisation en ingénierie. 9

11 5.2. Principe [DUTA,2006] La méthode est un algorithme itératif qui minimise une fonction objectif f(u). L algorithme explore l'espace des solutions dans le voisinage N(u) en choisissant à chaque fois la meilleure solution voisine u* de la solution courante u. La recherche de la meilleure solution voisine est un problème qui peut être aussi difficile que le problème initial. Figure 3 : La descente pour trouver un minimum local Soit u 0 une solution admissible du problème d'optimisation. Par des déplacements successifs l'algorithme de Kangourou cherche une solution qui minimise la fonction f dans un voisinage de la solution courante. Si la solution u i est meilleure que la solution précédente, elle est mémorisée et une nouvelle solution est cherchée dans le même voisinage. Si la solution u i n'est pas meilleure que la solution précédente, l'algorithme trouve un autre voisinage par un saut. Après un nombre d'itérations un minimum local u* est trouvé. 10

12 Ce minimum est plus ou moins proche du minimum global (figure 3). Dans le cas idéal le minimum local u* est le même avec le minimum globall ug. Figure 4 : La recherche d'un minimum local dans le voisinage de la solution courante 5.3. L algorithme du Kangourou : [TALBI, 2004] Notations : x : état courant. x* : meilleur état rencontré à l'itération courante. C : compteur d'itérations entree deux améliorations de la solution. A : le nombre maximal d'itérations sans l'amélioration de la solution courante. f : la fonction objectif. 11

13 5.3.1-Procédure de descente : Répéter ns fois : 1 : Appliquer la mutation η2 à la solution courante : 2 : 3 : Procédure de saut : x 1 η2(x) ; Si f (x 1 )= f (x) alors aller en 5 ; * Si f (x 1 ) < f (x ) alors Mettre à jour la meilleure solution rencontrée : x * x 1 ; 4 : Réinitialiser le compteur de stationnement C 0 ; 5 : Mettre à jour la solution courante : x x 1 ; 6 : Incrémenter le compteur de stationnement : C C+1 1 : Appliquer la mutation η1 à la solution courante : x 1 η1(x) ; 2 : Si f (x 1 ) > f(x) alors aller en 5 ; 3 : Si f (x 1 ) <f(x) alors C 0 ; 4 : x x 1 ; 5 : C C+1 ; Les mutations η1 et η2 ont été choisies comme suit : η1: mutation uniforme locale. η1 (xi)= xi +(2 γ 1)p, où p est obtenu à partir d une distribution uniforme sur [0,1] et p est un nombre réel (0 < p<1), souvent appelé taille maximum du pas. Cette mutation peut s interpréter comme un déplacement vers un point choisi dans un N-cube centré en x et de côté 2p. η2: mutation uniforme globale. η2(xi)= γ, où γ est obtenu à partir d une distribution uniforme sur [0,1]. La mutation η2 s interprète comme un déplacement aléatoire dans le N-cube [0,1] N. La mutation η2 vérifie bien la propriété d accessibilité, puisqu à partir d un point quelconque de l espace de recherche [0,1] N, il est possible d atteindre tout autre point de cet espace. Les deux mutations η1 et η2 sont utilisées avec des objectifs différents. 12

14 η1 permet de faire un déplacement local (c est-à-dire, vers un point très proche de la solution courante), alors que η2 est utilisée pour effectuer un saut vers un autre bassin d attraction, pour sortir d un optimum local. La figure 5 présente les stratégies de sélection de paramètres utilisées avec l algorithme du Kangourou. Pour intensifier la recherche dans l espace des paramètres sélectionnés, tout en donnant la possibilité aux autres d être sélectionnés eux aussi, une stratégie de type (SM) est utilisée avec la mutation de descente η1. Avec une telle stratégie, seuls les paramètres ayant permis d améliorer la fonction objectif à une itération donnée peuvent être ajoutés à l ensemble des paramètres sélectionnés. A la fin de chaque descente, et avant d effectuer un saut, une stratégie d élimination aléatoire en arrière (SE) est appliquée à la solution courante, afin d éliminer les paramètres inutiles. Ensuite, les sauts sont effectués en utilisant une stratégie d initialisation restreinte (SIR) avec la mutation de saut η2, ce qui permet d éviter l augmentation du nombre de paramètres durant les sauts. La stratégie (SC) est utilisée à chaque comparaison entre solutions. Figure 5 : Utilisation des stratégies de sélection de paramètres au sein de l algorithme du Kangourou. 13

15 L algorithme Kangourou est défini comme suit : 1 : Initialiser la solution courante : x x 0 ; 2 : Initialiser la meilleure solution rencontrée : x * x 0 ; // *une meilleure solution x* est recherché afin de minimiser la fonction objectif f *// 3 : Initialiser le compteur de stationnement : C 1 ; 4 : Si C < A alors // *descente stochastique *// exécuter la procédure de descente : x descente (x, C) ; Sinon exécuter la procédure de saut : x saut (x) ; * 5 : Si x est meilleure que x x * x ; alors 6 : Si le critère d arrêt est atteint alors aller en 4 ; Sinon fin de l algorithme Explication [TALBI, 2004] Après une descente aléatoire avec une mutation η1, si la valeur de la fonction objectif n a pas changé depuis A itérations, plusieurs sauts aléatoires consécutifs sont effectués en utilisant une mutation η2. La mutation η2 n est pas nécessairement la même que η1, mais doit respecter la propriété d accessibilité, c est-à-dire que pour tout couple de points (x, y) de l espace des paramètres, il doit être possible d atteindre y à partir de x, en utilisant une suite finie de mutations de type η2. Cette propriété est suffisante pour garantir la convergence asymptotique de l algorithme. Les deux mutations η1 et η2 sont utilisées avec des objectifs différents. η1 permet de faire un déplacement local (c est-à-dire, vers un point très proche de la solution courante), alors que η2 est utilisée pour effectuer un saut vers un autre bassin d attraction, pour sortir d un optimum local. La première et la deuxième mutation ne sont pas nécessairement les mêmes, mais doivent respecter la propriété d accessibilité de l algorithme Les paramètres : Les paramètres de l algorithme du kangourou sont : le compteur de stationnement, le nombre d itérations, la procédure de descente, la procédure de saut le critère d arrêt. 14

16 5.6.Avantages : Elle présente l avantage de ne pas perdre l information relative aux optima locaux rencontrés. Les résultats obtenus par la méthode du kangourou sont de bonnes qualités avec un temps de calcul modéré. Le fait d effectuer des sauts permet à l algorithme du kangourou de sortir d une vallée c est à dire d un minimum local en sautant les barrières de potentiel. [TALBI 2004] 6. Exemple de la méthode Kangourou [DUTA,2006] [ Le désassemblage d'une porte du modèle Peugeot 106] Dans sa thèse, [DUTA,2006] a appliqué l'algorithme du kangourou sur désassemblage d'une porte du modèle Peugeot 106. Les composants et les temps de désassemblage sont donnés. 1 Paneau garni 2 Vide-poche 3 Accoudoir 4 Garniture d'absorbeur 5 Absorbeur 6 Enjoliveur de poignée Commande manuelle de vitre 70 Vis torx 71 Clip de fixation 72 Agrafe 73 Ecrou plastique 74 Vis torx 75 Agrafe Figure 6 : Les composants d'une porte Peugeot

17 Le tableau représentant Les opérations principales de désassemblage de la porte est comme suit : Nous avons ignoré les opérations annexes comme la prise ou le positionnement d'un outil. -Hypothèses : Il s'agit d'un seul type de produit (Peugeot 106) La période de planification est H = une semaine Le nombre de produits de même type à désassembler est constant S=40 La fonction à optimiser est une fonction d'équilibrage F. Les temps de désassemblage pour les autres composants sont connus. Le temps de cycle est connu et égale à 3600 s pour le désassemblage de la voiture entière. Il y deux postes mixtes où le désassemblage de la porte est réalisé L'exécution de l'algorithme du [Duta, 2006] donne la valeur minimale de la fonction F de 260 s, ce qui est un bon résultat. 16

18 Conclusion La méthode Kangourou offre une solution par une descente stochastique et une transition dans le voisinage de l'état actuel pour trouver une meilleure solution de la solution courante. La méthode donne un optimum local dans un temps acceptable, basé sur le recuit simulé, il permet l étude de problèmes à forte combinatoire.[gourgand et al., 2003] Contrairement à la recherche tabou et aux algorithmes évolutionnistes, la méta-heuristique «méthode Kangourou» n a besoin que d une seule évaluation du critère de performance à chaque itération, ce qui est intéressant du point de vue du temps de calcul. L intérêt de cette méthode est qu elle est facile à mettre en œuvre, elle peut être couplée sans difficulté avec un modèle pour l évaluation des performances et on dispose a tout instant d une solution réalisable. L algorithme du kangourou a beaucoup d avantages car il permet la recherche globale ainsi que le réglage de paramètres du recuit simulé. Il présente plusieurs inconvénients comme le nombre de stationnements et de sauts nécessaire pour la recherche global. 17

19 Références Bibliographiques [SEBRENCU ET AL, 2007] Adrian SERBENCU, Viorel MINZU, Adriana SERBENCU ; «An ant colony system based metaheuristic for solving single machine scheduling problem» ; the annals of dunarea de jos university of galati fascicle III, 2007 P19-24 [BELKADI, 2006] BELKADI K. «Les méta-heuristiques» Cours, Usto ; 2006 [DUTA,2006 ] [GOURGAND ET AL, 2003] Luminita DUTA ; «Contribution A L'etude De La Conduite Des Systemes De Desassemblage» ; thèse de doctorat en Automatique et Informatique; Université Franche-Comte Du Besancon ; soutenue le 22 septembre 2006 M. Gourgand, N. Grangeon et S.Norre ; «Problemes D ordonnancement Dans Les Systèmes De Production De Type Flow-Shop Hybride En Contexte Déterministe» ; J3eA, Journal sur l enseignement des sciences et technologies de l information et des systèmes ; EDP Sciences, 2003 [HAO ET AL, 1999 ] Jin-Kao HAO, Philippe GALINIER, Michel HABIB ; «Méthaheuristiques pour l optimisation combinatoire et l affectation sous contraintes»; Revue d Intelligence Artificielle ; 1999 [TALBI, 2004] [NET] El-Djillali TALBI ; «Sélection et réglage de paramètres pour l optimisation de logiciels d ordonnancement industriel» ; Institut National Polytechnique de Toulouse Ecole Doctorale Systèmes ; Spécialité : Informatique Industrielle Soutenu le 12 novembre

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases) Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases) Heuristique Constructive Itérativement, ajoute de nouvelles composantes à une solution partielle candidate Espace

Plus en détail

Jean-Philippe Préaux http://www.i2m.univ-amu.fr/~preaux

Jean-Philippe Préaux http://www.i2m.univ-amu.fr/~preaux Colonies de fourmis Comment procèdent les colonies de fourmi pour déterminer un chemin presque géodésique de la fourmilière à un stock de nourriture? Les premières fourmis se déplacent au hasard. Les fourmis

Plus en détail

Problèmes d ordonnancement dans les systèmes de production. Journée Automatique et Optimisation Université de Paris 12 20 Mars 2003

Problèmes d ordonnancement dans les systèmes de production. Journée Automatique et Optimisation Université de Paris 12 20 Mars 2003 Problèmes d ordonnancement dans les systèmes de production Michel Gourgand Université Blaise Pascal Clermont Ferrand LIMOS CNRS UMR 6158 1 Le LIMOS Laboratoire d Informatique, de Modélisation et d Optimisation

Plus en détail

Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques

Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques Université Mohammed V, Faculté des Sciences de Rabat Laboratoire de Recherche Mathématiques, Informatique et Applications Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques MASTER

Plus en détail

Méthaheuristiques pour l optimisation combinatoire et l affectation sous contraintes

Méthaheuristiques pour l optimisation combinatoire et l affectation sous contraintes Méthaheuristiques pour l optimisation combinatoire et l affectation sous contraintes Jin-Kao Hao *, Philippe Galinier **, Michel Habib *** * LERIA, U.F.R. Sciences, Université d Angers, 2 bd Lavoisier,

Plus en détail

Système immunitaire artificiel

Système immunitaire artificiel République Algérienne Démocratique et Populaire Ministère de l Enseignement Supérieure Université des Sciences et de la Technologie D Oran Mohammed Boudiaf (USTO) Faculté des Sciences Département d Informatique

Plus en détail

Optimisation Combinatoire et Colonies de Fourmis Nicolas Monmarche April 21, 1999 Sommaire Inspiration biologiques Ant Colony Optimization Applications TSP QAP Flow Shop Problemes dynamiques 1 Historique

Plus en détail

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments Recherche Opérationnelle Optimisation combinatoire : Applications et compléments Pierre Delisle Université de Reims Champagne-Ardenne Département de Mathématiques et Informatique 17 février 2014 Plan de

Plus en détail

Principes d implémentation des métaheuristiques

Principes d implémentation des métaheuristiques Chapitre 2 Principes d implémentation des métaheuristiques Éric D. Taillard 1 2.1 Introduction Les métaheuristiques ont changé radicalement l élaboration d heuristiques : alors que l on commençait par

Plus en détail

Système Immunitaire Artificiel Parallèle appliqué aux Flow Shop Hybride (FSH)

Système Immunitaire Artificiel Parallèle appliqué aux Flow Shop Hybride (FSH) République Algérienne Démocratique et Populaire Ministère de l Enseignement Supérieur et de la Recherche Scientifique Université des Sciences et de la Technologie d Oran -Mohamed Boudiaf USTO-MB Faculté

Plus en détail

Problème à résoudre. min f(s) s.c. s S

Problème à résoudre. min f(s) s.c. s S Métaheuristiques Le mot métaheuristique est dérivé de la composition de deux mots grecs: - heuristique qui vient du verbe heuriskein (ευρισκειν) et qui signifie trouver - meta qui est un suffixe signifiant

Plus en détail

Hela Boukef. To cite this version: HAL Id: tel-00577101 https://tel.archives-ouvertes.fr/tel-00577101

Hela Boukef. To cite this version: HAL Id: tel-00577101 https://tel.archives-ouvertes.fr/tel-00577101 Sur l ordonnancement d ateliers job-shop flexibles et flow-shop en industries pharmaceutiques : optimisation par algorithmes génétiques et essaims particulaires Hela Boukef To cite this version: Hela Boukef.

Plus en détail

Algorithmes de recherche

Algorithmes de recherche Algorithmes de recherche 1 Résolution de problèmes par recherche On représente un problème par un espace d'états (arbre/graphe). Chaque état est une conguration possible du problème. Résoudre le problème

Plus en détail

Cours de Master Recherche

Cours de Master Recherche Cours de Master Recherche Spécialité CODE : Résolution de problèmes combinatoires Christine Solnon LIRIS, UMR 5205 CNRS / Université Lyon 1 2007 Rappel du plan du cours 16 heures de cours 1 - Introduction

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

La programmation à mémoire adaptative ou l évolution des algorithmes évolutifs

La programmation à mémoire adaptative ou l évolution des algorithmes évolutifs La programmation à mémoire adaptative ou l évolution des algorithmes évolutifs Éric D. Taillard 1 Luca M. Gambardella 1 Michel Gendreau 2 Jean-Yves Potvin 2 1 IDSIA, Corso Elvezia 36, CH-6900 Lugano. E-mail

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Ordonnancement en temps réel d un jobshop par métaheuristique hybride : étude comparative

Ordonnancement en temps réel d un jobshop par métaheuristique hybride : étude comparative Ordonnancement en temps réel d un jobshop par métaheuristique hybride : étude comparative Y. Houbad, M. Souier, A. Hassam, Z.Sari Laboratoire d automatique Tlemcen Faculté de technologie, Université Abou

Plus en détail

Une application des algorithmes génétiques à l ordonnancement d atelier

Une application des algorithmes génétiques à l ordonnancement d atelier Une application des algorithmes génétiques à l ordonnancement d atelier VACHER Jean-Philippe - GALINHO Thierry - MAMMERI Zoubir Laboratoire d Informatique du Havre Université du Havre 25, Rue Philippe

Plus en détail

Pourquoi l apprentissage?

Pourquoi l apprentissage? Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage

Plus en détail

Laboratoire d Automatique et Productique Université de Batna, Algérie

Laboratoire d Automatique et Productique Université de Batna, Algérie Anale. Seria Informatică. Vol. IX fasc. 2 Annals. Computer Science Series. 9 th Tome st Fasc. 2 La sélection de paramètres d un système industriel par les colonies de fourmis Ouahab Kadri, L. Hayet Mouss,

Plus en détail

Atelier Transversal AT11. Activité «Fourmis» Pierre Chauvet. pierre.chauvet@uco.fr

Atelier Transversal AT11. Activité «Fourmis» Pierre Chauvet. pierre.chauvet@uco.fr Atelier Transversal AT11 Activité «Fourmis» Pierre Chauvet pierre.chauvet@uco.fr Ant : un algorithme inspiré de l éthologie L éthologie Etude scientifique des comportements animaux, avec une perspective

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Sommaire. Introduction.2. 1. Définition..2. 2. Historique.2. 3. Domaine d application.2. 4.Les Travaux réalisés sur les domaines d application.

Sommaire. Introduction.2. 1. Définition..2. 2. Historique.2. 3. Domaine d application.2. 4.Les Travaux réalisés sur les domaines d application. Sommaire Introduction.2 1. Définition..2 2. Historique.2 3. Domaine d application.2 4.Les Travaux réalisés sur les domaines d application.3 5.Algorithme 4 6.Exemple d application 5 7. Avantage et inconvénient..6

Plus en détail

DES FOURMIS POUR LIVRER DU MAZOUT

DES FOURMIS POUR LIVRER DU MAZOUT DES FOURMIS POUR LIVRER DU MAZOUT É. D. Taillard (1), G. Agazzi (2), L.-M. Gambardella (3) Résumé La livraison de certains biens peut engendrer des coûts non négligeables par rapport à la valeur de la

Plus en détail

Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires

Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires Julien Jorge julien.jorge@univ-nantes.fr Laboratoire d Informatique de Nantes Atlantique,

Plus en détail

ALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE

ALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE ALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE P. Baudet, C. Azzaro-Pantel, S. Domenech et L. Pibouleau Laboratoire de Génie Chimique - URA 192 du

Plus en détail

THÈSE DE DOCTORAT DE L UNIVERSITÉ PARIS 12-VAL DE MARNE UFR de Sciences et Technologie. par. Walid TFAILI. pour obtenir le grade de

THÈSE DE DOCTORAT DE L UNIVERSITÉ PARIS 12-VAL DE MARNE UFR de Sciences et Technologie. par. Walid TFAILI. pour obtenir le grade de THÈSE DE DOCTORAT DE L UNIVERSITÉ PARIS 12-VAL DE MARNE UFR de Sciences et Technologie par Walid TFAILI pour obtenir le grade de DOCTEUR EN SCIENCES Spécialité : SCIENCES DE L INGÉNIEUR Option : Optimisation

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Sommaire. Introduction. I. Notions de routage a) Technologies actuelles b) Avantages et désavantages

Sommaire. Introduction. I. Notions de routage a) Technologies actuelles b) Avantages et désavantages Sommaire Introduction I. Notions de routage a) Technologies actuelles b) Avantages et désavantages II. Routage et fourmis a) Principe et avantages b) Structure du simulateur III.Implémentation a) Présentation

Plus en détail

Rapport d'analyse des besoins

Rapport d'analyse des besoins Projet ANR 2011 - BR4CP (Business Recommendation for Configurable products) Rapport d'analyse des besoins Janvier 2013 Rapport IRIT/RR--2013-17 FR Redacteur : 0. Lhomme Introduction...4 La configuration

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Algorithme des fourmis appliqué à la détection et au suivi de contours dans une image

Algorithme des fourmis appliqué à la détection et au suivi de contours dans une image IN52-IN54 A2008 Algorithme des fourmis appliqué à la détection et au suivi de contours dans une image Etudiants : Nicolas MONNERET Alexandre HAFFNER Sébastien DE MELO Responsable : Franck GECHTER Sommaire

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

THÈSE. présentée à l Université d Avignon et des Pays de Vaucluse pour obtenir le diplôme de DOCTORAT

THÈSE. présentée à l Université d Avignon et des Pays de Vaucluse pour obtenir le diplôme de DOCTORAT ACADÉMIE D AIX-MARSEILLE UNIVERSITÉ D AVIGNON ET DES PAYS DE VAUCLUSE THÈSE présentée à l Université d Avignon et des Pays de Vaucluse pour obtenir le diplôme de DOCTORAT SPÉCIALITÉ : Informatique École

Plus en détail

Raisonnement par récurrence Suites numériques

Raisonnement par récurrence Suites numériques Chapitre 1 Raisonnement par récurrence Suites numériques Terminale S Ce que dit le programme : CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Raisonnement par récurrence. Limite finie ou infinie d une suite.

Plus en détail

Etude d un cas industriel : Optimisation de la modélisation de paramètre de production

Etude d un cas industriel : Optimisation de la modélisation de paramètre de production Revue des Sciences et de la Technologie RST- Volume 4 N 1 /janvier 2013 Etude d un cas industriel : Optimisation de la modélisation de paramètre de production A.F. Bernate Lara 1, F. Entzmann 2, F. Yalaoui

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

OPTIMISATION À UNE VARIABLE

OPTIMISATION À UNE VARIABLE OPTIMISATION À UNE VARIABLE Sommaire 1. Optimum locaux d'une fonction... 1 1.1. Maximum local... 1 1.2. Minimum local... 1 1.3. Points stationnaires et points critiques... 2 1.4. Recherche d'un optimum

Plus en détail

Programmation Linéaire - Cours 1

Programmation Linéaire - Cours 1 Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail

Ordonnancement robuste et décision dans l'incertain

Ordonnancement robuste et décision dans l'incertain Ordonnancement robuste et décision dans l'incertain 4 ème Conférence Annuelle d Ingénierie Système «Efficacité des entreprises et satisfaction des clients» Centre de Congrès Pierre Baudis,TOULOUSE, 2-4

Plus en détail

Couplage efficace entre Optimisation et Simulation stochastique Application à la maintenance optimale d une constellation de satellites

Couplage efficace entre Optimisation et Simulation stochastique Application à la maintenance optimale d une constellation de satellites Couplage efficace entre Optimisation et Simulation stochastique Application à la maintenance optimale d une constellation de satellites Benoît Beghin Pierre Baqué André Cabarbaye Centre National d Etudes

Plus en détail

L apprentissage automatique

L apprentissage automatique L apprentissage automatique L apprentissage automatique L'apprentissage automatique fait référence au développement, à l analyse et à l implémentation de méthodes qui permettent à une machine d évoluer

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc)

FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc) 87 FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc) Dans le cadre de la réforme pédagogique et de l intérêt que porte le Ministère de l Éducation

Plus en détail

PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES

PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES Leçon 11 PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES Dans cette leçon, nous retrouvons le problème d ordonnancement déjà vu mais en ajoutant la prise en compte de contraintes portant sur les ressources.

Plus en détail

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans Mathématique et Automatique : de la boucle ouverte à la boucle fermée Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans Maitine.Bergounioux@labomath.univ-orleans.fr Plan 1. Un peu de

Plus en détail

Nouvelles propositions pour la résolution exacte du problème de sac à dos bi-objectif unidimensionnel en variables binaires

Nouvelles propositions pour la résolution exacte du problème de sac à dos bi-objectif unidimensionnel en variables binaires Nouvelles propositions pour la résolution exacte du problème de sac à dos bi-objectif unidimensionnel en variables binaires Julien Jorge, Xavier Gandibleux Laboratoire d Informatique de Nantes Atlantique

Plus en détail

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes. Introduction L'objectif de mon TIPE est la reconnaissance de sons ou de notes de musique à l'aide d'un réseau de neurones. Ce réseau doit être capable d'apprendre à distinguer les exemples présentés puis

Plus en détail

Algorithmes d'apprentissage

Algorithmes d'apprentissage Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt

Plus en détail

Chapitre 7 - Relativité du mouvement

Chapitre 7 - Relativité du mouvement Un bus roule lentement dans une ville. Alain (A) est assis dans le bus, Brigitte (B) marche dans l'allée vers l'arrière du bus pour faire des signes à Claude (C) qui est au bord de la route. Brigitte marche

Plus en détail

TP N 57. Déploiement et renouvellement d une constellation de satellites

TP N 57. Déploiement et renouvellement d une constellation de satellites TP N 57 Déploiement et renouvellement d une constellation de satellites L objet de ce TP est d optimiser la stratégie de déploiement et de renouvellement d une constellation de satellites ainsi que les

Plus en détail

LE PROBLEME DU PLUS COURT CHEMIN

LE PROBLEME DU PLUS COURT CHEMIN LE PROBLEME DU PLUS COURT CHEMIN Dans cette leçon nous définissons le modèle de plus court chemin, présentons des exemples d'application et proposons un algorithme de résolution dans le cas où les longueurs

Plus en détail

Ordonnancement. N: nains de jardin. X: peinture extérieure. E: électricité T: toit. M: murs. F: fondations CHAPTER 1

Ordonnancement. N: nains de jardin. X: peinture extérieure. E: électricité T: toit. M: murs. F: fondations CHAPTER 1 CHAPTER 1 Ordonnancement 1.1. Étude de cas Ordonnancement de tâches avec contraintes de précédences 1.1.1. Exemple : construction d'une maison. Exercice. On veut construire une maison, ce qui consiste

Plus en détail

UNIVERSITÉ DU QUÉBEC À CHICOUTIMI UNIVERSITÉ DU QUÉBEC À MONTRÉAL

UNIVERSITÉ DU QUÉBEC À CHICOUTIMI UNIVERSITÉ DU QUÉBEC À MONTRÉAL UNIVERSITÉ DU QUÉBEC À CHICOUTIMI UNIVERSITÉ DU QUÉBEC À MONTRÉAL MÉTAHEURISTIQUES HYBRIDES POUR LA RÉSOLUTION DU PROBLÈME D'ORDONNANCEMENT DE VOITURES DANS UNE CHAÎNE D'ASSEMBLAGE AUTOMOBILE MÉMOIRE PRÉSENTÉ

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

L exclusion mutuelle distribuée

L exclusion mutuelle distribuée L exclusion mutuelle distribuée L algorithme de L Amport L algorithme est basé sur 2 concepts : L estampillage des messages La distribution d une file d attente sur l ensemble des sites du système distribué

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

LES MÉTA-HEURISTIQUES : quelques conseils pour en faire bon usage

LES MÉTA-HEURISTIQUES : quelques conseils pour en faire bon usage LES MÉTA-HEURISTIQUES : quelques conseils pour en faire bon usage Alain HERTZ Ecole Polytechnique - GERAD Département de mathématiques et de génie industriel CP 679, succ. Centre-ville, Montréal (QC) H3C

Plus en détail

Les colonies de fourmis : apprentissage coopératif pour le problème du voyageur de commerce

Les colonies de fourmis : apprentissage coopératif pour le problème du voyageur de commerce : apprentissage coopératif pour le problème du voyageur de commerce Alexandre Bargeton Benjamin Devèze Université Pierre et Marie Curie Présentation du projet ANIMAT 1 Comportements collectifs des insectes

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes

Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes Loris MARCHAL Laboratoire de l Informatique du Parallélisme Équipe Graal Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes Thèse réalisée sous la direction

Plus en détail

Conception de réseaux de télécommunications : optimisation et expérimentations

Conception de réseaux de télécommunications : optimisation et expérimentations Conception de réseaux de télécommunications : optimisation et expérimentations Jean-François Lalande Directeurs de thèse: Jean-Claude Bermond - Michel Syska Université de Nice-Sophia Antipolis Mascotte,

Plus en détail

I Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème...

I Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème... TABLE DES MATIÈRES 5 Table des matières I Stabilité, Commandabilité et Observabilité 11 1 Introduction 13 1.1 Un exemple emprunté à la robotique................... 13 1.2 Le plan...................................

Plus en détail

Modélisation multi-agents - Agents réactifs

Modélisation multi-agents - Agents réactifs Modélisation multi-agents - Agents réactifs Syma cursus CSI / SCIA Julien Saunier - julien.saunier@ifsttar.fr Sources www-lih.univlehavre.fr/~olivier/enseignement/masterrecherche/cours/ support/algofourmis.pdf

Plus en détail

Rétablissement d un réseau cellulaire après un désastre

Rétablissement d un réseau cellulaire après un désastre Rétablissement d un réseau cellulaire après un désastre Anaïs Vergne avec Laurent Decreusefond, Ian Flint, et Philippe Martins Journées MAS 2014 29 août 2014 Rétablissement d un réseau cellulaire après

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

AVERTISSEMENT. D'autre part, toute contrefaçon, plagiat, reproduction encourt une poursuite pénale. LIENS

AVERTISSEMENT. D'autre part, toute contrefaçon, plagiat, reproduction encourt une poursuite pénale. LIENS AVERTISSEMENT Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l'ensemble de la communauté universitaire élargie. Il est soumis à la propriété intellectuelle

Plus en détail

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1 Christophe CANDILLIER Cours de DataMining mars 2004 age 1 1. Introduction 2. rocessus du DataMining 3. Analyse des données en DataMining 4. Analyse en Ligne OLA 5. Logiciels 6. Bibliographie Christophe

Plus en détail

Renforcement des trois compétences : compréhension orale, expression orale et expression écrite à partir de documents et vidéos.

Renforcement des trois compétences : compréhension orale, expression orale et expression écrite à partir de documents et vidéos. Master Mathématiques et Applications Spécialité : Ingénierie mathématique et modélisation Parcours : Mathématique et Informatique : Statistique, Signal, Santé (MI3S) 2015-2016 RÉSUMÉ DES COURS : (dernière

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Deux stratégies parallèles de l'optimisation par colonie de fourmis

Deux stratégies parallèles de l'optimisation par colonie de fourmis 4 th International Conference: Sciences of Electronic, Technologies of Information and Telecommunications March 25-29, 2007 TUNISIA Deux stratégies parallèles de l'optimisation par colonie de fourmis HERNANE

Plus en détail

Optimisation Discrète

Optimisation Discrète Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et

Plus en détail

Théorèmes de Point Fixe et Applications 1

Théorèmes de Point Fixe et Applications 1 Théorèmes de Point Fixe et Applications 1 Victor Ginsburgh Université Libre de Bruxelles et CORE, Louvain-la-Neuve Janvier 1999 Published in C. Jessua, C. Labrousse et D. Vitry, eds., Dictionnaire des

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

Approche d'évaluation pour les problèmes d'ordonnancement multicritères : Méthode d'agrégation avec direction de recherche dynamique

Approche d'évaluation pour les problèmes d'ordonnancement multicritères : Méthode d'agrégation avec direction de recherche dynamique Approche d'évaluation pour les problèmes d'ordonnancement multicritères : Méthode d'agrégation avec direction de recherche dynamiue D. BERKOUNE 2, K. MESGHOUNI, B. RABENASOLO 2 LAGIS UMR CNRS 846, Ecole

Plus en détail

MIS 102 Initiation à l Informatique

MIS 102 Initiation à l Informatique MIS 102 Initiation à l Informatique Responsables et cours : Cyril Gavoille Catherine Pannier Matthias Robine Marc Zeitoun Planning : 6 séances de cours 5 séances de TD (2h40) 4 séances de TP (2h40) + environ

Plus en détail

Chapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping

Chapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Chapitre V : La gestion de la mémoire Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Introduction Plusieurs dizaines de processus doivent se partager

Plus en détail

Optimisation multi-objectif par colonies de fourmis : cas des problèmes de sac à dos

Optimisation multi-objectif par colonies de fourmis : cas des problèmes de sac à dos Optimisation multi-objectif par colonies de fourmis : cas des problèmes de sac à dos Inès Alaya To cite this version: Inès Alaya. Optimisation multi-objectif par colonies de fourmis : cas des problèmes

Plus en détail

Introduction au maillage pour le calcul scientifique

Introduction au maillage pour le calcul scientifique Introduction au maillage pour le calcul scientifique CEA DAM Île-de-France, Bruyères-le-Châtel franck.ledoux@cea.fr Présentation adaptée du tutorial de Steve Owen, Sandia National Laboratories, Albuquerque,

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com Intelligence Artificielle et Systèmes Multi-Agents Badr Benmammar bbm@badr-benmammar.com Plan La première partie : L intelligence artificielle (IA) Définition de l intelligence artificielle (IA) Domaines

Plus en détail

Chapitre 1 : Introduction aux bases de données

Chapitre 1 : Introduction aux bases de données Chapitre 1 : Introduction aux bases de données Les Bases de Données occupent aujourd'hui une place de plus en plus importante dans les systèmes informatiques. Les Systèmes de Gestion de Bases de Données

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Exemples de problèmes et d applications. INF6953 Exemples de problèmes 1

Exemples de problèmes et d applications. INF6953 Exemples de problèmes 1 Exemples de problèmes et d applications INF6953 Exemples de problèmes Sommaire Quelques domaines d application Quelques problèmes réels Allocation de fréquences dans les réseaux radio-mobiles Affectation

Plus en détail

Cours Base de données relationnelles. M. Boughanem, IUP STRI

Cours Base de données relationnelles. M. Boughanem, IUP STRI Cours Base de données relationnelles 1 Plan 1. Notions de base 2. Modèle relationnel 3. SQL 2 Notions de base (1) Définition intuitive : une base de données est un ensemble d informations, (fichiers),

Plus en détail

Initiation à l algorithmique

Initiation à l algorithmique Informatique S1 Initiation à l algorithmique procédures et fonctions 2. Appel d une fonction Jacques TISSEAU Ecole Nationale d Ingénieurs de Brest Technopôle Brest-Iroise CS 73862-29238 Brest cedex 3 -

Plus en détail

Grandes lignes ASTRÉE. Logiciels critiques. Outils de certification classiques. Inspection manuelle. Definition. Test

Grandes lignes ASTRÉE. Logiciels critiques. Outils de certification classiques. Inspection manuelle. Definition. Test Grandes lignes Analyseur Statique de logiciels Temps RÉel Embarqués École Polytechnique École Normale Supérieure Mercredi 18 juillet 2005 1 Présentation d 2 Cadre théorique de l interprétation abstraite

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

LES CARTES À POINTS : POUR UNE MEILLEURE PERCEPTION

LES CARTES À POINTS : POUR UNE MEILLEURE PERCEPTION LES CARTES À POINTS : POUR UNE MEILLEURE PERCEPTION DES NOMBRES par Jean-Luc BREGEON professeur formateur à l IUFM d Auvergne LE PROBLÈME DE LA REPRÉSENTATION DES NOMBRES On ne conçoit pas un premier enseignement

Plus en détail

L ordinateur quantique

L ordinateur quantique L ordinateur quantique Année 2005/2006 Sébastien DENAT RESUME : L ordinateur est utilisé dans de très nombreux domaines. C est un outil indispensable pour les scientifiques, l armée, mais aussi les entreprises

Plus en détail

High Performance by Exploiting Information Locality through Reverse Computing. Mouad Bahi

High Performance by Exploiting Information Locality through Reverse Computing. Mouad Bahi Thèse High Performance by Exploiting Information Locality through Reverse Computing Présentée et soutenue publiquement le 21 décembre 2011 par Mouad Bahi pour l obtention du Doctorat de l université Paris-Sud

Plus en détail