Sérialisation d un schéma de sous gradient avec des métaheuristiques pour la résolution approchée de problèmes de sacs à dos multidimensionnels



Documents pareils
Traitement bas-niveau

Jean-Philippe Préaux

Programmation linéaire

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

3 Approximation de solutions d équations

Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques

Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Cours d Analyse. Fonctions de plusieurs variables

Rappels sur les suites - Algorithme

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

NON-LINEARITE ET RESEAUX NEURONAUX

Dualité dans les espaces de Lebesgue et mesures de Radon finies

F1C1/ Analyse. El Hadji Malick DIA

1 Recherche en table par balayage

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

Programmation linéaire

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Correction du baccalauréat STMG Polynésie 17 juin 2014

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

La classification automatique de données quantitatives

Modélisation multi-agents - Agents réactifs


Théorème du point fixe - Théorème de l inversion locale

Image d un intervalle par une fonction continue

Chapitre 5 : Flot maximal dans un graphe

Agrégation des portefeuilles de contrats d assurance vie

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

LES MÉTHODES DE POINT INTÉRIEUR 1

MABioVis. Bio-informatique et la

F7n COUP DE BOURSE, NOMBRE DÉRIVÉ

Apprentissage Automatique

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Introduction au datamining

Initiation à LabView : Les exemples d applications :

Conventions d écriture et outils de mise au point

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

UNIVERSITE DES ANTILLES et DE LA GUYANE Campus de Fouillole BP Pointe-à-Pitre Cedex CONTRAT LE MASTER NOM DU DOMAINE STS

données en connaissance et en actions?

Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes

Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie

Model checking temporisé

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

Programmes des classes préparatoires aux Grandes Ecoles

Problème à résoudre. min f(s) s.c. s S

Chapitre 7. Récurrences

Les indices à surplus constant

Une application des algorithmes génétiques à l ordonnancement d atelier

Programmation Linéaire - Cours 1

Algorithmes pour la planification de mouvements en robotique non-holonome

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

MATHS FINANCIERES. Projet OMEGA

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation

Chp. 4. Minimisation d une fonction d une variable

Programmation linéaire et Optimisation. Didier Smets

Quantification Scalaire et Prédictive

UML (Diagramme de classes) Unified Modeling Language

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Résolution d équations non linéaires

Principes d implémentation des métaheuristiques

Problèmes d ordonnancement dans les systèmes de production. Journée Automatique et Optimisation Université de Paris Mars 2003

«Cours Statistique et logiciel R»

Bases de données documentaires et distribuées Cours NFE04

Coup de Projecteur sur les Réseaux de Neurones

COURS EULER: PROGRAMME DE LA PREMIÈRE ANNÉE

Rétablissement d un réseau cellulaire après un désastre

Nombre dérivé et tangente

Etude d un cas industriel : Optimisation de la modélisation de paramètre de production

L apprentissage automatique

Cours de Java. Sciences-U Lyon. Java - Introduction Java - Fondamentaux Java Avancé.

MCMC et approximations en champ moyen pour les modèles de Markov

Compte rendu de LA37 B, TP numéro 1. Evolution de la température et du degrée d'hydratation

IFT3245. Simulation et modèles

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Bases de données réparties: Fragmentation et allocation

Sur les vols en formation.

Annexe 6. Notions d ordonnancement.

Calcul différentiel. Chapitre Différentiabilité

IFT2255 : Génie logiciel

Algorithmique et Programmation, IMA

Conception de réseaux de télécommunications : optimisation et expérimentations

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Intérêt du découpage en sous-bandes pour l analyse spectrale

T.P. FLUENT. Cours Mécanique des Fluides. 24 février 2006 NAZIH MARZOUQY

LES MÉTA-HEURISTIQUES : quelques conseils pour en faire bon usage

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

TRACER LE GRAPHE D'UNE FONCTION

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

Durée de L épreuve : 2 heures. Barème : Exercice n 4 : 1 ) 1 point 2 ) 2 points 3 ) 1 point

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)

Définitions. Numéro à préciser. (Durée : )

Une forme générale de la conjecture abc

Modèles et simulations informatiques des problèmes de coopération entre agents

Transcription:

Sérialisation d un schéma de sous gradient avec des métaheuristiques pour la résolution approchée de problèmes de sacs à dos multidimensionnels Vincent Pinte Deregnaucourt - 5 juillet 2007

Sommaire 1 Le problème du sac à dos Cas concret... Modélisation Complexité et Approximabilité des KP & MKP 2 Résolution approchée du sac à dos multidimensionnel Principe, Méthodes Outils pour le minorant : Heuristique, Métaheuristique Outils pour le majorant : RL, PDL et Méth. de SS Gdt 3 Mise en œuvre Prog Dual Lag & Méth. de SS Gradient Métaheuristique 4 Conclusion 5 Questions

Cas concret... Un exemple concret d un problème de sac à dos Un jour, Arsène L. pénètre dans le Louvres, il fait nuit ; Face à lui, une table, des objets Ces objets sont nombreux et ont chacun un poids et une valeur ; Son sac à dos ne peut pas supporter plus de 50 kg ; Question : quels objets emporte-t-il afin de maximiser la valeur de son sac à dos? (la question liée : quelle méthode utilise-t-il pour les choisir?)

Modélisation Modèle d un problème de sac à dos (KP) n max z = c j x j j=1 (P) n s. c. a j x j B j=1 x j {0, 1}, j Objets un ensemble de n objets j, j {1,...,n} ; Valeurs c j, la valeur d un objet j ; Tailles a j, la taille d un objet j ; Capacité B la capacité du sac à dos ; Choix x j, la variable de décision relative à l objet j, qui prend la valeur 1 si l objet j est placé dans le sac à dos, 0 sinon. (1)

Modélisation Modèle d un problème de sac à dos multidimensionnel (MKP) max z Tailles a 1j, a 2j,...,a mj les m «caractéristiques» d un objet j ; Capacité B 1, B 2...,B m, les m «caractéristiques» du sac à dos ; Notation étendue Notation agrégée n j=1 = c j x j n j=1 s. c. a 1j x j B 1 (P) max z s. c. n j=1 = c j x j n j=1 a ij x j B i, i {1,..., m} (P). n j=1 a 2j x j B 2 Résolution approchéende problèmes de sacs à dos. Méthode de sous gradient et Métaheuristiques (2) x j {0, 1}, j (3)

Modélisation Conditions sur le modèle du problème de sac à dos Sans perte de généralité, les hypothèses suivantes sont faites : par définition sur le modèle : données : entières et positives : j, i : B i N, (c j a ij ) (N N) contraintes : pas totalement nulle : i, (a i1,...,a in ) (0, 0,...,0) somme des poids des objets : strictement supérieure à la capacité du sac à dos i, j a ij > B i. par contrainte sur les objets : pas de plus grand que la capacité du sac à dos i, j, a ij < B i. pas de valeur (coût) nulle : j, c j > 0.

Complexité et Approximabilité des KP & MKP Résultats théoriques établis N P-complétude et approximabilité des problèmes de sac à dos (KP) optimisation : N P-difficile décision : N P-complet [Karp 1971] PTAS [Sahni, 1976] FPTAS [Ibarra et Kim, 1975] MKP optimisation : N P-difficile décision : N P-complet PTAS : [Chandra, Hirschberg, Wong, 1975] FPTAS [Gens, Levner,1979 - Korte, Schrader, 1981] MKP FPTAS P = N P [Magazine et Oguz, 1981]

Principe, Méthodes Principe et Méthode de résolution pour MKP Principe : Par encadrement : Majorant et Minorant Méthode : Simple... Minorant (heuristique) Majorant (relaxation) Plus complexe et donc plus fine... Minorant (heuristique + métaheuristique) Majorant (RL PDL Méth de SS Gradient) idée : valider la qualité du minorant!

Outils pour le minorant : Heuristique, Métaheuristique Les outils utilisés - Plan Heuristique (définition, principe, inconvénient) Métaheuristique (Voisinage et population) Relaxation lagrangienne Programme Dual Lagrangien Méthode de sous gradient

Outils pour le minorant : Heuristique, Métaheuristique Heuristique Stratégie spécifique aux données à la structure du problème (KP et TSP!) avantages : rapide (développer) simple (Mise en œuvre) efficace (temps) ex : KP, tri inconvénients : propriétaire (données, structure) manque de généricité pas de résolution exacte (sauf...) tri pour le TSP?

Outils pour le minorant : Heuristique, Métaheuristique Solution : relever le niveau d abstraction En ne parlant plus d «objet» ou de «villes» mais d abstraction. En définissant : des ensembles d objets (Espace : ensemble solution, solution potentielle, solution réalisable,...) des transformations sur ces objets (Topologie : voisinage, population,...) des relations d ordre sur ces objets (Métrique : notion de maximum et de minimum)

Outils pour le minorant : Heuristique, Métaheuristique De l Heuristique vers la Métaheuristique moyens : notion de voisinage (km, distance de hamming,...) transformation (voisinage, complém. à q bits) déplacement (d une solution vers une autre) heuristique d amélioration locale Algorithme de montée (gourmand/glouton) Généricité accrue : Mais dépend du voisinage dépend de la solution initiale Piège du «max local» nouveau paradigme : tolérance à la dégradation (Méth. tabu) manipulation d un ensemble de solutions (Algo Génétiques) et bien d autres...

Outils pour le minorant : Heuristique, Métaheuristique Définition d une métaheuristique cadre générique de résolution reposant sur un ou plusieurs paradigmes qui permet de procéder à la résolution approchée sans garantie de performance d un problème indépendamment de sa forme. caractérisation possible à défaut d axiomatisation (Hansen et Mladenović).

Outils pour le minorant : Heuristique, Métaheuristique Points communs des métaheuristiques paradigme manipulation de solutions (voisinage ou population) paramétrage Adaptation à la structure du problème propre à la métaheuristique Critère d arrêt (empirique) (mais algorithme «anytime») la valeur de la meilleure solution n a pas varié de plus de α % pendant β boucles et/ou un certain nombre de boucles β prédéfini a été atteint. et/ou un délai h est atteint (contract algorithm) et/ou si une valeur v trouvée est suffisamment proche d une valeur v de référence connue

Outils pour le minorant : Heuristique, Métaheuristique La recherche à voisinage locale - Hansen et Mladenović 1 2 3 4 5 6 7 8 9 10 11 Principe : changement systématique de voisinage pour s extraire des maxima locaux. Algorithme 1 : La Recherche à Voisinage Variable - VNS Données : une solution x, un voisinage N, un paramètre k max Résultat : La meilleure solution rencontrée x x x tant que Non(Critère d Arrêt) faire k 1 tant que k k max faire x GenerationPerturbation(N k (x)) /* k-perturbation */ x RechercheLocale(x ) /* Recherche Locale */ si f (x ) > f (x ) alors x x /* Déplacement Conditionnel */ x x k 0 k k + 1

Outils pour le minorant : Heuristique, Métaheuristique Métaheuristique évolutive : principe Autre paradigme : une solution population de solutions opérateurs : combinaison, sélection, évaluation nécessité d un ensemble «source» : difficile à caractériser

Outils pour le minorant : Heuristique, Métaheuristique La recomposition de chemin - Glover Principe : soit S une population de «bonnes» solutions {s 1, s 2,...,s n } (au sens fonction éco + diversifiée) il existe une manière de construire des chemins, de proche en proche, entre 2 solutions s p et s q qui produisent de nouvelles bonnes (et meilleures!) solutions. (chemin ensemble de solutions) déroulement : construire un chemin de s p à s q : s p1, s p2,... la construction de s pi à s pi+1 se fait selon un paradigme le paradigme est que s pi+1 : appartient au voisinage de s pi se rapproche de s q maximise la fonction économique reste réalisable (dans notre cas)

Outils pour le minorant : Heuristique, Métaheuristique La recomposition de chemin - Exemple coût 3 4 2 6 4 1 contr. < 11 2 3 5 1 4 2 s p (11/9) 1 1 0 0 1 0 s q (13/10) 1 0 1 1 0 1 choix 1 x 100010-7/6 111010-13/14 110110-17/9 110000-7/5 110011-12/11 17/9 1 1 0-1- 1 0 choix 2 x 100110-13/7 111110-19/15 x 110100-13/6 110111-18/13 13/7 1-0- 0 1 1 0 choix 3 x x 101110-15/12 x 100100-9/6 100111-14/9 14/9 1 0 0 1 1-1- choix 4 x x 101111-16/14 x 100101-10/5 x 10/5 1 0 0 1-0- 1 choix 5 x x 101101= s q x x x

Outils pour le majorant : RL, PDL et Méth. de SS Gdt Les outils utilisés - Plan Heuristique (définition, principe, inconvénient) Métaheuristique (Voisinage et population) Relaxation lagrangienne Programme Dual Lagrangien Méthode de sous gradient

Outils pour le majorant : RL, PDL et Méth. de SS Gdt Relaxation lagrangienne appliquée au 2-KP (P) max s. c. n c j x j j=1 n a j x j A j=1 n b j x j B j=1 x j {0, 1} j {1... n} (4)

Outils pour le majorant : RL, PDL et Méth. de SS Gdt Relaxation lagrangienne - dualisation Nous pouvons relâcher la deuxième contrainte du modèle 4 en lui affectant la pénalité réelle positive λ. Nous obtenons le problème (RL λ (x)) : max (RL λ (x)) s. c. note : c est un sac à dos! n c j x j + λ (B j=1 n a j x j A j=1 x j {0, 1} j {1... n} n b j x j ) j=1 (5)

Outils pour le majorant : RL, PDL et Méth. de SS Gdt Dual lagrangien : RL(P) PDL(λ) { min RLλ (x) (PDL(λ)) s. c. λ R + (6)

Outils pour le majorant : RL, PDL et Méth. de SS Gdt Principe d une méthode de sous gradient À chaque étape k de la résolution de PDL(λ) : Principes Graphiquement épigraphe avec équation de la partie affine : v(rl λ k(x)) = cx + λ k (B bx) λ k = f (λ k 1 ) = τ k v k v G k pas θ k = τ k v(k(λk )) v(p) d k direction de descente d k = G k + µd k 1 où G k : k ième sous-gradient heuristique lagrangienne! condition d arrêt (sur k, λ, u)

Outils pour le majorant : RL, PDL et Méth. de SS Gdt Méthode de sous gradient : heuristique Lagrangienne Principe : sur l épigraphe, la droite support associée est l équation de la partie affine : v(rl λ k(x)) = cx + λ k (B bx) 2 cas sont alors possibles : B bx x est une solution réalisable de (P) : phase constructive B < bx x est une solution NON réalisable de (P) : phase destructive

Outils pour le majorant : RL, PDL et Méth. de SS Gdt Un invariant remarquable du point de vue de l Ingénieur Remarque : Des axes de travail sur lesquels j ai aussi fait porter ma réflexion

Prog Dual Lag & Méth. de SS Gradient minorant initial Premiers essais avec PLZM. Relaxation continue Mise à zéro des composantes fractionnaires Phase constructive : heuristique géométrique (densité) Résultats très bons Essais avec la VNS très nombreux essais de paramétrage temps considérable et résultats pas à la hauteur

Prog Dual Lag & Méth. de SS Gradient Comparaison PLZM et Algo de sous gradient basique - Inst BT & OR Lib. 100 99.9 99.8 99.7 % 99.6 99.5 99.4 99.3 2 4 6 8 10 12 14 16 18 20 instances PLZM/PLNE Min-init/PLNE % 100 95 90 85 80 75 70 65 5 10 15 20 25 30 35 40 45 instances PLZM/PLNE Min-init/PLNE Comparaison PLZM - Algo Basique Sous Gradient Instances BT et OR Lib

Prog Dual Lag & Méth. de SS Gradient Sur l algorithme de sous gradient Modifications nécessaires λ λ i! plus de relation d ordre! refonte algorithme & programme : 4 versions Modifications proposées Heuristique Lagrangienne Étendue Convergence plus rapide : en temps & en itérations

Métaheuristique Recherche à voisinage variable et FROG La VNS donne de mauvais résultats? Création de la FROG paradigme proche : changer de voisinage ET de type de voisinage hyperdiversification (Glover) Utilisation de phases constructives et destructives Utilisation de la densité géométrique. projection des solutions non admissibles vers l espace des solutions admissibles. prélèvement stochastique d une partie des voisinages

Métaheuristique FROG 1 Algorithme 2 : LA FROG Données : une solution x, un voisinage N, les paramètres k max, k max et α Résultat : une solution x x, x x, 2 x x, k 1 3 tant que Non(Critère d Arrêt) faire 4 tant que k < k max faire 5 x GenerationPerturbation(N k (x)) /* Perturbation */ 6 k 1 7 x max x 8 x x /* permet de rentrer dans la boucle */ 9 tant que (f (x ) f (x ) ET k < k max ) faire x MeilleurVoisin(N k (x ), α) /* Montée à voisinage Variable.*/ 10 11 12 x max = MeilleureSolution((x max, x )) k k + 1 13 si f (x max ) alors 14 x x max 16 15 x x max /* Mouvement ou non? */ k 0 17 k k + 1

Métaheuristique La FROG, Résultats - Instance BT et OR Lib 0.16 0.14 0.12 0.1 % 0.08 0.06 0.04 0.02 0 2 4 6 8 10 12 14 16 18 20 instances FROG - Meilleurs des 10 essais % 5 4 3 2 1 0 5 10 15 20 25 30 35 40 45 instances FROG - Meilleurs des 10 essais Comparaison FROG/PLNE, sortie de sous gradient, meilleur de 10 essais.

Métaheuristique La Tapisserie Idée dérivée de la recomposition de chemin : 2 solutions proches (sinon, considérées comme telles - réduction) Suppression du deuxième paradigme de la recomposition de chemin Construction de chemins exhaustifs Résultats conformes, mêmes si parfois surprenants...

Métaheuristique Tapisserie, Résultats - Inst BT & OR Lib. 0.25 0.2 0.15 % 0.1 0.05 % 30 25 20 15 10 5 0 2 4 6 8 10 12 14 16 18 20 instances Sortie de SG Tapisserie 0 5 10 15 20 25 30 35 40 45 instances Sortie de SG Amélioration de la sortie de l algorithme de sous gradient par Tapisserie Tapisserie

Métaheuristique La recomposition de chemin - Paramétrage les solutions sources sont celles engendrées par l algorithme de sous gradient deux sous ensembles distincts : des solutions admissibles et non admissibles. taille du voisinage envisageable à chaque étape : (1) - (1 ou 2) - (2) à la suite de cette première phase : deuxième phase puis fusion

Métaheuristique La recomposition de chemin - Résultats % 100 95 90 85 80 75 70 65 60 5 10 15 20 25 30 35 40 45 instances Min Init Min Heuri Min ssg Fin Rec Chem. Fig.: 4 étapes : minorant initial, minorant avec PLZM, minorant à

Métaheuristique Comparaison des 3 modes - Inst BT & OR Lib. 0.05 0.04 0.03 % % 0.02 0.01 0 2 4 6 8 10 12 14 16 18 20 instances Rec. Chem. Tap FROG comparaison PR FROG Tapisserie 16 14 12 10 8 6 4 2 0 5 10 15 20 25 30 35 40 45 instances Rec. Chem. Tap FROG

Sur les résultats Minorant initial : métaheuristique inintéressant. HLÉ : intéressante! plus de théorie? Métaheuristique après algo. sous gradient : oui! Méta de voisinage? Non... Méta Exhaustive? Non... Méta évolutive? Oui! Aller plus loin? m fois (m 1) dualisation? Algorithme BPK? Fixation de variables Autre sous gradient, autre relaxation?

Résultats, des chiffres par rapport aux instance La recomposition de chemin sur les instances de BT : best 17/18 (99.7-99.995) sur les instances de la OR Lib : best 32/40 (98.5) LA FROG sur les instances de BT 3 / 18 (99.96) sur la OR Lib : 8/40 (97.8) La Tapisserie (cela vaut-il de détailler?)

Comparaison qualitative des métaheuristiques VNS FROG Tapisserie Rec. Chemin Simplicité 100 90 100 80 Cohérence 80 90 100 90 Efficience 70 80 60 90 Efficacité 60 70 20 90 Robustesse 80 80 80 80 Facilité 100 90 100 100 Innovation x x x x 81.67 83.33 76.67 88.33 Tab.: Comparaison la Recherche à Voisinage Variable, de la FROG, de l heuristique Tapisserie et de la Recomposition de Chemin au sens des définitions des propriétés des métaheuristiques selon Hansen et Mladenović

Les questions