Dual decomposition methods and parallel computing



Documents pareils
Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

1 Introduction et modèle mathématique

Résolution de systèmes linéaires par des méthodes directes

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments

chapitre 4 Nombres de Catalan

Sonia Cafieri. Thémes de Recherche. Formation. Lieu et date de naissance: Naples, Italie, 4 juillet, 1979

Cours de Master Recherche

Multiprogrammation parallèle générique des méthodes de décomposition de domaine

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Programmation Linéaire - Cours 1

Limitations of the Playstation 3 for High Performance Cluster Computing

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Cours d analyse numérique SMI-S4

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Sujet 4: Programmation stochastique propriétés de fonction de recours

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

4.2 Unités d enseignement du M1

Happy birthday ZSet High performance computing dans ZSet

ARCHEOVISION. Centre de Ressources Numériques 3D. UMR 5607 du CNRS. R. Vergnieux IR-CNRS

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Calcul Haute Performance & Données

3 Approximation de solutions d équations

Cours 1 : Introduction Ordinateurs - Langages de haut niveau - Application

Masses de données. 1. Introduction 2. Problématiques 3. Socle de formation (non présenté) 4. Liens avec Formation INSA

Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes

Différentiabilité ; Fonctions de plusieurs variables réelles

Programmation linéaire

Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires

Parallélisation de l algorithme des k-médoïdes. Application au clustering de courbes.

Cours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. address: Nicolas.Thiery@u-psud.fr URL:

Resolution limit in community detection

Programmation parallèle et distribuée (Master 1 Info )

Evaluation de fonctions de matrices et algorithmes pararéels

Master de Recherche première année. Programme de cours

physicien diplômé EPFZ originaire de France présentée acceptée sur proposition Thèse no. 7178

4ème Période 2013/2014 du 27/01/2014 au 28/02/2014

Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie

Entraînement au concours ACM-ICPC

Media planning TV et optimisation : du statique au (très) dynamique

Asynchronisme : Cadres continu et discret

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Monitoring continu et gestion optimale des performances énergétiques des bâtiments

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Programmation linéaire

LES MÉTHODES DE POINT INTÉRIEUR 1

Exercice : la frontière des portefeuilles optimaux sans actif certain

Nouvelles propositions pour la résolution exacte du problème de sac à dos bi-objectif unidimensionnel en variables binaires

Francisco José Silva Álvarez

Chp. 4. Minimisation d une fonction d une variable

Théorie des Jeux Et ses Applications

MAIDESC - KO 21 Novembre 2013 Etienne Wey Alexandre Boilley

Algorithmique I. Algorithmique I p.1/??

IRL : Simulation distribuée pour les systèmes embarqués

Introduction aux Bases de Données Relationnelles Conclusion - 1

Master Sciences, Technologies, Santé Mention Ingénierie Mathématique Spécialité Calcul Scientifique

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Thomas Loubrieu (Ifremer) Small to Big Data Novembre 2013, Ifremer, Brest

Formation Excel, Niveau initiation, module 1 DUREE DE LA FORMATION OBJECTIFS DE LA FORMATION

Arrêt sur image. La simulation numérique au programme de l industrie

Économetrie non paramétrique I. Estimation d une densité

RECHERCHE OPERATIONNELLE

La programmation à mémoire adaptative ou l évolution des algorithmes évolutifs

Mlle Yasmin A. RÍOS SOLÍS

ÉdIteur officiel et fournisseur de ServIceS professionnels du LogIcIeL open Source ScILab

C f tracée ci- contre est la représentation graphique d une

Traitement bas-niveau

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Méthode des éléments-finis par l exemple

Quelques algorithmes simples dont l analyse n est pas si simple

La classification automatique de données quantitatives

Résolution du RCPSP avec production et consommation de ressources : modèles PLNE basés sur les événements

Analyse de la Commande Prédictive Floue : Algorithmes et Méthodologies de Solution

1 Installer des packages

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Projet : Recalage par maximisation de l information mutuelle

FIMA, 7 juillet 2005

Introduction à l analyse numérique : exemple du cloud computing

Équations non linéaires

Une dérivation du paradigme de réécriture de multiensembles pour l'architecture de processeur graphique GPU

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Introduction à l optimisation de forme et application à la mécanique des fluides

Mercredi 26 mars 2014

Les clusters Linux. 4 août 2004 Benoît des Ligneris, Ph. D. benoit.des.ligneris@revolutionlinux.com. white-paper-cluster_fr.sxw, Version 74 Page 1

T. Gasc 1,2,3, F. De Vuyst 1, R. Motte 3, M. Peybernes 4, R. Poncet 5

Excel Avancé. Plan. Outils de résolution. Interactivité dans les feuilles. Outils de simulation. La valeur cible Le solveur

Interaction Fluide-Structure pour les corps élancés

Rapport d activité. Mathieu Souchaud Juin 2007

Principe de symétrisation pour la construction d un test adaptatif

Le théorème des deux fonds et la gestion indicielle

Problèmes d ordonnancement dans les systèmes de production. Journée Automatique et Optimisation Université de Paris Mars 2003

Historique. Architecture. Contribution. Conclusion. Définitions et buts La veille stratégique Le multidimensionnel Les classifications

Les travaux doivent être remis sous forme papier.

Programmation parallèle et distribuée

Ricco Rakotomalala R.R. Université Lyon 2

FaceBook aime les Maths!

Transcription:

Dual decomposition methods and parallel computing Jonas Koko LIMOS UMR 6158 Université Blaise Pascal - CNRS Dijon 29/06/2015 Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 1 / 18

Plan 1 Un exemple de décomposition en EDP 2 Décomposition des fonctions partiellement séparables 3 Algorithme parallèle 4 Résultats numériques Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 2 / 18

Un exemple de décomposition en EDP Dilemme du calcul parallèle Paralléliser les méthodes existantes ou paralléliser les problèmes? Adapter des anciennes méthodes ou créer de méthodes adaptées aux nouvelles architectures? Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 3 / 18

Un exemple de décomposition en EDP Décomposition de domaine en EDP Problème initial min J(u) = u 2 dx fudx u V Ω Ω Partitionnement : Ω = Ω 1 Ω n min J(u) = J 1 (u 1 ) + + J m (u m ) u ij = u i u j = 0, i j. Lagrangien : L (u, λ) = i [ Ji (u i ) + (λ ij, u i u j ) ] j i Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 4 / 18

Un exemple de décomposition en EDP Algorithme Uzawa gradient conjugué Elimination de u : λ u i (λ) Problème dual quadratique max λ J (λ) Maximisation de la fonctionnelle duale. Le calcul de J (λ) nécessite la résolution (en parallel) de ui L (u, λ) = 0, i = 1,..., m Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 5 / 18

Un exemple de décomposition en EDP Lagrangien augmenté ADMM Lagrangien augmenté min J(u) = J 1 (u 1 ) + + J m (u m ) u i p ij = 0, u j p ij = 0, i j. L r (u, p, λ) = J(u) + {(λ ij, u i p ij ) + (λ ij, u i p ij ) + r } 2 [ u i p ij 2 + u j p ij 2 ] Méthodes basées sur le Lagrangien augmenté : u k+1 = arg min u L r (u, p k, λ k ) p k+1 = arg min p L r (u k+1, p, λ k ) λ k+1 = λ k + r(u k+1 p k+1 ) Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 6 / 18

Fonctions partiellement séparables Quelques méthodes existantes Evaluation parallèle du gradient (Mangasarian 1995, Conforti et al. 1992) Méthodes de décomposition (Conforti et al. 1997) Méthodes multi-pas et multi-direction (Phua et al. 2005, Pardines et al. 2006) Coordinate descent (Richtarik et al. 2014) Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 7 / 18

Fonctions partiellement séparables Problème d optimisation semi-séparable (P 0 ) min x R n f (x) = f 1(x 1 ) + f 2 (x 2 ) x 1, x 2 sous-vecteurs de x, x i = n i, n 1 + n 2 > n f i : R n i R, de classe C 2 Exemple : Fonction de Rosenbrock f (x) = 100(x1 2 x 2) 2 + (x 1 1) 2 + 100(x2 2 x 3) 2 + (x 2 1) 2 f 1 (x 1, x 2 ) = 100(x1 2 x 2) 2 + (x 1 1) 2 f 2 (x 2, x 3 ) = 100(x2 2 x 3) 2 + (x 2 1) 2 x 1 = (x 1, x 2 ), x 2 = (x 2, x 3 ) x 1 x 2 = (x 2 ) Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 8 / 18

Fonctions partiellement séparables Problème d optimisation semi-séparable (P 0 ) min x R n f (x) = f 1(x 1 ) + f 2 (x 2 ) x 1, x 2 sous-vecteurs de x, x i = n i, n 1 + n 2 > n f i : R n i R, de classe C 2 Exemple : Fonction de Rosenbrock f (x) = 100(x1 2 x 2) 2 + (x 1 1) 2 + 100(x2 2 x 3) 2 + (x 2 1) 2 f 1 (x 1, x 2 ) = 100(x1 2 x 2) 2 + (x 1 1) 2 f 2 (x 2, x 3 ) = 100(x2 2 x 3) 2 + (x 2 1) 2 x 1 = (x 1, x 2 ), x 2 = (x 2, x 3 ) x 1 x 2 = (x 2 ) Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 8 / 18

Décomposition x 12 = x 21 = x 1 x 2 Convention : Fonctions partiellement séparables x 1 = [ x11 x 12 ] x 2 = [ x21 x 22 Problème d optimisation avec contraintes : min f 1 (x 1 ) + f 2 (x 2 ) (P 1 ) x 12 x 21 = 0, (x 1, x 2 ) R n 1 R n 2. ] Variable auxiliaire : y 12 (P 2 ) min f 1 (x 1 ) + f 2 (x 2 ) x 12 y 12 = 0, x 21 y 12 = 0, (x 1, x 2, y 12 ) R n 1 R n 2 R n 12 Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 9 / 18

Décomposition x 12 = x 21 = x 1 x 2 Convention : Fonctions partiellement séparables x 1 = [ x11 x 12 ] x 2 = [ x21 x 22 Problème d optimisation avec contraintes : min f 1 (x 1 ) + f 2 (x 2 ) (P 1 ) x 12 x 21 = 0, (x 1, x 2 ) R n 1 R n 2. ] Variable auxiliaire : y 12 (P 2 ) min f 1 (x 1 ) + f 2 (x 2 ) x 12 y 12 = 0, x 21 y 12 = 0, (x 1, x 2, y 12 ) R n 1 R n 2 R n 12 Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 9 / 18

Fonctions partiellement séparables Lagrangien augmenté λ = (λ 12, λ 21 ) R 2n 12 L r (x, y, λ) = f 1 (x 1 ) + f 2 (x 2 ) + λ 12 (x 12 y 12 ) + λ 21 (x 21 y 12 ) + r 2 x 12 y 12 2 + r 2 x 21 y 12 2 Equations de point-selle : [ ] 0 f 1 (x 1 ) + r(x 12 y 12 ) + λ 12 [ ] r(x21 y f 2 (x 2 ) + 12 ) + λ 21 0 = 0 = 0 r(x 12 y 12 ) r(x 21 y 12 ) λ 12 λ 21 = 0 x 12 y 12 = 0, x 21 y 12 = 0. Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 10 / 18

Fonctions partiellement séparables Lagrangien augmenté λ = (λ 12, λ 21 ) R 2n 12 L r (x, y, λ) = f 1 (x 1 ) + f 2 (x 2 ) + λ 12 (x 12 y 12 ) + λ 21 (x 21 y 12 ) + r 2 x 12 y 12 2 + r 2 x 21 y 12 2 Equations de point-selle : [ ] 0 f 1 (x 1 ) + r(x 12 y 12 ) + λ 12 [ ] r(x21 y f 2 (x 2 ) + 12 ) + λ 21 0 = 0 = 0 r(x 12 y 12 ) r(x 21 y 12 ) λ 12 λ 21 = 0 x 12 y 12 = 0, x 21 y 12 = 0. Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 10 / 18

Algorithme parallèle Algorithme du Lagrangien augmenté (classique) k = 0. λ 0, r 0. k 0. λ k connu Optimisation sans contrainte (x k+1, y k+1 ) = arg min L r (x, y, λ k ) Mise à jour des multiplicateurs λ k+1 ij = λ k ij + r k (x k ij y k ij ), i j Mettre à jour les pénalités Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 11 / 18

Algorithme parallèle Relaxation par blocs/ Directions alternées 1 Cas convexe k = 0. y 0, λ 0 donnés k 0. Calculer successivement x k+1, y k+1 et λ k+1 Résoudre simultanément (i.e. en parallèle) x k+1 i = arg min x i L r (x i, y k, λ k ), i = 1,, n Calculer la variable auxilaire y k+1 ij = 1 2 (xk+1 ij +x k+1 ij )+ 1 2r (λk ij +λk ij ), i, j = 1, 2, i j Mise à jour multiplicateurs λ k+1 ij = λ k + r(x k+1 i y k+1 ij ) Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 12 / 18

Algorithme parallèle Relaxation par blocs/ Directions alternées 2 Cas non convexe k = 0. y 0, λ 0 donnés k 0. Calculer successivement x k+1, y k+1 et λ k+1 Repeter m fois 1 Résoudre simultanément (i.e. en parallèle) x k+1 i = arg min xi L r (x i, y k, λ k ), i = 1,, n 2 Calculer la variable auxilaire y k+1 ij Mise à jour multiplicateurs = 1 2 (xk+1 ij + x k+1 ij ) + 1 2r (λk ij + λ k ij ), λ k+1 ij = λ k + r(x k+1 i y k+1 ij ) Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 13 / 18

Résultats numériques Environnement de calcul Machine Cluster Linux 176 coeurs Solveur L-BFGS (Zhu et al. 1994) ; Langage Fortran 95 + MPI Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 14 / 18

Résultats numériques Quadratic tridiagonal (convex) function f (x) = (x 1) 2 + Paramètres : r = 10, n = 10 6 n i(2x i x i 1 ) 2 i=2 Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 15 / 18

Résultats numériques Rosenbrock (non convex) function f (x) = n i=2 Paramètres : r = 10, m = 5, n = 5 10 5 [ 100(x 2 i 1 x i) 2 + (x i 1 1) 2] Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 16 / 18

Résultats numériques Perspectives Choix automatiques de r et m BFGS+L-BFGS? Extension au cas non semi-séparable? Nesterov parallèle? Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 17 / 18

Quelques références Résultats numériques P. Le Tallec and R. Glowinski Augmented Lagrangian and Operator-Splitting Methods. SIAM, 1989. P. Richtarik and M. Takac, Parallel coordinate descent for big data optimization, Mathematical Programming, 2015 J. Koko,Parallel Uzawa methods for large-scale minimization of partially separable functions, Journal Optimization Theory and Applications, 2013. Jonas Koko (LIMOS) Dual decomposition methods Dijon 29/06/2015 18 / 18