Les méthodes d optimisation appliquées à la conception de convertisseurs électromécaniques. Elec 2311 : S7



Documents pareils
Programmation linéaire

ALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE

Coup de Projecteur sur les Réseaux de Neurones

Etude d un cas industriel : Optimisation de la modélisation de paramètre de production

Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Hela Boukef. To cite this version: HAL Id: tel

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Différentes opérateurs évolutionnaires de permutation: sélections, croisements et mutations

THÈSE DE DOCTORAT DE L UNIVERSITÉ PARIS 12-VAL DE MARNE UFR de Sciences et Technologie. par. Walid TFAILI. pour obtenir le grade de

Une application des algorithmes génétiques à l ordonnancement d atelier

Agrégation des portefeuilles de contrats d assurance vie

Jean-Philippe Préaux

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

UEO11 COURS/TD 1. nombres entiers et réels codés en mémoire centrale. Caractères alphabétiques et caractères spéciaux.

Programmation linéaire

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Quantification Scalaire et Prédictive

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)

Présentation des algorithmes génétiques et de leurs applications en économie

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Information. BASES LITTERAIRES Etre capable de répondre à une question du type «la valeur trouvée respecte t-elle le cahier des charges?

Équations non linéaires

La programmation à mémoire adaptative ou l évolution des algorithmes évolutifs

Chp. 4. Minimisation d une fonction d une variable

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Représentation des Nombres

Ordonnancement robuste et décision dans l'incertain

Correction du baccalauréat ES/L Métropole 20 juin 2014

Algorithmes pour la planification de mouvements en robotique non-holonome

Système Immunitaire Artificiel Parallèle appliqué aux Flow Shop Hybride (FSH)

Traitement bas-niveau

Problème à résoudre. min f(s) s.c. s S

F1C1/ Analyse. El Hadji Malick DIA

Licence Sciences et Technologies Examen janvier 2010

Image d un intervalle par une fonction continue

Joueur B Pierre Feuille Ciseaux Pierre (0,0) (-1,1) (1,-1) Feuille (1,-1) (0,0) (-1,1) Ciseaux (-1,1) (1,-1) (0.0)

Jade. Projet Intelligence Artificielle «Devine à quoi je pense»

Logiciel Libre Cours 3 Fondements: Génie Logiciel

Sommaire. Introduction Définition Historique Domaine d application.2. 4.Les Travaux réalisés sur les domaines d application.

Couplage efficace entre Optimisation et Simulation stochastique Application à la maintenance optimale d une constellation de satellites

Introduction au maillage pour le calcul scientifique

3 Approximation de solutions d équations

4.2 Unités d enseignement du M1

Conception de réseaux de télécommunications : optimisation et expérimentations

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

«Cours Statistique et logiciel R»

Ordonnancement en temps réel d un jobshop par métaheuristique hybride : étude comparative

Résolution d équations non linéaires

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

Continuité et dérivabilité d une fonction


UNIVERSITE DES ANTILLES et DE LA GUYANE Campus de Fouillole BP Pointe-à-Pitre Cedex CONTRAT LE MASTER NOM DU DOMAINE STS

Fonctions de plusieurs variables

PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES

Cours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. address: Nicolas.Thiery@u-psud.fr URL:

Introduction au datamining

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

L apprentissage automatique

Modélisation aléatoire en fiabilité des logiciels

Catalogue de formation

Optimisation multi-objectif par colonies de fourmis : cas des problèmes de sac à dos

TESTS D HYPOTHÈSE FONDÉS SUR LE χ².

Programmation Linéaire - Cours 1

Méthaheuristiques pour l optimisation combinatoire et l affectation sous contraintes

4 Distributions particulières de probabilités

Température corporelle d un castor (une petite introduction aux séries temporelles)

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN

C f tracée ci- contre est la représentation graphique d une

CHAPITRE 5. Stratégies Mixtes

Le data mining et l assurance Mai Charles Dugas Président Marianne Lalonde Directrice, développement des affaires

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Probabilités sur un univers fini

Sujet 1 : Diagnostique du Syndrome de l apnée du sommeil par des techniques d analyse discriminante.

document proposé sur le site «Sciences Physiques en BTS» : BTS AVA 2015

Objectifs du cours d aujourd hui. Informatique II : Cours d introduction à l informatique et à la programmation objet. Complexité d un problème (2)

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Cours de Master Recherche

Plan. 5 Actualisation. 7 Investissement. 2 Calcul du taux d intérêt 3 Taux équivalent 4 Placement à versements fixes.

Sujet 4: Programmation stochastique propriétés de fonction de recours

CARTE DE VOEUX À L ASSOCIAEDRE

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

- MANIP 2 - APPLICATION À LA MESURE DE LA VITESSE DE LA LUMIÈRE

1 Recherche en table par balayage

Renforcement des trois compétences : compréhension orale, expression orale et expression écrite à partir de documents et vidéos.

Baccalauréat L spécialité, Métropole et Réunion, 19 juin 2009 Corrigé.

La Recherche du Point Optimum de Fonctionnement d un Générateur Photovoltaïque en Utilisant les Réseaux NEURO-FLOUS

EXERCICES DE REVISIONS MATHEMATIQUES CM2

Introduction à la théorie des files d'attente. Claude Chaudet

Géométrie discrète Chapitre V

Transcription:

Les méthodes d optimisation appliquées à la conception de convertisseurs électromécaniques Elec 2311 : S7 1

Plan du cours Qu est-ce l optimisation? Comment l optimisation s intègre dans la conception? Quelques algorithmes d optimisation Qu en est-il par rapport au projet? 2

Qu est-ce l optimisation? Dans le milieu de la conception, l optimisation est le fait d optimiser une fonction. Formulation générale d une fonction à optimiser : f x n : R R : x f avec n x R possibilité de contraintes Formulation mathématique del optimisation : g x 0 h x 0 min f x tel que x C avec C, l ensemble des paramètres respectant les contraintes 3

Qu est-ce l optimisation? Les problèmes d optimisation sont définis selon plusieurs caractéristique Mono-objectif ou multi-objectif Linéaire ou non-linéaire Contraint ou non-contraint Stochastique ou non stochastique Etc. Cela implique qu un outil d optimisation peut être développé pour résoudre un/des type(s) de problème ou être indépendant du problème. 4

Qu est-ce l optimisation? Multi-objectif? Un problème peut être défini par plusieurs fonctions objectifs concurrents Il existe deux solutions pour traiter ces cas : Assembler les fonction en une seule : x Risque : il faut trouver des valeurs cohérentes aux poids f ' a i f i x a i Travailler sur une fonction objectif à la fois et créer un front de Pareto 5

0.2 cm 3.8 cm Force Comment l optimisation s intègre dans la conception? Démarche classique Actionneur linéaire Force : 10N Course : 1 cm Dim < 10x10x10 cm Choix de la topologie L 2 L 1 e Modélisation L2, e, fixés 2.2 cm Analyse et décision Calcul paramétrique L1 6

0.2 cm 3.8 cm Comment l optimisation s intègre dans Optimisation paramétrique la conception? Actionneur linéaire Force : 10N Course : 1 cm Dim < 10x10x10 cm Choix de la topologie L 2 L 1 e Modélisation 2.2 cm oui non Optimisation La solution répond-elle aux spécifications? Automatique 7

Comment l optimisation s intègre dans Optimisation géométrique la conception? Actionneur linéaire Force : 10N Course : 1 cm Dim < 10x10x10 cm Choix d une géométrie initiale Modélisation oui non Optimisation La solution répond-elle aux spécifications? Automatique 8

Comment l optimisation s intègre dans Optimisation topologique la conception? Actionneur linéaire Force : 10N Course : 1 cm Dim < 10x10x10 cm Matériau A Matériau B Matériau C Modélisation Optimisation Automatique 9

Méthodes déterministes ou exactes Permettent de résoudre les problèmes de manière exactes en un temps fini Supposent généralement que la fonction objectif est Strictement convexe Continue Dérivable Sont inadaptés si ces conditions ne sont pas respectées, ou alors lorsque Le nombre de variables et/ou de contraintes devient important Les fonctions définissant la fonction objectif et les contraintes sont fortement non linéaires Il existe plusieurs optimums locaux On parle alors de problèmes «difficiles» 10

Méthodes heuristiques ou approchées (1) Recherchent, à moindre coût, une solution dont il n est pas possible de garantir la qualité Une méthode heuristique est dite «robuste» si elle converge le plus souvent vers la même solution Une méthode heuristique est dite «efficace» si, à temps de calcul donné, elle donne une solution proche de l optimum Parmi ces méthodes, on distingue Les méthodes développées pour des problèmes spécifiques Les méthodes adaptables à un grand nombre de problèmes différents sans changements majeurs dans l'algorithme On parle alors de méthodes «méta-heuristiques» 11

Méthodes heuristiques ou approchées (2) La plupart de ces méthodes Utilisent des processus aléatoires Raison pour laquelle on parle parfois de méthodes «stochastiques» Sont caractérisées par une série de paramètres de contrôles Dont le choix peut être déterminant pour la qualité de la solution Sont itératives Car elles reproduisent un même schéma de recherche durant l optimisation Sont directes Car elles n utilisent pas l information du gradient de la fonction objectif 12

Méthodes heuristiques ou approchées (3) Ces méthodes se prêtent facilement à des extensions pour L optimisation multi-objectifs L optimisation multimodale L'optimisation de problèmes bruités L'optimisation dynamique La parallélisation L'hybridation 13

Liste exhaustive Monte Carlo Algorithme génétique Essaim particulaire Descente de gradient Nelder-Mead method Méta-heuristique Déterministe avec gradient Déterministe sans gradient 14

Déterministe avec gradient INMA1702 : Modèles et méthodes d'optimisation I INMA2471 : Modèles et méthodes d'optimisation II 15

Déterministe sans gradient : Nelder-Mead method (1/2) Cette méthode est une généralisation de la méthode du simplexe pour des milieux non-linéaire. Fonctionnement 1) On choisit N+1 points (solutions initiales) avec N la dimension du problème x1 S1 Polytope à 3 cotés S3 S2 x2 16

Déterministe sans gradient : Nelder-Mead method (2/2) 2) On calcul la fonction d évaluation en ces points 3) On réindexe les points de manière à avoir : f S f S f S 4) On calcul le centre de gravité de tous les points sauf du dernier (le plus faible) Si i S 1 0 N 5) Calcul de S r = S 0 + (S 0 S N + 1 ) (réflexion de S N + 1 par rapport à x 0 ) 6) Si f(s r ) < f(s 1 ), calcul de S e = S 0 + 2(S 0 S N + 1 ) (étirement du simplexe). Si f(s e ) < f(s r ), remplacement de S N + 1 par S e, sinon, remplacement de S N + 1 par S r. Retour à l'étape 2 N 1 2 N 1 7) Si f(s n ) < f(s r ), calcul de S c = S N + 1 + 1 / 2(S 0 S N + 1 ) (contraction du simplexe). Si, remplacement de S N + 1 par S c et retour à l'étape 2 8) Similitude de rapport 1/2 et de centre S 1 : remplacement de S i par S 0 + 1 / 2(S i S 1 ). Retour à l'étape 2. 17

Méta-heuristique : Monte Carlo La méthode se base sur un tirage aléatoire de solutions. L algorithme a d autant plus de chance de trouver la solution optimale globale que le tirage est élevé Créer et évaluer une solution initiale Générer une nouvelle solution Evaluer et comparer la nouvelle solution Mettre à jour la base de donnée Non Fin Oui? Arrêt 18

Méta-heuristique : Algorithme génétique (1/7) La méthode se base sur les principes d évolution de Darwin Une population (ensemble de solutions) est confronté à un environnement hostile et sélectif (fonctions d évaluations). Les individus de la population (les solutions) les plus adaptés (fonctions évaluées optimales) se reproduisent (transmettent leurs paramètres) plus facilement et survivent aux sélections. Trois outils à implémenter : Sélection des parents reproducteur, reproduction et sélection des descendants. Création et évaluation d une population initiale Sélection d une population de parents Création d une population d enfants par reproduction Sélection des solutions les plus prometteuses Non Fin? Oui Arrêt 19

Méta-heuristique : Algorithme génétique (2/7) Codage des individus Soit un problème dont la solution est caractérisée par On peut le coder de deux manière différentes : Codage en réel : Avantages Plus précis Espace de codage correspondant à l espace du problème Evaluation plus rapide de la fonction coût Inconvénients Alphabet infini Nécessite une implémentation spécifique des opérateurs génétiques x 1 x2,, x 3 20

Méta-heuristique : Algorithme génétique (3/7) Codage binaire : Avantages Alphabet minimum Opérateurs génétiques (croisement et mutation) faciles à implémenter Inconvénients Performances conditionnées par longueur de la chaîne Certains nombre décimaux voisins sont très éloignés dans le code naturel (problème du à l implémentation informatique) 21

Méta-heuristique : Algorithme génétique (4/7) Sélection des parents Sélection par tournoi On sélectionne aléatoirement deux individus, on compare leurs fonctions d évaluation et on prend le meilleur des deux. Si aucun ne se démarque de l autre, un choisit aléatoirement le futur parent. Sélection proportionnelle La probabilité P i qu un individu i soit sélectionné comme parent est directement proportionnelle au score de sa fonction objectif f i fi Pi 1, avec f 0 N i f j Sélection par rang j 1 La probabilité P i qu un individu i soit sélectionné comme parent est directement proportionnelle à son rang R i au sein de la population 22

Méta-heuristique : Algorithme génétique (5/7) Reproduction des parents Il existe de nombreuses méthodes de reproduction. Celles-ci dépendent fortement du type de paramètres utilisés (binaire ou réel). La reproduction classique se subdivise en deux étapes Les croisements : cette méthode permet de brasser un patrimoine génétique au sein de la population Parent 1 : [0 1 1 0 0 1 1 1] Parent 2 : [1 1 0 1 0 1 0 1] Enfant 1 : [0 1 0 1 0 1 1 1] Enfant 2 : [1 1 1 0 0 1 0 1] Les mutations : cette méthode permet de créer une diversité dans la population. Au plus le taux de mutation est élevé, au plus on se rapproche d une recherche purement heuristique.» Chaque bit a une probabilité P m (taux de mutation) de muter Parent : [0 0 0 1 0 1 0 1] Parent : [0 0 0 0 0 1 1 1] 23

Méta-heuristique : Algorithme génétique (6/7) Sélection des descendants A la différence de la sélection des parents, ici l individu est sélectionné une seule fois. Il y a tirage sans remise. Les méthodes de sélections sont équivalentes à celles de la sélection de parents 24

Méta-heuristique : Algorithme génétique (7/7) Les sélections en multi-objectifs Comment distinguer qu une solution est meilleure qu une autre avec plusieurs fonctions objectifs? Solution possible : travail par rang sur base du front de Pareto f2 Rang 3 Rang 4 Rang 2 Rang 1 f1 25

Méta-heuristique : Essaim particulaire L algorithme se base sur une étude de comportement de déplacement d un groupe d oiseaux. Chaque individu est influencé par trois éléments : Son inertie et sa vitesse : ωv k Sa mémoire : P i La mémoire de groupe : P g L équation de mouvement de l individu est : V V k 1 X k 1 X k k b 1 V P X b P X k 1 i b 1 et b 2 sont tirés aléatoirement entre 0 et ф 1, et entre 0 et ф 2 k 2 g k 26

Qu en est-il par rapport au projet? Intégration de l outil d optimisation dans le projet Problème Algorithme d optimisation x f Fonction d évaluation Solution(s) Les algorithmes d optimisation en méta-heuristique sont des boites noires, ils renvoient un jeu de paramètre x et nécessitent les évaluations f. Seul la fonction d évaluation est à implémenter Dans les algorithmes qui seront fournis, le nom de la fonction est fixé 27

Qu en est-il par rapport au projet? Eléments à implémenter Algorithme d optimisation F,C X Function [F,C] = evaluation(x) % Implémentation des fonctions d évaluation F(1) = F(2) = % Implémentation des contraintes C(1) = C(2) = 28