Les méthodes d optimisation appliquées à la conception de convertisseurs électromécaniques Elec 2311 : S7 1
Plan du cours Qu est-ce l optimisation? Comment l optimisation s intègre dans la conception? Quelques algorithmes d optimisation Qu en est-il par rapport au projet? 2
Qu est-ce l optimisation? Dans le milieu de la conception, l optimisation est le fait d optimiser une fonction. Formulation générale d une fonction à optimiser : f x n : R R : x f avec n x R possibilité de contraintes Formulation mathématique del optimisation : g x 0 h x 0 min f x tel que x C avec C, l ensemble des paramètres respectant les contraintes 3
Qu est-ce l optimisation? Les problèmes d optimisation sont définis selon plusieurs caractéristique Mono-objectif ou multi-objectif Linéaire ou non-linéaire Contraint ou non-contraint Stochastique ou non stochastique Etc. Cela implique qu un outil d optimisation peut être développé pour résoudre un/des type(s) de problème ou être indépendant du problème. 4
Qu est-ce l optimisation? Multi-objectif? Un problème peut être défini par plusieurs fonctions objectifs concurrents Il existe deux solutions pour traiter ces cas : Assembler les fonction en une seule : x Risque : il faut trouver des valeurs cohérentes aux poids f ' a i f i x a i Travailler sur une fonction objectif à la fois et créer un front de Pareto 5
0.2 cm 3.8 cm Force Comment l optimisation s intègre dans la conception? Démarche classique Actionneur linéaire Force : 10N Course : 1 cm Dim < 10x10x10 cm Choix de la topologie L 2 L 1 e Modélisation L2, e, fixés 2.2 cm Analyse et décision Calcul paramétrique L1 6
0.2 cm 3.8 cm Comment l optimisation s intègre dans Optimisation paramétrique la conception? Actionneur linéaire Force : 10N Course : 1 cm Dim < 10x10x10 cm Choix de la topologie L 2 L 1 e Modélisation 2.2 cm oui non Optimisation La solution répond-elle aux spécifications? Automatique 7
Comment l optimisation s intègre dans Optimisation géométrique la conception? Actionneur linéaire Force : 10N Course : 1 cm Dim < 10x10x10 cm Choix d une géométrie initiale Modélisation oui non Optimisation La solution répond-elle aux spécifications? Automatique 8
Comment l optimisation s intègre dans Optimisation topologique la conception? Actionneur linéaire Force : 10N Course : 1 cm Dim < 10x10x10 cm Matériau A Matériau B Matériau C Modélisation Optimisation Automatique 9
Méthodes déterministes ou exactes Permettent de résoudre les problèmes de manière exactes en un temps fini Supposent généralement que la fonction objectif est Strictement convexe Continue Dérivable Sont inadaptés si ces conditions ne sont pas respectées, ou alors lorsque Le nombre de variables et/ou de contraintes devient important Les fonctions définissant la fonction objectif et les contraintes sont fortement non linéaires Il existe plusieurs optimums locaux On parle alors de problèmes «difficiles» 10
Méthodes heuristiques ou approchées (1) Recherchent, à moindre coût, une solution dont il n est pas possible de garantir la qualité Une méthode heuristique est dite «robuste» si elle converge le plus souvent vers la même solution Une méthode heuristique est dite «efficace» si, à temps de calcul donné, elle donne une solution proche de l optimum Parmi ces méthodes, on distingue Les méthodes développées pour des problèmes spécifiques Les méthodes adaptables à un grand nombre de problèmes différents sans changements majeurs dans l'algorithme On parle alors de méthodes «méta-heuristiques» 11
Méthodes heuristiques ou approchées (2) La plupart de ces méthodes Utilisent des processus aléatoires Raison pour laquelle on parle parfois de méthodes «stochastiques» Sont caractérisées par une série de paramètres de contrôles Dont le choix peut être déterminant pour la qualité de la solution Sont itératives Car elles reproduisent un même schéma de recherche durant l optimisation Sont directes Car elles n utilisent pas l information du gradient de la fonction objectif 12
Méthodes heuristiques ou approchées (3) Ces méthodes se prêtent facilement à des extensions pour L optimisation multi-objectifs L optimisation multimodale L'optimisation de problèmes bruités L'optimisation dynamique La parallélisation L'hybridation 13
Liste exhaustive Monte Carlo Algorithme génétique Essaim particulaire Descente de gradient Nelder-Mead method Méta-heuristique Déterministe avec gradient Déterministe sans gradient 14
Déterministe avec gradient INMA1702 : Modèles et méthodes d'optimisation I INMA2471 : Modèles et méthodes d'optimisation II 15
Déterministe sans gradient : Nelder-Mead method (1/2) Cette méthode est une généralisation de la méthode du simplexe pour des milieux non-linéaire. Fonctionnement 1) On choisit N+1 points (solutions initiales) avec N la dimension du problème x1 S1 Polytope à 3 cotés S3 S2 x2 16
Déterministe sans gradient : Nelder-Mead method (2/2) 2) On calcul la fonction d évaluation en ces points 3) On réindexe les points de manière à avoir : f S f S f S 4) On calcul le centre de gravité de tous les points sauf du dernier (le plus faible) Si i S 1 0 N 5) Calcul de S r = S 0 + (S 0 S N + 1 ) (réflexion de S N + 1 par rapport à x 0 ) 6) Si f(s r ) < f(s 1 ), calcul de S e = S 0 + 2(S 0 S N + 1 ) (étirement du simplexe). Si f(s e ) < f(s r ), remplacement de S N + 1 par S e, sinon, remplacement de S N + 1 par S r. Retour à l'étape 2 N 1 2 N 1 7) Si f(s n ) < f(s r ), calcul de S c = S N + 1 + 1 / 2(S 0 S N + 1 ) (contraction du simplexe). Si, remplacement de S N + 1 par S c et retour à l'étape 2 8) Similitude de rapport 1/2 et de centre S 1 : remplacement de S i par S 0 + 1 / 2(S i S 1 ). Retour à l'étape 2. 17
Méta-heuristique : Monte Carlo La méthode se base sur un tirage aléatoire de solutions. L algorithme a d autant plus de chance de trouver la solution optimale globale que le tirage est élevé Créer et évaluer une solution initiale Générer une nouvelle solution Evaluer et comparer la nouvelle solution Mettre à jour la base de donnée Non Fin Oui? Arrêt 18
Méta-heuristique : Algorithme génétique (1/7) La méthode se base sur les principes d évolution de Darwin Une population (ensemble de solutions) est confronté à un environnement hostile et sélectif (fonctions d évaluations). Les individus de la population (les solutions) les plus adaptés (fonctions évaluées optimales) se reproduisent (transmettent leurs paramètres) plus facilement et survivent aux sélections. Trois outils à implémenter : Sélection des parents reproducteur, reproduction et sélection des descendants. Création et évaluation d une population initiale Sélection d une population de parents Création d une population d enfants par reproduction Sélection des solutions les plus prometteuses Non Fin? Oui Arrêt 19
Méta-heuristique : Algorithme génétique (2/7) Codage des individus Soit un problème dont la solution est caractérisée par On peut le coder de deux manière différentes : Codage en réel : Avantages Plus précis Espace de codage correspondant à l espace du problème Evaluation plus rapide de la fonction coût Inconvénients Alphabet infini Nécessite une implémentation spécifique des opérateurs génétiques x 1 x2,, x 3 20
Méta-heuristique : Algorithme génétique (3/7) Codage binaire : Avantages Alphabet minimum Opérateurs génétiques (croisement et mutation) faciles à implémenter Inconvénients Performances conditionnées par longueur de la chaîne Certains nombre décimaux voisins sont très éloignés dans le code naturel (problème du à l implémentation informatique) 21
Méta-heuristique : Algorithme génétique (4/7) Sélection des parents Sélection par tournoi On sélectionne aléatoirement deux individus, on compare leurs fonctions d évaluation et on prend le meilleur des deux. Si aucun ne se démarque de l autre, un choisit aléatoirement le futur parent. Sélection proportionnelle La probabilité P i qu un individu i soit sélectionné comme parent est directement proportionnelle au score de sa fonction objectif f i fi Pi 1, avec f 0 N i f j Sélection par rang j 1 La probabilité P i qu un individu i soit sélectionné comme parent est directement proportionnelle à son rang R i au sein de la population 22
Méta-heuristique : Algorithme génétique (5/7) Reproduction des parents Il existe de nombreuses méthodes de reproduction. Celles-ci dépendent fortement du type de paramètres utilisés (binaire ou réel). La reproduction classique se subdivise en deux étapes Les croisements : cette méthode permet de brasser un patrimoine génétique au sein de la population Parent 1 : [0 1 1 0 0 1 1 1] Parent 2 : [1 1 0 1 0 1 0 1] Enfant 1 : [0 1 0 1 0 1 1 1] Enfant 2 : [1 1 1 0 0 1 0 1] Les mutations : cette méthode permet de créer une diversité dans la population. Au plus le taux de mutation est élevé, au plus on se rapproche d une recherche purement heuristique.» Chaque bit a une probabilité P m (taux de mutation) de muter Parent : [0 0 0 1 0 1 0 1] Parent : [0 0 0 0 0 1 1 1] 23
Méta-heuristique : Algorithme génétique (6/7) Sélection des descendants A la différence de la sélection des parents, ici l individu est sélectionné une seule fois. Il y a tirage sans remise. Les méthodes de sélections sont équivalentes à celles de la sélection de parents 24
Méta-heuristique : Algorithme génétique (7/7) Les sélections en multi-objectifs Comment distinguer qu une solution est meilleure qu une autre avec plusieurs fonctions objectifs? Solution possible : travail par rang sur base du front de Pareto f2 Rang 3 Rang 4 Rang 2 Rang 1 f1 25
Méta-heuristique : Essaim particulaire L algorithme se base sur une étude de comportement de déplacement d un groupe d oiseaux. Chaque individu est influencé par trois éléments : Son inertie et sa vitesse : ωv k Sa mémoire : P i La mémoire de groupe : P g L équation de mouvement de l individu est : V V k 1 X k 1 X k k b 1 V P X b P X k 1 i b 1 et b 2 sont tirés aléatoirement entre 0 et ф 1, et entre 0 et ф 2 k 2 g k 26
Qu en est-il par rapport au projet? Intégration de l outil d optimisation dans le projet Problème Algorithme d optimisation x f Fonction d évaluation Solution(s) Les algorithmes d optimisation en méta-heuristique sont des boites noires, ils renvoient un jeu de paramètre x et nécessitent les évaluations f. Seul la fonction d évaluation est à implémenter Dans les algorithmes qui seront fournis, le nom de la fonction est fixé 27
Qu en est-il par rapport au projet? Eléments à implémenter Algorithme d optimisation F,C X Function [F,C] = evaluation(x) % Implémentation des fonctions d évaluation F(1) = F(2) = % Implémentation des contraintes C(1) = C(2) = 28