Notes du cours MTH1101 Calcul I Partie III: Optimisation

Documents pareils
Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Amphi 3: Espaces complets - Applications linéaires continues

Programmation linéaire

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Optimisation Discrète

OPTIMISATION À UNE VARIABLE

Fonctions de plusieurs variables

Programmation linéaire

3 Approximation de solutions d équations

Résolution d équations non linéaires

Continuité et dérivabilité d une fonction

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Cours Fonctions de deux variables

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Optimisation des fonctions de plusieurs variables

LES MÉTHODES DE POINT INTÉRIEUR 1

Polynômes à plusieurs variables. Résultant

Continuité en un point

Programmation Linéaire - Cours 1

Chp. 4. Minimisation d une fonction d une variable

Chapitre 5 : Flot maximal dans un graphe

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Cours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. address: Nicolas.Thiery@u-psud.fr URL:

Cours d Analyse. Fonctions de plusieurs variables

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Image d un intervalle par une fonction continue

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

I. Polynômes de Tchebychev

Cours d analyse numérique SMI-S4

Théorème du point fixe - Théorème de l inversion locale

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Resolution limit in community detection

Équations non linéaires

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

CCP PSI Mathématiques 1 : un corrigé

Comparaison de fonctions Développements limités. Chapitre 10

Programmation linéaire et Optimisation. Didier Smets

Filtrage stochastique non linéaire par la théorie de représentation des martingales

aux différences est appelé équation aux différences d ordre n en forme normale.

EXERCICE 4 (7 points ) (Commun à tous les candidats)

TRACER LE GRAPHE D'UNE FONCTION

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Texte Agrégation limitée par diffusion interne

Chapitre 2 Le problème de l unicité des solutions

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

SONDAGE EXCLUSIF Harris Interactive pour LCP-Assemblée nationale

Université Paris-Dauphine DUMI2E 1ère année, Applications

Sujet 4: Programmation stochastique propriétés de fonction de recours

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

F1C1/ Analyse. El Hadji Malick DIA

Exemples de problèmes et d applications. INF6953 Exemples de problèmes 1

ALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

RO04/TI07 - Optimisation non-linéaire

4. Martingales à temps discret

Mathématiques appliquées à l'économie et à la Gestion

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Complément d information concernant la fiche de concordance

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

Différentiabilité ; Fonctions de plusieurs variables réelles

Annexe 6. Notions d ordonnancement.

Théorèmes de Point Fixe et Applications 1

ÉVALUATION FORMATIVE. On considère le circuit électrique RC représenté ci-dessous où R et C sont des constantes strictement positives.

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Commun à tous les candidats

Algorithmes pour la planification de mouvements en robotique non-holonome

PRIME D UNE OPTION D ACHAT OU DE VENTE

Ce cours introduit l'électrodynamique classique. Les chapitres principaux sont :

Exercices - Polynômes : corrigé. Opérations sur les polynômes

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Exercice : la frontière des portefeuilles optimaux sans actif certain

Rappels sur les suites - Algorithme

Correction de l examen de la première session

Exclusion Mutuelle. Arnaud Labourel Courriel : arnaud.labourel@lif.univ-mrs.fr. Université de Provence. 9 février 2011

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

CHAPITRE 5. Stratégies Mixtes

Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires

Quantification Scalaire et Prédictive

Chapitre 7 : Intégration sur un intervalle quelconque

Intégration et probabilités TD1 Espaces mesurés

Ordonnancement. N: nains de jardin. X: peinture extérieure. E: électricité T: toit. M: murs. F: fondations CHAPTER 1

O, i, ) ln x. (ln x)2

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Optimisation, traitement d image et éclipse de Soleil

Etude de fonctions: procédure et exemple

Echantillonnage Non uniforme

Dérivées et différentielles des fonctions de plusieurs variables

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall

Correction du baccalauréat ES/L Métropole 20 juin 2014

Problème 1 : applications du plan affine

Nouveau Barème W.B.F. de points de victoire 4 à 48 donnes

Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes

Transcription:

Notes du cours MTH1101 Calcul I Partie III: Optimisation Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2016

Table des matières 1 Optimisation 2 / 27

Table des matières Optimisation 1 Optimisation 3 / 27

Soit un domaine D R n et une fonction f : D R de n variables. On cherche un point x D qui minimise la valeur de f (x) sur D. On écrit : min x D f (x). La fonction f est appelée la fonction objectif. 4 / 27

Définition : minimum absolu x D est un minimum absolu (global) de f (x) sur D si f (x ) f (x), x D. Définition : minimum local x D est un minimum local de f (x) sur D s il existe ɛ > 0 tel que f (x ) f (x), x D B ɛ (x ), où B ɛ (x ) = {x R n : x x < ɛ} est la boule de rayon ɛ centrée en x. 5 / 27

Remarques 1 Un minimum absolu est aussi un minimum local. 2 Un minimum peut aussi être un maximum. 3 Il n existe pas toujours de minimum absolu, ni de minimum local. 4 En général, il est difficile de trouver un minimum absolu. Dans le cours, on se concentre surtout sur la recherche d un minimum local. 5 Résoudre un problème de maximisation est équivalent à résoudre un problème de minimisation, i.e., max x D f (x) min x D f (x). On peut donc se concentrer que sur les problèmes de minimisation. 6 / 27

Table des matières Optimisation 1 Optimisation 7 / 27

En optimisation sans contraintes, on considère D = R n. On cherche donc à résoudre min x R n f (x). Condition nécessaire d optimalité du premier ordre Si x est un minimum local, alors f (x ) = 0. 8 / 27

Définition : point critique x est un point critique de f (x) si f (x ) = 0. Un point critique peut être un minimum local un maximum local un point de selle (i.e., ɛ > 0, il existe a, b B ɛ (x ) tels que f (a) < f (x ) < f (b)). 9 / 27

Définition : matrice hessienne Soit f (x) une fonction de n variables. La matrice hessienne de f (x), notée 2 f (x), est donnée par 2 f x 1 x 2... 2 f x 1 x n 2 f (x) = 2 f x 2 1 2 f x 2 x 1 2 f x 2 2 2 f x n x 1... 2 f x 2 x n... 2 f x n x 2... 2 f xn 2. Cette matrice est symétrique si toutes les dérivées sont continues. 10 / 27

Conditions nécessaires du second ordre Si x est un minimum local de f (x), alors f (x ) = 0 et y T 2 f (x )y 0, y R n (i.e., la matrice hessienne 2 f (x ) est semi-définie positive). Conditions suffisantes du second ordre Soit x R n. Si f (x ) = 0 et y T 2 f (x )y > 0, y R n (i.e., la matrice hessienne 2 f (x ) est définie positive), alors x est un minimum local de f (x). 11 / 27

Une matrice n n symétrique A est définie positive si ([ ]) a11 a det ([a 11 ]) > 0, det 12 > 0, a 21 a 22 det a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 > 0,..., det(a) > 0. 12 / 27

Une matrice n n symétrique A est semi-définie positive si det(a) 0 et toutes ses sous-matrices carrées obtenues en éliminant des lignes et les colonnes correspondantes ont un déterminant non négatif. Par exemple, une matrice 2 2 symétrique A est semi-définie positive si det ([a 11 ]) 0, det ([a 22 ]) 0 et det(a) 0. 13 / 27

En pratique, pour résoudre un problème d optimisation sans contraintes, on trouve un point critique x et on étudie sa nature : 1 Si 2 f (x ) est définie positive, alors x est un minimum local 2 Si 2 f (x ) est définie positive, alors x est un maximum local 3 Si 2 f (x ) n est pas semi-définie positive, alors x n est pas un minimum local 4 Si 2 f (x ) n est pas semi-définie positive, alors x n est pas un maximum local 5 Si les conditions 3 et 4 sont satisfaites, alors x est un point de selle. 14 / 27

Table des matières Optimisation 1 Optimisation 15 / 27

dans R 2 Cette méthode permet de trouver, en général, un minimum local d une fonction f (x, y). C est une méthode itérative (x k, y k ) : point courant au début de l itération k d k = f (x k, y k ) : direction de descente au point (x k, y k ) h(α) = f ((x k, y k ) + αd k ) : fonction à une variable à minimiser à l itération k 16 / 27

Pseudo-code de l algorithme 1: Soit (x 0, y 0 ) un point initial. 2: Poser k = 0. 3: Calculer d k = f (x k, y k ). 4: Si d k = 0 alors 5: Arrêter car (x k, y k ) est un point critique. 6: Sinon 7: Résoudre le problème de recherche linéaire min h(α) = f ((x k, y k ) + αd k ). α 0 Dénoter par α le minimum obtenu. 8: Poser (x k+1, y k+1 ) = (x k, y k ) + α d k. 9: Poser k = k + 1. 10: Aller à l étape 3. 17 / 27

Remarques En général, l algorithme trouve un point critique qui est un minimum local. L algorithme peut ne pas converger (i.e., aller vers ). S il y a plusieurs minima locaux et que l algorithme converge, on ne sait pas vers quel minimum local. Plusieurs méthodes peuvent être utilisées pour résoudre le problème de recherche linéaire. Dans le cours, il sera résolu de façon analytique. Pour un problème de maximisation, on choisit d k = f (x k, y k ) et on maximise pour la recherche linéaire. L algorithme se généralise au cas de plus de deux variables. L algorithme s approche d un point critique en zigzaguant. 18 / 27

Table des matières Optimisation 1 Optimisation 19 / 27

Soit D R n un domaine et f : D R une fonction de n variables. Considérons P, le problème d optimisation avec contraintes min f (x). x D Définitions : ensemble fermé, ensemble borné Un ensemble S est fermé si tout point x de la frontière de S appartient à S. Un ensemble S est borné s il existe une constante M R telle que x M, x S. Théorème Si D est fermé et borné et f (x) est une fonction continue sur D, alors le problème P a au moins un minimum absolu x D. 20 / 27

Premier cas (une contrainte d égalité) : D = {x R n : g(x) = k}. Conditions nécessaires d optimalité du premier ordre Si x est un minimum local de f (x) sur D R n et g(x ) 0, alors il existe λ R tel que f (x ) = λ g(x ) (1) g(x ) = k. (2) 21 / 27

Définition : point critique Les points x pour lesquels il existe λ tel que les conditions (1) et (2) sont satisfaites sont appelés des points critiques. Chacun de ces points peut être un minimum local, un maximum local ou un point de selle. Définition : multiplicateur de Lagrange λ est appelé le multiplicateur de Lagrange associé à la contrainte g(x) = k. 22 / 27

Soit v(k) = min s.à f (x) g(x) = k une fonction qui donne la valeur minimale de ce problème d optimisation en fonction de k. Proposition Soit λ le multiplicateur de Lagrange associé à g(x) = k. Alors λ = v (k). Pour un minimum local, λ indique le taux de variation de la valeur du minimum local. 23 / 27

Le polynôme de Taylor de degré 1 de v(k) autour de k 0 est T 1 (k) = v(k 0 ) + λ 0 (k k 0 ), où λ 0 est le multiplicateur de Lagrange pour k = k 0. Ce polynôme peut être utilisé pour estimer les valeurs optimales v(k) pour k près de k 0, i.e., v(k) v(k 0 ) + λ 0 (k k 0 ). 24 / 27

Second cas (plusieurs contraintes d égalité) : D = {x R n : g j (x) = k j, j = 1, 2,..., m}. Conditions nécessaires d optimalité du premier ordre Si x est un minimum local de f (x) sur D R n et l ensemble des gradients { g j (x ) : j = 1, 2,..., m} est linéairement indépendant, alors il existe λ j R, j = 1, 2,..., m, tels que f (x ) = m λ j g j (x ) (3) j=1 g j (x ) = k j, j = 1, 2,..., m. (4) 25 / 27

Troisième cas (une contrainte d inégalité) : D = {x R n : g(x) k}. Il y a deux possibilités : 1 un minimum local x est dans l intérieur strict de D et alors f (x ) = 0. 2 un minimum local x est sur la frontière de D et alors il satisfait les conditions (1) et (2) : f (x ) = λ g(x ) g(x ) = k. 26 / 27

Méthode d optimisation (si D est fermé et borné) 1 Trouver tous les points tels que ou f (x) = 0 et g(x) < k f (x) = λ g(x) avec λ R, g(x) = k et g(x) 0. 2 Évaluer f (x) en tous ces points et comparer leurs valeurs pour trouver un minimum absolu. 27 / 27