II. OPTIMISATION SANS CONTRAINTE. min f(x) avec x ε R n

Documents pareils
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

Chp. 4. Minimisation d une fonction d une variable

Équations non linéaires

Résolution d équations non linéaires

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

RO04/TI07 - Optimisation non-linéaire

LES MÉTHODES DE POINT INTÉRIEUR 1

Programmation linéaire

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

Master IMA - UMPC Paris 6 RDMM - Année Fiche de TP

3 Approximation de solutions d équations

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de Simulation

4.2 Unités d enseignement du M1

Polynômes à plusieurs variables. Résultant

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Etude de fonctions: procédure et exemple

Coup de Projecteur sur les Réseaux de Neurones

Cours d analyse numérique SMI-S4

TRACER LE GRAPHE D'UNE FONCTION

CAPTEURS - CHAINES DE MESURES

Cours de méthodes de scoring

Programmation Linéaire - Cours 1

de calibration Master 2: Calibration de modèles: présentation et simulation d

Calcul de développements de Puiseux et application au calcul du groupe de monodromie d'une courbe algébrique plane

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Initiation à l algorithmique

Chapitre 4: Dérivée d'une fonction et règles de calcul

Équations non linéaires

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)

Manuel de validation Fascicule v4.25 : Thermique transitoire des structures volumiques

I. Polynômes de Tchebychev

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Résolution de systèmes linéaires par des méthodes directes

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

Correction de l examen de la première session

Cours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. address: Nicolas.Thiery@u-psud.fr URL:

Table des matières. I Mise à niveau 11. Préface

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Cours d Analyse. Fonctions de plusieurs variables

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

OPTIMISATION À UNE VARIABLE

Quantification Scalaire et Prédictive

Image d un intervalle par une fonction continue

Continuité et dérivabilité d une fonction

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

I. Ensemble de définition d'une fonction

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Théorème du point fixe - Théorème de l inversion locale

CAISSE ENREGISTREUSE ELECTRONIQUE SE-G1

Cours d Analyse I et II

Chapitre 2. Eléments pour comprendre un énoncé

Ordonnancement robuste et décision dans l'incertain

Formation à la C F D Computational Fluid Dynamics. Formation à la CFD, Ph Parnaudeau

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Programmation linéaire et Optimisation. Didier Smets

Mathématiques I Section Architecture, EPFL

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Limites finies en un point

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Figure 3.1- Lancement du Gambit

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation

Correction du baccalauréat S Liban juin 2007

Chapitre 3. Les distributions à deux variables

Calcul différentiel. Chapitre Différentiabilité

Licence 2 Mathématiques- Semestre 3 Introduction aux mathématiques

Optimisation Différentiable Théorie et Algorithmes. Exemple de résumé du cours. J. Ch. GILBERT

IV- Equations, inéquations dans R, Systèmes d équations

Amphi 3: Espaces complets - Applications linéaires continues

Cours 02 : Problème général de la programmation linéaire

Optimisation des fonctions de plusieurs variables

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

1 de 46. Algorithmique. Trouver et Trier. Florent Hivert. Mél : Florent.Hivert@lri.fr Page personnelle : hivert

Développements limités. Notion de développement limité

II. REVOD Plongée à l ordinateur. Septembre Plan de l exposé

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Optimisation, traitement d image et éclipse de Soleil

à moyen Risque moyen Risq à élevé Risque élevé Risq e Risque faible à moyen Risq Risque moyen à élevé Risq

CCP PSI Mathématiques 1 : un corrigé

ALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII

Calcul fonctionnel holomorphe dans les algèbres de Banach

Projet : Recalage par maximisation de l information mutuelle

Modélisation et simulation

Problème 1 : applications du plan affine

Chapitre 5 : Flot maximal dans un graphe

Organigramme / Algorigramme Dossier élève 1 SI

FONCTIONS À CROISSANCE RÉGULIÈRE

Principes d implémentation des métaheuristiques

Suites numériques 3. 1 Convergence et limite d une suite

Projet de Traitement du Signal Segmentation d images SAR

Introduction à MATLAB R

La programmation à mémoire adaptative ou l évolution des algorithmes évolutifs

Les algorithmes de base du graphisme

UNIVERSITE DES ANTILLES et DE LA GUYANE Campus de Fouillole BP Pointe-à-Pitre Cedex CONTRAT LE MASTER NOM DU DOMAINE STS

Lagrange, où λ 1 est pour la contrainte sur µ p ).

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Transcription:

min f(x) avec x ε R n Méthodes de recherche unidimensionnelle Méthodes du gradient Méthodes des directions conjuguées Méthode de Newton et méthode de Levenberg-Marquardt Méthodes quasi-newton Méthodes sans calcul du gradient Résolution d équations non linéaires

II.1 Méthodes de recherches unidimensionnelles (1) II.1.1 Méthode du nombre d or Hypothèse: f unimodulable sur <=> un seul minimisant f f(x) f(x)

II.1 Méthodes de recherches unidimensionnelles (2) Principes de la méthode du nombre d or f(x)

II.1 Méthodes de recherches unidimensionnelles (3) Principes de la méthode du nombre d or (suite) Répéter Choisir un des points de l étape précédente :

II.1 Méthodes de recherches unidimensionnelles (4) Calcul de la valeur de ρ dans la méthode du nombre d or: => Facteur de réduction à chaque itération: = NOMBRE D OR

II.1 Méthodes de recherches unidimensionnelles (5) II.1.2 Méthode des suites de Fibonacci ρ est variable pour optimiser la convergence

II.1 Méthodes de recherches unidimensionnelles (6) Sélection optimale des facteurs de réduction: Si N itérations sont permises : où est la suite de Fibonacci :

II.1 Méthodes de recherches unidimensionnelles (7) II.1.3 Méthode de Newton Approximation de f(x) par une forme quadratique autour d un point : Minimiser q(x) => x =

II.1 Méthodes de recherches unidimensionnelles (8) II.1.3 Méthode de Newton (suite) Méthode efficace si convergence quadratique > 0 x q(x) q(x) f(x)

II.1 Méthodes de recherches unidimensionnelles (9) II.1.3 Méthode de Newton (suite) Par contre la méthode ne converge pas nécessairement si f (x) < 0 pour certaines valeurs de x g(x) f(x)

II.1 Méthodes de recherches unidimensionnelles (10) II.1.3 Méthode de Newton (suite) La méthode de Newton peut être vue comme une méthode de recherche de zéro d une fonction g(x) si on pose g(x)

II.1 Méthodes de recherches unidimensionnelles (11) II.1.4 Méthode de la sécante La dérivée n est pas toujours disponible => approximation Cette méthode amène la dérivée de f(x) à zéro

II.1 Méthodes de recherches unidimensionnelles (12) II.1.4 Méthode de la sécante (suite) Si f (x) = g(x) cette méthode trouve la racine de g(x) g(x)

II.1 Méthodes de recherches unidimensionnelles (13) II.1.5 Méthodes unidirectionnelles «Line search» = solution d un problème unidimensionnel Exemple: méthode de la sécante

II.1 Méthodes de recherches unidimensionnelles (14) II.1.5 Méthodes unidirectionnelles (suite)! Il n est pas nécessaire de calculer précisément α* si de manière significative If faut distinguer 2 cas : f dérivable et f non dérivable La recherche de α* se fait souvent en deux étapes: 1. Déterminer un intervalle contenant α* 2. Réduire cet intervalle

II.1 Méthodes de recherches unidimensionnelles (15) II.1.5.1 La fonction f est dérivable Soit une direction de décroissance de f Déterminer un intervalle contenant α* 1 Trouver un intervalle [a,b] où la pente change de signe pente a b!

II.1 Méthodes de recherches unidimensionnelles (16) 2 Algorithme de Fletcher pente pente A B α max α Conditions de Wolfe-Powell

II.1 Méthodes de recherches unidimensionnelles (17) II.1.5.2. La fonction f est non dérivable 1. Utiliser des différences finies au lieu des dérivées. 2. Méthode du nombre d or ou des suites de Fibonacci si un intervalle [0, α max ] a été identifié. 3. Interpolation quadratique en 3 points avec recherche de minimum: méthode souvent utilisée (e.g.. MATLAB).

II.2 Méthode du Gradient (1) Soit Indique la direction avec le plus grand taux de décroissance de f au point => Algorithme du Gradient:

II.2 Méthode du Gradient (2) II.2.1 Méthode de Cauchy ou méthode de la plus grande pente Propriétés : 1 2

II.2 Méthode du Gradient (3) II.2.2 Evaluation du Gradient Problèmes possibles: *, mais calcul du f trop complexe * f connu, mais nécessite trop de calculs Si * => différences finies: Si => autres méthodes sans calcul du gradient

II.2 Méthode du Gradient (4) II.2.3 Critères d arrêt En théorie si En pratique avant car convergence trop lente Critères :

II.2 Méthode du Gradient (5) II.2.4 Convergence Cas d une fonction quadratique

II.2 Méthode du Gradient (6) II.2.4 Convergence Cas d une fonction quadratique (suite) Convergence linéaire qui dépend du conditionnement de Q

II.2 Méthode du Gradient (7) Exemple 1 Exemple 2 => Convergence en une itération Critère d arrêt : => 15 itérations

II.2 Méthode du Gradient (8)

II.2 Méthode du Gradient (9)

II.2 Méthode du Gradient (10) Exemple 3 => 4 itérations Avec le même critère d arrêt

II.2 Méthode du Gradient (11)

II.2 Méthode du Gradient (12)

II.3 Méthode des directions conjuguées (1) Résout les problèmes quadratiques en n itérations Convergence plus rapide que le gradient Définition : Directions Q-conjuguées Soit Les directions sont Q-conjuguées si et linéairement indépendantes si Q > 0

II.3 Méthode des directions conjuguées (2) II.3.1 Algorithme des directions conjuguées Soit Soient n directions conjuguées En effet : Propriétés: converge vers en n itérations

II.3 Méthode des directions conjuguées (3) II.3.1 Algorithme des directions conjuguées (suite) Démonstration : n coefficients β i x x 0 = β i d i d k T Q(x x 0 ) = β k d k T Q d k x k = x 0 + α 0 d 0 + α 1 d 1 + + α k 1 d k 1 x k x 0 = α 0 d 0 + + α k 1 d k 1 x x 0 = x x k + x k x 0 n 1 i=0 β k = d T k Q(x x 0 ) d T k Q d k d k T Q(x x 0 ) = d k T Q(x x k ) = d k T (Q x k b) = d k T f (x k ) β k = d k T f (x k ) d k T Q d k = α k x n 1 = x

II.3 Méthode des directions conjuguées (4) II.3.2 Algorithme du gradient conjugué Soit Principe : Construire les directions conjuguées au fur et à mesure

II.3 Méthode des directions conjuguées (5) II.3.2 Algorithme du gradient conjugué (suite) Algorithme: choisir Si => arrêt Propriétés: converge vers en n itérations

II.3 Méthode des directions conjuguées (6) Exemple 1

II.3 Méthode des directions conjuguées (7) Exemple 1 (suite)

II.2 Méthode des directions conjuguées (8) Exemple 2

II.3 Méthode des directions conjuguées (9) II.3.3 Gradients conjugués pour les fonctions non quadratiques Le Hessien de f(x) Q => éliminer Q dans l algorithme Par recherche unidirectionnelle A. Formule de Hestenes-Stiefel NB:

II.3 Méthode des directions conjuguées (10) II.3.3 Gradients conjugués pour les fonctions non quadratiques B. Formule de Polak-Ribière C. Formule de Fletcher-Reeves

II.3 Méthode des directions conjuguées (11) II.3.3 Gradients conjugués pour les fonctions non quadratiques Algorithme de Fletcher-Reeves: choisir Convergence après n itérations => re-initialiser de temps en temps

II.4 Méthode de Newton (1) Soit Exemple: => une seule itération!

II.4 Méthode de Newton (2)! fonction pas vraiment quadratique => Mauvaise direction : => Introduire optimisation unidirectionnelle Calcul du Hessien très lourd! Propriété locale

II.5 Algorithme de Levenberg-Marquardt Combiner Gradient et Newton terme de régularisation tel que Algorithme: soit x 0 ν 0 f (x 0 ) H 0 (x 0 ) 1 H k = H(x k ) +ν k I 2 si H k > / 0 ν k = c 0 ν k 1 3 x k +1 = x k α k H k 1 f (x k ) 4 calculer f (x k +1 ) 5 si f (x k +1 ) f (x k ) ν k = c 1 ν k x k +1 = x k 1 si non ν k +1 = ν k c 2 et k = k +1 1

II.6 Méthodes Quasi-Newton (1) est remplacé par une approximation Propriété Condition quasi-newton

II.6 Méthodes Quasi-Newton (2) II.6.1 Formule de correction de rang 1 => Formule de correction de rang 2 :

II.6 Méthodes Quasi-Newton (3) II.6.2 Formule de correction de rang 2 A. Davidson-Fletcher-Powell (DFP) B. Broyden-Fletcher-Goldfarb-Shanno (BFGS) Propriétés : * si f(x) est quadratique => convergence en n itérations * si f(x) quelconque => Propriété de descente garantie!

II.7 Méthodes sans calcul du gradient (1) II.7.1 Méthode univariable alternée 1 Minimisation par rapport à 2 Minimisation par rapport à Méthode simple mais ne converge pas toujours P Convergence ralentie en P

II.7 Méthode sans calcul du gradient (2) II.7.2 Méthode du simplexe (Nelder-Mead) Définition : n=2 Forme géométrique avec n+1 sommets dans un espace à n dimensions = simplexe n=3 Simplexe régulier si les Principe de l algorithme : sont équidistants Déplacement constitué de réflexions, expansions et contractions

II.7 Méthode sans calcul du gradient (3) A. Réflexion n=2 n=3

II.7 Méthode sans calcul du gradient (4) A. Réflexion! Cycles limites possibles *Sélectionner autre *Contraction

II.7 Méthode sans calcul du gradient (5) B. Contraction

II.7 Méthode sans calcul du gradient (6) C. Expansion

II.8 Sommes de carrés Equations non linéaires (1) II.8.1 Moindres carrés non linéaires

II.8 Sommes de carrés Equations non linéaires (2) II.8.1.1 Méthode de Gauss-Newton Méthode de Newton : Gauss- Newton : Convergence quadratique si et non singulier Problèmes si J(x) singulier ou mal conditionné

II.8 Sommes de carrés Equations non linéaires (3) II.8.1.2 Algorithme de Levenberg-Marquardt Problèmes II.8.1.3 Méthodes quasi-newton

II.8 Sommes de carrés Equations non linéaires (4) II.8.2 Résolution d équations non-linéaires Objectif: Méthode de Newton-Raphson : Approximation du premier ordre x k +1 = x k J(x k ) 1 F(x k ) J(x) = ó Gauss-Newton pour minimiser f 1 (x) T 0 f n (x) T Utilisation possible des méthodes de moindres carrés non linéaires! Méthode locale avec J(x) non singulier Autres méthodes par intervalles

II.9 Exemple comparatif (1) Fonction de Rosenbrock: Méthode # itérations # évaluations Gradient Simplexe Gauss-Newton Levenberg-Marquardt Quasi-Newton (DFP) Quasi-Newton (BFGS) 68 + arrêt 109 13 21 25 25 302 + arrêt 201 55 92 109 105

II.9 Exemple comparatif (2) Méthode du Gradient

II.9 Exemple comparatif (3) Méthode du Simplexe

II.9 Exemple comparatif (4) Méthode de Gauss-Newton

II.9 Exemple comparatif (5) Méthode de Levenberg-Marquardt

II.9 Exemple comparatif (6) Méthode Quasi-Newton (DFP)

II.9 Exemple comparatif (7) Méthode Quasi-Newton (BFGS)