RAPPELS D OPTIMISATION

Documents pareils
Approximations variationelles des EDP Notes du Cours de M2

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Amphi 3: Espaces complets - Applications linéaires continues

3 Approximation de solutions d équations

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Programmation linéaire

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Chp. 4. Minimisation d une fonction d une variable

Résolution d équations non linéaires

Image d un intervalle par une fonction continue

Optimisation des fonctions de plusieurs variables

Continuité et dérivabilité d une fonction

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Continuité d une fonction de plusieurs variables

Limites finies en un point

Introduction à la méthode des éléments finis

I. Polynômes de Tchebychev

Fonctions de plusieurs variables

Optimisation Discrète

Intégration et probabilités TD1 Espaces mesurés Corrigé

Cours d Analyse. Fonctions de plusieurs variables

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Introduction à l optimisation de forme et application à la mécanique des fluides

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Différentiabilité ; Fonctions de plusieurs variables réelles

Calcul différentiel. Chapitre Différentiabilité

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

EXERCICE 4 (7 points ) (Commun à tous les candidats)

1 Introduction et modèle mathématique

Équations non linéaires

Notes de cours M2 Équations aux dérivées partielles elliptiques. Hervé Le Dret

Introduction à la. Points Critiques. Otared Kavian. et Applications aux Problèmes Elliptiques. Springer-Verlag

Continuité en un point

Méthode des éléments-finis par l exemple

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Comparaison de fonctions Développements limités. Chapitre 10

Equations aux Dérivées Partielles

Sujet 4: Programmation stochastique propriétés de fonction de recours

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

RO04/TI07 - Optimisation non-linéaire

Planche n o 22. Fonctions de plusieurs variables. Corrigé

LES MÉTHODES DE POINT INTÉRIEUR 1

Calcul différentiel sur R n Première partie

Espérance conditionnelle

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Intégration et probabilités TD1 Espaces mesurés

Condition inf-sup pour l Elément Fini de Taylor-Hood È ¾ -iso-è ½

Cours d Analyse 3 Fonctions de plusieurs variables

Commun à tous les candidats

Cours d analyse numérique SMI-S4

Master de Recherche première année. Programme de cours

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Programmation linéaire et Optimisation. Didier Smets

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Moments des variables aléatoires réelles

CCP PSI Mathématiques 1 : un corrigé

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Probabilités sur un univers fini

Correction du baccalauréat ES/L Métropole 20 juin 2014

Rappels sur les suites - Algorithme

Première partie. Introduction à la méthodes des différences finies

Théorème du point fixe - Théorème de l inversion locale

Calcul fonctionnel holomorphe dans les algèbres de Banach

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Chapitre 2 Le problème de l unicité des solutions

CHAPITRE 5. Stratégies Mixtes

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Problème 1 : applications du plan affine

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

Cours 02 : Problème général de la programmation linéaire

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v t

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Les indices à surplus constant

Complément d information concernant la fiche de concordance

Résolution de systèmes linéaires par des méthodes directes

CONTRÔLE ET ÉQUATIONS AUX DÉRIVÉES PARTIELLES. par. Jean-Pierre Puel

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Quantification Scalaire et Prédictive

4. Martingales à temps discret

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Simulation de variables aléatoires

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

CHOIX OPTIMAL DU CONSOMMATEUR. A - Propriétés et détermination du choix optimal

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Théorèmes du Point Fixe et Applications aux Equations Diérentielles

C algèbre d un certain groupe de Lie nilpotent.

Programmation Linéaire - Cours 1

Mesures gaussiennes et espaces de Fock

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

IV- Equations, inéquations dans R, Systèmes d équations

Suites numériques 4. 1 Autres recettes pour calculer les limites

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Transcription:

1 CONCEPTION OPTIMALE DE STRUCTURES G. ALLAIRE 13 Janvier 2010 CHAPITRE III RAPPELS D OPTIMISATION

2 DEFINITIONS Soit V un espace de Banach, i.e., un espace vectoriel muni d une norme qui est complet (toute suite de Cauchy est convergente dans V ). Soit K V un sous-ensemble non-vide. Soit J : V IR. On considère inf J(v). v K V Définition. On dit que u est un minimum local de J sur K si u K et δ > 0, v K, v u < δ = J(v) J(u). On dit que u est un minimum global de J sur K si u K et J(v) J(u) v K. (différence: théorie global / numérique local)

3 Définition. Une suite minimisante du critère J sur l ensemble K est une suite (u n ) n IN telle que u n K n et lim n + J(un ) = inf v K J(v). Par définition de l infimum de J sur K il en existe toujours!

4 Optimisation en dimension finie V = IR N Théorème. Soit K un ensemble fermé non vide de IR N, et J une fonction continue sur K à valeurs dans IR vérifiant la propriété, dite infinie à l infini, (u n ) n 0 suite dans K, lim n + un = + = lim n + J(un ) = +. Alors il existe au moins un point de minimum de J sur K. De plus, on peut extraire de toute suite minimisante de J sur K une sous-suite convergeant vers un point de minimum sur K. (Idée: les fermés bornés sont compacts en dimension finie.)

5 Optimisation en dimension infinie Problème: une fonction continue sur un fermé borné n atteint pas toujours son minimum! Exemple de non-existence: soit l espace de Sobolev H 1 (0, 1) muni de la ( 1 ( norme v = 0 v (x) 2 + v(x) 2) ) 1/2. dx Soit J(v) = 1 0 ( ( v (x) 1) 2 + v(x) 2) dx. On vérifie que l application J est continue et infinie à l infini, et pourtant le problème de minimisation inf J(v) v H 1 (0,1) n admet pas de solution. (Difficulté indépendante du choix de l espace.)

6 Démonstration Il n existe aucun v H 1 (0, 1) tel que J(v) = 0, et pourtant ( ) inf J(v) = 0, v H 1 (0,1) car si on définit la suite u n telle que (u n ) = ±1 1/n 0 k/n 1 on a J(u n ) = 1 0 un (x) 2 dx = 1 4n 0. On voit dans cet exemple que la suite minimisante u n oscille de plus en plus et n est pas compacte dans H 1 (0, 1) (bien qu elle soit bornée).

7 Une parenthèse en sciences des matériaux La non-existence de solution à des problèmes de minimisation est utile en sciences des matériaux! Théorie de Ball-James (1987). Matériaux à mémoire de forme = alliages avec des changements de phase. Co-existence de plusieurs phases cristallines: austenite et martensite.

8 Alliage Cu-Al-Ni (clichés YONG S. CHU)

9

10 Mécanisme proposé par J. Ball et R. James: pour s adapter aux efforts appliqués, l alliage a intérêt à coexister sous plusieurs phases convenablement alignées et qui minimisent l énergie suite minimisante! Energie elastique Austenite Martensite

11 Analyse convexe Pour obtenir des résultats d existence on rajoute une hypothèse de convexité. Définition. Un ensemble K V est dit convexe si, pour tout x, y K et tout réel θ [0, 1], l élément (θx + (1 θ)y) appartient à K. Définition. On dit qu une fonction J définie sur un ensemble convexe non vide K V et à valeurs dans IR est convexe sur K si et seulement si J(θu + (1 θ)v) θj(u) + (1 θ)j(v) u, v K, θ [0, 1]. De plus, J est dite strictement convexe si l inégalité est stricte lorsque u v et θ ]0, 1[.

12 Résultats d existence Théorème. Soit K un convexe fermé non vide d un espace de Banach réflexif V, et J une fonction convexe continue sur K, qui est infinie à l infini dans K, à savoir, (u n ) n 0 suite dans K, lim n + un = + = lim n + J(un ) = +. Alors il existe un minimum de J sur K. Remarques: 1. V Banach réflexif (V ) = V (V est le dual de V ) 2. Ce théorème reste vrai si l on suppose simplement que V est le dual d un espace de Banach séparable. 3. En pratique, c est vrai pour tous les espaces que l on va rencontrer: par exemple, L p () avec 1 < p +.

13 Unicité Proposition. Si de plus J est strictement convexe, alors il existe au plus un point de minimum. Proposition. Si J est une fonction convexe sur un ensemble convexe K, tout point de minimum local de J sur K est un minimum global. Remarque. Pour les fonctions convexes il n y a donc pas de différence entre minima locaux et globaux. Exemple. Minimisation de l énergie 1 min u 2 dx u H0 1() 2 On retrouve u = f dans, f u dx u = 0 sur. Remarque. Autre méthode d existence: compacité.

14 Différentiabilité Définition. Soit V un espace de Banach. On dit que la fonction J, définie sur un voisinage de u V à valeurs dans IR, est différentiable au sens de Fréchet en u s il existe une forme linéaire continue sur V, L V, telle que J(u + w) = J(u) + L(w) + o(w), avec lim w 0 o(w) w = 0. On appelle L la différentielle (ou la dérivée, ou le gradient) de J en u et on note L = J (u), ou L(w) = J (u), w V,V. Si V est un espace de Hilbert, on peut identifier V et son dual V grâce au Théorème de représentation de Riesz. Il existe donc un unique p V tel que p, w = L(w). On note aussi p = J (u). On utilise l identification V = V si V = IR n ou V = L 2 (). En pratique, il est plus facile de calculer la dérivée directionnelle j (0) = J (u), w V,V avec j(t) = J(u + tw).

15 Exemple classique à connaitre absolument Soit J(v) = 1 2a(v, v) L(v) avec a symétrique. On pose j(t) = J(u + tw) ) j(t) = (a(u, t2 2 a(w, w) + t w) L(w) + J(u) et on dérive t j(t) j (t) = ta(w, w) + ( ) a(u, w) L(w). Par définition, j (0) = J (u), w V,V, donc J (u), w V,V = a(u, w) L(w). La condition J (u) = 0 est une formulation variationnelle. On peut démontrer ainsi l équivalence entre la minimisation de l énergie J(v) et la résolution de la F.V.

16 Exemples: (on utilise le produit scalaire usuel de L 2 ) 1. J(v) = ( 1 2 v2 fv ) dx avec v L 2 () J (u), w = (uw fw)dx. Donc J (u) = u f L 2 () (identifié à son dual) 2. J(v) = ( 1 2 v 2 fv ) dx avec v H0() 1 J (u), w = ( u w fw)dx. Donc, après intégration par parties, J (u) = u f H 1 () = ( H 1 0() ) (non identifié à son dual)

17 Conditions d optimalité Théorème (Inéquation d Euler). Soit u K convexe. On suppose que J est différentiable en u. Si u est un point de minimum local de J sur K, alors J (u), v u 0 v K. Si u K vérifie cette inéquation et si J est convexe, alors u est un minimum global de J sur K. Remarques. Si u est intérieur à K, on obtient l équation d Euler J (u) = 0. L inéquation d Euler est seulement nécessaire en général. Pour les fonctions convexes, elle est nécessaire et suffisante.

18 Minimisation avec contraintes d égalité inf J(v) v V, F(v)=0 avec F(v) = (F 1 (v),..., F M (v)) une application dérivable de V dans IR M. Définition. On appelle Lagrangien du problème la fonction L(v, µ) = J(v) + M i=1 µ i F i (v) = J(v) + µ F(v) (v, µ) V IR M. La nouvelle variable µ IR M est appelée multiplicateur de Lagrange pour la contrainte F(v) = 0. Lemme. Le problème de minimisation est équivalent à inf J(v) = inf v V, F(v)=0 v V sup L(v, µ). µ IR M

19 Stationnarité du Lagrangien Théorème. On suppose que J et F sont continûment dérivables au voisinage de u V tel que F(u) = 0. Si u est un minimum local, et si les vecteurs ( F i (u) ) sont linéairement indépendants, alors il existe des 1 i M multiplicateurs de Lagrange λ 1,...,λ M IR, tels que L v (u, λ) = J (u) + λ F (u) = 0 et L (u, λ) = F(u) = 0. µ

20 Minimisation avec contraintes d inégalité inf J(v) v V, F(v) 0 où F(v) 0 signifie que F i (v) 0 pour 1 i M, avec F 1,...,F M fonctions dérivables de V dans IR. Définition. Soit u tel que F(u) 0. L ensemble I(u) = {i {1,...,M}, F i (u) = 0} est appelé l ensemble des contraintes actives en u. On dit que les contraintes d inégalité sont qualifiées en u K si la famille (F i (u)) i I(u) est libre.

21 Définition. On appelle Lagrangien du problème la fonction L(v, µ) = J(v) + M i=1 µ i F i (v) = J(v) + µ F(v) (v, µ) V (IR + ) M. La nouvelle variable positive µ (IR + ) M est appelée multiplicateur de Lagrange pour la contrainte F(v) 0. Lemme. Le problème de minimisation est équivalent à inf J(v) = inf v V, F(v) 0 v V sup L(v, µ). µ (IR + ) M

22 Stationnarité du Lagrangien Théorème. On suppose que les contraintes sont qualifiées en u tel que F(u) 0. Alors, si u est un minimum local, il existe λ 1,...,λ M 0, appelés multiplicateurs de Lagrange, tels que J (u) + M i=1 λ i F i(u) = 0, λ i 0, λ i = 0 si F i (u) < 0 i {1,...,M}. Cette condition est bien la stationnarité du Lagrangien puisque L v (u, λ) = J (u) + λ F (u) = 0, et que la condition λ 0, F(u) 0, λ F(u) = 0 est équivalente à l inéquation d Euler pour la maximisation par rapport à µ dans le convexe fermé (IR + ) M L µ (u, λ) (µ λ) = F(u) (µ λ) 0 µ (IR+ ) M.

23 Une interprétation des multiplicateurs de Lagrange Soit le Lagrangien pour la minimisation de J(v) sous la contrainte F(v) = c L(v, µ, c) = J(v) + µ (F(v) c) On étudie la sensibilité du minimum à la variation de c. On note u(c) et λ(c) le point de minimum et le multiplicateur de Lagrange correspondant. On suppose qu ils sont dérivables par rapport à c. Alors ) c (J(u(c)) = λ(c). λ donne la dérivée (sans la calculer) du minimum par rapport à c! En effet ) ( ) c (J(u(c)) = c L(u(c), λ(c), c) car L v (u(c), λ(c), c) = 0, L = L (u(c), λ(c), c) = λ(c) c (u(c), λ(c), c) = 0. µ

24 Dualité et point selle Définition. Soit un Lagrangien L(v, q). On dit que (u, p) U P est un point-selle (ou col, ou min-max) de L sur U P si q P L(u, q) L(u, p) L(v, p) v U. Pour v U et q P, posons J (v) = sup q P L(v, q) et G(q) = inf v U L(v, q). On appelle problème primal et problème dual inf J (v), v U sup q P G(q). Exemple. U = V, P = IR M ou IR M +, et L(v, q) = J(v) + q F(v). Dans ce cas J (v) = J(v) si F(v) = 0 et J (v) = + sinon, tandis qu il n y a pas de contraintes pour le problème dual (autres que q P).

25 Lemme (dualité faible). On a toujours Preuve: inf sup L supinf L. inf v U J (v) sup q P G(q). Théorème (dualité forte). Le couple (u, p) est un point-selle de L sur U P si et seulement si J (u) = min v U J (v) = max q P G(q) = G(p). Remarque. Le problème dual est souvent plus simple que le primal (pas de contraintes). Si on peut résoudre le dual, on obtient la solution du primal grâce à une minimisation sans contrainte.

26 Application: énergie complémentaire ou duale Très important pour la suite! Soit f L 2 (). On sait que pour résoudre u = f dans u = 0 sur il suffit de minimiser l énergie dite primale { min J(v) = 1 v 2 dx v H0 1() 2 } fv dx On introduit une énergie duale (ou complémentaire) { G(τ) = 1 } τ 2 dx. 2 max τ L 2 () N divτ =f dans J est convexe et G est concave.

27 Proposition. Soit u H 1 0() la solution unique de l équation. On pose σ = u. Alors, J(u) = min v H 1 0 () J(v) = max τ L 2 () N divτ =f dans G(τ) = G(σ), et σ est l unique point de maximum de G. Preuve. On introduit le Lagrangien dans H0() 1 L 2 () N L(v, τ) = 1 τ 2 dx (f + divτ)v dx. 2 Par intégration par parties L(v, τ) = 1 2 τ 2 dx fv dx + τ v dx. v est le multiplicateur de Lagrange pour la contrainte divτ = f. On vérifie que le dual du dual est le primal! max τ L(v, τ) = J(v).

28 Fin de la démonstration Par définition, si τ vérifie la contrainte divτ = f, on a G(τ) = L(v, τ) v D autre part, L(v, τ) max L(v, τ) = J(v). τ Or, par intégration par parties, on a u 2 dx = fu dx, donc J(u) = 1 u 2 dx fu dx = 1 2 2 u 2 dx = G( u). Autrement dit, pour tout τ vérifiant divτ = f, G(τ) = L(u, τ) J(u) = G(σ) c est-à-dire que σ = u maximise G parmi tous les τ tels que divτ = f.

29 Algorithmes numériques de minimisation Panorama simpliste: Algorithmes stochastiques: minimum global. Exemples: Monte-Carlo, recuit simulé, génétique. Voir le dernier chapitre et le dernier amphi. Inconvénient: très couteux en CPU. Algorithmes déterministes: minimum local. Exemples: méthodes de gradient, Newton. Inconvénient: il faut pouvoir disposer du gradient.

30 On veut résoudre Gradient à pas optimal inf J(v). v V Initialisation: choisir u 0 dans V. Itérations: pour n 0 u n+1 = u n µ n J (u n ), où µ n IR est choisi à chaque étape tel que J(u n+1 ) = inf µ IR + J( u n µ J (u n ) ). Idée principale: si u n+1 = u n µw n avec µ > 0 petit, alors J(u n+1 ) = J(u n ) µ J (u n ), w n + O(µ 2 ), donc pour descendre il vaut mieux prendre w n colinéaire à J (u n ).

31 Convergence Théorème On suppose que J est fortement convexe différentiable et que J est Lipschitzien sur tout borné de V, c est-à-dire que M > 0, C M > 0, v + w M J (v) J (w) C M v w. Alors l algorithme de gradient à pas optimal converge: quel que soit u 0, la suite (u n ) converge vers la solution u. Remarque. Si J n est pas fortement convexe: l algorithme peut ne pas converger (il oscille entre plusieurs solutions), l algorithme peut converger vers un minimum local, le résultat de l algorithme peut varier selon l initialisation.

32 Variante: gradient à pas fixe On veut résoudre inf J(v). v V Initialisation: choisir u 0 dans V. Itérations: pour n 0 u n+1 = u n µ J (u n ), Théorème. On suppose que J est fortement convexe, différentiable et que J est Lipschitzien sur V. Alors, si µ > 0 est suffisamment petit, l algorithme de gradient à pas fixe converge : quel que soit u 0, la suite (u n ) converge vers la solution u. Remarque. Variante intermédiaire possible: on ne garde pas le pas fixe mais on ne le prend pas optimal non plus ; on se contente d augmenter le pas µ n+1 = 1.1µ n si J décroit, et de le réduire µ n+1 = 0.5µ n si J croit.

Gradient projeté Soit K convexe fermé non vide de V. On veut résoudre 33 inf J(v). v K Initialisation: choisir u 0 dans K. Itérations: pour n 0 avec P K projection sur K. u n+1 = P K ( u n µ J (u n ) ), Théorème. On suppose que J est fortement convexe différentiable et que J est Lipschitzien sur V. Alors, si µ > 0 est suffisamment petit, l algorithme de gradient à pas fixe avec projection converge. Remarque. On peut aussi pénaliser les contraintes, i.e. on remplace ( ) inf J(v) par inf J(v) + 1 M [max (F i (v), 0)] 2. v V, F(v) 0 v V ǫ i=1

34 Exemples d opérateurs de projection P K Si V = IR M et K = M i=1 [a i, b i ], alors pour x = (x 1, x 2,...,x M ) IR M P K (x) = y avec y i = min (max (a i, x i ), b i ) pour 1 i M. Si V = IR M et K = {x IR M M i=1 x i = c 0 }, alors P K (x) = y avec y i = x i λ et λ = 1 M ( c 0 + ) M x i. i=1 Même chose si V = L 2 () et K = {φ V a(x) φ(x) b(x)} ou K = {φ V φ dx = c 0}. Pour des convexes fermés K plus généraux, P K peut être très difficile à déterminer. Dans ce cas on utilise l algorithme d Uzawa qui recherche un point selle du Lagrangien.

35 Algorithmes de Newton (ordre 2) Idée principale: si V = IR N et si J 0 J(w) J(v) + J (v) (w v) + 1 2 J (v)(w v) (w v), dont le minimum est w = v (J (v)) 1 J (v). Algorithme: u n+1 = u n (J (u n )) 1 J (u n ). Converge plus vite si u 0 est proche du minimum u u n+1 u C u n u 2. Nécessite d inverser un système linéaire de matrice J (u n ). Peut se généraliser en méthode de quasi-newton (sans calculer J ) ou au cas avec contraintes.

36 CHAPITRE IV CONTROLE OPTIMAL Optimisation des systèmes distribués: Calcul du gradient par état adjoint

37 Contrôle d une membrane élastique Pour f L 2 (), le déplacement vertical de la membrane u est solution de u = f + v dans u = 0 sur, où v est une force de contrôle qui sera la variable d optimisation (par exemple, un actionneur piézzo-électrique). On définit alors l ensemble des contrôles admissibles K = { v L 2 (ω) v min (x) v(x) v max (x) dans ω et v = 0 dans \ ω }. On veut contrôler la membrane pour qu elle adopte un déplacement u 0 L 2 () en minimisant (c > 0) { inf J(v) = 1 ( u u0 2 + c v 2) } dx. v K 2

38 Existence d un contrôle optimal Proposition. Il existe un unique contrôle optimal v K. Preuve. v J(v) est fortement convexe et K est convexe (voir le livre de cours). Remarque. L existence est souvent beaucoup plus dure, mais ce qui importe surtout c est le calcul du gradient J (v) pour mettre en oeuvre une méthode numérique. Attention: la solution u de l e.d.p. dépend du contrôle v.

39 Gradient et condition d optimalité La méthode la plus sûre et la plus simple pour calculer le gradient est J(v + ǫw) J(v) lim = J (v), w = J (v)w dx. ǫ 0 ǫ Par linéarité, on a u(v + ǫw) = u(v) + ǫũ(w) avec ũ(w) = w dans ũ(w) = 0 sur. Autrement dit, ũ(w) = u (v), w. Comme J(v) est quadratique le calcul est très simple et on obtient ( ) J (v)w dx = (u(v) u 0 )ũ(w) + cvw dx, Malheureusement J (v) n est pas explicite!

40 Etat adjoint Pour simplifier l expression du gradient on utilise l état adjoint p défini comme l unique solution dans H0() 1 de p = u u 0 dans p = 0 sur. On multiplie l équation de ũ(w) par p et réciproquement, puis on intègre par parties équation pour p ũ(w) p ũ(w) dx = (u u 0 )ũ(w) dx équation pour ũ(w) p ũ(w) p dx = Par comparaison de ces deux égalités on en déduit que J (v)w dx = (p + cv)w dx. wp dx

41 Conclusion l état adjoint On a donc trouvé une formule explicite du gradient J (v) = p + cv. Méthode adjointe: calcul du gradient grâce à la résolution de 2 problèmes aux limites (u et p). Si on ne calcule pas l adjoint: pour chaque direction w il faut calculer 2 problèmes aux limites (u et ũ(w)) pour connaitre J (v), w. Par exemple, si J (v) est un vecteur en dimension n, pour obtenir ses n composantes il faut résoudre (n + 1) problèmes! Très efficace en pratique: c est la meilleure méthode possible. Inconvénient: si on utilise un solveur numérique pour u en boite noire, il peut être très compliqué de le modifier pour obtenir la solution p de l état adjoint.

42 Si l équation d état est non-autoadjointe (forme bilinéaire non symétrique), l opérateur principal de l équation adjointe est le transposé ou adjoint de celui de l équation d état. Si l équation d état est non-linéaire, l équation adjointe est linéaire.

43 Méthode générale pour trouver l état adjoint On considère l équation d état comme une contrainte et, pour tout (ˆv, û, ˆp) L 2 () H0() 1 H0(), 1 on introduit le Lagrangien du problème de minimisation L(ˆv, û, ˆp) = 1 ( û u0 2 + c ˆv 2) dx + ˆp( û + f + ˆv) dx, 2 où ˆp est le multiplicateur de Lagrange pour la contrainte qui relie les deux variables indépendantes ˆv et û. Par intégration par parties L(ˆv, û, ˆp) = 1 ( û u0 2 + c ˆv 2) dx + 2 ( ˆp û + f ˆp + ˆvˆp) dx. Proposition. Les conditions d optimalité sont équivalentes à la stationnarité du Lagrangien, c est-à-dire que L v = L u = L p = 0.

44 Démonstration L p L u = 0 par construction, on trouve l équation vérifiée par l état u. = 0 équation vérifiée par l état adjoint p. En effet, L(u + ǫw) L(u) lim = L ǫ 0 ǫ u, w = ((u u 0 )w p w) dx ce qui est la formulation variationnelle de l équation adjointe. L v = 0 formule pour J (v). En effet, lim ǫ 0 L(v + ǫw) L(v) ǫ = L v, w = (cv + p)w dx

45 Formule simple de la dérivée On a obtenu dans la démonstration précédente avec u l état, et p l adjoint. J (v) = L (v, u, p) v Cela n est pas une surprise! En effet, J(v) = L(v, u, ˆp) ˆp car u est l état. Donc, si u(v) est dérivable, on a J (v), w = L v On prend alors ˆp = p, l adjoint, pour obtenir u (v, u, ˆp), w + L(v, u, ˆp), u v (w) J (v), w = L (v, u, p), w v

46 Une (autre) interprétation de l état adjoint L état adjoint p est le multiplicateur de Lagrange pour la contrainte de l équation d état. Mais c est aussi une fonction de sensibilité. Soit le Lagrangien L(ˆv, û, ˆp, f) = 1 2 ( û u0 2 + c ˆv 2) dx + On étudie la sensibilité du minimum à la variation de f. ( ˆp û + f ˆp + ˆvˆp) dx. On note v(f), u(f) et p(f) les valeurs optimales, dépendant de f. On suppose qu ils sont dérivables par rapport à f. Alors ) f (J(v(f)) = p(f). p donne la dérivée (sans la calculer) du minimum par rapport à f! En effet J(v(f)) = L(v(f), u(f), p(f), f) et L v = L u = L p = 0.