Introduction à l optimisation de forme et application à la mécanique des fluides
|
|
|
- Ghislain Déry
- il y a 10 ans
- Total affichages :
Transcription
1 Laboratoire Jacques-Louis LIONS Introduction à l optimisation de forme et application à la mécanique des fluides Master 2 - Année universitaire Pascal FREY et Yannick PRIVAT Laboratoire Jacques-Louis Lions, UMR 7598 Université Pierre et Marie Curie Paris 6 & CNRS pascal.frey/[email protected]
2 ii
3 Préambule L?optimisation de forme est une discipline regroupant un ensemble de techniques et d outils permettant de déterminer la forme optimale, par exemple un ouvert, minimisant ou maximisant une certaine fonctionnelle de coût. Certains problème d optimisation de forme sont connus depuis l antiquité. On peut mentionner par exemple le problème de la reine Didon 1 est un problème d isopérimétrie, autrement dit on recherche la forme de surface minimale pour un volume fixé et sous certaines contraintes géométriques. Un problème d optimisation de forme est défini par trois données : un modèle (typiquement une équation aux dérivées partielles) un critère ou fonctionnelle de coût que l on cherche à minimiser ou maximiser, un ensemble admissible de variables d optimisation qui tient compte d éventuelles contraintes que l on impose aux variables. Pour résumer, un problème d optimisation de forme s écrit inf J() ou sup J(), O ad O ad où J est une fonctionnelle de forme et O ad est l ensemble des formes admissibles. Par exemple, J() peut désigner le périmètre de ou une valeur propre de l opérateur de Laplacien-Dirichlet et l ensemble O ad l ensemble des domaines connexes bornés mesurables de IR d de volume donné. Le plus souvent, les problèmes d optimisation de forme ne possèdent pas de solutions explicites et il paraît illusoire de chercher à les déterminer explicitement. Néanmoins, plusieurs questions et études peuvent être menées et présentent chacune un intérêt intrinsèque évident : Le problème d optimisation de forme possède t-il une solution? Peut-on énoncer des conditions nécessaires d optimalité? Peut-on déduire de ces conditions des propriétés qualitatives de la solution optimale (sous réserve que celle-ci existe)? Par exemple, il peut-être intéressant de connaître la régularité de l ensemble optimal, des propriétés de symétrie, etc. Enfin, comment mettre en œuvre une méthode de discrétisation du problème puis d optimisation afin d obtenir une bonne approximation numérique de la solution? Dans ce cours, nous allons proposer quelques pistes de réponse. En particulier, nous montrerons comment les théories générales de l optimisation de forme s appliquent à des problèmes de mécanique des fluide. 1. Débarquée sur les côtes de l actuelle Tunisie, vers 814 av. J.-C., elle choisit un endroit où fonder une nouvelle capitale pour le peuple phénicien : Carthage. Elle obtient pacifiquement des terres par un accord ingénieux avec le seigneur local : elle obtint une terre pour s établir «autant qu il en pourrait tenir dans la peau d un bœuf». Elle choisit alors pour fonder sa ville une péninsule qui s avançait dans la mer et fait découper une peau de bœuf en lanières extrêmement fines. Mises bout à bout, elles délimitent l emplacement de ce qui deviendra plus tard la grande Carthage iii
4 En effet, de nombreux problèmes d optimisation de forme se posent naturellement dans le contexte de la mécanique des fluides. Typiquement, on peut par exemple recherche la forme d une aile d avion optimisant ses performances, autrement dit maximisant sa portance et minimisant sa traînée. Le cours est organisé de la façon suivante : le chapitre II. est consacré à l introduction de quelques concepts théoriques généraux d optimisation de forme. Dans le chapitre III., nous expliquerons comment les adapter à certains modèles de mécanique des fluides. Enfin, dans le chapitre??, nous évoquerons quelques aspects numériques inhérents à ce type d études. iv
5 Table des matières Préambule iii I. Outils pour l optimisation de forme en mécanique des fluides 1 I.1 Éléments de topologie sur les ensembles I.1.1 Contrainte de type périmètre I.1.2 Convergence des ouverts au sens de Hausdorff I.1.3 Ouverts vérifiant la propriété du cône uniforme I.2 Quelques inégalités fonctionnelles I.2.1 Théorème de Rellich et inégalité de Poincaré I.2.2 Intégration par parties, formule de Green I.2.3 Inégalité de Korn I.3 Existence et unicité des solutions d E.D.P I.3.1 Problèmes elliptiques I.3.2 Équations de la mécanique des fluides II. Existence et caractérisation des formes optimales 33 II.1 Sur l existence de formes optimales II.1.1 Exemple et contre-exemple II.1.2 Problèmes de type isopérimétrique II.1.3 Plan d étude et notion de γ-convergence II.1.4 Existence sous contrainte géométrique II.2 Dérivation de forme et conditions d optimalité II.2.1 Topologie sur les domaines et perturbations de l identité II.2.2 Dérivation de fonctionnelles géométriques II.2.3 Prise en compte de contraintes E.D.P II.2.4 Structure des dérivées de forme et notion d adjoint III. Optimisation de forme en mécanique des fluides 59 III.1 Quelques problèmes III.1.1 Optimisation de l énergie dissipée dans un coude III.1.2 Optimal design d un inhalateur III.1.3 Optimisation de la forme d une aile d avion III.2 Minimisation de l énergie dissipée par un fluide III.2.1 Un résultat d existence III.2.2 Calcul de la dérivée par rapport au domaine III.2.3 Un critère de type moindres carrés III.3 Aspects numériques III.3.1 Utilisation du Lagrangien augmenté en optimisation de forme III.3.2 Mise en œuvre d un algorithme de type gradient v
6 Table of contents A Quelques rappels d optimisation en dimension finie 81 I.1 Résultats d existence et d unicité I.2 Conditions d optimalité I.2.1 Cas sans contrainte I.2.2 Cas avec contraintes B Algorithmes d optimisation sans contrainte en dimension finie 87 II.1 Algorithmes unidimensionnels ou recherche du pas II.1.1 Méthode de la section dorée II.1.2 Méthode d interpolation parabolique II.2 Quelques notions sur les algorithmes II.3 Méthodes de gradient II.3.1 Gradient à pas fixe ou optimal II.3.2 Méthode du gradient conjugué II.4 Les méthodes de Newton et quasi-newton II.4.1 Méthodes de Newton II.4.2 Méthode de quasi-newton de Lenvenberg-Marquardt C Algorithmes d optimisation sous contraintes en dimension finie 99 III.1 Retour sur les conditions d optimalité III.2 Conditions d optimalité nécessaires du second ordre III.3 Les algorithmes III.3.1 Méthode du gradient projeté III.3.2 Méthodes de pénalisation III.3.3 Méthode de dualité : l algorithme d Uzawa Bibliographie 106 vi
7 I. Outils pour l optimisation de forme en mécanique des fluides Ce chapitre a pour but de regrouper diverses notions de topologie sur les ensembles, d inégalités fonctionnelles et d équations aux dérivées partielles nécessaires pour aborder les problèmes d optimisation de forme en mécanique des fluides. I.1 Éléments de topologie sur les ensembles Dans toute cette section, nous ferons l hypothèse qu il existe un grand ouvert borné noté D qui contiendra tous les ensembles et les éléments des suites ( n ) n IN que nous considérerons. Nous verrons que cette hypothèse permet, souvent combinée à d autres hypothèses, d obtenir de bonnes propriétés de compacité. On utilisera la notation A(D) = { D, ouvert}. où D désigne un ouvert de IR d. Dans le contexte de l optimisation de forme, imposer D sur les ouverts considérés est donc une première contrainte géométrique appelée contrainte de boîte, que nous utiliserons pour obtenir des propriétés de compacité des suites minimisantes. Il est en général nécessaire d imposer d autres contraintes géométriques pour obtenir des résultats d existence. Ces questions seront discutées dans le chapitre II.. I.1.1 Contrainte de type périmètre Souvenons-nous du problème isopérimétrique de la reine Didon évoqué dans le préambule. Il illustre la fait que la notion de périmètre joue souvent un rôle important dans les problèmes d optimisation de forme. Par exemple, il n est pas rare que l on prescrive une borne uniforme sur le périmètre des ouverts admissibles considérés. Une difficulté se pose alors : on peut aisément définir le périmètre d un ensemble régulier. Comment le définir lorsqu on ne souhaite pas imposer de régularité artificielle sur les ensembles considérés? De surcroît, dans l étude des problèmes d optimisation de forme, nous serons amenés à considérer des suites d ouverts de périmètre uniformément borné, typiquement des suites minimisantes. Peut-on espérer une propriété de compacité des éléments de cette suite, et en quel sens? Dans cette section, nous allons partiellement répondre à ces questions. 1
8 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Définition I.1.1. Ouvert lipschitzien, de classe C 1 (i) On dit qu un ouvert de IR d est à bord lipschitzien si, pour tout x 0, il existe un cylindre K = K ] a,a[ dans un repère orthonormé local d origine x 0 = 0, avec K une boule ouverte de IR d 1 de rayon r, et une fonction ϕ : K ] a,a[ lipschitzienne telle que ϕ(0) = 0 tels que K = {(x,y) K y > ϕ(x )} et K = {(x,ϕ(x )) x K }. (ii) On définit un ouvert de classe C 1 en remplaçant le mot "lipschitzien" par C 1 dans la définition précédente. Revenons à la définition généralisée de la notion de périmètre d un ensemble mesurable. La définition qui suit a été introduite par le mathématicien Ennio De Giorgi ( ). Définition I.1.2. Périmètre au sens de De Giorgi Soit, un ensemble mesurable dans IR d. On appelle périmètre de le nombre Per() = sup{ div(ϕ) dx ϕ D(IR d,ir d ), ϕ 1}, où D(IR d,ir d ) désigne l ensemble des fonctions C à support compact de IR d dans IR d. En particulier et comme on peut s y attendre, cette définition coïncide avec la définition usuelle du périmètre pour un ouvert borné de classe C 1. Proposition I.1.3. Soit, un ouvert borné de classe C 1. Alors, Per() = de surface sur. dσ, où dσ désigne l élément Pour démontrer cette proposition, nous aurons besoin du lemme technique suivant. Lemme I.1.4. Extension continue de la normale Soit, un ouvert borné de IR d de classe C 1. On désigne par ν : S d 1 l application définissant pour tout point x la normale unitaire extérieure ν(x) au point x. Alors, il existe une extension continue N de l application ν à tout IR d. Preuve du Lemme I.1.4. Puisque est un ouvert de classe C 1, en utilisant les notations de la définition I.1.2, pour tout x, il existe des cylindres K x, K x et une application lipschitzienne ϕ x tels que = x K x, où dans un repère orthonormé local, K x = {(x,ϕ x (x )), x K x}. Souvenons-nous que est un fermé (il suffit de l écrire IR d \) borné de IR d donc un compact. D après la propriété de Borel-Lebesgue, on peut extraire un sous-recouvrement fini du recouvrement précédent. On se donne donc les p points {x i } 1 i p de définissant ce recouvrement. Il existe alors un système orthonormé 2
9 I.1. ÉLÉMENTS DE TOPOLOGIE SUR LES ENSEMBLES local de coordonnées x = (x,x d ) IR d 1 IR autour de x i = (0,0) et une application de classe C 1, ϕ i : B(0,r i ) IR d 1 ] a i,a i [ tels que = p Γ i avec Γ i = {(x,ϕ i (x )), x B(0,r i )}. i=1 On note O i = B(0,r i ) ] a i,a i [. Introduisons les fonction ψ i définies en coordonnées locales par x = (x,x d ) O i, ψ i (x) = ψ i (x,x d ) = (x,ϕ i (x ) x d ). Notons que ψ i ainsi défini est un C 1 -difféomorphisme de O i dans l ouvert ψ i (O i ) (en vertu du théorème de l application ouverte), dont l application réciproque ψi 1 est définie par ψi 1 (y) = ψi 1 (y,y d ) = (y,ψ i (y ) y d ). Au recouvrement ouvert de par les ψ i (O i ) on associe une partition de l unité 1 {ξ i } 1 i p avec ξ i C0 (ψ i(o i )), ξ i 0 pour tout i I et p i=1 ξ i = 1 dans un voisinage de. On peut alors étendre la définition de ν à IR d tout entier à l aide de la formule N (x) = p i=1 ξ i (x)ν(ψ i π i ψi 1 (x)), où l on désigne par π i la projection orthogonale définie par π i (x,x d ) = (x,0). Ceci conclut la preuve. On notera en particulier que l on dispose de l expression simple de ν sur chacun des arcs Γ i : x Γ i, ν(x) = x ϕ i (x ) ( x ϕ i (x ) ). 1 Preuve de la Proposition I.1.3. Soit ϕ D(IR d,ir d ) telle que ϕ 1. D après la formule de Green, on a div(ϕ) dx = d i=1 ϕ i dx = ϕ i n i dσ = ϕ ν dσ, x i où ν désigne le vecteur unitaire normal sortant en tout point du bord. On en déduit par inégalité de la moyenne que pour une telle fonction ϕ, on a div(ϕ) dx ϕ ν dσ ϕ dσ dσ, et il s ensuit que Per() dσ par passage au supremum. 1. On utilise le résultat suivant : Soit X un espace topologique métrisable. Pour tout recouvrement ouvert localement fini (U i) i I de X, il existe une partition continue de l unité subordonnée au recouvrement (U i) i I, autrement dit une famille (φ i) i I de fonctions continues, définies sur X et à valeur dans l intervalle [0, 1], telles que le support de φ i soit inclus dans U i pour tout i I et pour tout point x X, les deux conditions suivantes soient satisfaites : (i) il existe un voisinage de x tel que toutes les fonctions φ i soient nulles sur ce voisinage à l exception d un nombre fini d entre elles ; (ii) la somme de toutes les valeurs prises par les fonctions φ i en x soit égale à 1, c est-à-dire φi(x) = 1 pour tout x X. i I 3
10 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Pour prouver l inégalité inverse, d après la formule précédente, on aimerait pouvoir choisir ϕ = ν sur. En réalité, on choisit plutôt d approcher ν par une suite de fonctions (ϕ n ) n IN D(IR d,ir d ) IN. Soit N, l extension continue de la normale ν définie dans le lemma I.1.4. On régularise N en définissant ϕ n = N ρ n, où (ρ n ) n IN est une suite régularisante. On construit ainsi une suite de fonctions de D(IR d,ir d ) qui converge uniformément vers N et telle que div ϕ n dx = ϕ n ν dσ ν ν dσ = dσ. n + Donnons à présent une autre caractérisation du périmètre d un ensemble, à l aide de la notion de variation totale d une fonction. Elle repose sur la remarque suivante : si f L 1 (IR d,ir d ), alors par dualité f L 1 = f(x) dx = sup{ IR d f(x) ϕ(x) dx, ϕ D(IR d,ir d ) et ϕ 1}. IR d Plus généralement, cette formule fait sens pour toute mesure de Radon µ de masse finie 2, autrement dit toute forme linéaire continue sur l espace C 0 0 (IRd ) des fonctions continues à support compact dans IR d. Plus précisément, on peut montrer qu une mesure de Radon µ est de masse finie sur IR d si, et seulement si la quantité µ 1 = sup{ µ,ϕ D,D, ϕ D(IR d,ir d ) et ϕ 1} est finie (voir par exemple [Sch66]). Enfin, notons que pour une fonction ϕ D(IR d,ir d ), on a div(ϕ) dx = div(ϕ)χ (x) dx = χ,ϕ D,D, IR d où χ désigne la fonction caractéristique de, autrement dit la fonction définie par χ (x) = { 1 si x 0 sinon. On a alors la caractérisation suivante du périmètre à l aide de la variation totale de la fonction caractéristique χ. Proposition I.1.5. Soit, un ensemble mesurable de IR d. Alors la quantité Per() est finie si, et seulement si χ est une mesure de Radon de masse finie et dans ce cas, Per() = χ 1. Les ensembles ayant un périmètre borné héritent de bonnes propriétés de compacité. 2. On rappelle qu une mesure de Radon µ est dite bornée ou de masse finie sur IR d s il existe C > 0 telle que ϕ C0(IR 0 d ), µ,ϕ C ϕ 4
11 I.1. ÉLÉMENTS DE TOPOLOGIE SUR LES ENSEMBLES Théorème I.1.6. Compacité des ensembles à périmètre borné Soit ( n ) n IN, une suite d ensembles mesurables de IR d. On suppose qu il existe C > 0 telle que n IN, n + Per( n ) C. Alors, il existe un ensemble mesurable de IR d et une suite extraite ( nk ) k IN tels que χ nk χ dans L 1 loc (IRd ) et χ nk,ϕ χ,ϕ, ϕ C 0 0(IR d ). De plus, si tous les ensembles de la suite ( n ) n IN sont contenus dans un ouvert D de mesure finie, alors, la convergence de la suite (χ nk ) k IN a lieu dans L 1 (D). On notera que la convergence des gradients des fonctions caractéristiques n est autre que la convergence faible- dans l ensemble des mesures de Radon bornées. La preuve de ce théorème repose sur la compacité de l injection de BV (IR d ) dans L 1 loc (IRd ). Afin d éviter un surplus de technicité, nous l omettons. Avant de revenir à l étude de l existence de solution pour des problèmes de type "isopérimétriques", mentionnons que la propriété de convergence établie dans le théorème I.1.6 est très utilisée en optimisation de forme. C est l objet de la définition qui suit. Définition I.1.7. Convergence au sens des fonctions caractéristiques Soit ( n ) n IN et désignant respectivement une suite d ensembles mesurables et un ensemble mesurable de IR d. On sit que la suite ( n ) n IN converge au sens des fonctions caractéristiques si χ n χ dans L 1 loc (IRd ). Cette définition appelle quelques remarques. Remarque I.1.8 Notons que si ( n ) n IN converge au sens des fonctions caractéristiques vers, la convergence de (χ n ) n IN vers χ a en réalité lieu dans L p loc (IRd ) pour tout p [1, + [ puis les fonctions caractéristiques prennent les valeurs 0 ou 1 presque partout. La convergence de ( n ) n IN vers au sens des fonctions caractéristiques n est en général pas aisée à obtenir. Le théorème I.1.6 prouve qu on peut l obtenir en considérant une suite d ensembles dont le périmètre est uniformément borné. Soit ( n ) n IN et désignant respectivement une suite d ensembles mesurables et un ensemble mesurable de IR d. En toute généralité, on peut énoncer un résultat de compacité plus faible que celui du théorème I.1.6. En effet, les éléments de la suite (χ n ) n IN appartiennent à L (IR d ; {0,1}). Rappelons que L (IR d ; {0,1}) est le dual topologique de l espace L 1 (IR d ; {0,1}). Par conséquent, d après le théorème de Banach-Alaoglu- Bourbaki 3 appliqué à E = L 1 (IR d ) et E = L (IR d ), on peut extraire de (χ n ) n IN une sous-suite (χ nk ) k IN qui converge faiblement- vers une fonction a L (IR d,[0,1]). Le fait que a( ) 0 et a( ) 1 presque partout dans IR d s obtient en utilisant le fait 3. Théorème de Banach-Alaoglu-Bourbaki : soit E, un espace de Banach et E, son dual topologique muni de la norme duale f E = sup x E f,x E,E. L ensemble B E = {f E f E 1} est x E 1 compact pour la topologie faible- σ(e,e). 5
12 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES que la positivité est conservée à la limite pour la topologie faible-. Cependant, il est a priori faux de prétendre que a L (IR d,{0,1}). Pour s en convaincre, il suffit de considérer la suite (ω n ) n IN des sous-ensembles de (0,π) définie par n ( kπ ω n = n + 1 π 4n, kπ n π ), 4n k=1 pour tout n IN. On montre aisément que pour tout n IN, ω n = π 2, et que la suite de fonctions (χ ωn ) n IN converge faiblement- vers la fonction constante a( ) = 1 2 dans L (0,π). De façon intuitive, la suite (χ ωn ) n IN tend à s équirépartir dans (0,π). I.1.2 Convergence des ouverts au sens de Hausdorff Dans ce qui suit, si x IR d et E est un sous-ensemble fermé, on notera d E (x) la distance de x à E, soit d E (x) = dist(x,e) := inf{ x y, y E}. Définition I.1.9. Métrique de Hausdorff (i) Distance de Hausdorff entre deux fermés. Soient A et B, deux ensembles fermés de IR d. La distance de Hausdorff entre A et B est définie par d H (A,B) = max{sup x A d B (x), sup d A (x)}. x B (ii) Convergence des ouverts au sens de Hausdorff. Si A et B sont deux éléments de A(D), on définit la distance de Hausdorff du complémentaire de A et B par d H c(a,b) = d H (D\A,D\B). En conséquence, on dira qu une suite d ouverts ( n ) n IN de A(D) converge vers au sens de Hausdorff si d H c( n,) 0 quand n +. La suite de cette section est consacrée à l énoncé de bonnes propriétés topologiques de l ensemble A(D) muni de la métrique d H c. Tout repose sur le fait que pour tous (A,B) A(D) 2, d H (A,B) = d A d B C 0 (D) := sup d A (x) d B (x). x D Preuve : on a d A d B C0 (D) = d A d B C0 (D) max{ d A d B C0 (A), d A d B C0 (B)} d H (A,B). Montrons l inégalité réciproque. Soit x B et y A. Par compacité, il existe x B B tel que d B (x) = x x B. D où d A (x) d B (x) y x x x B y x B d A (x B ) sup d A (x). x B En intervertissant les rôles joués par A et B, et en choisissant le maximum des majorants, on en déduit l inégalité souhaitée. 6
13 I.1. ÉLÉMENTS DE TOPOLOGIE SUR LES ENSEMBLES La figure ci-dessous illustre la définition de la distance de Hausdorff entre deux compacts. Figure I.1 : Distance de Hausdorff de deux compacts X et Y Énonçons à présent quelques propriétés topologiques relatives à la convergence au sens de Hausdorff. Proposition I compacité et s.c.i. pour la topologie H c (i) L ensemble A(D) muni de la métrique d H c est compact. (ii) Soit ( n ) n IN, une suite d éléments de A(D) convergeant au sens de Hausdorff vers. Pour tout sous-ensemble compact K, il existe un entier N(K) IN tel que K n pour tout n N(K). (iii) La mesure de Lebesgue est semi-continue inférieurement pour la topologie associée à d H c. (iv) Le nombre de composantes connexes du complémentaire d un ensemble ouvert est semi-continue inférieurement pour la topologie associée à d H c. Pour démontrer cette proposition, nous utiliserons le résultat suivant. Proposition I (i) Soient A et B inclus dans D. On a d A = d B si, et seulement si A = B. (ii) On introduit l espace des fonctions "distance" des sous-ensembles de D C d (D) = {d, avec et D} avec d : x d(x,). Alors, C d (D) est un sous-ensemble compact de C 0 (D). Remarque I.1.12 On peut se restreindre à des classes d ouverts. En effet, {d c, D et } = {d c, ouvert inclus dans D}. 7
14 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Pour s en convaincre, considérons D tel que. Alors, on peut associer à l ouvert O = cc. En effet, O c = c donc d O c = d c = d c d après la proposition I Par conséquent, le caractère fermé de l ensemble A(D) énoncé dans la proposition I.1.10 est à interpréter au sens suivant : si ( n ) n IN est une suite de A(D) qui converge vers au sens de Hausdorff, alors les limites de la suite ( n ) n IN forment une classe d équivalence et il existe un représentant A(D) tel que ( n ) n IN converge vers. Exemple I.1.13 (i) On considère un ouvert D et (x n ) n IN, une suite de points dense dans D. Posons n = D\{x k } 1 k n. Alors ( n ) n IN converge au sens de Hausdorff vers l ensemble vide. (ii) n =]0,1[\{ 1 n } n IN converge au sens de Hausdorff vers ]0,1[. (iii) Un intervalle ouvert de IR qui converge au sens de Hausdorff ne peut converger que vers un intervalle ouvert (exercice). Remarque I.1.14 Optimalité des assertions de la proposition I.1.10 Revenons sur (ii). On pourrait légitimement se poser la question suivante : si ( n ) n IN, une suite d éléments de A(D) convergeant au sens de Hausdorff vers et si K est un compact tel que K c, existe t-il un entier N(K) tel que K n c pour n N(K)? La réponse est non, comme l indique le contre-exemple suivant : D =]0,3[ 2, est le disque unité de IR 2 et n désigne l ouvert défini en coordonnées polaires par n = {(r,θ) IR + [0,2π[ r cos(nθ)}. On montre alors aisément (exercice) que ( n ) n IN converge au sens de Hausdorff vers mais que la propriété ci-dessus n est pas satisfaite. Dans le vocabulaire de l optimisation de forme, on dit qu une suite ( n ) n IN vérifiant l assertion (ii) et l assertion ci-dessus converge au sens des compacts. Pour plus de détails sur cette notion, nous renvoyons par exemple à [HP05, Section 2.2.4]. Revenons sur (iii). La convergence de Hausdorff ne préserve pas le volume. C est par exemple ce qu indique l item (i) de l exemple I Preuve de la proposition I (i) Cette propriété résulte du fait que d A (x) = 0 x A. Nous allons montrer plus précisément que A B est équivalent à d A d B. En effet, si A B et x IR d, alors d B (x) = d B (x) = inf y x inf y x = d A (x) = d A (x). y B y A Réciproquement, si d A d B, soit x A. Alors, d A (x) = d A (x) = 0 et par conséquent d B (x) = d B (x) = 0, donc x B. 8
15 I.1. ÉLÉMENTS DE TOPOLOGIE SUR LES ENSEMBLES (ii) Montrons d abord que C d (D) est un fermé de C 0 (D). On considère une suite ( n ) n IN de sous-ensembles non vides de D tels que d n converge vers un élément f de C 0 (D). On va montrer qu il existe non vide inclus dans D tel que f = d. Posons = {x D f(x) = 0}. Montrons de prime abord que. Soit x D et n N. Par compacité de n, il existe y n n tel que d n (x) = y n x et par conséquent, lim n + y n x = f(x). On en déduit que (y n ) n IN est bornée dans D et converge donc, à sous-suite près, vers un certain y D, tel que y x = f(x). En particulier, la construction précédente montre que f(y) lim n + y n y = 0 donc f(y) = 0. En d autres termes, on a montré :. Le raisonnement précédent prouve en particulier que pour tout x D, il existe y tel que f(x) = y x inf z x = d (x). z Montrons l inégalité réciproque. Pour tout n IN, et tous (x,y) D 2, d n (x) = inf z n z x inf z n z y + y x = d n (y) + y x. On en déduit, en échangeant les rôles de x et y que d n (x) d n (y) x y. Par convergence uniforme de d n, il vient (x,y) D 2, f(x) f(y) x y. Choisissons à présent y. On a f(y) = 0 et par conséquent, f(x) x y. Puisque y est arbitraire dans, il vient f(x) d (x), d où la conclusion. Á ce stade, on a prouvé que C d (D) est un sous-ensemble fermé de C 0 (D) qui est donc, à ce titre, complet. Notons que pour tout x D, d (x) sup (x,y) D 2 y x < +. De plus, le raisonnement précédent montre que (x,y) D 2, d (x) d (y) x y. D après le théorème d Ascoli-Arzelà 4, la famille C d (D) est équicontinue et fermée pour la topologie de la convergence uniforme, donc compacte. Nous sommes maintenant en mesure de démontrer la proposition I Preuve de la proposition I (i) Considérons une suite ( n ) n IN d éléments de A(D). Alors (d c n ) n IN est une suite d éléments de C d (D). Par compacité (Proposition I.1.11), il existe A avec d A C d (D) tel que (d c n ) n IN converge à une sous-suite près vers la fonction d A = d A = d c, où l on a posé c = A. On a donc montré que ( n ) n IN converge, à sous-suite près vers A(D). 4. Théorème d Ascoli-Arzelà : soient K un espace compact et (E, d) un espace métrique. L espace C 0 (K, E) des fonctions continues de K dans E, muni de la distance uniforme, est un espace métrique. Une partie A de C 0 (K, E) est relativement compacte si et seulement si les deux conditions suivantes sont respectées : - A est équicontinue, i.e pour tout élément x de K, on a ε > 0, V voisinage de x f A, y V, d(f(x),f(y)) < ε - pour tout élément x de K, l ensemble A(x) = {f(x) f A} est relativement compact. L ensemble des fonctions r-lipschitziennes avec r > 0 est un exemple d ensemble équicontinu. 9
16 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES (ii) Puisque K D, il existe x K et ỹ tels que δ := inf d c(x) = inf x K inf x K y c x y = x ỹ > 0. En effet, K est fermé et est ouvert... Par convergence de ( n ) n IN vers, il existe N(K) IN tel que Par conséquent, pour tout x K, on a n N(K), d c n d c C 0 (K) < δ 2. d c n (x) d c(x) d c n (x) d c(x) m m 2 > 0. Cela signifie que x / c n autrement dit x c nc = n et donc K n. (iii) On va démontrer plus précisément que si ( n ) n IN converge vers au sens de Hausdorff, alors χ lim inf n + χ n presque partout dans D. En vertu du lemme de Fatou 5, on en déduira le résultat escompté, à savoir lim inf n + n. On a χ \( n) = χ ( n) c \ c. Posons ε n = d H c( n,). Notons que χ ( n) c \ c χ Rn avec R n = {x D d(x,) ]0,ε n [}, et que la suite (R n ) n IN est décroissante pour l inclusion et tend vers. D après le théorème de convergence monotone de Beppo-Levi 6, on en déduit que \( n ) = χ \( n)(x) dx 0. n + D Finalement, puisque χ = χ n + χ \( n), on obtient l inégalité souhaité en faisant tendre n vers +. (iv) Soit ( n ) n IN, une suite de A(D) qui converge au sens de Hausdorff vers A(D). On désigne par #( c n), le nombre de composantes connexes 7 de c n. Supposons que #( c ) est fini, égal à k. Il existe donc une famille d ouverts disjoints (G i ) 1 i k tels que k c = c G = G i et i {1,,k}, c G i. i=1 Considérons le voisinage ouvert de c défini pour ε > 0 par V ε ( c ) = {O ouvert tel que d c d O c C 0 (D) < ε}. 5. Lemme de Fatou : soit, un ouvert de IR d et (f n) n IN, une suite de fonctions de L 1 () telle que pour tout n IN, f n(x) 0 p.p. sur et sup n IN fn(x) dx < +. Alors, la fonction x lim infn + fn(x) est intégrable sur et lim inf fn(x) dx lim inf f n + n + n(x) dx. 6. Théorème de convergence monotone de Beppo-Levi : soit, un ouvert borné et (f n) n IN, une suite croissante de fonctions de L 1 () telle que sup n IN fn(x) dx < +. Alors, fn(x) converge pour presque tout x vers une limite finie f(x), f L 1 () et f n f L 1 () 0 quand n Composante connexe : étant donné un point x d un espace topologique E, la réunion de toutes les parties connexes contenant x est connexe. C est la plus grande (au sens de la relation d inclusion) de toutes les parties connexes contenant x. On la note C x et on l appelle composante connexe de x dans E. Les composantes connexes des points de E sont donc les parties connexes maximales pour l inclusion (il n y en a qu une si l espace est connexe). 10
17 I.1. ÉLÉMENTS DE TOPOLOGIE SUR LES ENSEMBLES On a c V ε ( c ) et puisque (d c n ) n IN converge vers d c, il existe N IN tel que c n V ε ( c ) G, pourvu que ε soit choisi suffisamment petit. Alors, nécessairement, pour tout n N, c n G et c n G i. On en déduit que #( c n) #( c ). Avant de terminer cette section, énumérons quelques résultats fort utiles sur la convergence au sens de Hausdorff dont la démonstration est laissée en exercice au lecteur. Proposition I Propriétés de la convergence au sens de Hausdorff des ouverts ([HP05, Section 2.2.3]) (i) Une suite croissante d ouverts inclus dans D converge au sens de Hausdorff vers sa réunion. (ii) Une suite décroissante d ouverts converge vers l intérieur de l intersection de tous les ouverts. (iii) Si ( 1 n) n IN et ( 2 n) n IN sont des suites de A(D) qui convergent respectivement au sens de Hausdorff vers 1 et 2, et si n 1 n 2 pour tout n IN, alors 1 2. (iv) Si ( 1 n) n IN et ( 2 n) n IN sont des suites de A(D) qui convergent respectivement au sens de Hausdorff vers 1 et 2, alors n 1 n 2 converge au sens de Hausdorff vers 1 2. (v) Si ( 1 n) n IN et ( 2 n) n IN sont des suites de A(D) qui convergent respectivement au sens de Hausdorff vers 1 et 2, et si n 1 n 2 converge au sens de Hausdorff vers, alors 1 2. (vi) La convexité est préservée par la convergence de Hausdorff, mais pas l envoppe convexe. Notons que par passage au complémentaire, on en déduit aisément des propriétés similaires pour la convergence de Hausdorff au sens des compacts (remplacer par exemple "croissant" par "décroissant", "réunion" par "intersection", etc.) Remarque I.1.16 Ce que ne garantit pas la convergence de Hausdorff La connexité n est pas préservée par la convergence au sens de Hausdorff. Penser par exemple à n = B(0,2)\{e i kπ n,0 k n 1}. Alors, clairement, n est connexe par arcs pour tout n IN, et la suite ( n ) n IN converge au sens de Hausdorff vers = B(0,2)\C(0,1) qui n est pas connexe par arcs. Le périmètre défini au sens de de Giorgi (voir Définition I.1.2) n est ni semi-continu supérieurement, ni semi-continu inférieurement pour la convergence au sens de Hausdorff. Noter que la remarque remarque I.1.14 prouve en particulier que le périmètre n est pas semi-continu supérieurement. 11
18 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES I.1.3 Ouverts vérifiant la propriété du cône uniforme Cette section est consacrée à l introduction d une famille d ouverts satisfaisant certaines propriétés géométriques qui garantissent de la compacité en un sens à préciser. Dans l étude des problèmes d optimisation de forme, on s attend souvent à ce que la solution soit régulière. Pour cette raison, on peut choisir de ne s intéresser qu à des domaines réguliers. Cependant, on comprend aisément qu une suite de domaines réguliers peut converger vers un domaine très irrégulier. Pour éviter ce type de phénomène, on va introduire des ouverts dont la frontière est "uniformément lipschitzienne. On dit qu ils vérifient la propriété du cône uniforme. Le point de vue qui suit et ses conséquences en optimisation de forme sont dus à Denise Chenais (voir [Che75] et [DZ11]). Définition I Propriété de ε-cône Soit y, un point de IR d, ξ, un vecteur unitaire et ε, un réel strictement positif donné. (i) On appelle cône épointé de sommet y, de direction ξ et de dimension ε, le cône noté C(y,ξ, ε) privé de son sommet, défini par : C(y,ξ, ε) = {z IR d z y,ξ IR d cos ε z y IR d et 0 < z y IR d < ε}, où, IR d désigne le produit scalaire euclidien de IR d et IR d, la norme euclidienne associée. (ii) On dit qu un ouvert vérifie la propriété du ε-cône si pour tout élément x, il existe ξ x, un vecteur unitaire tel que : y B(x,ε), C(y,ξ, ε), où B(x,ε) désigne la boule ouverte de centre x et de rayon ε. 12
19 I.1. ÉLÉMENTS DE TOPOLOGIE SUR LES ENSEMBLES y x ε C(y, ξ x, ε) ξ x Figure I.2 : Illustration de la propriété de ε-cône Notons que l on a la caractérisation suivante des ouverts satisfaisant la propriété du cône uniforme. Théorème I Caractérisation de la propriété de ε-cône Un ouvert de frontière bornée a la propriété du ε-cône si, et seulement si il est à bord lipschitzien. Pour la définition d un ouvert à bord lipschitzien, on se réfèrera à la définition I.1.1. Ce résultat d énoncé simple est en revanche un peu technique à démontrer. Le preuve figure dans [Che77] et dans [HP05, Section 2.4]. Figure I.3 : À gauche, un ouvert vérifiant la propriété du cône uniforme et à droite, un ouvert ne la vérifiant pas (présence d un point de rebroussement) La propriété qui suit prouve, comme on pouvait s y attendre, que les ouverts satisfaisant la propriété du ε-cône possèdent de bonnes propriétés de compacité. 13
20 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Proposition I Compacité des ouverts uniformément réguliers Soit ε > 0 et ( n ) n IN, une suite d ouverts tous inclus dans une boule D et ayant la propriété du ε-cône. Alors, il existe un ouvert, et une suite extraite ( nk ) k IN qui converge vers au sens de Hausdorff. De plus, a la propriété de ε-cône, nk et nk convergent au sens de Hausdorff respectivement vers et. Preuve. D après la proposition I.1.10, il existe une suite extraite ( nk ) k IN et un ouvert tels que ( nk ) k IN converge vers au sens de Hausdorff. Considérons x. Pour ne pas alourdir la rédaction, et quitte à réindexer, on note ( n ) n IN la suite ( nk ) k IN. Montrons de prime abord qu il existe une suite de points (x n ) n IN telle que x n n pour tout n IN, qui converge vers x. Il suffit de montrer que la distance de x à n tend vers 0 quand n +. Raisonnons par l absurde en supposant le contraire. Alors, il existe une sous-suite ( nk ) k IN et une boule fermée B(x,η) avec η > 0 tels que B(x,η) nk =. En conséquence, B(x,η) est inclus dans nk ou dans son complémentaire pour tout k IN. D après la propriété I.1.15 (stabilité de l inclusion) il vient que B(x,η) ou B(x,η) c, ce qui contredit que x. Considérons à présent pour chaque n, la direction de cône ξ n associée à x n. Par compacité de la sphère unité de IR d, on peut supposer que (ξ n ) n IN converge vers ξ S d 1, quitte à considérer une sous-suite. Donnons-nous y B(x,ε) c. Par définition de la convergence de Hausdorff, il existe une suite (y n ) n IN c n convergeant vers y. Alors, on montre aisément que y n x n converge vers y x, on a y n x n < ε à partir d un certain rang. Cela permet d appliquer la propriété de ε-cône à y n et on en déduit que C(y n,ξ n,ε) c n à partir d un certain rang. Par stabilité de l inclusion et puisque C(y n,ξ n,ε) converge au sens de Hausdorff vers C(y,ξ,ε), il vient On en déduit le résultat escompté. C(y,ξ,ε) C(y,ξ,ε) c. On peut établir le même type de résultat pour la convergence au sens des fonctions caractéristiques. (voir définition I.1.7) La preuve est laissée en exercice au lecteur. Proposition I Compacité des ouverts uniformément réguliers (suite) Soit ε > 0 et ( n ) n IN, une suite d ouverts tous inclus dans une boule D et ayant la propriété du ε-cône. Alors, il existe un ouvert, et une suite extraite ( nk ) k IN qui converge vers au sens des fonctions caractéristiques. De plus, a la propriété de ε-cône, nk et nk convergent au sens des fonctions caractéristiques respectivement vers et. Les deux propositions précédentes fournissent en général une grande aide pour établir des résultats d existence dans des classes de domaines vérifiant la propriété de ε-cône. I.2 Quelques inégalités fonctionnelles 14
21 I.2. QUELQUES INÉGALITÉS FONCTIONNELLES I.2.1 Théorème de Rellich et inégalité de Poincaré Énonçons de prime abord un résultat fondamental d analyse fonctionnelle, sur la compacité de l injection 8 des espaces de Sobolev dans les espaces L p. Théorème I.2.1. Rellich-Kondrachov Soit, un ouvert borné quelconque de IR d. Alors, si p < d, alors W 1,p 0 () L q () avec injection compacte pour tout q [1,p [ avec 1 p + 1 d = 1 p. si p = d, alors W 1,p 0 () L q () avec injection compacte pour tout q [1,p [ avec 1 p + 1 d = 1 p. si p > d, alors W 1,p 0 () C() avec injection compacte pour tout q [1, + [. De plus, si est de classe C 1, alors les injections précédentes restent vraies en remplaçant W 1,p 0 () par W 1,p (). On trouvera une preuve de ce théorème dans de nombreux recueils d analyse fonctionnelle, par exemple [Bre11]. Corollaire I.2.2. Inégalité de Poincaré Soit p [1, + [. On suppose que est un ouvert borné de IR d. Alors, il existe une constante C d, telle que u L p C u L p, u W 1,p 0 (). (I.1) De plus, dans le cas p = 2, la plus petite constante vérifiant cette inégalité est C = 1 λ 1 (), où λ 1() est la plus petite valeur propre de l opérateur de Laplace- Dirichlet. Preuve du corollaire I.2.2. Raisonnons par l absurde, en supposant que (I.1) n est pas vraie. Alors, par homogénéité du quotient u L p u, il existe une suite (u L p n) n IN de W 1,p 0 () telle que u n L p = 1 et u n L p n u n L p, n IN. On en déduit que la suite ( u n ) n IN converge vers 0 dans L p () et par ailleurs que la suite (u n ) n IN est bornée dans W 1,p 0 (). D après le théorème I.2.1, il existe une sous-suite de (u n ) n IN (que nous noterons encore (u n ) n IN par abus de notation) telle que (u n ) n IN converge dans L p () vers une fonction u L p (). Puisque ( u n ) n IN converge vers 0, la suite (u n ) n IN est de Cauchy dans W 1,p 0 (). À ce titre, u W 1,p 0 () et u est la limite de u n dans L p (). Il vient u = 0 et u est donc constante sur chacune des composantes connexes de. Puisque la trace de u sur le bord de ces composantes connexes est nulle, on en déduit que u est identiquement nulle, ce qui contredit le fait que 1 = lim n + u n L p = u L p. 8. Rappelons que l injection compacte de A dans B signifie que la boule unité de A vue dans B est relativement compacte. 15
22 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Reste à se convaincre que la meilleure constante est donnée par la première valeur propre de l opérateur de Laplace-Dirichlet dans le cas où p = 2. Dans ce cas, la meilleure constante C est donnée par 1 C = inf u H 1 0 () u 0 u 2 dx u(x)2 dx. Montrons de prime abord que l infimum est en réalité un minimum. Pour cela, on considère une suite minimisante (u n ) n IN. Par homogénéité du quotient, on peut supposer que u n L 2 = 1 pour tout n IN. Par conséquent, la suite ( u n ) n IN est bornée dans L 2 () et la suite (u n ) n IN est bornée dans H 1 (). Puisque H0 1() est fermé 9 dans H 1 () qui est un espace de Hilbert, on peut extraire de (u n ) n IN une sous-suite (que nous noterons encore (u n ) n IN par abus de notation) telle que (u n ) n IN converge faiblement vers un élément u H0 1() dans H1 (). D après le théorème (I.2.1), il existe une sous-suite de (u n ) n IN (que nous noterons encore (u n ) n IN par abus de notation) telle que (u n ) n IN converge fortement vers u dans L 2 (). Finalement, 1 C = lim n + u n 2 dx u n(x) 2 dx = u 2 dx u(x)2 dx = u 2 dx, et l infimum est donc un minimum. Caractérisons-le à l aide des conditions d optimalité. Soit h H 1 0 () et ε IR +. On note J(v) := εh) J(u). Par conséquent, v 2 dx v(x)2 dx. Par minimalité de u, on a J(u + J(u + εh) J(u) 0 lim = dj(u),h = 2 u h dx 2J(u) u(x)h(x) dx. ε 0 ε Puisque la perturbation u εh est également admissible, on en déduit que h H 1 0 (), u h dx = J(u) u(x)h(x) dx. Posons λ = J(u). On reconnaît la formulation faible du problème aux valeurs propres { u = λu x u = 0 x. D après le théorème spectral 10, il existe une suite croissante (λ n ()) n IN de valeurs propres telles que la solution du système ci-dessus avec λ = λ n () soit non-triviale. Notons u,n une fonction propre associée à λ n (). D après la formule de Green 11, on a J(u,n ) = λ n () et la conclusion s ensuit. 9. Noter que l espace H0 1 () est fermé dans H 1 () et convexe, donc il est faiblement fermé. 10. Théorème spectral pour les espaces de Hilbert : Soit A un opérateur compact auto-adjoint sur un espace de Hilbert V. Il existe une base hilbertienne de V formée de vecteurs propres de A, et toutes les valeurs propres de A sont réelles 11. Formule de Green : Soit, un ouvert borné dont la frontière est de classe C 1 par morceaux. Alors, si u et v sont des fonctions de H 1 (), on a u v v dx = uvn i dσ u dx, x i x i où n i est la i-ème composante de la normale sortante au domaine. 16
23 I.2. QUELQUES INÉGALITÉS FONCTIONNELLES Remarque I.2.3 Généralisation L inégalité de Poincaré énoncée dans le corollaire I.2.2 est en réalité valable si est de mesure finie, ou encore si est borné dans une direction. En revanche, la technique de preuve utilisée n est plus la même. Énonçons enfin une inégalité de Poincaré plus générale, car valable pour toute fonction de H 1 (), en imposant des conditions un peu plus restrictives sur. La preuve du résultat qui suit est laissée en exercice au lecteur. Proposition I.2.4. Inégalité de Poincaré-Wirtinger Soit, un ouvert connexe borné et Lipschitzien. Alors, il existe une constante C > 0 telle que u H 1 (), u u L 2 () C u L 2 () avec u = 1 u(x) dx. ou de façon équivalente u L 2 (), u u H 1 () C u H 1 () avec u = 1 u(x) dx. I.2.2 Intégration par parties, formule de Green Rappelons la formule d intégration par parties en dimension d. Théorème I.2.5. Intégration par parties Soit, un ouvert de IR d de classe C 1 par morceaux. Si u et v sont deux fonctions de H 1 (), on a u v v dx = u dx + uvn i dσ, x i x i où n i désigne la i-ème composante de la normale sortante au domaine. On notera que la formule d intégration par parties utilise le fait que l application trace γ : D() u u C 0 () se prolonge par continuité en une application linéaire de H 1 () dans L 2 (). À partir de la formule d intégration par parties, on déduit très facilement la formule de Green. 17
24 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Théorème I.2.6. Formule de Green Soit, un ouvert de IR d de classe C 1 par morceaux. Soit u H 2 () et v H 1 (). On a u uv dx = u v dx + n v dσ, où n désigne la normale sortante au domaine. En particulier, on déduit de cette formule la formule d intégration par parties suivante, qui s avérera très utile dans le contexte de la mécanique des fluides ou de l élasticité. Proposition I.2.7. I.P.P. en mécanique des fluides Soit y H 1 (,IR d ) et z H 2 (,IR d ). Alors 2 ε(z) : ε(y) dx = ( z + div z) y dx + 2 ε(z)n y ds. Preuve. La preuve est calculatoire. On va utiliser les théorèmes I.2.5 et I.2.6. On a : 2 ε(z) : ε(y) dx = 1 2 = = = 1 i,j d 1 i,j d 1 i,j d i=1 d ( zi + z j x j x i ( (y 2 z i i x 2 j ) ( yi + y j x j x i + 2 z j x j x i ( y i ( zi x j + z j x i y i ( z i + div(z i) x i ) ( z + div z) y dx + 2 ) dx ) + y j ( 2 z i + 2 z j x i x j x 2 j ) ( zi n j + y j + z ) ) j n j x j x i dx + 1 i,j d ε(z)n y ds. ε(z) ij n j y i ds )) ds dx I.2.3 Inégalité de Korn Cette section est dédié à l énoncé d une inégalité fort pratique lorsqu on est amené à manipuler les équations de la mécanique des fluides ou de l élasticité. 18
25 I.2. QUELQUES INÉGALITÉS FONCTIONNELLES Définition I.2.8. Tenseur des déformations, des contraintes Soit un ouvert borné de IR d dont la frontière est suffisamment régulière et soit u et v, deux champ de vecteurs de H 1 (,IR d ). On définit ε, le tenseur de déformations d un champ de vecteurs u par : ε(u) = 1 2 ( u + ( u)t ) = ( 1 2 ( ui x j + u j x i )). 1 i,j d On définit le double produit contracté des deux tenseurs de déformation ε(u) et ε(v) par : ε(u) : ε(v) = 1 4 d i,j=1 ( ui + u ) ( j vi + v ) j. x j x i x j x i ε(u) 2 = ε(u) : ε(u). si p L 2 () représente la pression d un fluide en tout point de, si u désigne la vitesse du fluide en tout point de, alors on définit le tenseur σ(u,p) L 2 (,S d (IR)) par σ(u,p) = pi d + 2µε(u). La fonction σ(u,p) est appelée tenseur des contraintes. Avant d énoncer l inégalité de Korn, énonçons deux inégalités simples. Lemme I.2.9. Soit, un ouvert de IR d.pour tout u H 1 (,IR d ), on a ε(u) L 2 () u L 2 () et div(u) L 2 () d u L 2 (). Démonstration. On va utiliser l inégalité (a + b) 2 2(a 2 + b 2 ) valable pour tous a, b réels. Par définition du tenseur ε(u), on a ε(u) 2 L 2 () = 1 ( ui + u ) 2 j dx 1 ( ( ) 2 ( ) ) 2 ui uj + dx 4 x j x i 2 x j x i 1 i,j d = 1 2 ( u 2 L 2 () + u 2 L 2 () ), 1 i,j d d où le résultat. De même, on a div(u) 2 L 2 () = 2 u i dx = u i u j dx x i 1 i d 1 i,j d x i x j 1 ( ( ui ) 2 ( ) ) 2 uj + dx = 2d d 2 1 i,j d x i x j 2 i=1 d ( ) 2 ui dx = d u 2 L x 2 (). j 1 i,j d 19 ( ) 2 ui dx x i
26 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Énonçons à présent une première inégalité de Korn, fort utile pour traiter des fluides avec condition de non-glissement sur le bord du domaine considéré (i.e. u = 0 sur ). Théorème I Inégalité de Korn, première version Soit, un ouvert de IR d de classe C 1 par morceaux. Alors, pour toute fonction u H 1 0 (,IRd ), on a u L 2 () 2 ε(u) L 2 () Preuve. On va démontrer cette inégalité pour une fonction u C 0 (,IRd ) et on conclura en utilisant la densité de C 0 (,IRd ) dans H 1 0 (,IRd ). On a ε(u) 2 L 2 () = i,j d = 1 2 u 2 L 2 () ( ui + u j x j x i ) 2 dx = 1 2 u : ( u) dx 1 i,j d ( ( ui x j ) u j x i u i x j De plus, en utilisant deux fois la formule de Green (voir le théorème I.2.6), on a u : ( u) dx = 1 i,j d = 1 i,j d u j u i dx x i x j 2 u i u j dx = x i x j (div(u)) 2 dx 1 j d u j (div(u) x i x j On notera que la régularité nécessaire sur l ouvert provient du fait que l on utilise la formule de Green à deux reprises dans la preuve. On conclut en utilisant le lemme I.2.9. dx ) dx Remarque I.2.11 Généralisation Si est un ouvert de IR d borné de classe C 1 par morceaux. Soit Γ, un sous-ensemble de de mesure (surfacique) non nulle. Alors, il existe C > 0 telle que pour toute fonction u H 1 (,IR d ) telle que Tr Γ u = 0, on a u L 2 () C ε(u) L 2 () Achevons ce paragraphe en énonçant une inégalité de Korn plus générale, mais dont la preuve est également plus technique. Nous renvoyons par exemple à [DL72]. 20
27 I.3. EXISTENCE ET UNICITÉ DES SOLUTIONS D E.D.P. Théorème I Inégalité de Korn, deuxième version Soit, un ouvert de IR d de classe C 1 par morceaux. Alors, il existe une constante C > 0 telle que pour toute fonction u H 1 (,IR d ), on a u H 1 C ( u L 2 () + ε(u) L 2 ()). I.3 Existence et unicité des solutions d E.D.P. I.3.1 Problèmes elliptiques Dans cette section, on rappelle très brièvement quelques résultats fondamentaux pour l étude des équations aux dérivées partielles elliptiques. L existence et l unicité des solutions d équations aux dérivées partielles linéaires elliptiques peut, dans beaucoup de cas standards, être déduit du résultat abstrait suivant. Théorème I.3.1. Théorème de Lax-Milgram Soit a(, ), une forme bilinéaire continue (autrement dit, il existe C > 0 telle que a(u,v) C u V v V pour tout (u,v) V 2 ) et elliptique (autrement dit, il existe c > 0 telle que a(u,u) c u 2 V pour tout u V ) sur un espace de Hilbert V. Soit F, une forme linéaire continue sur V. Alors, il existe un unique élément u de V tel que a(u,v) = F (v) pour tout v V. (I.2) De plus, si a est symétrique, la solution u du problème ci-dessus est l unique solution du problème inf J(v) avec J(v) = 1 a(v,v) F (v). (I.3) v V 2 Preuve. Soit u V. On considère l application Ψ u : V v a(u,v). L application Ψ u est donc un élément de V, le dual topologique de V. Soit à présent Ψ : V u Ψ u V. Nous allons montrer que c est un isomorphisme et la conclusion attendue s ensuivra. Par continuité de Ψ u, on a c u 2 V a(u,u) = Ψ(u),u V,V Ψ(u) V u V, en ayant muni l espace V f,v de la norme duale f V = sup V,V v V v V. On notera d ailleurs que Ψ(u) V est finie car a(, ) est bicontinue. On en déduit que Ψ(u) V c u V pour tout u V. Par conséquent, l opérateur Ψ est injectif. Reste à prouver que Ψ est surjectif. Pour cela, on va d abord montrer que Im(Ψ) est dense. Il est bien connu que cela revient à montrer que l orthogonal de cet espace est réduit à {0 V }. Soit donc u 0 V tel que Ψv,u 0 V,V = 0 pour tout v V. En prenant v = u 0, on obtient 0 = Ψu 0,u 0 V,V c u 0 V et donc u 0 = 0. On a donc montré que Im(Ψ) V = V. Il nous faut montrer que Im(Ψ) est fermée. Soit (Ψu n ) n IN, une suite d éléments de Im(Ψ) qui converge vers U. Alors, la suite 21
28 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES (Ψu n ) n IN est de Cauchy et (n,p) IN 2, Ψ(u n ) Ψ(u p ) V c u n u p V, ce qui prouve que (u n ) n IN est de Cauchy dans V, donc converge vers un élément u V. Enfin, par continuité de Ψ, on a U = Ψ(u), ce qui achève la preuve de la première partie du théorème. Montrons à présent que la solution u du problème (I.2) est solution du problème de minimisation (I.3). Calculons de prime abord la différentielle de J, en remarquant que J est différentiable (exercice facile). Soit h V et t > 0. On a J(u + th) J(u) = t 2 (a(u,h) + a(h,u)) tf (h) + t2 2 a(h,h) = t(a(u,h) F (h)) + t2 2 a(h,h). Divisons par t et faisons alors tendre t vers 0. On obtient J(u + th) J(u) dj(u),h = lim = a(u,h) F (h). t 0 t Si u 0 est solution du problème (I.3), alors nécessairement J(u 0 + th) J(u 0 ) pour tout t > 0 et h V. Il vient que nécessairement dj(u),h 0. Or, h est également une perturbation admissible, donc finalement dj(u),h = 0 nécessairement. Par conséquent, u 0 résout le problème (I.2). Réciproquement, si u 0 résout (I.2), alors d après le calcul cidessus, on a J(u 0 + th) J(u 0 ) = t2 2 a(h,h) c h 2 V 0, pour tout h V. Or, u 0 +th décrit l espace V. On en déduit que u 0 est solution de (I.3). Remarque I.3.2 On notera que l existence d une solution au problème de minimisation (I.3) résulte de la première partie du théorème. Il eut également été possible de démontrer directement l existence d une solution au problème de minimisation (I.3) pour démontrer la première partie du théorème de Lax-Milgram. Exemple I.3.3 Équation de Dirichlet-Poisson Soit, un ouvert connexe borné et f H 1 (). Intéressons-nous à l existence et l unicité de solutions pour le problème { u = f dans u = 0 sur. Le lien entre le caractère bien posé de ce problème et le théorème de Lax-Milgram s établit à l aide de la remarque suivante : trouver u H0 1() tel que u = f dans D () est équivalent à trouver u H0 1 () tel que v H0 1 (), u v dx = fv dx. (I.4) 22
29 I.3. EXISTENCE ET UNICITÉ DES SOLUTIONS D E.D.P. En effet, si u H 1 0 () tel que u = f dans D (), alors en multipliant l équation par une fonction test ϕ D() et en utilisant la formule de Green (Théorème I.2.6), on montre que pour toute fonction ϕ D(), u v dx = fv dx. Il suffit alors d utiliser la densité de D() dans H0 1 () pour conclure. Le sens réciproque se démontre exactement de la même façon. À présent, montrons l existence d une solution pour le problème (I.4) écrit sous forme variationnelle. Soient u et v dans H0 1 (). On introduit les notations a(u,v) = u v dx et F (v) = fv dx. D après l inégalité de Cauchy-Schwarz, on a a(u,v) u H 1 0 (ω) v H 1 0 (ω) et F (v) f H 1 () v H 1 0 () ce qui montre que a et F sont continues, et a(u,u) = u 2 dx C u 2 H0 1(), d après l inégalité de Poincaré (voir le corollaire I.2.2), ce qui montre que a est elliptique. On applique donc le théorème de Lax-Milgram et la conclusion s ensuit. Mentionnons également les résultats de régularité elliptique : sous réserve que le domaine et les coefficients de l équation aux dérivées partielles elliptique soient suffisamment réguliers, la solution existe en un sens plus fort que celui fournit par le théorème de Lax-Milgram. Théorème I.3.4. Régularité elliptique Soit k IN,, un ouvert de classe C k+2 (), a i,j C k,1 () et c C k 1,1 (). Soit f H k () et g H k+2 (). Soit u H 1 (), une fonction telle que Lu = f au sens de D (); u g H 1 0 (), avec Lu = div(a u) + cu et A = (a i,j ) 1 i,j d. Alors, u H k+2 () et on a l estimation où C k ne dépend pas de f et g. u H k+2 () C k ( f H k () + g H k+2 ()), Concluons cette partie par un résultat fondamental sur les équations elliptiques, appelé principe du maximum. 23
30 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Théorème I.3.5. Principe du maximum Soit, un ouvert borné de IR N. On se donne une matrice symétrique A S N (IR) dont les composantes a i,j appartiennent à C 0 () et telle qu il existe λ > 0 avec 1 i,j N a i,j(x)ξ i ξ j λ ξ 2 pour tout x et tout ξ IR N. Soit b C 0 (,IR N ) et c C 0 () telle que c 0 dans. Toute fonction u C 0 () C 2 () qui satisfait 1 i,j N a i,j(x) 2 u i,j x i x j (x) + N i=1 b i(x) u i x i (x) + c(x)u(x) 0 dans et u(x) 0 sur est positive ou nulle dans. Remarque I.3.6 Principe du maximum de Hopf Si de plus satisfait la condition de sphère intérieure (en tout point x de, il existe une boule ouverte B(y,R) incluse dans telle que x B(y,R)) et si u atteint un minimum local strict en un point x 0 de dans le cas où c = 0, ou bien un minimum local strictement négatif dans le cas où c 0, alors u n (x 0) < 0. Exemple I.3.7 Fonctions surharmoniques Soit, un ouvert borné de classe C 3, et u telle que u = f et u H 1 0 (), avec f H1 () telle que f 0. Alors, u est positive dans. I.3.2 Équations de la mécanique des fluides Dans cette section, nous nous intéressons aux propriétés d existence et d unicité des équations les plus utilisées en mécanique des fluides, à savoir : les équations de Stokes et Navier-Stokes. Dans le cadre de ce cours, nous ne traiterons que les cas instationnaires (c est-à-dire ne dépendant pas du temps). Dans tout ce qui suit, on appellera µ > 0 la viscosité du fluide considéré. Dans le cadre de ce cours, nous nous intéresserons essentiellement aux conditions au bord dites de non-glissement, autrement dit, la vitesse du fluide est supposée nulle sur le bord du conduit dans lequel il circule. Équation de Stokes Lorsqu un fluide visqueux s écoule lentement en un lieu étroit ou autour d un petit objet, les effets visqueux dominent sur les effets inertiels. Son écoulement est alors appelé écoulement de Stokes (ou écoulement rampant ; et on parle parfois de fluide de Stokes par opposition à fluide parfait). Il est en effet régi par une version simplifiée de l équation de Navier-Stokes : l équation de Stokes, dans laquelle les termes inertiels sont absents. Le nombre de Reynolds mesure le poids relatif des termes visqueux et inertiel dans l équation de Navier-Stokes. L écoulement de Stokes correspond ainsi à un faible nombre de Reynolds (beaucoup plus petit que 1). Dans ce qui suit, désigne un conduit dans lequel circule un fluide, et le couple (u,p) représente la vitesse et la pression de ce fluide en tout point. 24
31 I.3. EXISTENCE ET UNICITÉ DES SOLUTIONS D E.D.P. Soit, un ouvert connexe borné, f H 1 (,IR d ), g L 2 () et u 0 H 1/2 (,IR d ) (on affinera les hypothèses par la suite). L équation aux dérivées partielles de Stokes s écrit div(σ(u, p) = f dans div(u) = g dans (I.5) u = u 0 sur. Une première remarque évidente est que la pression p n est a priori pas unique. En effet, si p est solution p + c avec c IR est également solution. En réalité, on montre que l on obtient l unicité de p en imposant une condition de moyenne de la pression par exemple (ce qui est compatible avec le fait que la pression p est cherchée dans L 2 ). Le lecteur désireux d en savoir davantage sur l analyse mathématique des équations de Stokes pourra se référer à [Tem01] ou [BF06a]. Avant d énoncer les théorèmes d existence, mentionnons deux résultats d analyse fonctionnelle très utiles lorsque l on manipule l opérateur associé à l équation aux dérivées partielles de Stokes. Définition I.3.8. Quelques espaces fonctionnels Soit, un ouvert borné de IR d. On définit L 2 0() = {p L 2 () p dx = 0} V() = {ϕ D(,IR d ) div(ϕ) = 0} V () = {v H 1 0 (,IR d ) div(v) = 0} H() = {v L 2 (,IR d ) div(v) = 0 et Tr v n = 0} On peut montrer que V () est l adhérence de V() dans H 1 0 (,IRd ) et H est l adhérence de V() dans L 2 (,IR d ). Lemme I.3.9. Relèvement de la divergence Soit, un ouvert borné connexe et Lipschitzien de IR d. Il existe un opérateur linéaire continu Π : L 2 0 () H1 0 (,IRd ) tel que, pour tout h L 2 0 (), la fonction u = Π(h) vérifie div(u) = h. Le lemme qui suit est fondamental. Il permet de traiter le terme de divergence dans l équation de Stokes. Théorème I (de Rham) Soit, un ouvert borné connexe et lipschitzien de IR d. Soit f H 1 (,IR d ) telle que f,ϕ H 1,H 1 0 = 0 ϕ V(). Alors, il existe une unique fonction p appartenant à L 2 0 () telle que f = p. 25
32 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES On trouvera une preuve des deux résultats précédents dans [BF06a] par exemple. Dans un premier temps, nous allons donner un résultat d existence partiel, dans le cas particulier où g = 0 et u 0 = 0. Théorème I Existence, unicité pour l E.D.P. de Stokes-Dirichlet Soit, un ouvert connexe borné et lipschitzien de IR d, et f H 1 (,IR d ). Alors, il existe un unique couple (u,p) V () L 2 0 () solution du problème (I.5) avec g = 0 et u 0 = 0. Preuve. On définit la forme bilinéaire a : V () 2 (u,v) ε(u) : ε(v) dx On vérifie aisément, en utilisant les inégalités de Cauchy-Schwarz et Poincaré (voir le corollaire I.2.2), que a est coercive, et continue. Soit la forme linéaire F : H 1 0 (,IR d ) u f,u H 1,H 1 0 Il est immédiat que cette forme est linéaire et continue sur V (). Par conséquent, d après le théorème de Lax-Milgram, il existe un unique élément u V () tel que v V (), a(u,v) = F (v) Or, par définition du crochet de dualité, H 1,H0 1 et d après la formule d intégration par parties donnée par la proposition I.2.7, cette égalité devient v V (), 2µ div ε(u) f,v H 1,H 1 0 = u f,v H 1,H 1 0 = 0. D après le théorème de de Rham (Théorème I.3.10), on en déduit l existence d une pression p L 2 () telle que u + p = f. Si on choisit p à moyenne nulle, on obtient de plus l unicité de p. Remarque I.3.12 Notons qu en toute généralité, le théorème de Lax-Milgram pourrait s appliquer à f V (), et que V () contient l espace H 1 (,IR d ). Cependant, le théorème de de Rham ne s applique pas a priori, et on se sait pas interpréter la solution comme solution de l équation de Stokes. Une façon de reformuler le théorème précédent consiste à dire que l opérateur A défini par (u,v) V () 2, Au,v V (),V () = ε(u) : ε(v) dx est un isomorphisme de V () dans V (). L opérateur A s appelle l opérateur de Stokes. Mentionnons que l opérateur de Stokes possède des propriétés de régularité elliptique similaires à celles du Laplacien. 26
33 I.3. EXISTENCE ET UNICITÉ DES SOLUTIONS D E.D.P. Théorème I Régularité elliptique de l opérateur de Stokes Pour tout k IN, si f H k (,IR d ) et si est de classe C k+1,1 (), alors l unique solution du problème (I.5) dans V L 2 0 (), avec g = 0 et u 0 = 0, vérifie (u,p) H k+2 (,IR d ) H k+1 () et il existe C > 0 telle que u H k+2 + p H k+1 C f H k. On trouvera une preuve de ce théorème dans [BF06a]. Revenons au problème de Stokes non-homogène (I.5). Théorème I Existence, unicité pour (I.5) Soit, un ouvert borné, connexe et lipschitzien de IR d. Soient f H 1 (,IR d ), u 0 H 1/2 (,IR d ) et g L 2 () vérifiant la condition de compatibilité u 0 n ds = g dx. Alors, l équation (I.5) possède une unique solution (u,p) H 1 (,IR d ) L 2 0 () et il existe une constante C ne dépendant que de telle que u H 1 + p L 2 C( f H 1 + g L 2 + u 0 H 1/2). L idée de la preuve consiste à utiliser le lemme I.3.9 pour se ramener à l étude du problème de Stokes avec condition de Dirichlet homogène traité dans le théorème I Preuve. Rappelons que l opérateur de trace est une surjection (par définition de l espace H 1/2 ). Par conséquent, il existe G H 1 (,IR d ) tel que Tr G = u 0. De plus, d après la condition de compatibilité, g div(g) L 2 0 (). En effet, (g div(g)) dx = g dx G n ds = g dx u 0 n ds = 0. Appliquons alors le lemme de relèvement de la divergence I.3.9. il existe une fonction H H 1 (,IR d ) telle que div(h) = g div G. Introduisons la fonction v = u H G. Il est aisé de montrer que v est solution du problème de Stokes div(σ(v, p)) = f 2µ div(ε(g + H)) dans div(v) = 0 dans (I.6) v = 0 sur. D après le théorème I.3.11, cette équation possède une solution unique (v,p) V () L 2 0 (). Pour prouver l estimation attendue, on multiplie 12 l équation principale par v et on intègre par parties selon la proposition I.2.7. On obtient µ ε(v) 2 dx + v p dx = (f 2µ div(ε(g + H)), v H 1,H0 1. D après le théorème I.2.5, v p dx = p div(v) dx + p(v n) ds = En réalité, on applique v H 1 0 (,IR d ) à l élément div(σ(v, p)) f 2µ div(ε(g+h)), qui appartient à H 1 (,IR d ) 27
34 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES On va utiliser le fait que si w H 1 (,IR d ), alors div(ε(w)) H 1 (,IR d ) puisque H 1 0 (,IRd ) H 1 (,IR d ) et div(ε(w)) H 1 = sup div(ε(w)),ϕ H 1,H 1 0 ϕ H0 1() ϕ 0 d w L 2 ϕ H 1, ϕ H 1 0 = sup ϕ H 1 0 () ϕ 0 ε(w),ε(ϕ) L 2,L 2 ϕ H 1 0 d après l inégalité de Cauchy-Schwarz et le lemme I.2.9. En utilisant l inégalité de Korn (théorème I.2.10), l équivalence des normes H 1 0, H 1 et l inégalité de Cauchy-Schwarz, on en déduit l existence d une constante C > 0 telle que v H 1 C( f H 1 + div(ε(g)) H 1 + div(ε(h)) H 1) Cd( f H 1 + G H 1 + H H 1) Or, d après le lemme I.3.9, il existe C > 0 telle que H H 1 C g div(g) L 2 C ( g L 2 + div(g) L 2). Par continuité de l opérateur de relèvement de la trace, il existe C > 0 telle que G H 1 C u 0 H 1/2. Enfin, pour obtenir l estimation sur la pression, on écrit p = f 2µ div(ε(g + H)) + 2µ div(ε(u)). Alors, p H 1 f H 1 + 2µ div(ε(g)) H 1 + 2µ div(ε(h)) H 1 + 2µ div(ε(u)) H 1, et on conclut en combinant les estimations précédentes, et en utilisant l inégalité de Poincaré- Wirtinger dans L 2 pour comparer p H 1 à p L 2 (noter que l on utilise fortement que p est de moyenne nulle). L estimation souhaitée s ensuit. Équation de Navier-Stokes En mécanique des fluides, les équations de Navier-Stokes sont des équations aux dérivées partielles non linéaires qui sont censées décrire le mouvement des fluides «newtoniens» (liquide et gaz visqueux ordinaires) dans l?approximation des milieux continus (qui consiste à considérer des milieux dont les propriétés caractéristiques qui nous intéressent? densité, élasticité, etc.? sont continues). La résolution de ces équations modélisant un fluide comme un milieu continu à une seule phase incompressible, si elle est possible, est ardue. La cohérence mathématique de ces équations non linéaires n est pas démontrée. Mais elles permettent souvent par une résolution approchée de proposer une modélisation des courants océaniques et des mouvements des masses d air de l atmosphère pour les météorologistes, la simulation numérique du comportement des gratte-ciel ou des ponts sous l action du vent pour les architectes et ingénieurs, des avions, trains ou voitures à grandes vitesse pour leurs bureaux d études concepteurs, mais aussi le trivial écoulement de l eau dans un tuyau et de nombreux autres phénomènes d écoulement de divers fluides. Elles sont nommées d après deux scientifiques du XIXe siècle, le mathématicien et ingénieur des Ponts, Henri Navier, et le physicien George Gabriel Stokes, le choix oubliant le rôle intermédiaire du physicien Barré de Saint-Venant. Pour un gaz peu dense, il est possible de dériver ces équations à partir de l?équation de Boltzmann, décrivant un comportement moyen des particules dans le cadre de sa théorie cinétique des gaz. 28
35 I.3. EXISTENCE ET UNICITÉ DES SOLUTIONS D E.D.P. Nous allons utiliser les mêmes notations que celles utilisées dans le paragraphe précédent. Dans toute la suite, on supposera que d = 2 ou d = 3. L équation de Navier-Stokes à laquelle nous allons nous intéresser s écrit div(σ(u, p) + (u )u = f div(u) = g u = u 0 dans dans sur. En raison du caractère plus complexe de la preuve de l existence, nous ne rappelons pas les éléments de la preuve dans ce cours, et nous renvoyons à [Tem01, Appendix I], et à [Gal94]. (I.7) Définition I Formulation faible de l E.D.P. de Navier-Stokes-Dirichlet Soit, un ouvert connexe borné de IR d et u 0 = 0. Soit ν > 0 et f H 1 (,IR d ). On dit que u est une solution faible de (I.7) si u V () et ε(u) : ε(v) dx + b(u,u,v) = f,v H 1,H0 1. On définit la forme trilinéaire b : (H 1 (,IR d )) 3 IR (u,v,w) 1 i,j d u j v i x j w i dx = (I.8) (u )v w dx Lemme I On suppose que d = 2 ou d = 3 et que est borné de classe C 1. La forme trilinéaire b possède les propriétés suivantes : b est continue. b(u,v,v) = 0 pour tous u V () et v H 1 (,IR d ). b(u,v,w) = b(u,w,v) pour tous u V () et (v,w) (H 1 (,IR d )) 2. Preuve. On sait que pour i {1,,4}, u i, v i et w i sont dans H 1 (ω). De plus, puisque d 3, H 1 () s injecte continument (et même compactement) dans L 4 () d après le théorème I.2.1. Par conséquent, les fonctions u i, v i et w i sont dans L 4 (ω) v et u j w i i x j est dans L 1 () pour tout 1 j d. La forme b est donc bien définie. De plus, pour i, j tels que 1 i,j d, et il existe C > 0 telle que : v i u j w i dx x j u v i j w i x j dx (u j w i ) 2 dx ( ) 2 vi dx ( ) 2 vi dx x j u j L 4 w i L 4 C u j L 4 w i L 4 v i H 1. x j La conclusion s ensuit. 29
36 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES En utilisant la formule d intégration par parties du théorème I.2.5, on a : b(u,v,v) = 1 (vi 2 u ) j dx = 1 v 2 u j i 2 x j 2 x j = i,j d d i=1 v 2 i div u dx = 0. 1 i,j d Cette identité résulte de l identité précédente, en remarquant que 0 = b(u,v + w,v + w) = b(u,v,v) + b(u,v,w) + b(u,w,v) + b(u,w,w) = b(u,v,w) + b(u,w,v). En raison de sa non-linéarité, il est connu (voir par exemple [Tem01]) que l équation (I.7) n admet pas nécessairement une unique solution. On obtient l unicité en imposant des conditions de petitesse sur les données, ainsi que sur la viscosité µ. Plus précisément, on a le résultat d existence et d unicité suivant. Théorème I Existence pour l E.D.P. de Navier-Stokes On suppose que d = 2 ou d = 3. Soit, un ouvert simplement connexe et lipschitzien. Soit f H 1 (,IR d ) et u 0 H 1/2 (,IR d ). Alors, le problème (I.7) possède au moins une solution faible (u,p) V () L 2 0 () (au sens de la définition I.3.15). De plus, il existe c > 0 tel que µ u H 1 f H 1 p L 2 c( f H 1 + u 2 H 1 + µ u H 1). De plus, il existe ε 0 > 0 tel que, si f H 1 µ 2 < ε 0, alors, le couple (u,p) est unique. Remarque I.3.18 Cas de données plus régulières Soit k IN. On suppose que est de classe C k+2, que f W k,r (), avec k > 1 et r > 1. Alors, il existe une solution (u,p) W k+2,r () W k+1,r (). Nous énonçons à présent un résultat plus général, dans lequel on considère des données au bord non-homogènes. Définition I Formulation faible de l E.D.P. de Navier-Stokes Soit, un ouvert connexe borné de IR d, d 2. On dit que u H 1 (,IR d ) est une solution faible de (I.7) si Tr u = u 0 et si pour tout fonction test ϕ D(,IR d ) et ψ D(), on a : µ ε(u) : ε(ϕ) dx + b(u,u,v) = f,v H 1,H0 1 et u ψ dx = 0. 30
37 I.3. EXISTENCE ET UNICITÉ DES SOLUTIONS D E.D.P. Théorème I Existence pour l E.D.P. de Navier-Stokes On suppose que d = 2 ou d = 3. Soit, un ouvert simplement connexe lipschitzien. Soit f H 1 (,IR d ) et u 0 H 1/2 (,IR d ), tel que Γ i u 0 n ds = 0. Alors, le problème (I.7) possède au moins une solution (u,p) H 1 (,IR d ) L 2 0 (). De plus, il existe C > 0 ne dépendant que de d et de telle que si u 0 H 1/2 ( ) Cµ, alors il existe une constant C > 0 ne dépendant que de d et de telle que toute solution (u,p) de (I.7) vérifie u H 1 C µ ( f H 1 + u 0 H 1/2 ( ) + u H 1) p L 2 C ( f H 1 + u 2 H 1 + µ u H 1). De plus, il existe C > 0 ne dépendant que de d et telle que si alors la solution (u,p) de (I.7) est unique. f H 1 + u 2 H 1 + µ u H 1 C µ 2, On sait améliorer la régularité du couple (u,p) lorsque le domaine et les données sont réguliers. Théorème I Navier-Stokes, cas régulier Supposons les hypothèses du théorème I.3.20 satisfaites. (i) S il existe q > 1 tel que f L q (), u 0 W 2 1/q,q ( ), alors u W 2,q (), p W 1,q () et l équation principale de (I.7) est satisfaite presque partout. (ii) Si est de classe C n+2 pour n 1, f W n,q (), u 0 W n+2 1/q,q ( ) avec q > 1 si d = 2 et q d/2 si d > 2, alors u W n+2,q () et p W n+1,q (). En vue des applications que nous allons considérer dans ce cours, il est intéressant d énoncer un résultat d existence pour un problème de Navier-Stokes avec des conditions mixtes. On désigne par u, le champ des vitesses et par p, la pression. On considère un écoulement modélisé par le système d équations de Navier-Stokes : µ u + p + (u )u = f x, div u = 0 x u = u 0 x E u = 0 x Γ pn + 2µε(u) n = p 0 n x S, (I.9) où p 0 IR et u 0 H 1/2 (E,IR d ). 31
38 CHAPITRE I. OUTILS POUR L OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Introduisons les espaces fonctionnels : W 0 () { } déf = (v,q) H 1 (,IR d ) L 2 () : v = 0 sur E Γ. Z u0 () { } déf = (v,q) H 1 (,IR d ) L 2 () : v = u 0 sur E et v = 0 sur Γ, munis des topologies naturelles associées. Posons p = p p 0. La formulation variationnelle du système de Navier-Stokes (I.9))s écrit : Trouver (u, p) Z u0 () tels que : (w,ψ) W 0 (), (2µε(u) : ε(w) + (u )u w p div w) dx = 0 ψdiv u dx = 0. (I.10) Théorème I Navier-Stokes, conditions mixtes Supposons que l on ait u 0 H 1 0 (E,IRd ) et f L 3/2 (,IR d ). Il existe µ 0 > 0 et ε 0 > 0 tels que si µ µ 0 OU si u 0 H 1 0 (E) ε 0, alors le problème (I.9) possède une unique solution (u,p) H 1 () L 2 (). de plus, il existe C > 0 ne dépendant que de telle que la solution u vérifie de surcroît u 2 H 1 0 () C( u 0 2 H 1 0 (E) + u 0 H 1 0 (E) ) + f 2 L 3/2 (). Remarque I.3.23 Condition de bord sur S Notons que dans [BF06b], [BF94] et [BF96], une justification physique de la condition de sortie a été proposée : elle ne contribue pas à augmenter l énergie du système. On dit que cette condition est faiblement réfléchissante en aval de l écoulement. Elle traduit la contrainte issue de l écoulement subie au niveau de la sortie S. On peut considérer que, peu ou prou, cette condition impose p p 0 sur S. 32
39 II. Existence et caractérisation des formes optimales Dans ce chapitre, on présente quelques rudiments de l optimisation de forme. La première partie est consacrée à l étude de l existence de formes optimales. Dans la seconde, on s intéresse au concept de dérivation par rapport au domaine, permettant notamment l écriture de conditions d optimalité. II.1 Sur l existence de formes optimales II.1.1 Exemple et contre-exemple Exemple d existence. Soit f, une fonction analytique réelle sur le segment [0,1] (i.e. développable en série entière en tout point) et positive. Soit L ]0,1[ fixé. Intéressons-nous au problème d optimisation de forme inf J(ω) où J(ω) = f(x) dx. ω [0,1] mesurable ω =L Notons que J(ω) = 1 0 χ ω(x) dx. Le problème ci-dessus se reformule donc inf Ĵ(χ ω ) où Ĵ(χ ω ) = J(ω) et U L = {χ ω L (0,1; {0,1}) χ ω U L ω 1 0 χ ω (x) dx = L}. Il n est pas aisé de conclure immédiatement à l existence de solution. En effet, considérons (χ ωn ) n IN, une suite minimisante pour ce problème. La remarque I.1.8 et le théorème de Banach-Alaoglu Bourbaki en particulier montrent que sans renseignement supplémentaire, on ne peut pas espérer extraire de cette suite une sous-suite convergeant (même en un sens très faible) vers un élément de U L. En revanche, toujours d après cette remarque, il existe a L (0,1; [0,1]) et une sous-suite de (χ ωn ) n IN convergeant faiblement- dans L vers a. Remarquons de plus que, par propriété de convergence faible-, on a L = 1 0 χ ωn (x) dx = χ ωn,1 L 2 (0,1) n + a,1 L 2 (0,1) = 1 0 a(x) dx. À ce stade, on sait donc que a {a L (0,1,[0,1]) 1 0 a(x) dx = L}, mais rien ne garantit que a U L. Nous allons détourner ce problème en nous intéressant provisoirement à un autre problème d optimisation, très proche du précédent, mais pour lequel l ensemble des solutions admissibles est élargi. On dira alors que l on a relaxé le problème d optimisation initial. Introduisons donc le problème auxiliaire dans lequel on a étendu la définition de Ĵ aux éléments de l ensemble ci-dessus : inf Ĵ(a) où Ĵ(a) = a R L 1 0 a(x)f(x) dx et R L = {a L (0,1; [0,1]) a(x) dx = L}.
40 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES Le raisonnement précédent prouve que la classe R L est compacte pour la topologie -faible de L. Par ailleurs, il est aisé de constater que la fonctionnelle a Ĵ(a) est continue pour cette topologie. Par conséquent, le problème relaxé admet une solution notée a. La question est alors : comment faire le lien entre les deux problèmes énoncés ci-dessus? On va utiliser le fait que U L R L (à un ensemble négligeable près, bien sûr). Ainsi, Ĵ(a ) = min Ĵ(a) inf Ĵ(a) = inf Ĵ(χ ω ). a R L a U L χ ω U L Le lien entre les deux problèmes s établit en prouvant que l inégalité ci-dessus est une égalité. Plus précisément, on va montrer que a U L. Raisonnant par l absurde en supposant que l ensemble {0 < a < 1} = ε ]0,1/2[ {ε < a < 1 ε} est de mesure strictement positive. Alors, il existe ε ]0,1/2[ tel que {ε < a < 1 ε} est de mesure strictement positive. Soit alors x 0 et y 0, deux points de Lebesgue 1 de la fonction fχ {ε<a <1 ε}. Soit (V n ) n IN et (V n) n IN, deux suites de sous-ensembles mesurables de {ε < a < 1 ε} décroissantes pour l inclusion et telles que V n {x 0 } et V n {y 0 } quand n +. V n = V n pour tout n IN. Noter qu un tel choix est toujours possible. Alors, il existe η > 0 tel que h n := a +η(χ Vn χ V n ) appartient à R L pour tout n IN. Par minimalité de a, n IN, Ĵ(a + h n ) Ĵ(a ) = f(x) dx V n V n f(x) dx 0. Divisons alors l inégalité précédente par V n et faisons tendre n vers +. D après le théorème de densité de Lebesgue 2, il vient f(x 0 ) f(y 0 ) 0 puis f(x 0 ) = f(y 0 ) en échangeant les rôles joués par x 0 et y 0. Par extension, f est constante sur {ε < a < 1 ε}. Puisque f a été choisie analytique-réelle, elle ne peut pas être constante sur un ensemble de mesure strictement positive. Cela prouve donc que {0 < a < 1} est de mesure nulle, ou encore que a U L. L existence est donc démontrée. Remarque II.1.1 Il est notable que la classe R L est en réalité l adhérence de l ensemble U L pour la topologie -faible de L. Ce résultat est démontré dans [HP05, Chapitre 7]. 1. Points de Lebesgue : x est un point de Lebesgue de f L 1 (IR d ) si lim r 0 1 f(t) f(x) dλ(t) = 0 λ (B (x,r)) B(x,r) où B(x, r) désigne la boule de IR d centrée en x et de rayon r > 0 et λ désigne la mesure de Lebesgue. 2. Théorème de densité de Lebesgue : soit V une famille d ensembles U d excentricité bornée (autrement dit, il existe c > 0 tel que tout élément U de V est contenu dans une boule B avec U c B ) et telle que tout point x IR d est inclus dans des ensembles arbitrairement petits de V. Alors, pour presque tout point x IR d, on a f(x) = lim U {x} U V 1 f dλ. U U 34
41 II.1. SUR L EXISTENCE DE FORMES OPTIMALES Exemple de non-existence définit En s inspirant des notations du paragraphe précédent, on K(χ ω ) = et on cherche à résoudre le problème 1 0 ( χ ω (x) 1 2) 2 dx inf K(χ ω ). χ ω U 1/2 Il est aisé de se convaincre que la valeur optimale pour ce problème vaut 0. Il s agit là d un phénomène typique de relaxation. En effet, considérons la suite de domaines (ω n ) n IN définie par ω n = n ( k n n, k n ). 4n k=1 Nous avons déjà rencontré cette suite dans la remarque I.1.8. Cette suite tend à s équirépartir dans le segment [0,1], et on se convainc aisément que (χ ω ) n IN converge pour la topologie -faible de L vers la fonction constante a = 1 2. On en déduit que K(χ ωn ) n + 0 et ainsi inf χ ω U L K(χ ω ) = 0. Pour étudier l existence, on est donc amené à la résolution de l équation 1 0 ( χ ω (x) 1 2) 2 dx = 0 et χ ω U 1/2. Cette équation aurait une solution s il existait une fonction caractéristique égale presque partout à 1/2 sur [0,1]. C est absurde et la non-existence s ensuit. II.1.2 Problèmes de type isopérimétrique Dans cette section, nous avons choisi de présenter de façon plus détaillée que dans le préambule, un problème d optimisation de forme très célèbre, et connu depuis l Antiquité. On peut le formuler de la façon suivante : Se donnant une clôture de longueur déterminée, quel est le champ le plus grand possible que l on peut enclore? Il est intéressant de noter que, si la réponse à cette question était conjecturée depuis l Antiquité, il a fallu attendre le XIX ème siècle pour obtenir des éléments de réponse, et le XX ème siècle pour obtenir une réponse complète, fournie par l inégalité isopérimétrique. Plus précisément, le mathématicien Jacob Steiner ( ) a démontré que la boule était la solution de ce problème, sous réserve que celui-ci possède une solution. Il a fallu attendre les développements de la théorie de la mesure et du calcul des variations pour obtenir une réponse complète à ce problème, par Constantin Carathéodory ( ). La généralisation de l inégalité isopérimétrique à la dimension 3 est due à Hermann Schwarz ( ). Apportons dès à présent quelques éléments de résolution de ce type de problème. Une première question se pose : comment le formaliser et l écrire comme un problème d optimisation? Nous allons utiliser la définition I.1.2 du périmètre. 35
42 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES Nous allons nous intéresser à l existence de solution pour les problèmes isopérimétriques de la forme inf Per() avec O V0 = { D f(x) dx = V 0 }, (II.1) O V0 avec D, un sous-ensemble borné de IR d, f L 1 loc (IRd ) et V 0 > 0 donné. Théorème II.1.2. Le problème (II.1) possède (au moins) une solution. Preuve. On va suivre la méthode directe du calcul des variations. Soit ( n ) n IN une suite minimisante d éléments de O V0. Alors, il existe une constante c > 0 telle que Per( n ) c pour tout n IN. Puisque n D pour tout n IN, les hypothèses du théorème I.1.6 sont satisfaites. Il existe donc une sous-suite ( nk ) k IN et un ensemble mesurable de IR d tels que χ nk χ dans L 1 loc (IRd ) et χ nk,ϕ χ,ϕ, ϕ C 0 0(IR d ). Notons de prime abord que f(x) dx = nk χ nk (x)f(x) dx IR d n + f(x) dx. Soit ϕ D(IR d,ir d ). Alors, div(ϕ) dx = lim div(ϕ) dx n + nk lim inf sup{ div(ϕ) dx ϕ D(IR d,ir d ), ϕ 1} k + nk = lim inf k + Per( n k ). En passant au supremum dans cette inégalité, on obtient que Per() lim inf k + Per( nk ). Puisque ( n ) n IN est une suite minimisante l inégalité précédente est en réalité une égalité et la conclusion s ensuit. Pour terminer cette partie, revenons sur la classique inégalité isopérimétrique en dimension deux. Théorème II.1.3. Inégalité isopérimétrique Soit mesurable dans IR 2. Alors, 1 4π Per()2. En d autres termes, la boule est l unique solution du problème isopérimétrique inf Per() avec V 0 > 0. =V 0 mesurable de IR d Preuve. La preuve de l existence est un peu technique et repose sur la notion de symétrisation (voir [HP05]). Nous donnons une preuve simplifiée dans le cas particulier où la frontière de est une courbe de classe C 1, autrement dit, nous prouvons que 1 4π Per()2, pour tout de classe C 1. 36
43 II.1. SUR L EXISTENCE DE FORMES OPTIMALES Sur un arc régulier de classe C 1, l abscisse curviligne est un paramétrage admissible ( représentation normale d un arc). Si l arc est fermé de longueur l, on peut aussi choisir un paramétrage f : IR C, 1-périodique, de classe C 1 uniforme ( à vitesse constante ), c est-à-dire tel que f (t) = l pour tout t IR. Alors τ f ( ) τ l est un paramétrage normal sur Γ. Enfin, quitte à faire une translation, on peut supposer que 1 0 f(t) dt = 0 : en effet, l intégrale 1 0 f(t) dt est l affixe du centre d inertie de la courbe Γ, assimilée à un fil homogène. L aire de la région intérieure 3 à la courbe est alors A = 1 ( 1 2 Im 0 ) f(t)f (t)dt ff 1 ( 1 ) 1 ( f ) 1 f en utilisant l inégalité de Cauchy-Schwarz. De la première question, on déduit A 1 2 soit A l2 4π avec l = Per(). S il y a égalité, ( alors : ) 1 Im 0 f(t)f 1, 1 (t)dt = 0 ff soit 0 ff iir ; π 1 0 f 2, les fonctions f et f sont liées (f = λf avec λ C) ; alors 1 0 ff = λ 1 0 f 2 ; la première condition entraîne alors λ iir. Posons donc λ = iω avec ω IR, on a f = iωf donc f(t) = ae iωt avec a C, a = l. La courbe est alors un cercle (de centre O si l on impose toujours 1 0 f = 0). Réciproquement, il est immédiat que tout cercle vérifie l égalité. Pour un preuve complète de l inégalité isopérimétrique, nous renvoyons par exemple à [Fig11]. Avant de terminer ce paragraphe, revenons sur le problème de la reine Didon mentionné dans le préambule. Rappelons que ce problème consiste à trouver la courbe plane de longueur l fixée qui enclôt avec le segment reliant ses deux extrémités, la portion plane d aire maximale. Afin de modéliser ce problème, émettons l hypothèse (très forte) que la frontière du domaine recherché privée du segment reliant les deux extrémités est le graphe d une fonction régulière a( ). Le problème s écrit alors pour α > 0, sup y Y α α y(x) dx (II.2) { où Y = y H0 1([ α,α],ir) α } α 1 + y 2 (x) dx = απ. Soit y C, la fonction dont la courbe est le demi-cercle de diamètre 2α centré en O, soit y C : [ α,α] x α 2 x 2 Le théorème qui suit répond partiellement au problème posé initialement. 3. si Γ est C 1, paramétrée par t ( x(t),y(t) ), avec t [0,1], la formule de Green-Riemann donne A = 1 2 x dy ydx = 1 1 ( 2 x(t) y (t) y(t)x (t) ) dt = 1 ( 1 2 Im f(t) f (t) dt) en posant f(t) = x(t) + iy(t). Γ
44 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES y = a(x) cité mer Figure II.1 : Le problème de la reine Didon Théorème II.1.4. Problème de la reine Didon La fonction y C est l unique solution du problème isopérimétrique (II.2). Démonstration. La preuve proposée ici est motivée par une remarque due à Euler, faisant le lien entre le problème de la reine Didon, et un problème auxiliaire proche. Ainsi, introduisons la fonctionnelle J définie sur Y par J(y) = α α et le problème d optimisation auxiliaire (y(x) α 1 + y (x) 2 ) dx sup J(y). y Y Soit y Y telle que la mesure de l ensemble {y = y C } soit strictement inférieure à 2α. On pose η = y y c et pour ε [0,α[, on définit ϕ ε : t α ε α+ε (y C (x) + tη(x) α 1 + (y (x) + tη (x)) 2 ) dx. Notons que ϕ 0 (0) = J(y C ) et ϕ 0 (1) = J(y). La fonction ϕ ε a d ailleurs été construite précisément pour pouvoir comparer ces deux quantités. On va utiliser la concavité de ϕ ε. En effet, on calcule aisément : et dϕ ε dt (t) = α ε d 2 ϕ ε (t) = α dt2 ( α+ε α ε α+ε ) η(x) α η (x)(y C (x) + tη (x)) dx 1 + (y C (x) + tη (x)) 2 η (x) 2 (1 + (y C (x) + tη (x)) 2 dx 0. ) 3/2 D après la formule de Taylor-MacLaurin 4, il existe t ε ]0,1[ tel que ϕ ε (1) ϕ ε (0) = ϕ ε(0) ϕ ε(t ε ). 4. Formule de Taylor Mac-Laurin : soit f : [α,β] R une fonction N + 1 fois dérivable. Alors, il existe 38
45 II.1. SUR L EXISTENCE DE FORMES OPTIMALES Or, puisque 1 + y C (x)2 = ϕ ε(0) = α ε α+ε α y C (x) et y C(x)y C (x) = x pour tout x ] α,α[, il vient ( ) η(x) α η(x)y C (x) dx = 1 + (y (x)) 2 α ε α+ε ( η(x) + xη (x) ) dx = [xη(x)] α ε α+ε. Faisons alors tendre ε vers 0. D après le calcul précédent, lim ε 0 ϕ ε(0) = 0 et il existe t [0,1] tel que lim ε 0 ϕ ε(0) = ϕ 0 (t ) < 0. On en déduit que J(y) < J(y C ). Par conséquent, si y est telle que α α 1 + y 2 (x) dx = α α 1 + y C 2 (x) dx = απ, on a montré que α α y(x) dx < α α y C(x) dx et le résultat s ensuit. II.1.3 Plan d étude et notion de γ-convergence Dans la suite de cette section, nous allons proposer quelques pistes permettant d étudier la question de l existence pour des problèmes de la forme où D est un ouvert de IR d. inf J() avec O ad A(D) = { D, ouvert}, (II.3) O ad Plan d étude pour l existence. En vue de résoudre le problème (II.3), la première question qu il convient de se poser est : - est-ce que la quantité inf Oad J() est finie? Si c est le cas, il sera alors légitime d introduire une suite minimisante 5 ( n ) n IN d éléments de O ad. De plus, la suite de réels (J( n )) n IN est bornée. Voici typiquement un exemple où la valeur optimale n est pas finie : sup ouvert V 0 Per(). En effet, on peut par exemple construire une suite maximisante d ouverts convergeant vers un objet fractal, de périmètre infini. Les détails de cette construction sont laissés au lecteur. La deuxième étape du plan d étude consiste alors à répondre à la question : - quelle topologie choisir sur l ensemble admissible des domaines O ad afin de garantir : que l on puisse extraire de ( n ) n IN une sous-suite convergeant vers un élément O ad au sens de la topologie introduite? On se sert en général des contraintes imposées par le choix de l ensemble admissible et/ou le fait que la suite (J( n )) n IN est bornée. γ ]α,β[ tel que f(β) = f(α) + N (β α) k f (k) (α) + k! k=1 (β α)n+1 f (N+1) (γ). (N + 1)! 5. Soit X, une partie minorée non vide de R. Alors, les assertions suivantes sont équivalentes : (i) m = inf{x,x X} ; (ii) ε > 0, x X m x < m + ε ; (iii) m est un minorant de X et il existe (x n) n N X N, appelée suite minimisante convergeant vers m. 39
46 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES que la fonctionnelle J soit semi-continue inférieurement 6 pour cette topologie, autrement dit que J() lim inf n + J( n ) si ( n ) n IN converge vers un élément O ad au sens de la topologie introduite. Une des difficultés auxquelles nous serons confronté dans cette étude provient de la prise en compte des contraintes de type E.D.P.. En effet, pour mieux le comprendre, écrivons un problème modèle que nous serons amenés à résoudre. Un problème modèle. Soit O ad, un sous-ensemble de A(D). On cherche à résoudre le problème d optimisation de forme inf J() où J() = (u (x) u 0 (x)) 2 dx, O ad avec u 0 L 2 (D) fixée, et u l unique solution du problème s écrivant au sens des distributions { u = f x (II.4) u = 0 x, avec f H 1 (D). Rappelons que u s interprête également comme l unique minimiseur de la fonctionnelle v F (v) sur H0 1() avec F (v) = 1 2 v 2 f,v H 1,H0 1. On comprend que pour obtenir l existence, il sera nécessaire d obtenir, en plus de la convergence de la suite minimisante ( n ) n IN en un sens à préciser, la convergence de (u n ) n IN dans L 2 (D) par exemple. Les notions de Γ et γ-convergences sont des outils introduits afin de répondre à cette problématique. Introduisons de prime abord, la notion de Γ-convergence, introduite pour étudier la convergence des minimiseurs d une suite de fonctionnelles. Pour illustrer son utilisation en optimisation de forme, on étudiera la Γ-convergence de la suite de fonctionnelles (F n ) n IN où la suite ( n ) n IN désigne une suite minimisante du problème modèle ci-dessus. Définition II.1.5. Γ-convergence Soit Y, un espace métrique séparable muni d une distance d. Soit (G n ) n IN, une suite de fonctionnelles définies sur Y à valeurs dans IR. On dit que (G n ) n IN Γ-converge vers une fonctionnelle G si pour tout y Y, on a : (i) quelle que soit (y n ) n IN Y IN telle que d(y n,y) 0 quand n +, G(y) lim inf n + G n (y n ) ; (ii) il existe (y n ) n IN Y IN telle que d(y n,y) 0 quand n + et G(y) lim sup n + G n (y n ). Mentionnons à présent d intéressantes propriétés de la Γ-convergence. 6. Semi-continuité inférieure : Soit X, un espace topologique et f : X IR. La fonction f est dite semicontinue inférieurement (s.c.i.) sur X si, et seulement si pour tout α R, l ensemble {f α} est fermé dans X. Cela peut également s écrire pour tout ε > 0, il existe un voisinage V de x 0 tel que f(x) f(x 0) ε ou encore f(x 0) lim inf f(x) = lim inf f(x). x x 0 ε 0 x [x 0 ε,x 0 +ε] 40
47 II.1. SUR L EXISTENCE DE FORMES OPTIMALES Proposition II.1.6. Propriétés de la Γ-convergence Soit (G n ) n IN, une suite de fonctionnelles qui Γ-converge vers G. Alors, G est semi-continue inférieurement sur Y ; Si (G n ) n IN est équi-coercive, autrement dit t IR, K t compact inclus dans Y tel que n IN, {G n t} K t, alors G est coercive et atteint son minimum sur Y. De plus, min y Y G(y) = lim n + inf y Y G n (y). Le lecteur intéressé par cette notion et désireux d en connaître davantage sur ces propriétés pourra se référer à [DM93] par exemple. Dans le contexte de l optimisation de forme et en utilisant les notations introduites précédemment, on va s intéresser à des problèmes de la forme inf J(,u) (,u) C (II.5) où C = {(,u) O ad et u argmin u Y G(, )}. Revenons sur le problème modèle introduit précédemment. On introduit G(,u) = F (u) + I H 1 0 () (u) = 1 2 v 2 f,v H 1,H I H 1 0 ()(u) et Y = H1 0 (D), avec I H 1 0 () (u), la fonction indicatrice de u, égale à + si u / H1 0 () et 0 sinon. En introduisant J(,u) = D χ (x)(u(x) u 0 (x)) 2 dx, le problème modèle se réécrit bien sous la forme (II.5). La notion de γ-convergence que nous introduisons à présent peut ainsi s interpréter comme un cas particulier de la notion de Γ-convergence. La γ-convergence exprime la continuité par rapport au domaine de la solution d une E.D.P., par exemple le problème de Dirichlet mentionné ci-dessus. Définition II.1.7. γ-convergence On dit qu une suite d ouverts ( n ) n IN de A(D) γ-converge vers l ouvert si pour tout f H 1 (D), la suite des solutions de (II.4) notée (u n ) converge vers u dans H 1 (D). On pourrait penser que cette notion dépend du second membre f. En réalité, il n en est rien. Le résultat suivant a été obtenu par Sverak dans [Šve93] et prouve qu il est équivalent de choisir f = 1 dans la définition ci-dessus. Théorème II.1.8. Soit ( n ) n IN, une suite d éléments de A(D) et A(D). On note u (f) l unique solution du problème (II.4). Si (u n (1)) n IN converge dans L 2 (D) vers u (1), alors (u n (f)) n IN converge dans H 1 0 (D) vers u (f) pour tout f H 1 (D). 41
48 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES Rappelons que d après l inégalité de Poincaré (voir Corollaire I.2.2), la norme u ( D u 2 dx ) 1/2 est équivalente à la norme H 1 (D) sur l espace H0 1 (D). On notera donc u 2 H0 1(D) = u 2 dx. Preuve du théorème II.1.8. Montrons de prime abord que (u n (1)) n IN converge fortement dans H0 1(D) vers u (1). Puisque u n (1) est solution de (II.4) sur n, on montre en multipliant l équation principale par u n (1) et en intégrant par parties que u n (1) 2 dx = f,u n (1) H 1,H0 1 f H 1 (D) u n (1) H 1 0 (D). D Par conséquent, on peut extraire de (u n (1)) n IN une sous-suite convergeant faiblement dans H0 1(D), et fortement dans L2 (D) d après le théorème I.2.1 (de Rellich Kondrachov). On confond par abus de notation (u n (1)) n IN et cette suite extraite. Par unicité de la limite, (u n (1)) n IN converge faiblement dans H0 1(D) vers u n (1). De plus, cette convergence est en réalité forte 7 car u n (1) 2 dx = f,u n (1) H 1,H0 1 D (D) f,u (1) n + H 1,H0 D 1(D) = u (1) 2 dx. Montrons à présent la convergence de (u n (f)) n IN converge vers u (f) dans H0 1 (D). En utilisant les mêmes arguments que ci-dessus, on montre aisément que (u n (f)) n IN converge faiblement dans H0 1(D) vers une fonction v. Reste à prouver que v = u (f) et que cette convergence est en réalité forte. La suite de la preuve utilise la densité de L (D) dans H 1 (D). Considérons donc f L (D). Montrons que v H0 1 (). D après le principe du maximum (voir théorème I.3.5), on a u n (1) 0 p.p. dans D pour tout n IN et u (1) 0 p.p. dans D. Par conséquent, toujours d après ce principe, n IN, f L (D)u n (1) u n (f) f L (D)u n (1) p.p. dans D. Un passage à la limite assure que f L (D)u (1) u (f) f L (D)u (1) p.p. dans D. On en déduit que u (f) H0 1(). Enfin, soit ϕ C 0 (). Remarquons que ϕ n,k = min{ϕ,ku (1)} est une fonction de H0 1( n) qui converge fortement vers ϕ dans H0 1(D) (cette assertion est non triviale et est laissée en exercice au lecteur). Utilisons la formulation variationnelle de (II.4). On a u n (f) ϕ n,k dx = f,u n (f) H 1,H0 1(D). D Faisons tendre successivement n puis k vers +. On en déduit v ϕ dx = f,v H 1,H0 1(D). D La conclusion s ensuit, on a v = u (f). Enfin, la convergence de (u n (f)) n IN vers u (f) dans H0 1 (D) est forte en utilisant le même raisonnement que précédemment. On conclut alors aisément par densité de L (D) dans H 1 (D). 7. On rappelle la proposition : soit E, un espace de Banach uniformément convexe. Soit (x n) n IN, une suite dans E convergeant faiblement vers x et telle que lim sup x n x. Alors (x n) n IN converge vers x fortement. D 42
49 II.1. SUR L EXISTENCE DE FORMES OPTIMALES Il convient à présent d examiner le lien entre la topologie engendrée par la γ-convergence et la topologie engendrée par la convergence au sens de Hausdorff des ouverts, introduite dans la section I.1.2. C est l objet de la proposition qui suit. Proposition II.1.9. Soit ( n ) n IN, une suite de A(D) qui converge au sens de Hausdorff vers. Soit f H 1 (D) et u n la solution de (II.4) avec second membre f, sur n. Alors, il existe une sous-suite de ( n ) n IN (notée abusivement de la même façon) telle que (u n ) n IN converge vers une fonction u H0 1 (D). De plus, u est solution faible du problème u = f sur H 1 (D), autrement dit φ H0 1 (), φ u dx = fφ dx. (II.6) Démonstration. En utilisant les mêmes ingrédients que dans la preuve du théorème II.1.8 (inégalité de Poincaré), on montre aisément que ( u n H 1 0 (D) ) n IN est bornée. Par conséquent, il existe une sous-suite de (u n ) n IN notée de la même façon qui converge faiblement dans H0 1 (D) vers une fonction u. Reste à démontrer que u est solution faible de l équation u = f sur H 1 (D). En utilisant la densité de C0 () dans H1 0 (), il suffit de prouver (II.6) pour une fonction φ de C0 (). Puisque le support de φ est compact, et puisque ( n ) n IN est une suite d ouvert convergeant dans H c vers l ouvert, on a supp φ n pour n assez grand. Par conséquent et puisque pour tout ψ H0 1( n), n ψ u n dx = n fψ dx, on a φ u n dx = fφ dx pour tout φ C 0 (). Un passage à la limite quand n tend vers + fournit le résultat escompté. Remarque II.1.10 Problème de γ-convergence Il faut prendre garde au fait que la fonction u introduite dans la proposition II.1.9 ne coïncide pas nécessairement avec la fonction u solution du problème (II.4) avec second membre f. Pour prouver que u = u, il reste à montrer que u H0 1(). Pour exhiber un contre-exemple, il faut se placer au moins en dimension 2. En effet, si ( n ) n IN est une suite d ouverts inclus dans un intervalle D (de dimension 1 donc) convergeant au sens de Hausdorff vers un ouvert, alors on montre que ( n ) n IN γ-converge vers. En dimension 2, soit D =]0,1[ 2 et (x n ) n IN une suite de points dense dans D. On définit n = D\{x 1,,x n }. On se convainc alors aisément que ( n ) n IN converge au sens de Hausdorff vers l ensemble vide. De plus, on peut montrer que H0 1( n) = H0 1 (D) (on renvoie par exemple à [BB02]), ce qui démontre que ( n ) n IN γ-converge vers D. II.1.4 Existence sous contrainte géométrique Dans cette section, nous allons énoncer deux résultats permettant de garantir la γ- convergence de ( n ) n IN vers, autrement dit de montrer que u = u avec les notations de la proposition II.1.9 et de la remarque II L idée à chaque fois consiste à imposer des contraintes supplémentaires de nature géométrique sur les suites de domaines considérés. Nous ferons donc l hypothèse ici, que les suites d ensembles considérés vérifient : soit une 43
50 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES hypothèse de cône uniforme, soit une hypothèse sur le nombre de composantes connexes du complémentaire. Théorème II γ-convergence et propriété de cône uniforme Soit ε > 0 et ( n ) n IN, une suite d ouverts de A(D) vérifiant la propriété de ε-cône. On suppose que ( n ) n IN converge au sens de Hausdorff vers. Alors, ( n ) n IN γ-converge vers. Preuve. Rappelons que d après la proposition I.1.19, appartient à A(D) et satisfait la propriété de ε-cône. De plus, d après la proposition I.1.20, la convergence a également lieu au sens des fonctions caractéristiques. De plus, en appelant u n la solution du problème (II.4) avec f = 1 et = n, on sait que (u n ) n IN converge dans L 2 (D) vers une fonction u, et à sous-suite près, cette convergence a donc lieu presque partout en particulier. Dans la suite, on confond cette sous-suite avec (u n ) n IN, avec un léger abus de notation. On écrit : u n (x)(χ n (x) χ D (x)) = 0 pour presque tout x D. Un passage à la limite fournit que u = 0 presque partout dans D\. Par conséquent, u H0 1( ) et il vient que u = u d après la proposition I Enfin, nous mentionnons le résultat suivant, conséquence d un autre résultat dû à Sverák (voir [Šve93]). pour l IN, on définit l ensemble O l (D) = { A(D) # c l}, où # c désigne le nombre de composantes connexes du complémentaire de dans D. Rappelons que d après la proposition I.1.10, la classe O l (D) est fermée pour la topologie H c. Théorème II Le résultat de Sverák On suppose que d = 2. If ( n ) n IN est une suite d ensembles de O l qui converge au sens de Hausdorff vers, alors ( n ) n IN γ-converge vers. La preuve de ce résultat est un peu technique car elle fait intervenir la notion de capacité d un ouvert (critère de Wiener uniforme). Nous renvoyons à [BB02, HP05] pour une preuve de ce résultat. II.2 Dérivation de forme et conditions d optimalité Dans cette section, nous introduisons le concept de dérivée par rapport au domaine. Il s agit d une brève introduction visant à comprendre l idée se cachant derrière cette notion mais surtout à donner une méthode générale permettant de dériver un critère par rapport au domaine. Le lecteur désireux d obtenir des explications exhaustives sur ce concept pourra se référer par exemple à [DZ11, SZ92, HP05]. La question à laquelle on tente de répondre est la suivante : on se donne une famille de domaines O ad, par exemple les domaines de frontière lipschitzienne contenus dans A(D), avec D, un ouvert borné donné et de mesure inférieure à une borne V 0 > 0. On 44
51 II.2. DÉRIVATION DE FORME ET CONDITIONS D OPTIMALITÉ se donne également une fonctionnelle de forme J() (par exemple le volume de, où la première valeur propre du Laplacien-Dirichlet sur le domaine ). Si on considère un domaine 0, un domaine ε arbitrairement proche du domaine 0 (en un sens à définir) quand le paramètre ε tend vers 0, comment quantifier la variation J( ε ) J( 0 )? On choisit de définir une variation d un domaine mesurable borné à l aide d un difféomorphisme. Comme on souhaite travailler avec des ouverts au moins lipschitziens, il semble raisonnable de considérer des difféomorphismes préservant les propriétés topologiques et la régularité des domaines considérés. Une bonne famille de transformations est donnée par les perturbations de l identité d un domaine 0, c est-à-dire les éléments τ( 0 ) où τ est un élément de l ensemble T ( 0 ) = {τ : IR d IR d (τ Id) S et τ( 0 ) O ad }, avec S, un espace de Banach donné, par exemple W 1, (IR d,ir d ). Figure II.2 : Variation du domaine 0 selon le champ de vecteur θ S Formellement, on va définir la différentielle de forme de l application J() dans la direction θ S comme dj(),θ = dj (Id,θ) avec j (τ) = J(τ()). Si l application j est différentiable en τ = Id, alors on a J((Id +εθ)) J() dj(),θ = lim. ε 0 ε II.2.1 Topologie sur les domaines et perturbations de l identité Nous redonnons ici quelques notions de topologie sur l ensemble des domaines dont la frontière est régulière, à l aide des perturbations de l identité. En s inspirant de l approche développée dans [MS76a, MS76b], on définit l ensemble des perturbations V k, = {τ : IR d IR d (τ Id) W k, (IR d,ir d )}, (II.7) avec k 1. Notons que cet ensemble se définit également de la façon suivante : V k, = {τ : IR d IR d (τ Id) L (IR d,ir d ) et D α τ L (IR d,ir d ), 1 α k}. Afin de conserver les propriétés topologiques des ensembles considérés (par exemple, on veut que si est ouvert, le domaine perturbé le soit également), on va réclamer que les 45
52 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES perturbations considérées soient inversibles. On va donc les choisir dans le sous-ensemble de V k, défini par T k, = {τ : IR d IR d τ V k,, τ inversible et τ 1 V k, }. (II.8) Le lemme qui suit confirme que la régularité des domaines est conservée par les perturbations de l identité de T k,. Lemme II.2.1. Soit 0, un domaine ouvert borné et soit τ T k,. Si la frontière de 0 est W k,, alors τ( 0 ) est un ouvert borné de frontière W k,. De plus, τ( 0 ) = (τ( 0 )). Supposons que k = 1 et que la frontière de 0 est lipschitzienne. Il existe ε ]0,1[ tel que si τ Id W 1, ε, alors τ( 0 ) est un ouvert borné de frontière lipschitzienne. De plus, τ( 0 ) = (τ( 0 )). On notera que la propriété τ( 0 ) = (τ( 0 )) résulte du fait que τ est un homéomorphisme. Remarque II.2.2 Domaines de frontière C k Il est intéressant de noter que les éléments de T k+1, définissent une topologie sur l ensemble des ouverts O k dont la frontière est C k. En effet, rappelons que l espace W k, (IR d,ir d ) muni de la norme τ W k, = supess D α u 0 α k définit un espace de Banach. Soit 0 O k et θ W k+1, (IR d,ir d ). Notons τ = Id +θ, la frontière de τ( 0 ) est τ( 0 ). Soit V ( 0,ε), l ensemble des ouverts de la forme (Id +θ) 0 avec θ W k+1, et ε suffisamment petit de sorte que Id +θ soit un difféomorphisme. Alors, on définit une topologie sur l espace O k à l aide de la base de voisinages donnée par les ensembles V ( 0,ε). De plus, il est montré dans [Mic72] que tout voisinage V ( 0,ε) de 0 est métrisable à l aide d une distance de type Courant (induite par la topologie des difféomorphismes) et définit une variété complète séparable. Puisque nous allons être amenés à considérer des perturbations de l identité de domaines à frontière lipschitzienne, nous allons utiliser des perturbations de T 1,. Lemme II.2.3. Soit θ W 1, (IR d,ir d ) tel que θ W 1, < 1. Alors Id +θ T 1,. Preuve. On pose τ = Id +θ. Vérifions de prime abord que τ est bijective. Soit y IR d. On vérifie aisément, à l aide de l inégalité des accroissements finis, que l application IR d x y θ(x) est contractante de rapport θ W 1,. Par conséquent, d après le théorème du 46
53 II.2. DÉRIVATION DE FORME ET CONDITIONS D OPTIMALITÉ point fixe de Banach, l équation y θ(x) = x possède une solution unique d où le caractère bijectif de τ. Reste à vérifier que τ Id et τ 1 Id appartiennent à W 1, (IR d ; IR d ). La première assertion est immédiate. Vérifions la seconde. On a d une part τ 1 Id L = (Id τ) τ 1 L < 1. D autre part, la formule de différentielle de l inverse fournit (τ 1 I d ) = (( τ) ) 1 τ 1 I d. Or, puisque ( τ) 1 = (I d + θ) 1 = + i=0 ( θ)i, on a ( τ) 1 I d θ 1 θ, ce qui assure à la fois que τ 1 est différentiable et que τ 1 Id appartient à W 1, (IR d,ir d ). Définissons à présent la notion de dérivée de forme. Définition II.2.4. Dérivée de forme Soit J(), une fonctionnelle de forme définie sur un sous-ensemble O ad de A(D), D désignant un ouvert borné de IR d. Soit 0 O ad. Supposons qu il existe ε 0 > 0 tel que pour tout θ W 1, (IR d,ir d ) vérifiant θ W 1, ε 0, on a (Id +θ) 0 O ad. On dit que J est différentiable par rapport au domaine en 0 si l application θ J((Id +θ) 0 ) est différentiable en 0. Si c est le cas, la différentielle de forme est donnée par J((Id +εθ) 0 ) J( 0 ) dj( 0 ),θ = lim. ε 0 ε Remarque II.2.5 On peut bien sûr définir la différentiabilité de forme en utilisant des perturbations θ choisies dans un sous-espace de W 1, (IR d,ir d ), par exemple C 1, (IR d,ir d ). C est souvent le contexte qui détermine un bon choix de perturbations. II.2.2 Dérivation de fonctionnelles géométriques Dans cette partie, on s intéresse à la dérivation de fonctionnelles géométriques du type J 1 () = f(x) dx et J 2 () = g(x) dx. (II.9) Le principe pour calculer la différentielle de forme dj(),θ, avec θ W 1, (IR d,ir d ) tel que θ W 1, est assez simple : on va utiliser le fait que Id +θ est un difféomorphisme. Soit 0 un ouvert borné lipschitzien de IR d et θ = (Id +θ) 0. À l aide d un changement de variable approprié, nous réécrirons les intégrales θ f(x) et θ g(x) dx comme des intégrales sur un bord fixe. On appliquera alors le théorème de dérivation sous le signe somme pour obtenir l expression de la différentielle. 47
54 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES Rappelons à toute fin utile les formules de changement de variable pour des intégrales volumiques et surfaciques. Lemme II.2.6. Changement de variable dans les intégrales Soit 0, un ouvert de IR d. Soit τ, un difféomorphisme de IR d. On notera det( τ) le jacobien de τ. (i) Intégrales volumiques. Une fonction f appartient à L 1 (τ( 0 )) si, et seulement si f τ L 1 ( 0 ) et on a f dx = f τ det τ dx. 0 τ( 0 ) (ii) Intégrales surfaciques. On suppose que τ est un C 1 -difféomorphisme de IR d, τ = τ( 0 ) (de sorte que τ = τ( 0 )). Une fonction g appartient à L 1 ( τ ) si, et seulement si g τ L 1 ( 0 ) et on a g ds = g τ det τ (( τ) 1 ) n ds. τ 0 Remarque II.2.7 L hypothèse que τ est un C 1 -difféomorphisme dans la deuxième partie du lemme correspond à la nécessité de pouvoir définir la trace de τ sur la frontière 0. Rappelons également la formule d intégration par parties pour des intégrales frontières. Théorème II.2.8. Intégration par parties sur des surfaces Soit, un ouvert de classe C 2. Si f et g sont dans H 2 (), alors pour tout i {1,,d}, f g = f g ( ) + (fg) + Hfg n i x i x i n où H désigne la courbure moyenne de 0 définie par H = div n. De plus, si g H 3 (), ( ) f g f g = f g + n n + f 2 g g + Hf. n2 n On trouvera par exemple une démonstration de ce théorème dans [HP05]. Remarque II.2.9 Définition de 2 g n 2 48
55 II.2. DÉRIVATION DE FORME ET CONDITIONS D OPTIMALITÉ On a 2 g n 2 = (Hess(g)n)n = d i,j=1 2 g x i x j n i n j. On a les formules de dérivation suivante. Théorème II Dérivée de fonctionnelles géométriques Soit 0, un ouvert de IR d (i) On suppose 0 à bord lispchitzien et f W 1,1 (IR d ). Alors, J 1 est différentiable en 0 et pour tout θ W 1, (IR d,ir d ), on a dj 1 ( 0 ),θ = div(f(x)θ(x)) dx = 0 f(x)θ(x) n(x) ds. 0 (ii) On suppose 0 de classe C 2 et g W 2,1 (IR d ). Alors, J 2 est différentiable en 0 et pour tout θ C 1 W 1, (IR d,ir d ), on a dj 2 ( 0 ),θ = = ( g θ + g (div(θ) θn n)) ds 0 ( ) g n + Hg θ n ds, 0 où H désigne la courbure moyenne de 0 (voir remarque II.2.12). Preuve du théorème II (i) Ramenons-nous de prime abord à étudier la décidabilité d une intégrale à paramètres, posée sur un domaine fixe. À l aide du changement de variable y = Id +θ et du lemme II.2.6, on écrit J 1 ((Id +θ) 0 ) = f (Id +θ) Id + θ dx 0 Rappelons que l application déterminant est différentiable en tout point et que sa différentielle en l identité est la fonction trace (c est un exercice classique). On en déduit, en appliquant le théorème de composition des différentielles, que l application W 1, (IR d,ir d ) θ det(id + θ) L (IR d,ir d ) est différentiable en tout point, et on a det(id + θ) = 1 + Tr( θ) + o( θ W 1, ) = 1 + div(θ) + o( θ W 1, ), (II.10) avec la convention que o( θ W 1, ) est un élément de L 1 (IR d ) tel que o( θ W 1, ) L 1 θ W 1, 0 quand θ 0. Énonçons un lemme technique permettant d étudier la différentiabilité d une fonction composée avec Id +θ. 49
56 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES Lemme II Soit f W 1,1 (IR d ) et θ W 1, (IR d,ir d ). La fonction F : τ f τ L 1 (IR d ) est dérivable en τ = Id et on a df (Id),θ = f θ. Preuve du lemme II On pose τ θ = Id +θ. Considérons une suite (f n ) n IN d éléments de C0 (IRd ) convergeant vers f dans W 1,1. On a alors pour x IR d, f n (τ θ (x)) f n (x) f n (x) θ(x) = 1 À l aide d un passage à la limite, on en déduit que f τ θ f f θ L 1 θ L 0 ( f n (x + sθ(x)) f n (x)) θ(x) ds. (II.11) 1 0 f(x + sθ(x)) f(x) ds. En effet, si h L 1 (IR d ), lim θ 0 h τ θ h L 1 = 0. On peut le montrer en approchant h par une suite de fonctions (h n ) n IN de C0 (IRd ) au sens de L 1, et en utilisant le changement de variable y = τ θ (x), pour θ W 1, assez petit, en remarquant que le jacobien associé est uniformément borné. Notons que si h est une fonction continue de IR n dans IR, d après le théorème des accroissements finis, il existe û (0, θ W 1, ) tel que 1 θ W ( ( 1, (h(x + sθ(x)) h(x)) ds = θ W 1, h x + u θ(x) ) ) h(x) du 0 0 θ W 1, ( ( = θ W 1, h x + û θ(x) ) ) h(x). θ W 1, Intégrons la relation (II.11) par rapport à x. En utilisant la remarque précédente, on obtient 1 f n τ θ ) f n f n θ θ L 1 2M n θ W 1, θ f n W 1,, W 1, où M n désigne une borne sur le support de la fonction f n. Posons ε = θ W 1, et Err(f,ε) = 1 ε f τ ε f f θ L 1. On a Err(f,ε) Err(f n,ε) + Err(f f n,ε) 2M n ε θ f n W 1, + 2 θ L max{1, τ θ L } f n f W 1,1, où le second terme de l inégalité s obtient en utilisant le changement de variable y = x + sθ(x). On en déduit que lim ε 0 Err(f,ε) = 0, et la conclusion attendue s ensuit. On déduit de ce lemme que f (Id +θ)(x) = f(x) + f(x) θ(x) + o( θ W 1, ), (II.12) où o( θ W 1, ) est un élément de L 1 (IR d ) tel que o( θ W 1, ) L 1 θ 0 quand θ 0. W 1, On en déduit le résultat escompté en combinant (II.10), (II.12) et en appliquant le théorème de dérivation sous le signe somme. 50
57 II.2. DÉRIVATION DE FORME ET CONDITIONS D OPTIMALITÉ (ii) Comme précédemment, nous allons de prime abord nous ramener à l étude de la différentiabilité d une intégrale sur un domaine fixe.à l aide du changement de variable y = Id +θ et du lemme II.2.6, on écrit J 2 ((Id +θ) 0 ) = g (Id +θ) det((id + θ) ((Id + θ) 1 ) n ds 0 La notion de différentiabilité de forme s entend ici par rapport à des perturbations C 1, bien sûr. En utilisant (et adaptant) la démonstration du point (i), on peut déjà écrire que f (Id +θ)(x) = f(x) + f(x) θ(x) + o( θ C 1), où o( θ C 1) est un élément de L 1 (IR d ) tel que o( θ C 1 ) L 1 θ 0 quand θ 0. C 1 Posons J θ = det((id + θ) ((Id + θ) 1 ) n. En adaptant la preuve du point (i), on montre aisément que det((id + θ) = div(θ) + o( θ C 1), en utilisant les mêmes notations que précédemment. Reste à déterminer le développement de la fonction C 1 W 1, (IR d,ir d )(IR d,ir d ) θ ((Id + θ) 1 ) n. Par composition, cette application est de classe C 1. On peut donc se contenter de chercher un développement limité de w : t ((Id +t θ) 1 ) n au voisinage de l origine. Posons w(t) = v(t). On a dw 2 dt (t) = 2w(t)w (t) = d dt (v(t) v(t)) = 2v (t) v(t), d où w (0) = n v (0). Pour calculer v (0), on dérive la relation (Id +t θ) v(t) = n. Il vient alors w (0) = n (( θ) n) = ( θ n) n. Ainsi, on a montré J θ = J 0 + div(θ) ( θ n) n + o( θ C 1), en utilisant les mêmes notations que précédemment. Combinons toutes les informations précédentes, il vient dj 2 ( 0 ),θ = ( g θ + g (div(θ) θn n)) ds. 0 Notons qu en écrivant θ = (θ n)n + (θ (θ n)n), on a g θ + g(div(θ) θn n) = g (θ n) + (div(gθ) (gθ)n n) n Utilisons alors le théorème II.2.8. On obtient le résultat escompté. Remarque II.2.12 Il est notable que les expressions des dérivées de forme données dans les énoncés du théorème II.2.10, dans lesquelles le terme (θ n) n intervient pas, nécessitent moins d hypothèses de régularité sur l ouvert et les fonctions manipulées. Pour l intégrale de volume, il suffit de prendre la même hypothèse sur f mais seulement mesurable (!). Pour l intégrale surfacique, il suffit d avoir de classe C 1 et g W 1,1 (IR d ). Ces considérations résultent de la démonstration du théorème. 51
58 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES Rappelons quelques notions sur la courbure moyenne. Si est de classe C 2, la courbure moyenne de est définie par H = div n et on peut montrer que la quantité H ne dépend pas de l extension unitaire de classe C 1 de n choisie. De plus, si le bord est représenté localement par une surface x N = ψ(x 1, x N 1 ) et que = {x N > ψ(x )} avec x = (x 1, x N 1 ), on a les formules suivantes : n = ψ 2 ( ψ 1 ) et H = ψ(n 1 + ψ 2 ) ( ψ) ψ ψ (1 + ψ 2 ) 3/2 Le calcul de la dérivée de forme de la fonctionnelle de forme volume ou périmètre est une conséquence immédiate des résultats que nous venons d énoncer, en choisissant successivement f = 1 puis g = 1. Corollaire II Dérivée de forme du périmètre, du volume On introduit les fonctionnelles de forme définies sur l ensemble des mesurables de IR d : Vol : et Per : Per() au sens introduit dans la définition I.1.2. (i) Soit 0, un domaine à bord lipschitzien. Alors, la fonctionnelle Vol est différentiable en 0 et pour tout θ W 1, (IR d,ir d ), on a d Vol( 0 ),θ = (θ n) ds. 0 (ii) Soit 0, un domaine de classe C 2. Alors, la fonctionnelle Per est différentiable en 0 et pour tout θ C 1 (IR d,ir d ), on a d Per( 0 ),θ = H(θ n) ds. 0 II.2.3 Prise en compte de contraintes E.D.P. Intéressons-nous à présent à la prise en compte de contraintes de type EDP. Il s agit par exemple de calculer la dérivée par rapport au domaine de fonctionnelles de la forme J : f(x,u (x)) dx + g(s,u (s)) ds, où u est la solution d une équation aux dérivées partielles posée sur (ou plus généralement, u vérifie une certaine équation implicite sur ). Ce sera typiquement le cas dans le contexte de la mécanique des fluides, où nous considérerons des fonctionnelles dépendant par exemple de la vitesse du fluide en tout point. La prise en compte de telles contraintes requiert un peu de technicité. Ce cours constitue une introduction, et nous souhaitons ici présenter le principe du calcul. Pour cette raison, nous nous cantonnerons à détailler le cas de contraintes de type Dirichlet-homogène sur le bord 0. Pour ce faire, on considère un ouvert borné 0, f H 1 (IR d ) (en réalité, nous aurons besoin d hypothèses plus restrictives sur f, cela sera expliqué dans la suite), et u 0, la 52
59 II.2. DÉRIVATION DE FORME ET CONDITIONS D OPTIMALITÉ solution du problème { u0 = f dans 0 u 0 = 0 sur 0. (II.13) L existence d une solution faible pour cette équation résulte du théorème I.3.1 (voir en particulier l exemple I.3.3). Prenons l exemple très classique du calcul de la dérivée d une fonction de type moindres carrés, définie par J() = 1 (u u cible ) 2 dx, 2 où u désigne la solution du système (II.13) et u cible L 2 (IR d ) est donnée. Puisque nous souhaitons étudier la sensibilité de u 0 à une petite variation du domaine 0, on se donne θ W 1, (IR d,ir d ), le domaine θ = (Id +θ) 0 et on désigne par u θ la solution faible du problème { uθ = f dans θ (II.14) u θ = 0 sur θ. Nous énonçons un premier résultat de différentiabilité qui est la clef de cette approche. Théorème II Différentiabilité de u θ On suppose que f H 1 (IR d ). Alors la fonction W 1, (IR d,ir d ) θ u θ L 2 (IR d ) est différentiable en 0. Remarque II.2.15 Hypothèses sur le second membre f Il faut noter ici que ce théorème nécessite des hypothèses de régularité supplémentaires sur la fonction f. Démonstration. On introduit v θ = u θ (Id +θ), de sorte que v θ est définie sur le domaine fixe 0. L idée de la preuve va consister à prouver la différentiabilité de v θ à l aide du théorème des fonctions implicites, pour en déduire celle de u θ, par composition. La fonction u θ est solution du système écrit sous forme variationnelle ϕ θ H0 1 ( θ ), u θ ϕ θ dx = θ fϕ θ dx. θ On va choisir ϕ θ = ϕ (Id +θ) 1,avec ϕ H0 1( 0). En effet, on vérifie aisément qu alors, ϕ θ H0 1( θ) et, puisque ϕ θ (Id +θ) = ϕ, que (Id +( θ) ) ϕ θ (Id +θ) = ϕ soit ϕ θ = (Id +( θ) ) 1 ϕ (Id + θ) 1. À l aide du changement de variable y = (Id +θ)(x) et des considérations précédentes, on en déduit que v θ est solution de l équation variationnelle ϕ H0 1 ( 0 ), (Id +( θ) ) 1 v θ (Id +( θ) ) 1 ϕj θ dx = f (Id +θ)ϕj θ dx, 0 où J θ = det(id + θ) est le jacobien associé au changement de variable. On en déduit, en utilisant la formule de Green énoncée dans le théorème I.2.6, que v θ est solution faible de l équation aux dérivées partielles { div(jθ (Id + θ) 1 (Id +( θ) ) 1 v θ ) = J θ f (Id +θ) dans 0 v θ = 0 sur 0 53
60 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES Pour prouver que θ v θ est différentiable, on va utiliser le théorème des fonctions implicites. Considérons l opérateur F : W 1, (IR d,ir d ) H0 1() H 1 () (θ,v) div(j θ (Id + θ) 1 (Id +( θ) ) 1 v θ ) J θ f (Id +θ). L application W 1, (IR d,ir d ) θ J θ (Id + θ) 1 (Id +( θ) ) 1 est C au voisinage de θ = 0. Cela se montre par exemple en adaptant les arguments utilisés dans la preuve du théorème II De plus, l application L (IR d,m d (IR)) H 1 0 ( 0) (A,v) div(a v) H 1 () est de classe C, puisque bilinéaire et continue. En adaptant la démonstration du lemme II.2.11, on prouve que W 1, (IR d,ir d ) θ J θ f (Id +θ) L 2 (IR d ) H 1 ( 0 ) est de classe C 1 (C est ici que l on se sert du fait que f H 1 (IR d )). On en déduit que F est C 1 au voisinage de 0. Enfin, l opérateur D v F(0,0) : H 1 0 ( 0) H 1 ( 0 ) est un isomorphisme en vertu du théorème de Lax-Milgram (théorème I.3.1), puisque δv H 1 0 ( 0 ), D v F(0,v 0 )δv = δv. Ainsi, d après le théorème des fonctions implicites (et puisque F(θ,v θ ) = 0 dans H 1 ( 0 )), la fonction W 1, (IR d,ir d ) θ v θ H 1 0 ( 0) est de classe C 1 sur un voisinage de 0. Revenons à la différentiabilité de W 1, (IR d,ir d ) θ u θ. On va utiliser le lemme suivant dont la démonstration, un peu technique, figure dans [SZ92]. Lemme II Soit 1 p < +. Si l application W 1, (IR d,ir d ) θ Ψ(θ) W 1, est continue, Ψ(0) = Id, W 1, (IR d,ir d ) θ Ψ(θ) L est différentiable en 0, W 1, (IR d,ir d ) θ g(θ) L p est différentiable en 0 avec g(0) W 1,p et dg(0) : W 1, W 1,p continu, alors l application est différentiable en 0 et on a G : W 1, θ g(θ) Ψ(θ) L p (IR d ) θ W 1,, dg(0),θ = dg(0),θ + g(0), dψ(0),θ. Remarque II.2.17 Le résultat précédent est un peu délicat. Par exemple, il n est pas exact que si g L 2 (IR d ), alors l application W 1, θ g (Id +θ) H 1 est différentiable en 0. Appliquons alors le lemme précédent en choisissant p = 2, g(θ) = v θ et Ψ(θ) = (Id +θ) 1. On obtient que la fonction W 1, (IR d,ir d ) θ u θ L 2 (IR d ) est différentiable en 0. Nous avons à présent tous les éléments permettant le calcul de la dérivée de forme de la fonctionnelle J. 54
61 II.2. DÉRIVATION DE FORME ET CONDITIONS D OPTIMALITÉ Théorème II Calcul de la différentielle de u θ Soit 0 un ouvert borné de IR d, f H 1 (IR d ) et θ W 1, (IR d,ir d ). Alors, la fonction t u tθ L 2 (IR d ) où u tθ est l unique solution de (II.14) sur tθ = (Id +tθ) 0, est différentiable en 0. Notons u = u (0). Alors, u est l unique solution faible du problème { u = 0 dans 0 u = u 0 n (θ n) sur 0. Preuve. La dérivabilité de t u tθ est une conséquence immédiate du théorème II De plus, puisque u θ = v θ (Id +θ) 1, on obtient par dérivation que u = v u θ d où u + u 0 θ H 1 0 ( 0). Reste à prouver que u est harmonique. Soit ϕ C0 (). Puisque ϕ est à support compact et que est ouvert, il existe t 0 > 0 tel que si t < t 0, alors le support de ϕ est dans tθ. Par conséquent, pout t < t 0, on a u tθ ϕ dx = tθ u tθ ϕ dx = IR d fϕ dx. IR d u ϕ dx = 0, puis il vient que u est har- En différentiant cette relation, on obtient IR d monique. En conséquence des résultats précédents, il vient, en utilisant le théorème II.2.10-(i) que dj( 0 ),θ = = u(u u cible ) dx + 1 div((u u cible ) 2 θ) dx u(u u cible ) dx + 1 (u u cible ) 2 (θ n) ds (II.15) Cependant, l expression de la dérivée de forme de J n est pas très exploitable en tant que telle. Nous allons la réécrire sous une forme adéquate. C est l objet de la section suivante. Pour terminer ce paragraphe, nous abordons la dérivation d une condition au bord de type Neumann. Soit f H 1 (IR d ) et u 0, la solution du problème { u0 + u 0 = f dans 0 u 0 n = 0 sur 0. (II.16) Les détails du calcul et de la preuve de la différentiabilité sont laissés en exercice au lecteur. 55
62 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES Théorème II Dérivation du problème de Neumann Soit, un ouvert de frontière C 3 et f H 1 (IR d ). Soit θ C 2 (IR d,ir d ). On note θ = (Id +θ) 0 et on appelle u θ, la solution du problème { uθ + u θ = f dans θ u θ n = 0 sur θ. Alors, u 0 H 3 ( 0 ). De plus, Il existe un prolongement ũ θ de u θ à IR d tel que C 2 (IR d,ir d ) θ ũ θ L 2 (IR d ) est différentiable en 0. On appelle u, la dérivée de t ũ tθ en 0. La fonction u appartient à H 2 ( 0 ) et est l unique solution du système { u + u = 0 dans 0 u n = 2 u 0 (θ n) + u n 2 0 ( (θ n) ( (θ n) n)n) sur 0. Remarque II.2.20 Retour sur l inégalité isopérimétrique Si l on admet l existence d une solution régulière 0 (de frontière C 2 ) au problème d optimisation de forme inf connexe de IR d =V 0 Per(), l application du théorème des extrema liés fournit l existence d un réel λ (appelé multiplicateur de Lagrange) tel que, pour tout θ C 1 W 1, (IR d,ir d ), d Per( 0 ),θ = λ d Vol( 0 ),θ, autrement dit θ C 1 W 1, (IR d,ir d ), (H λ)(θ n) ds = 0. 0 On peut alors démontrer (exercice) que cela implique que H = λ presque partout sur 0, ce qui est parfaitement cohérent avec le fait que la solution de ce problème est connue : c est la boule de mesure V 0 (voir la section II.1.3) II.2.4 Structure des dérivées de forme et notion d adjoint On peut montrer que si J est une fonctionnelle de forme différentiable en 0 de classe C 1, si θ 1 et θ 2 sont deux éléments de W 1, (IR d,ir d ) tels que θ 2 θ 1 C 1 (IR d,ir d ) et si θ 1 n = θ 2 n sur 0, alors, dj( 0 ),θ 1 = dj( 0 ),θ 2. Cela traduit le fait que la différentielle de forme ne dépend que de la composante normale de la perturbation sur le bord. On peut donc s attendre (au moins formellement) à ce que la dérivée de forme (sous de bonnes hypothèses de régularité du domaine et des perturbations) s écrive sous la forme 0 (θ n) ds, où la quantité ne dépend pas de θ. Cependant, il n est pas toujours aisé en pratique d écrire la dérivée de forme de cette façon. Comme dans le domaine du contrôle optimal, il est souvent judicieux d introduire un état adjoint. Il s agit de la solution d une équation aux dérivées partielles choisie judicieusement pour simplifier l écriture de la dérivée de forme. Nous allons d abord donner un exemple, puis quelques idées formelles permettant de déterminer l adjoint. 56
63 II.2. DÉRIVATION DE FORME ET CONDITIONS D OPTIMALITÉ Fonctionnelle de type moindres carrés Revenons sur l exemple développé dans la section II.2.3. On a montré que la fonctionnelle de forme J : 1 (u u cible ) 2 dx, 2 où u désigne la solution du système (II.13) et u cible L 2 (IR d ), est différentiable et que pour tout θ W 1, (IR d,ir d ), on a dj( 0 ),θ = u(u u cible ) dx + 1 (u u cible ) 2 (θ n) ds, avec u l unique solution du problème { u = 0 dans 0 u = u 0 n (θ n) sur 0. (II.17) Introduisons p, l unique solution du problème (en vertu de (I.3.1)) { p = u u cible dans 0 p = 0 sur 0. (II.18) Multiplions l équation principale de (II.17) par p et intégrons par parties, en utilisant le théorème I.2.6. On obtient : 0 u p dx = 0. De même, multiplions l équation principale de (II.18) par u et intégrons par parties. On obtient p u p dx u ds = u(u u cible ) dx. 0 n 0 En combinant les deux dernières équations, il vient u(u u cible ) dx = 0 On en déduit finalement dj( 0 ),θ = p n u 0 (θ n) ds n ( p u 0 n n + 1 ) 2 (u u cible ) 2 (θ n) ds. Essayons de mieux comprendre pourquoi cette écriture s avère très bien adaptée, notamment pour l écriture des conditions d optimalité au premier ordre. Soit V 0 > 0, D, un ouvert borné fixé et 0 une solution du problème d optimisation de forme inf O ε(d) J(), (II.19) =V 0 où O ε (D) A(D) désigne le sous-ensemble des ouverts de A(D) vérifiant la propriété de ε-cône pour ε donné. On peut aisément se convaincre qu une telle solution existe, nous renvoyons pour cela au paragraphe II.1.4. Supposons que 0 soit de classe C 2 et que f H 1 (IR d ). Alors, en vertu du théorème de régularité elliptique I.3.4, la solution u 0 du problème (II.19) est H 2, ce qui permet de 57
64 CHAPITRE II. EXISTENCE ET CARACTÉRISATION DES FORMES OPTIMALES définir la trace de son gradient sur le bord de 0. De plus, d après le théorème des extrema liés, il existe λ IR tel que dj( 0 ),θ = λ d Vol( 0 ),θ, pour tout champ θ W 1, (IR d,ir d ), ce qui se réécrit ( p u 0 n n + 1 ) 2 (u u cible ) 2 λ (θ n) ds = 0. 0 On raisonne alors comme au paragraphe II.1.1, en considérant (θ k n) k IN, une suite de fonctions régulières convergeant faiblement au sens des mesures vers δ x0, où x 0 désigne un point de Lebesgue de la fonction p u 0 n n (u u cible ) 2 λ. En utilisant le théorème de densité de Lebesgue (voir la note de bas de page 2 dans la section II.1.1), on en déduit que la condition intégrale ci-dessus équivaut à p u 0 n n (u u cible ) 2 = λ p.p. sur 0. On peut interpréter cette condition supplémentaire comme une condition de surdétermination du problème adjoint (II.18). Moralement, cette équation s interprète comme une condition implicite déterminant les domaines qui sont points critiques du problème d optimisation de forme (II.19). Méthode générale de détermination d un adjoint Considérons de façon générale une fonctionnelle de la forme J : F (x,u(x), u(x)) dx, où F est une fonction régulière. Supposons que u désigne la solution d une équation elliptique s écrivant Lu = f, avec des conditions au bord données et L = 1 i,j N 2 a ij (x) + x i x j N i=1 b i (x) x i + c(x) Id, où les coefficients a ij appartiennent à C 0 () et sont tels qu il existe λ > 0 avec λ ξ 2 pour tout x et tout ξ IR N. Soit b C 0 (,IR N ) et c C 0 (). Formellement, on peut écrire que dj(),θ = ( u 2 F + 3 F u) dx + F (θ n) ds, 1 i,j N a ij (x)ξ i ξ j où u résout en particulier l équation aux dérivées partielles L u = 0. L idée consiste alors à introduire une fonction p solution de L p = 2 F div x ( 3 F ), avec L = 2 N a ij (x) b i (x) + c(x) Id, x i x j x i 1 i,j N Il faut alors choisir des conditions au bord adaptées sur p pour pouvoir écrire la dérivée de forme comme une distribution supportée par. Ce choix de conditions au bord dépend bien évidemment de la condition au bord imposée sur la fonction u. Des explications détaillées sur cette approche sont fournies dans [All07]. i=1 58
65 III. Optimisation de forme en mécanique des fluides III.1 Quelques problèmes III.1.1 Optimisation de l énergie dissipée dans un coude On considère un fluide de viscosité µ circulant au sein d un tuyau en forme de coude. L énergie de viscosité J() du fluide est définie par J() = 2µ ε(u) 2 dx, où u désigne la solution de l équation aux dérivées partielles (I.9) avec f = 0. (III.1) E S Figure III.1 : L exemple d un coude On peut alors se demander quelle est la forme du tuyau minimisant l énergie dissipée par le fluide, autrement dit la forme permettant le meilleur transport du fluide de l entrée du tuyau vers sa sortie. On considèrera l entrée E et la sortie S fixées, et on cherchera la frontière latérale du tuyau, en s imposant par exemple une contrainte de volume sur la géométrie. Cette contrainte modélise par exemple le fait que l on se donne une certaine quantité de matériau, que l on cherche à répartir de façon optimale. 59
66 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES III.1.2 Optimal design d un inhalateur On considère le problème (simplifié) consistant à déterminer la forme optimale d un inhalateur, utilisé pour soigner des maladies respiratoires telles que l asthme ou la bronchopneumopathie chronique obstructive. Après l insertion de la dose médicamenteuse prescrite au sein de l inhalateur, le patient absorbe la poudre par le biais d une profonde inspiration, puis retient sa respiration pendant une dizaine de secondes afin que le principe actif de la médication se dépose dans l arbre bronchique. Lors de cette étape, on souhaite maximiser la pénétration du médicament chez le patient, de sorte que la dose médicamenteuse soit répartie au mieux dans l arbre bronchique, et qu elle agisse en tout point du système pulmonaire. On cherche alors à adapter la géométrie interne des inhalateurs à cette fin. On note Γ in l entrée de l inhalateur et Γ s sa sortie. Supposons que les vitesses des fluides sont suffisamment faibles pour que le modèle de Stokes soit pertinent. Pour décrire la vitesse et la position du fluide au sein de l inhalateur, on considère alors le système µ u + p = 0 x div u = 0 x u = u 0 x Γ in u = 0 x Γ σ(u,p)n = p 0 n x Γ s, (III.2) où u 0 est un profil de vitesses parabolique, (i.e. un flux de type Poiseuille imposé à l entrée Γ in ), s écrivant u 0 = (0,0,c(x 2 3 R 2 )), avec c < 0 (pour que le flux soit rentrant) et R le rayon de l entrée. Γ in Γ s D s Figure III.2 : Description du problème Une approche simplifiée de ce problème consiste d une part à minimiser l énergie de dissipation notée J 1 () afin que le fluide s écoule le plus facilement possible au sein de la structure, mais également on souhaite que la vitesse du fluide à la sortie de l inhalateur soit la plus uniforme possible (fonctionnelle J 2 ()). On cherche donc à minimiser une combinaison convexe de deux fonctionnelles de forme, s écrivant J t () = tj 1 () + (1 t)j 2 (), 60
67 III.2. MINIMISATION DE L ÉNERGIE DISSIPÉE PAR UN FLUIDE avec t [0,1] et J 1 () = 1 2 J 2 () = Γ s ε(u) 2 dx, s ( u n 1 ) 2 u n ds ds. Γ s Γ s III.1.3 Optimisation de la forme d une aile d avion III.2 Minimisation de l énergie dissipée par un fluide Revenons sur l exemple mentionné dans la section III.1.1. On va utiliser les éléments de théorie développés dans le chapitre II. pour apporter des éléments de résolution d un tel problème. On considère donc deux segments disjoints E et S, disposés comme sur la figure III.1. Précisons l ensemble des domaines admissibles. Soit U ε = { ouvert connexe de IR 3 a la propriété d ε-cône}. (III.3) On se donne une boîte D (un ouvert de IR d simplement connexe et borné) telle que E D et S D. Soient ε > 0 et V 0 > 0 fixés, avec V 0 < D, O ad,ε = { U ε = V 0, D = E S, }. On s intéresse au problème d optimisation de forme : inf J() O ad,ε (III.4) III.2.1 Un résultat d existence Rappelons que le fait de définit le problème d optimisation de forme dans O ad,ε restreint la recherche des solutions aux formes possédant une régularité uniforme minimale. Nous allons utiliser principalement le résultat d existence de la proposition I.1.19, ainsi que le résultat suivant, garantissant les bonne propriétés topologiques de la classe O ad,ε. Lemme III.2.1. La classe O ad,ε est fermée pour la topologie associée à la convergence de Hausdorff. Preuve. Soit ( n ) n IN, une suite d éléments de O ad,ε, convergente au sens de Hausdorff vers un certain. On souhaite démontrer ici que O ad,ε (caractérisation séquentielle des fermés). D après la proposition I.1.19, on sait que U ε. Dans la suite de cette preuve, on s autorise à écrire tous les résultats de convergence modulo une extraction bien choisie. L D après la proposition I.1.20, on a également χ 1 (D) n χ, ce qui implique que = V 0. n + Reste à prouver que D = E S. Le fait que D E S est assez immédiat. C est en fait une conséquence immédiate de la stabilité de l inclusion pour la convergence de Hausdorff. En effet, on désigne par L l ensemble L = {x D et x / E S}. 61
68 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES On introduit alors la suite (K n ) n IN de compacts définie pour tout n IN par : K n = D\ n et de la même façon, on désigne par K, le domaine D\. Le résultat de stabilité de l inclusion pour la convergence de Hausdorff (Proposition I.1.15) permet d écrire que : H K n K n + n IN, L K n } = L K. Démontrons maintenant l autre inclusion : soit x 0 E S et soit n IN. Puisque n vérifie la propriété de ε-cône, on en déduit qu il existe un vecteur unitaire ξ n tel que le cône C(ε, x 0,ξ n ) (en utilisant les notations de la définition I.1.17) soit inclus dans n. Puisque ξ n IR 3 = 1, modulo une extraction, la suite (ξ n ) n IN converge et sa limite est un certain ξ unitaire. On en déduit que, quitte à extraire : C(ε, x 0,ξ n ) H C(ε, x 0,ξ). n + Reste alors à invoquer le résultat de stabilité pour l inclusion (Proposition I.1.15). On a : H n + n H n + n IN, C(ε, x 0,ξ n ) n C(ε, x 0,ξ n ) C(ε, x 0,ξ) = C(ε, x 0,ξ). On en déduit, en choisissant une suite de points du cône convergeant vers x 0 que x 0, et puisque x 0 E S, l inclusion réciproque est démontrée. Il s ensuit que O ad,ε est fermé pour la topologie associée à la convergence de Hausdorff. Énonçons à présent le théorème d existence annoncé. Théorème III.2.2. On suppose que d = 2 ou d = 3. Soit ε > 0. Il existe µ 0 > 0 et ε 0 > 0 tels que si µ µ 0 OU si u 0 H 1 0 (E) ε 0, alors le problème d optimisation (III.4) possède une solution. Preuve. Soit ( n ) n IN, une suite minimisante d éléments de O ad,ε. Puisque tous les ouverts n sont contenus dans D, en vertu des propositions I.1.19 et I.1.20, qu il existe, quitte à extraire, un ouvert tel que H,χ n. n + De plus, d après le lemme III.2.1, la classe O ad,ε est fermée pour la convergence au sens de Hausdorff et par conséquent, O ad,ε. Soit n IN. On appelle (u n,p n ), une solution du système de Navier-Stokes (I.9) posé sur n. On choisit µ 0 ou ε 0 de sorte que le problème (I.9) possède une unique solution sur D, essentiellement afin de garantir l unicité des limites considérées. Sans perte de généralité, nous allons nous placer dans le cas le plus restrictif, à savoir d = 3. Ainsi, on pose pour tout n IN, u n = (u n,1,u n,2,u n,3 ). 62
69 III.2. MINIMISATION DE L ÉNERGIE DISSIPÉE PAR UN FLUIDE Posons ω n = ε(u n ) 2 dx. Puisque ( n ) n IN, est minimisante, (ω n ) n IN est convergente donc bornée. n D après l inégalité de Korn sur D (voir le théorème I.2.10), la suite (u n ) n IN est uniformément bornée H 1. Intéressons-nous à présent à la convergence de la suite (u n ) n IN. On vient de démontrer que (u n ) n IN est bornée H 1. Par conséquent, par réflexivité de H 1 (D) et d après le théorème de Rellich-Kondrachov (voir le théorème I.2.1), on en déduit que, à sous-suite près, il existe une fonction u [H 1 (D)] 3 H telle que u 1 L n u et u q n u, pour tout q [1,6[. On note encore u n, le prolongement par 0 de la solution du système (I.9) sur la boîte D toute entière. Pour démontrer la convergence de la suite (u n ) n IN vers la solution du système de Navier-Stokes sur, on va réutiliser la formulation variationnelle du système (I.9) en écrivant cette fois les intégrales sur le domaine fixe D, grâce au prolongement continu que l on vient d introduire. Pour ne pas avoir à nous préoccuper du terme de pression, on va travailler dans des espaces de fonctions à divergence nulle, et utiliser le théorème I.3.10 pour retrouver la pression. Ainsi pour toute fonction w telle que w { w [H 1 (D)] 3 : w = 0 sur E Γ et div w = 0 dans D }, et pour n IN, la fonction u n vérifie : (2µε(u n ) : ε(w) + (u n )u n w) dx = D S h w ds Puisque l on a convergence faible H 1 des fonctions u n, il vient immédiatement : ε(u n ) : ε(w) dx ε(u) : ε(w) dx. n + D L Établissons à présent la convergence du terme trilinéaire. On sait que u 2 (D) n u. De plus, d après l inégalité de Cauchy-Schwarz, on a : 3 (u n u) w 2 [L 2 (D)] (u 3 n,i u i ) 4 dx wi 4 dx i=1 D 3 u n u 2 [L 4 (D)] 3 w 2 [L 4 (D)] 3. On en déduit que (u n w) n IN converge fortement L 2 (D) vers u w. Par conséquent, (u n )u n w dx est le produit d un terme convergeant fortement L 2 (D) par un D terme convergeant faiblement L 2 (D). Il s ensuit : (u n )u n w dx (u )u w dx. n + D Finalement, ces résultats de convergence démontrent que pour toute fonction w telle que la fonction u vérifie : w { w [H 1 (D)] 3 : w = 0 sur E Γ et div w = 0 dans D }, D (2µε(u) : ε(w) + u u w) dx = 63 D S h w ds.
70 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES De plus, l égalité suivante est une conséquence immédiate du fait que u n converge faiblement- H 1 (elle résulte d un passage à la limite) : D ψ div u dx = 0, ψ L 2 (D). Enfin, le théorème I.3.10 fournit l existence d une fonction p L 2 (D) telle que : w W 0 (D), D (2µε(u) : ε(w) + u u w p div w) dx = S h w ds, autrement dit, on retrouve précisément la formulation variationnelle du problème de Navier- Stokes (I.9) sur le domaine D cette fois. Reste enfin à vérifier que u = 0 sur D\ et que u = u 0 sur E. Pour ce deuxième point, c est immédiat, car on a montré que (u n ) n IN converge faiblement H 1 vers u. Or, u n E = u 0. Par conséquent, u E = u 0. Le fait que u = 0 sur D\ est une conséquence de la convergence au sens des fonctions caractéristiques. Une adaptation immédiate de la preuve du théorème II.1.11 fournit le résultat. (voir également la notion de stabilité au sens de Keldys dans [BB02, HP05]). III.2.2 Calcul de la dérivée par rapport au domaine On pose : (i) t = (Id +tθ) avec θ W 1, (IR d,ir d ), un champ de vecteurs à support compact, support qui ne rencontre ni E, ni S et t assez petit de sorte que Id +tθ définisse un difféomorphisme ; (ii) f(t) = J( t ). On cherche la dérivée de J par rapport au domaine dans la direction θ, i.e. f (0). Pour un choix de θ comme mentionné ci-dessus, on ne déforme que la paroi latérale du coude, que nous noterons Γ. On écrit de prime abord le problème dérivé. Nous allons adapter à ce cas l approche développée dans la section II.2.3 (sans redonner les preuves qui sont exactement similaires). Ainsi, en adaptant la preuve du théorème II.2.14, on montre que t u t L 2 (IR d ), où u t désigne la solution du système (I.9) avec f = 0 sur t, est différentiable en 0. De plus, en utilisant le maintenant classiquement résultat de de Rham (théorème I.3.10), on montre qu il existe une distribution ṗ L 2 (IR d ) telle que µ u + u u + u u + ṗ = 0 x div u = 0 x u = 0 x E u = u (θ n) n x Γ ṗn + 2µε( u) n = 0 x S. (III.5) Remarque III.2.3 Les théorèmes classiques de régularité (voir [Tem01, Gal94]) assurent que si est C 2 et θ C 2, u [Hloc 2 ( Γ)]3, donc u n a bien un sens sur Γ. 64
71 III.2. MINIMISATION DE L ÉNERGIE DISSIPÉE PAR UN FLUIDE Remarque III.2.4 On va écrire la formulation variationnelle du problème dérivé (III.5). Pour une justification précise des résultats ci-dessous, il suffit d adapter les calculs qui seront exposés dans la preuve de la proposition III.2.5. Introduisons les espaces fonctionnels, pour de classe C 2, u H 1 () fixé et θ, un champ de vecteurs suffisamment régulier : W 0 () := { (v,q) (H 1 ()) 3 L 2 () : v = 0 sur E Γ }. { W u () := (v,q) (H 1 ()) 3 L 2 () : v = 0 sur E et v = u } (θ n) sur Γ. n La formulation variationnelle du problème dérivé (III.5) s écrit : Trouver ( u,ṗ) W u () tels que : (w,ψ) W 0 (), (2µε( u) : ε(w) + u w u + u u w ṗ div w) dx = 0 ψdiv θ dx = 0. (III.6) En adaptant l approche de la section II.2.3, et en utilisant la différentiabilité mentionnée ci-dessus, on écrit f (0) = dj(), θ = 4µ ε(u) : ε( u) dx + 2µ ε(u) 2 (θ n) ds. Γ Nous allons à présent donner une autre expression de la dérivée par rapport au domaine dj(), θ à l aide d un état adjoint. Proposition III.2.5. Le problème adjoint On suppose que d = 2 ou d = 3 et que de classe C 2. On introduit (v,q), solution du problème adjoint suivant : µ v + ( u) v vu + q = 2µ u x div v = 0 x (III.7) v = 0 x E Γ qn + 2µε(v) n + (u n)v 4µε(u) n = 0 x S. Si la viscosité µ est suffisamment grande, alors, le problème (III.7) possède une solution unique (v,q) H 2 () H 1 (). Avant de démontrer cette proposition, on donne la formulation variationnelle du problème (III.7). 65
72 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Lemme III.2.6. La formulation variationnelle du problème (III.7) s écrit : Trouver (v,q) W 0 () tels que : (w,ψ) W 0 (), (2µε(v) : ε(w) + ( w)u v + ( u)w v q div w) dx = 4µ ψ v dx = 0. ε(u) : ε(w) dx (III.8) Preuve du lemme III.2.6. On cherche à démontrer que (III.8) est la formulation variationnelle du problème(iii.7). Pour cela, considérons (w,ψ) dans (C0 () tels que ( ) µ v + ( u) v ( v)u + q + 2µ u w dx + ( qn + µε(v)n + (u n)v 2µε(u)n) w ds = 0. S En appliquant la formule de Green (théorème I.2.6), on a (w v)(u n) ds ( v)u w dx = ( w)u v dx, S et de la même façon, q(w n) ds q w dx = q div w dx. S Enfin, un changement d indice prouve que ( u) v w dx = ( uw) v dx. Ainsi, la formule d intégration par parties du lemme I.2.7 nous permet d écrire successivement µ ( v + div v) w dx + 2µ ε(v)n w ds = 2µ ε(v) : ε(w) dx et µ u w dx + 2µ ε(u)n w ds = 2µ ε(u) : ε(w) dx. S En utilisant un argument de densité très classique, il vient que pour tout (w,ψ) W 0 (), on a (2µε(v) : ε(w) + ( w)u v + ( u)w v q div w) dx = 4µ ε(u) : ε(w) dx ψ v dx = 0. Preuve de la proposition III.2.5. Il n est pas restrictif de se placer dans le cas d = 3, ce que nous allons faire. Pour démontrer l existence et l unicité des solutions du système (III.8), on va chercher à appliquer le théorème de Lax-Milgram. On introduit les espaces : D() : espace des fonctions C à support compact dans et à valeurs dans IR V() = {u D() : div u = 0} V () = complété de V dans l espace {u H 1 () : u = 0 sur E Γ}. 66
73 III.2. MINIMISATION DE L ÉNERGIE DISSIPÉE PAR UN FLUIDE On peut d ailleurs démontrer (voir par exemple la section I.3.2 ou [Tem01, chapitre I]) que V () = {u H 1 () : div u = 0 et u = 0 sur E Γ}. En accord avec le théorème I.3.10, nous allons travailler dans l espace V(). D après la formulation variationnelle (III.8), v satisfait au sens des distributions w V(), α(v,w) = l, w, (III.9) où α et l sont respectivement les formes bilinéaire et linéaire définies par : α(v,w) = (2µε(v) : ε(w) + ( w)u v + ( u)w v) dx l, w = 4µ ε(u) : ε(w) dx. Pour appliquer le théorème de Lax-Milgram, il nous reste donc à vérifier que α est continue, coercive sur V () 2, et que l est continue sur V (). Montrons que α est continue et coercive. Le premier terme intégral est dominé par le produit des normes H 1 de v et w d après le lemme I.2.9 et l inégalité de Cauchy-Schwarz. Montrons comment majorer le second terme intégral, le troisième s estimant exactement selon le même principe. Il vient ( w)u v dx w i u j v i x j dx 1 2 w 2 L u 2 L v 2 4 L. 4 1 i,j 3 On conclut alors en utilisant le fait que l injection H 1 () L 4 () est continue puisque d 3. Passons à présent à la coercivité de α. Les mêmes calculs que précédemment prouvent que pour tout v H 1 (,IR 3 ) : α(v,v) 2µ ε(v) 2 dx u 2 H 1 (,IR 3 ) v 2 H 1 (,IR 3 ). Pour conclure, utilisons l inégalité de Korn énoncée dans la remarque I Il existe C > 0 (ne dépendant que de ) telle que ( ) α(v,v) 2Cµ u 2 v 2 H 1 (,IR 3 ) H 1 (,IR 3 ). α est donc coercive dès que µ est choisie suffisamment grande. Prouvons à présent que l est continue. Il suffit d écrire que pour tout v H 1 (,IR 3 ), d après l inégalité de Cauchy-Schwarz, on a l, v 4µ ε(v) L 2 (,IR 3 ) ε(u) L 2 (,IR 3 ), et d utiliser le lemme I.2.9. Bien évidemment, il est nécessaire que µ soit suffisamment grande si l on souhaite obtenir la coercivité dans l inégalité ci-dessus. L application du théorème de Lax-Milgram nous assure alors de l existence de v H 1 (,IR 3 ) satisfaisant (III.9) dans V() puis par densité dans V (). L application du lemme I.3.10 fournit l existence d une distribution q L 2 () solution de (III.8). L unicité de p est claire, compte tenu de la condition au bord sur la sortie S du cylindre. En effet, s il existait deux solutions q 1 et q 2, alors, puisque la vitesse v est unique, la fonction q 1 q 2 vérifierait (q 1 q 2 ) = 0 dans et q 1 = q 2 sur S. 67
74 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Remarque III.2.7 La régularité H 2 () H 1 () du couple (v,q) peut s obtenir en imposant des hypothèses supplémentaires de régularité sur. Évaluons à présent la dérivée de forme du critère J. Proposition III.2.8. Dérivée de forme de J On suppose de classe C 2. En utilisant les notations précédentes, on peut écrire que la dérivée de forme du critère J a pour expression : ( dj(), θ = 2µ ε(u) : ε(v) ε(u) 2 ) (θ n) ds. (III.10) Γ Démonstration. Souvenons-nous que ( u,ṗ) désigne la solution du problème (III.5)). En utilisant la formule de Green, on a dj(), θ = 4µ ε(u) : ε( u) dx + 2µ ε(u) 2 (θ.n) ds Γ = 2µ (( u + div u) u) dx + 4µ ε(u)n u ds +2µ ε(u) 2 (θ n) ds Multiplions alors la première équation du problème adjoint (III.7) par u et intégrons sur. On obtient µ v u dx + q u dx + ( u) v u dx ( v)u u dx = 2µ u u dx. Une intégration par parties et les conditions au bord pour u et v fournissent (2µε( u) : ε(v) ( v) u u + ( u)u v) dx σ(v,q)n u ds S + ((u v)( u n) (u n)( u v)) ds σ(v,q)n u ds = 2µ u u dx. S Γ De même, multiplions la première équation du problème dérivé (III.5) par v et intégrons sur. On obtient µ u v dx + ṗ v dx + u u v dx + u u v dx = 0. Une intégration par parties et les conditions au bord pour u et v fournissent (2µε( u) : ε(v) + ( u)u v ( v) u u) dx + ( σ( u,ṗ)n v + (u v)( u n)) ds = 0. S 68
75 III.2. MINIMISATION DE L ÉNERGIE DISSIPÉE PAR UN FLUIDE Revenons à présent sur le calcul de la dérivée de forme. dj(), θ = 2µ (( u + div u) u) dx + 4µ ε(u)n u ds +2µ ε(u) 2 (θ n) ds = A + 4µ ε(u)n u ds + 2µ ε(u) 2 (θ n) ds, où l on a posé A := 2µ (( u + div u) u) dx. Compte-tenu de ce que nous venons de voir, on peut écrire que A = (qn 2µε(v)n) u ds (u n)(v u) ds. Γ S Par conséquent, et d après (III.7), on a dj(), θ = (qn 2µε(v)n) u ds (u n)(v u) ds Γ S S +4µ ε(u)n u ds + 2µ ε(u) 2 (θ n) ds S Γ Γ = (qn 2µε(v)n + 4µε(u)n) u ds + 2µ ε(u) 2 (θ n) ds Γ Γ ( = (qn 2µε(v)n + 4µε(u)n) u ) n + 2µ ε(u) 2 (θ n) ds Γ En identifiant le produit de dualité dj(), θ au produit scalaire L 2 sur le bord Γ, on définit le gradient de forme de la fonctionnelle J : [ J() = (qn 2µε(v)n + 4µε(u)n) u ] n + 2µ ε(u) 2 n. On peut faire le lien avec la formule (III.10), plus naturelle que la formule que l on vient d énoncer car symétrique. Pour cela, énonçons un lemme technique qui permettra de simplifier cette formule. La preuve est laissée en exercice au lecteur. S Lemme III.2.9. Soient x et y, deux champs de vecteurs réguliers de IR 3 tels que : x Γ = y Γ = 0, et tels que div x = div y = 0 dans tout entier. Soit θ W 1, (IR 3,IR 3 ), un champ de vecteur. Alors, les identités suivantes sont réalisées sur Γ : (i) ( x)θ n = (( x)n n)(θ n) = 0, (ii) ε(x) : ε(y) = ε(x) : (ε(y)(n n)) = (ε(x)n) (ε(y)n), (iii) (ε(x)n) (( y)θ) = (ε(x)n) (( y)n)(θ n) = (ε(x)n) (ε(y)n)(θ n). 3 avec la convention que n n = n i n j. i,j=1 69
76 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES La première identité prouve alors que qn u = 0 sur Γ. n La troisième identité prouve que sur Γ, ε(u)n u n = ε(u) 2. Enfin, en utilisant cette fois les deuxième et troisième identités, on prouve que sur Γ, (ε(v)n) u n = ε(u) : ε(v). On en déduit que le gradient de forme de la fonctionnelle J se réécrit : J() = 2µ ( ε(u) : ε(v) ε(u) 2) n. III.2.3 Un critère de type moindres carrés Reprenons l exemple introduit dans la section III.1.2. On s intéresse au problème d optimisation de forme inf J t (), (III.11) O ad avec O ad = { domaine borné et simplement connexe de R 3 contenant Γ in et Γ s }. Les considérations suivantes sont laissées en exercice au lecteur. Pour de frontière C 2, on introduit (v,q), la solution du système de Stokes µ v + q = 0 x v = 0 x v = 0 x Γ in Γ σ(v,q) = (u n)n x Γ s. (III.12) On peut établir la proposition suivante. Proposition III Calcul de la dérivée de J t Soit t [0,1], O ad, un domaine de frontière C 2. Alors, la fonctionnelle J t est différentiable par rapport au domaine en dans la direction θ W 3, (IR d,ir d ) et on a dj t (; θ) = 2µ ε(u) : ( tε(u) + (1 t)ε(v)) (θ n)dσ. (III.13) III.3 Aspects numériques III.3.1 Utilisation du Lagrangien augmenté en optimisation de forme Nous commençons par quelques principes généraux sur cette notion avant d envisager le cas particulier des contraintes de type égalité. Pour de plus amples informations sur la notion de Lagrangien augmenté en optimisation de forme ou topologique, on pourra se référer à [Ams11]. 70
77 III.3. ASPECTS NUMÉRIQUES Soit D, un ouvert connexe borné de IR 2 ou IR 3. Soit J : E IR, une fonctionnelle définie sur E, un ensemble de sous-domaines contenus dans D. On définit également (pour exprimer les contraintes) une fonctionnelle G : E Y. Enfin, soit K, un cône convexe fermé de Y. On note de façon usuelle Y, le dual topologique de l espace Y. On définit à partir de K Y, un cône convexe fermé de l espace dual K + Y appelé cône dual positif. Définition III.3.1. Cône dual positif On désigne par K +, le cône dual positif défini par : K + = {µ Y µ, y Y,Y 0 y K}. Considérons un problème d optimisation qui s écrit inf J(), E ad où E ad est l ensemble admissible des contraintes s écrivant E ad = { E : G() K}. (III.14) Remarque III.3.2 Notons que ce formalisme est fort utile puisqu il permet de traiter à la fois les contraintes égalité et inégalité. En effet, si K est réduit au singleton {0}, on obtient une contrainte de type égalité. La suite des explications de cette section est dédiée à l introduction de la notion de Lagrangien augmenté, ainsi qu à la compréhension heuristique de ses bonnes propriétés algorithmiques. Supposons dorénavant que Y n est plus seulement un espace de Banach mais un espace de Hilbert, ce qui nous permet d identifier Y à son dual Y. Définition III.3.3. Lagrangien augmenté On se donne un paramètre positif b. On définit le Lagrangien augmenté du problème (III.14) par : L b : E Y IR (, µ) L b = J() + ζ b (G(),µ), où ζ b (y,µ) est définie pour tout y Y et µ Y par : ζ b (y,µ) = sup µ K + ( µ,y 12b µ µ 2Y ). (III.15) Remarque III.3.4 Régularisée de Yosida-Moreau L application ζ b s appelle la régularisée concave de Yosida-Moreau. Par définition, la régularisée convexe de Yosida-Moreau f b d une fonction f : X IR, avec X, un espace de Hilbert (de norme induite. ) est le résultat de l inf-convolution de cette fonction avec la fonction quadratique bq, où Q : x x 2 /2. Plus précisément, c est la fonction f b définie par f b (x) = inf x X (f(y) + 12 x y 2 ). 71
78 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES La fonction f b possède de bonnes propriétés de régularité. Par exemple, si f est convexe et semi-continue inférieurement, de domaine non vide et sous-différentiable 1 en un point, alors sa régularisée de Yosida-Moreau est convexe, partout continue et différentiable. De plus, sa dérivée est lipschitzienne de constante au moins 1/b. Enfin, la fonction f b est partout inférieure ou égale à f, mais leurs argmin sont égaux. La transformation qui nous intéresse ici est la régularisée concave de Yosida-moreau. Il est aisé de transposer la notion de régularisée convexe. On obtient la formule définissant ζ b. Le théorème qui suit établit un lien, dans le cadre de l optimisation de forme entre la minimisation du Lagrangien, très classique en optimisation sous contraintes, et la minimisation du Lagrangien augmenté. La preuve est détaillée dans [Ams11]. Théorème III.3.5. Conditions d optimalité du lagrangien augmenté (i) Soit (, µ ), un point selle local du Lagrangien L dans E K +. Alors, (, µ ) est un point selle local du Lagrangien augmenté L b dans E Y et : L b (, µ ) = L(, µ ). (ii) Réciproquement, si (, µ ) est un point selle local du Lagrangien augmenté L b dans E Y, alors (, µ ) E ad K + et ce couple vérifie : µ, G( ) Y,Y = 0, dl( ), θ 0, θ W 1, (IR N ) : t 0 > 0, t [0,t 0 ], tθ E., De plus, L b (, µ ) = L(, µ ). Expliquons à présent en quelques mots l intérêt du Lagrangien augmenté dans les algorithmes d optimisation. La régularisée de Moreau-Yosida est différentiable (qui plus est de gradient Lipschitzien). Nous souhaitons implémenter des algorithmes de minimisation de type gradient. Or, l opération de régularisation améliore le conditionnement de la fonction duale. Une convergence plus rapide de la suite maximisante des multiplicateurs de Lagrange peut donc être espérée lorsque cette suite est construite à partir du Lagrangien augmenté plutôt qu à partir du Lagrangien ordinaire. On peut même dire que plus la constante b > 0 est grande, meilleur est le conditionnement de la fonction duale (qui donne les contraintes), et de même, meilleure est la convergence des variables duales. Cependant, dans ce domaine, il existe un compromis dans le choix de b. En effet, si b est choisi trop grand, c est le conditionnement du problème primal : min L b(, λ) E qui se dégrade, et donc sa difficulté de résolution qui augmente. Enfin, dans le cas où l on minimise une fonctionnelle non convexe, l intérêt de l utilisation du Lagrangien augmenté est plus flagrant. En effet, grâce à cette techique, 1. On pourra par exemple se référer à [Cla90] pour des précisions sur cette notion. 72
79 III.3. ASPECTS NUMÉRIQUES on peut espérer (au moins localement) récupérer un saut de dualité malencontreux. Moralement, on utilise des paraboloïdes concaves au lieu d hyperplans dans le cas du Lagrangien pour "ausculter" l épigraphe d une fonction, ce qui peut se révêler ingénieux. On présente maintenant l algorithme de résolution du Lagrangien augmenté, qui sera plus amplement détaillé dans la section III.3.2. Algorithme du Lagrangien augmenté (i) Initialisation. Choisir 0 E et µ 0 K +. On fixe également τ > 0 et ε stop. (ii) Itération k. On cherche k+1 tel que : { Lb ( k+1, µ k ) < L b ( k, µ k ) k+1 E. On pose alors µ k+1 = µ k + τ b [Π K +(µ k + bg( k+1 )) µ k ]. (iii) Critère d arrêt. Si µ k+1 µ k ε stop, l algorithme s arrête. Sinon, on revient à l étape précédente. III.3.2 Mise en œuvre d un algorithme de type gradient Dans cette partie, on va détailler la mise en œuvre de l algorithme du Lagrangien augmenté. On s appuiera sur l exemple de la minimisation de l énergie dissipée dans un coude, introduit dans la section III.1.1. Rappelons qu il s agit d optimiser la fonctionnelle définie par : J() = 2µ ε(u) 2 dx, où u désigne la solution du système de Navier-Stokes : µ u + p + u u = 0 x, i {1,2,3} div u = 0 x u = u 0 x E u = 0 x Γ pn + µε(u) n = p 0 n x S, où p 0 > 0 est un réel fixé, et u 0 désigne un profil de vitesses parabolique. Expression du Lagrangien augmenté dans ce cas Dans ce qui suit, on choisira d = 2 ou d = 3 indifféremment. On se fixe un réel strictement positif V 0. On supposera dans toute la suite que E et S sont des parties de la frontière fixées : 73
80 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES en dimension 2, on suppose que ce sont des réunions de segments ; en dimension 3, on suppose que ce sont des réunions des disques. Rappelons que l on cherche à résoudre numériquement le problème d optimisation de forme avec V 0 > 0 fixé et O ad = inf J() O ad { } ouvert connexe de IR d = V 0, D = E S,. Rappelons que la dérivée de forme du critère J a pour expression ( dj(), θ = 2µ ε(u) : ε(v) ε(u) 2 ) (θ n)ds, Γ où v est la solution du problème adjoint (III.7) (dont on a montré, pour de grandes viscosités, existence et unicité dans la proposition III.2.5). Puisque l on cherche à résoudre un problème d optimisation sous contrainte, on a vu dans la section III.3.1 qu il convient en fait de minimiser le Lagrangien de ce problème, ou mieux le Lagrangien augmenté à chaque itération. La contrainte est ici une contrainte de type égalité. Si on pose K = {0}, alors Y = K + = IR. Il s ensuit : E = O ad G() = mes () V 0 = dx V 0 E ad = { E : G() K} = { E : G() = 0} L(, µ) = J() + µg() Finalement, le Langrangien augmenté L b a pour expression : avec O ad, µ IR et b > 0. L b (, µ) = J() + µg() + b 2 (G())2, Remarque III.3.6 Cette écriture s obtient aisément, puisque l on est ramené à déterminer la borne supérieure d une fonction de IR dans IR. En effet, dans ce cas, la régularisée de Yosida s écrit ζ b (y,µ) = sup (µ y 12b ) (µ µ ) 2 = µy + b µ IR 2 y2. Plus précisément, le problème d optimisation à résoudre à chaque itération est donc le suivant pour un paramètre b > 0 bien choisi et un multiplicateur de Lagrange µ m donné : avec inf L b(,µ m ) E L b (,µ) = J() + µ (mes () V 0 ) + b 2 (mes () V 0) 2. 74
81 III.3. ASPECTS NUMÉRIQUES Il est alors aisé de déterminerla dérivée de forme de cette fonctionnelle. Elle s écrit, comptetenu du fait que dvol, θ = (θ.n)ds, dl b (,µ), θ = Le gradient de forme de L b est donné par Γ Γ [ 2µ ( ε(u) : ε(v) ε(u) 2 ) + µ + b (mes () V 0 ) ] (θ n) ds. (III.16) L b (,µ) = [ 2µ ( ε(u) : ε(v) ε(u) 2) + µ + b (mes () V 0 ) ].n. (III.17) Remarque III.3.7 La méthode du Lagrangien augmenté peut être associée à une classe d algorithmes dite de «pénalisation exacte». En effet, on aurait tort de penser que la bonne façon de faire est de choisir le paramètre b le plus grand possible. Comme cela a été mentionné précédemment, il existe un subtil compromis à trouver dans le choix de b permettant une résolution satisfaisante des problèmes primal et dual. On peut se référer par exemple à [BGLS06]. Déformation du domaine L idée va consister à construire une suite de domaines ( m ) m IN ou plus précisément à déformer le bord latéral à chaque itération de l algorithme de sorte que la suite (J( m )) m IN soit décroissante. On appelle Γ m le bord latéral obtenu à l itération m IN. On se donne donc un domaine m IR 3 ainsi qu un multiplicateur de Lagrange µ m IR obtenus à l itération m de l algorithme visant à chercher la forme optimale. La question est la suivante : Comment va-t-on déformer m afin que J( m+1 ) < J( m )? Puisque l on cherche à implémenter un algorithme de type gradient, on va chercher m+1 sous la forme : m+1 = (I + ε m θ m )( m ), où θ m un champ de vecteurs à choisir astucieusement et ε m est le pas. Il peut être choisi constant, optimal, ou variable. C est cette dernière possibilité qui semble la plus raisonnable ici. En effet, un pas constant risque de poser rapidement des problèmes de convergence, un pas optimal risque d être fort ardu à déterminer. En revanche, il existe de nombreuses règles (Wolfe, Armijo, dichotomie, etc.) pour déterminer un pas de déplacement raisonnable dans la direction donnée par le gradient du Lagrangien augmenté associé au problème d optimisation considéré. On désigne par {Mk m} 1 k α m l ensemble des nœuds du maillage du domaine m à l itération m, α m désignant le nombre total de nœuds. L idée consiste à déformer le maillage {Mk m} 1 k α m afin d obtenir un nouveau maillage {M m+1 k } 1 k αm+1, dont on pourra aisément recréer la géométrie m+1 correspondante. On cherche donc à déterminer une application d m, définie sur m, telle que les points {M m+1 k } 1 k αm+1 s obtiennent de la façon suivante : M m+1 k = M m k + d m(m m k ), 75
82 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES en confondant par commodité d écriture un point avec ses coordonnées. d m va être construite comme la solution d une équation aux dérivées partielles. Une première idée consiste à chercher d m qui vérifie : d m Γm = L b ( m, µ m ). Une autre façon de procéder pour déterminer une direction de descente d m qui soit acceptable, consiste à rechercher un produit scalaire b m (.,.) sur un espace de Hilbert B( m ) et à choisir d m, solution de l équation écrite sous forme variationnelle b m (d m,w) = L b ( m, µ m ) wds, w B( m ), Γ m où B( m ) désigne un espace de Hilbert naturel dans lequel on souhaite chercher d m. Typiquement, il est naturel de considérer ici B( m ) comme un sous-espace fermé de H 1 ( m,ir 3 ) et b m, la forme bilinéaire définie par b m (u,v) = u : v dx + m u v dx, m pour tous u et v dans B( m ). Cette méthode présente en particulier l intérêt de pouvoir déformer l intégralité du maillage, et pas seulement les nœds du bord, et évite ainsi une procédure coûteuse de r lage à chaque itération. Le principe de cette méthode, parfois appelée «préconditionnement du gradient» est assez ancien. On l évoque dans [All07] et [MP10]. Plus récemment, les auteurs de l article [DMNV07] l appliquent à des problèmes de design optimal. Puisque b m (.,.) est un produit scalaire, on aura alors : 0 b m (d m,d m ) = L b ( m, µ m ) d m ds = L b ( m, µ m ) 2 ds IR 3 Γ m Γ m = dl b ( m,µ m ), d m. Revenons au calcul de d m. Nous recherchons d m comme la solution de d m,w H 1 ( m) = L b ( m, µ m ) wds, w B( m ), Γ m avec B( m ) = { w H 1 ( m ) : w E S = 0 }, puisque E et S sont fixés (donc le déplacement sur ces frontières doit être nul). Il est d ailleurs classique, d après le théorème de Lax-Milgram (théorème I.3.1), qu un tel problème possède une solution unique dans H 1 ( m,ir 3 ). On en déduit que pour tout w B( m ), on a d m : w dx + m d m w dx = m L b ( m, µ m ) wds. Γ m Par conséquent, d m est solution au sens des distributions de l équation aux dérivées partielles d m + d m = 0 x m d m = 0 x E S (III.18) d m n = L b( m, µ m ) x Γ m. 76
83 III.3. ASPECTS NUMÉRIQUES Maintenant que nous sommes fixés sur la méthode utilisée pour déformer le domaine, nous allons écrire l algorithme complet du Lagrangien augmenté. Remarque III.3.8 Initialisation de l algorithme du Lagrangien augmenté Si l on respecte l algorithme, on est censé choisir de façon arbitraire le premier multiplicateur de Lagrange µ 0. En fait, il est possible d initialiser l algorithme de façon plus astucieuse. En effet, on a vu que le domaine 1 est un point selle de l application : L b (, µ 0 ), où µ 0 a été choisi au préalable. Par conséquent, 1 vérifie L b ( 1,µ 0 ) = 0 sur Γ 1, qui se réécrit : J( 1 ) + [µ 0 + b (mes ( 1 ) V 0 )] n = 0 sur Γ 1 Multiplions cette égalité par n et intégrons sur Γ 1. On obtient : Γ µ 0 = 1 J( 1 ) nds b (mes ( 1 ) V 0 ). Γ 1 ds Une idée (un peu heuristique ici car aucun autre calcul n a été effectué pour s assurer de la pertinence de cette démarche, fondée sur le fait que la forme du domaine varie peu d une itération à l autre) consiste donc à choisir comme initialisation du multiplicateur de Lagrange : µ 0 = Γ 0 J( 0 ) nds Γ 0 ds b (mes ( 0 ) V 0 ). On va à présent formuler l algorithme de résolution du problème de minimisation (III.4). 77
84 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES Algorithme de résolution numérique du problème (III.4) (i) Initialisation. Γ Choisir 0 E et µ 0 = 0 J( 0 ) nds Γ 0 ds On se fixe également τ > 0 et ε stop. b (mes ( 0 ) V 0 ). (ii) Itération m. µ m est connu. (a) Résolution du problème de Navier-Stokes (et stockage de sa solution u m ) : µ u m + p m + u m u m = 0 x m, div u m = 0 x m u m = u 0 x E u m = 0 x Γ m p m n + µε(u m )n = p 0 n x S, (b) Résolution du problème adjoint (et stockage de sa solution v m ) : µ v m + ( u m ) v m ( v m )u m + q m = 2µ u m x m div v m = 0 x m v m = 0 x E Γ m q m n + µε(v m )n + (u m n)v m 2µε(u m )n = 0 x S. (c) Calcul de la quantité scalaire : β m = L b ( m,µ m ) n = 2µ ( ε(u m ) : ε(v m ) ε(u m ) 2) + µ m + b (mes ( m ) V 0 ). (d) Détermination du déplacement d m, comme la solution de l équation : d m + d m = 0 x m d m = 0 x E S d m n = β mn x Γ m. (e) Détermination de ε m, un pas faisant décroître le Lagrangien augmenté, par exemple à l aide d une règle de Wolfe. (f) Détermination du domaine m+1 : m+1 = (I + ε m d m )( m ). (g) Réinitialisation du multiplicateur de Lagrange : (iii) Critère d arrêt. Si µ m+1 µ m ε stop, l algorithme s arrête. Sinon, on revient à l étape précédente. µ m+1 = µ m + τ (mes ( m+1 ) V 0 ) 78
85 III.3. ASPECTS NUMÉRIQUES Donnons une précision sur l étape (e), de recherche du pas dans l algorithme précédent. On peut par exemple utiliser l algorithme de Wolfe (1969), mais il existe maintes autres possibilités (règle de Goldstein, dichotomie, méthode de la section dorée, interpolation parabolique, etc.). Plaçons-nous à une itération m, avec m IN. On introduit la fonction q définie sur un intervalle [0, η[, avec η > 0 par : q(ρ) = L b ((I + ρd m )( m ),µ m ). Il s ensuit d ailleurs, d après la règle de composition des différentielles que q est dérivable au voisinage de 0 et que : q (0) = dl b ( m,µ m ),d m. Le principe de cette méthode est de se fixer deux réels m 1 et m 2 tels que 0 < m 1 < m 2 < 1 et de rechercher un pas ε qui vérifie : { q(ρ) q(0) + m1 ρq (0) Voici la description de cet algorithme : q (ρ) m 2 q (0). Algorithme de recherche du pas ε m (i) m et d m sont connus. On calcule q(0) = L b ( m ) et q (0) = dl b ( m ),d m. On choisit m 1 et m 2 tels que 0 < m 1 < m 2 < 1 (par exemple m 1 = 0,1 et m 2 = 0,7). On pose ρ = 1, ρ = 0, ρ + = 0. On évalue q(1) (voir méthode dans la description de l itération k). (ii) Itération k. Tant que q(ρ) > q(0) + m 1 ρq (0) ou q (ρ) < m 2 q (0) : On détermine k m = (I + ρd m )( m ), puis on résout le problème : µ u k m + pk m + u k m uk m = 0 x k m, i {1,2,3} div u k m = 0 x k m u k m = u 0 x E u k m = 0 x Γk m p k mn + µε(u k m ) n = p 0.n x S, On évalue alors q(ρ) = L b ( k m,µ m ). (a) Si q(ρ) > q(0) + m 1 ρq (0), on pose ρ + ρ ; (b) Sinon, si q(ρ) q(0) + m 1 ρq (0) et q (ρ) < m 2 q (0), on pose ρ ρ. Si ρ + = 0, alors ρ 2ρ ; Sinon, si ρ + > 0, alors ρ ρ + ρ +. 2 (iii) ρ m est le premier réel vérifiant q(ρ) q(0) + m 1 ρq (0) et q (ρ) m 2 q (0). Remarque III.3.9 Cette méthode de recherche du pas est coûteuse, puisqu elle nécessite quelques résolutions d un système de Navier-Stokes. En pratique, il est toujours intéressant de commencer à regarder si l algorithme du gradient à pas constant parvient à faire décroître la fonctionnelle 79
86 CHAPITRE III. OPTIMISATION DE FORME EN MÉCANIQUE DES FLUIDES L b (,µ m ), au moins pour les premières itérations de l algorithme du Lagrangien augmenté, plutôt que d utiliser immédiatement un algorithme de recherche du pas. En général, au voisinage d un optimum (local) et après quelques itérations, une méthode de recherche du pas doit être mise en place, car autrement, on n observe pas toujours de convergence. 80
87 A Quelques rappels d optimisation en dimension finie On s intéresse aux problèmes du type suivant : "trouver le minimum d une fonction sans ou avec contrainte(s) en dimension finie". Le problème se formule de la façon suivante : problème sans contrainte inf x IR n J(x), problème avec contrainte(s) inf J(x), x C où C IR n. Traiter des problèmes d optimisation en dimension finie présente un intérêt pratique certain. En effet, dès que l on souhaite réaliser des simulations numériques d un problème d optimisation continu, on est amené à le discrétiser, ce qui consiste à réaliser une projection sur un espace de dimension finie. Nous rappelons sommairement ici quelques pistes permettant de répondre aux questions suivantes : comment montrer l existence et l unicité des solutions d un problème d optimisation? comment déterminer les minimiseurs/maximiseurs à l aide des conditions locales d optimalité? Nous envisagerons essentiellement deux types de contraintes : C = {x IR n tels que : ϕ i (x) 0, i I} (contraintes inégalités), C = {x IR n tels que : ϕ i (x) = 0, i I} (contraintes égalités), les fonctions ϕ i étant des fonctions continues (au moins) de IR n dans IR. Définition I Contrainte active/saturée Soit une contrainte inégalité ϕ i (x) 0 et x 0 un point de IR n. Si x 0 satisfait ϕ i (x 0 ) < 0, on dit que la contrainte est inactive en x 0, tandis que si x 0 satisfait ϕ i (x 0 ) = 0, on dit que la contrainte est active ou saturée en x 0. On rencontre parfois une classification des problèmes d optimisation, ce qui permet de choisir un algorithme de résolution adapté. Par exemple, on parle de programmation linéaire lorsque J est linéaire et C est un polyèdre (convexe) défini par C = {x IR n, Bx b}, 81
88 CHAPITRE A QUELQUES RAPPELS D OPTIMISATION EN DIMENSION FINIE où B est une matrice m n et b un élément de IR n 1, de programmation quadratique lorsque J est de la forme J(x) = 1 2 Ax, x IR n + b, x IR n + c, où A est une matrice symétrique, b un élément de IR n 1, c un réel et C est encore en général un polyèdre convexe, de programmation convexe lorsque la fonctionnelle J et l ensemble C sont convexes (C étant encore polyédrique), d optimisation différentiable lorsque J et les fonctions ϕ i sont une ou deux fois différentiables. d optimisation non différentiable lorsque J ou les fonctions ϕ i ne sont pas différentiables (c est l exemple de la minimisation de x x sur IR). I.1 Résultats d existence et d unicité La plupart des théorèmes d existence de minimum sont des variantes du théorème classique suivant : une fonction continue sur un compact admet un minimum. Théorème I.1.1. Existence Soit J une fonction continue sur un sous-ensemble C fermé de IR n. On suppose que ou bien C est borné, ou bien C et non borné et coercive), alors J possède un minimum sur C. lim J(x) = + (on dit alors que J est x + La convexité joue un rôle extrêmement important en optimisation puisqu elle permet d étudier en général l unicité des solutions d un problème d optimisation. Définition I.1.2. Ensemble/Fonction convexe (i) Un ensemble C est dit convexe si, pour tous points x et y de C, le segment [x; y] est inclus dans C, i.e. quel que soit t [0; 1], le point tx + (1 t)y appartient à C. (ii) Une fonction J définie sur un ensemble convexe C est dite convexe si (x,y) C 2, t [0; 1], J(tx + (1 t)y) tj(x) + (1 t)j(y). La fonction est dite strictement convexe si (x,y) C 2, x y, t ]0; 1[, J(tx + (1 t)y) < tj(x) + (1 t)j(y). Lorsqu une fonction convexe est différentiable, la caractérisation suivante est utile. 82
89 I.2. CONDITIONS D OPTIMALITÉ Proposition I.1.3. Soit J une fonction différentiable définie sur un convexe C de IR n et à valeurs réelles. La fonction J est convexe si et seulement si (x,y) C 2, J(x), y x IR n J(y) J(x). Remarque I.1.4 On a une caractérisation similaire pour les fonctions strictement convexe : il suffit de remplacer convexe par strictement convexe et l inégalité large par une inégalité stricte dans la proposition I.1.3. Le résultat suivant montre l impact de la convexité dans les problèmes d optimisation. Proposition I.1.5. Unicité Soit J une fonction convexe définie sur un ensemble convexe C de IR n. Alors, tout minimum local de J sur C est un minimum global, si J est strictement convexe, il y a au plus un minimum global. I.2 Conditions d optimalité Nous supposons dans tout ce paragraphe que J : IR N IR est une fonction une ou deux fois différentiable. On notera x un minimum (local) de J. I.2.1 Cas sans contrainte Ce qui suit reste valable dans le cas où J : C IR N IR, lorsque le minimum x se trouve à l intérieur de l ensemble des contraintes C. Théorème I.2.1. Conditions nécessaires d optimalité Soit x, un minimum local du problème inf J(x). x IR n Alors, x vérifie nécessairement Condition au premier ordre : si J est différentiable en x, on a J(x ) = 0, Condition au second ordre : si J est deux fois différentiable au point x, alors la forme quadratique D 2 J(x ) est semi-définie positive i.e. y IR n, D 2 J(x )y, y IR n 0, où D 2 J(x ) est la matrice hessienne, définie par les coefficients 2 J xi xj (x ). 83
90 CHAPITRE A QUELQUES RAPPELS D OPTIMISATION EN DIMENSION FINIE Nous énonçons à présent des conditions nécéssaires et suffisantes pour qu un point x soit un minimum, dans le cas où J est suffisamment régulière. Théorème I.2.2. Conditions suffisantes d optimalité Soit J une fonction de classe C 1 définie sur IR n. On suppose que : J(x ) = 0 et que J est deux fois différentiable en x. Alors, x est un minimum (local) de J si l une des deux conditions suivantes est vérifiée : (i) D 2 J(x ) est définie positive, (ii) r > 0 tel que J est deux fois différentiable sur B(x,r) et, la forme quadratique D 2 J(x) est semi-définie positive pour tout x B(x,r) Dans le cas où J est convexe, la condition suffisante s exprime beaucoup plus facilement. En effet, nous avons la Proposition I.2.3. C.N.S., cas convexe Soit J une fonction convexe de classe C 1, définie sur IR n et x un point de IR n. Alors, x est un minimum (global) de J si et seulement si J(x ) = 0. I.2.2 Cas avec contraintes Dans cette seconde situation plus complexe, nous avons le résultat suivant. Proposition I.2.4. Conditions d optimalité sous contrainte Soit J une fonction convexe de classe C 1, définie sur un ensemble convexe C IR n, et x un point de C. Alors, x est un minimum (global) de J sur C si et seulement si y C, J(x ),y x IR n 0. Contraintes inégalités On suppose, dans cette partie, que l ensemble C sur lequel on veut minimiser J est donné par des contraintes de type inégalités C = {x C, g i (x) 0, i = 1,...,m}, où les g i sont des fonctions de classe C 1 de IR n dans IR. Définition I.2.5. Cône des directions admissibles On dit qu un arc de courbe γ : [0; ε] IR n est admissible si γ(0) = x et γ(t) C, pour t > 0 suffisamment voisin de 0. On appelle direction admissible au point x les vecteurs tangents au point x des courbes admissibles. On note C ad (x ) le cône des directions admissibles au point x. Notons I 0 (x ) l ensemble des contraintes saturées/actives au point x, c est-à-dire l ensemble I 0 (x ) = {i {1,,m} g i (x ) = 0}. 84
91 I.2. CONDITIONS D OPTIMALITÉ Les conditions d optimalité pour ce problème s écrivent alors de la façon suivante. Proposition I.2.6. Inégalité d Euler Si J est différentiable en x et si x est un minimum de la fonction J sur C, alors pour toute direction admissible y. J(x ), y IR n 0, Afin de préciser les conditions d optimalité, il est nécessaire de décrire plus précisément les directions admissibles. Définition I.2.7. Contrainte active, qualification des contraintes Soit x C. On dit que les contraintes sont qualifiées en x C si, et seulement si il existe une direction d R n telle que l on ait pour tout i I 0 (x ), g i (x ),d IR n < 0. (A1) On peut montrer que les contraintes sont qualifiées au point x si ou bien les fonctions g i sont affines, ou bien les vecteurs g i (x ), i I 0, sont linéairement indépendants. Nous avons alors la caractérisation. Proposition I.2.8. Si les contraintes sont qualifiées au point x, alors y est une direction admissible si et seulement si g i (x ), y IR n 0, i I 0 (x ). On a alors le théorème fondamental suivant dû à Kuhn-Tucker. Théorème I.2.9. Kuhn-Tucker (1951) Soit J et g i, i I = {1,...,m}, des fonctions de classe C 1. On suppose les contraintes qualifiées au point x. Alors, une condition nécessaire pour que x soit un minimum de J sur l ensemble C = {x IR n, g i (x) 0, i I}, est qu il existe des nombres positifs λ 1,...,λ m (appelés multiplicateurs de Kuhn-Tucker ou de Lagrange généralisés) tels que m J(x ) + λ i g i (x ) = 0, i=1 avec λ i g i (x ) = 0, i I. Attention, ce résultat n est pas une équivalence mais une condition nécessaire (et locale) d optimalité. Elle le devient par contre lorsque nous considérons une fonction convexe, 85
92 CHAPITRE A QUELQUES RAPPELS D OPTIMISATION EN DIMENSION FINIE comme le stipule le théorème qui suit. Théorème I On reprend les hypothèses du théorème de Kuhn-Tucker et on suppose de plus que J et les g i sont convexes. Alors, x est un minimum de J sur C = {x IR n, g i (x) 0, i I} si et seulement si il existe des nombres positifs λ 1,...,λ m tels que m J(x ) + λ i g i (x ) = 0, i=1 avec λ i g i (x ) = 0, i I. Contraintes égalités Nous supposons ici que l ensemble des contraintes est de type égalités, i.e. f i (x) = 0. Puisqu une contrainte égalité est équivalente à deux contraintes inégalités, à savoir f i (x) 0 et f i (x) 0, nous allons pouvoir nous ramener au cas précédent. Ce qu il faut retenir dans ce cas est que les contraintes sont forcément saturées (évident), pour qu une direction y soit admissible, il faut supposer ici f i (x ), y IR n = 0, pour tout i, on a la même notion de contraintes qualifiées : si on suppose que les vecteurs f i (x ) sont linéairement indépendants, alors la direction y est admissible si et seulement si f i (x ), y IR n = 0, pour tout i. Lorsque l on écrit la condition de Kuhn-Tucker pour les contraintes égalités, nous allons avoir m J(x ) + λ 1 i f i (x ) λ 2 i f i (x ) = 0, ou encore i=1 J(x ) + m µ i f i (x ) = 0, i=1 en posant µ i = λ 1 i λ2 i. Les multiplicateurs µ i ne vérifient pas de conditions de signes (contrairement au cas avec contraintes inégalités). Ces nombres s appellent multiplicateurs de Lagrange. Afin de résumer l ensemble de ces résultats, énonçons le théorème suivant. Théorème I Kuhn-Tucker, Lagrange Soit J, f i, i {1,...,p}, g j, j {1,...,m}, des fonctions de classe C 1. On introduit l ensemble des contraintes C = {x IR n, f i (x ) = 0, i {1,...,p}, g i (x ) 0, i {1,...,m}}. On suppose les contraintes qualifiées au point x. Alors, une condition nécessaire pour que x soit un minimum de J sur C est qu il existe des nombres positifs λ 1,...,λ m, et des nombres réels µ 1,...,µ p, tels que J(x ) + m λ j g j (x ) + j=1 p µ i f i (x ) = 0, i=1 avec λ j g j (x ) = 0, 1 j m. 86
93 B Algorithmes d optimisation sans contrainte en dimension finie Une grande classe d algorithmes que nous allons considérer pour les problèmes d optimisation ont la forme générale suivante x (0) étant donné, calculer x (k+1) = x (k) + ρ (k) d (k). (B1) Le vecteur d (k) s appelle la direction de descente, ρ (k) le pas de la méthode à la k-ième itération. En pratique, on s arrange pour satisfaire l inégalité J(x (k+1) ) J(x (k) ). De tels algorithmes sont souvent appelés méthodes de descente. Essentiellement, la différence entre ces algorithmes réside dans le choix de la direction de descente d (k). Cette direction étant choisie, nous sommes plus ou moins ramenés à un problème unidimensionnel pour la détermination de ρ (k). Pour ces raisons, commençons par analyser le cas de la dimension un. II.1 Algorithmes unidimensionnels ou recherche du pas Soit ρ q(ρ) la fonction coût que l on cherche à minimiser. On pourra prendre par exemple q(ρ) = J(x (k) + ρd (k) ) afin d appliquer les idées au cas de la méthode de descente. Supposons que l on connaisse un intervalle [a; b] contenant le minimum ρ de q et tel que q soit décroissante sur [a; ρ ] et croissante sur ]ρ ; b] (q est alors appelée fonction unimodale). II.1.1 Méthode de la section dorée On construit une suite décroissante d intervalles [a i ; b i ] qui contiennent tous le minimum ρ. Pour passer de [a i ; b i ] à [a i+1 ; b i+1 ], on procède de la manière suivante. On introduit deux nombres a et b de l intervalle [a i ; b i ] et tels que a < b. Puis, on calcule les valeurs q(a ) et q(b ). Trois possibilités se présentent alors à nous. Si q(a ) < q(b ), alors, le minimum ρ se trouve nécessairement à gauche de b. Ceci définit alors le nouvel intervalle en posant a i+1 = a i et b i+1 = b. Considérons maintenant que l inégalité : q(a ) > q(b ) est satisfaite. Dans ce second cas, il est évident que le minimum se trouve cette fois à droite de a. On pose alors : a i+1 = a et b i+1 = b i. Enfin, le dernier cas consiste à avoir q(a ) = q(b ). Alors, le minimum se trouve dans l intervalle [a ; b ]. On se restreint donc à a i+1 = a et b i+1 = b. La question suivante se pose : comment choisir a et b en pratique? En général, on privilégie deux aspects : 87
94 CHAPITRE B ALGORITHMES D OPTIMISATION SANS CONTRAINTE EN DIMENSION FINIE (i) on souhaite que le facteur de réduction τ, qui représente le ratio du nouvel intervalle par rapport au précédent, soit constant, (ii) on désire réutiliser le point qui n a pas été choisi dans l itération précédente afin de diminuer les coûts de calculs. On peut montrer que la vérification simultanée de ces deux contraintes conduit à un choix unique des paramètres a et b. Plus précisément, supposons que q est unimodale. Alors, on obtient l algorithme de la table B1 dit de la section dorée, la méthode tirant son nom de la valeur du paramètre τ. poser τ = poser a 0 = a poser b 0 = b pour i = 0,...,N max poser a = a i + 1 τ 2 (b i a i ) poser b = a i + 1 τ (b i a i ) si (q(a ) < q(b )) alors poser a i+1 = a i poser b i+1 = b sinon si (q(a ) > q(b )) alors poser a i+1 = a poser b i+1 = b i sinon si (q(a ) = q(b )) alors poser a i+1 = a poser b i+1 = b fin si fin pour i Table B1 : Algorithme de la section dorée. Ici, N max est le nombre maximal d itérations que l on se fixe. A cette fin, on doit valider un critère d arrêt de la forme : b i+1 a i+1 < ε, où ε est l erreur (ou tolérance) que l on se permet sur la solution ρ du problème. II.1.2 Méthode d interpolation parabolique L idée maîtresse de la méthode d interpolation parabolique consiste à remplacer la fonction coût q par son polynôme d interpolation p d ordre deux (d où l appellation d interpolation parabolique) en trois points x 0, y 0 et z 0 de l intervalle [a; b]. Ces points sont choisis tels que : q(x 0 ) q(y 0 ) et q(z 0 ) q(y 0 ). On peut montrer que si nous posons q[x 0 ; y 0 ] = q(y 0) q(x 0 ) y 0 x 0, et q[x 0 ; y 0 ; z 0 ] = q[z 0; y 0 ] q[x 0 ; y 0 ] z 0 x 0, 88
95 II.1. ALGORITHMES UNIDIMENSIONNELS OU RECHERCHE DU PAS alors, le minimum est donné par y 1 = x 0 + y 0 2 q[x 0; y 0 ] 2q[x 0 ; y 0 ; z 0 ]. Il est clair que ρ [x 0 ; z 0 ] selon les choix précédents. On choisit ensuite les trois nouveaux points de la manière suivante si y 1 [x 0 ; y 0 ], on pose alors x 1 = x 0, y 1 = y 1 et z 1 = y 0 puisque ρ [x 0 ; y 0 ], si y 1 [y 0 ; z 0 ], on pose alors x 1 = y 0, y 1 = y 1 et z 1 = z 0 car ρ [y 0 ; z 0 ]. Puis on recommence. Ceci conduit à l algorithme donné table B2. choisir x 0, y 0 et z 0 dans [a; b] tels que q(x 0 ) q(y 0 ) et q(z 0 ) q(y 0 ) pour i = 0,...,N max poser q[x i ; y i ] = q(y i) q(x i ) y i x i poser q[x i ; y i ; z i ] = q[x i; z i ] q[x i ; y i ] z i x i poser y i+1 = x i + y i q[x i; y i ] 2 2q[x i ; y i ; z i ] si y i+1 [x i ; y i ] alors poser x i+1 = x i poser z i+1 = y i sinon si y i+1 [y i ; z i ] alors poser x i+1 = y i poser z i+1 = z i fin si fin pour i Table B2 : Algorithme de l interpolation parabolique. On peut montrer que la méthode est d ordre 1.3. En fait, nous pouvons montrer qu il existe une constante strictement positive C, indépendante de i, telle que l on ait l inégalité y i+1 ρ C y i ρ 1.3. Dire que la méthode est d ordre 1.3 signifie que si à une étape donnée l erreur de 10 2, elle sera de l ordre de (10 2 ) à l étape suivante. Une des difficultés concerne l initialisation de l algorithme. Pratiquement, on peut procéder de la façon suivante. On choisit un point α 0 de l intervalle [a; b] ainsi qu un pas de déplacement positif δ. On calcule ensuite q(α 0 ) et q(α 0 + δ). On a alors deux situations si q(α 0 ) q(α 0 + δ), alors q décroît et donc ρ est à droite de α 0. On continue alors à calculer q(α 0 + 2δ), q(α 0 + 3δ),..., q(α 0 + kδ) jusqu à tomber sur un entier k tel que q croît : q(α 0 + kδ) > q(α 0 + (k 1)δ), avec k 2. On pose alors x 0 = α 0 + (k 2)δ, y 0 = α 0 + (k 1)δ, z 0 = α 0 + kδ. si q(α 0 ) < q(α 0 + δ), alors ρ est à gauche de α 0 + δ. On prend δ comme pas jusqu à tomber sur un entier k tel que : q(α 0 kδ) q(α 0 (k 1)δ). On pose alors x 0 = α 0 kδ, y 0 = α 0 (k 1)δ, z 0 = α 0 (k 2)δ. 89
96 CHAPITRE B ALGORITHMES D OPTIMISATION SANS CONTRAINTE EN DIMENSION FINIE Remarque II.1.1 D autres règles La recherche du pas n est qu une étape d un algorithme plus complexe pour minimiser J. La philosophie générale est alors de plutôt essayer d avoir une approximation satisfaisante du pas optimal. Si nous considérons q(ρ) = J(x + ρd), avec ρ > 0, nous avons q (ρ) = J(x + ρd), d IR n. Par conséquent, puisque d est une direction de descente, q (0) = J(x), d IR n < 0. Il s ensuit que si nous prenons ρ un peu à droite de 0, on est sûr de faire décroître q. Toutefois, il faut faire attention car deux éléments contradictoires sont à prendre en compte si ρ est trop grand, on risque de ne pas faire décroître la fonction q ou son comportement peut être oscillant, si ρ est trop petit, l algorithme n avancera pas assez vite. II.2 Quelques notions sur les algorithmes Intéressons-nous maintenant au développement d algorithmes numériques de résolution des problèmes de minimisation destinés à être mis en oeuvre sur calculateurs. Nous ne verrons ici que des algorithmes de base, l optimisation étant un vaste domaine de recherche et d applications. Nous ne nous intéresserons ici qu à l optimisation locale, la recherche d un extremum global étant hors de portée de cette introduction. Par ailleurs, l hypothèse de différentiabilité nous suivra tout le long de cet exposé et l optimisation non différentiable n est pas traitée ici. Un algorithme... Mais qu est qu un algorithme? Définition II.2.1. Algorithme itératif Un algorithme itératif est défini par une application vectorielle A : IR n IR n qui génère une suite de champs de vecteurs (x (k) ) k 0 par une construction typiquement de la forme choisir x (0) (phase d initialisation de l algorithme) calculer x (k+1) = A(x (k) ) (k-ième itération)) Bien sûr, ce que nous espérons, c est que la suite (x (k) ) k 0 converge vers une limite x qui sera effectivement notre point de minimum relatif. On dit que l algorithme converge vers la solution du problème de minimisation si c est la cas. Lorsque l on a un algorithme donné, deux mesures importantes de son efficacité sont : d une part la vitesse de convergence, d autre part, sa complexité calculatoire. La vitesse de convergence mesure "la rapidité" avec laquelle la suite (x (k) ) k 0 converge vers le point x. La complexité mesure le coût des opérations nécessaires pour obtenir une itération, le coût global étant le coût d une itération multiplié par le nombre d itérations pour obtenir la solution escomptée avec une certaine précision ε fixée a priori. On prend généralement les appellations suivantes. On introduit l erreur vectorielle sur la solution : e (k) = x x (k). Si sa norme (euclidienne) décroît linéairement, alors, on dit que la vitesse de convergence est linéaire. Plus mathématiquement, 90
97 II.3. MÉTHODES DE GRADIENT cette propriété s exprime par une relation du type C [0; 1[, k 0 N k k 0, e (k+1) IR n C e (k) IR n. On voit bien à ce niveau que la vitesse de convergence est un notion asymptotique. Elle n est pas nécessairement observable à la première itération. Si nous observons une relation du type e (k+1) IR n γ (k) e (k) IR n, nous dirons que la vitesse est superlinéaire si lim k + γ (k) = 0, pour γ (k) 0, pour tout k 0. On parle de convergence géométrique lorsque la suite (γ (k) ) k est une suite géométrique. La méthode est dite d ordre p si l on a une relation du type C [0; 1[, k 0 N k k 0, e (k+1) IR n C e (k) p IR n. Si p = 2, nous dirons que la vitesse de convergence est quadratique. Finalement, si la convergence a lieu seulement pour des x (0) voisins de x, nous parlerons de convergence locale, sinon, nous dirons globale. II.3 Méthodes de gradient II.3.1 Gradient à pas fixe ou optimal La méthode du gradient fait partie des classes de méthodes dites de descente. Quelle est l idée cachée derrière ces méthodes? Considérons un point de départ x (0) et cherchons à minimiser une fonction J. Puisque l on veut atteindre x, nous cherchons à avoir : J(x (1) ) < J(x (0) ). Une forme particulièrement simple est de chercher x (1) tel que le vecteur x (1) x (0) soit colinéaire à une direction de descente d (0) 0. Nous le noterons : x (1) x (0) = ρ (0) d (1), où ρ (0) est le pas de descente de la méthode. On peut alors itérer de cette manière en se donnant x (k), d (k) et ρ (k) pour atteindre x (k+1) par choisir x (0) calculer x (k+1) = x (k) + ρ (k) d (k) avec d (k) IR n et ρ (k) > 0. De nombreux choix existent pour d (k) et ρ (k). La première question consiste à choisir la direction de descente. Rappelons que le développement de Taylor de J au premier ordre donne au voisinage de x (k+1) J(x (k+1) ) = J(x (k) + ρ (k) d (k) ) = J(x (k) ) + ρ (k) J(x (k) ), d (k) IR n + ρ (k) ) d (k) IR ne(x (k) ; ρ (k) d (k) ), où lim ρ (k) d (k) 0 E(x(k) ; ρ (k) d (k) ) = 0. Or, puisque l on désire avoir : J(x (1) ) < J(x (0) ), une solution évidente consiste à prendre d (k) = J(x (k) ), puisqu alors J(x (k+1) ) J(x (k) ) = ρ (k) J(x (k) ) 2 + IR o(ρ(k) ). n Nous voyons que si ρ (k) est suffisamment petit, on aura J(x (k+1) ) < J(x (k) ). La méthode obtenue avec le choix d (k) = J(x (k) ) est appelée méthode de gradient. Lorsque l on travaille sur une résolution numérique d un problème, on se donne en général un critère d arrêt de la forme : x (k+1) x (k) < ε. De plus, puisque la convergence n est pas toujours 91
98 CHAPITRE B ALGORITHMES D OPTIMISATION SANS CONTRAINTE EN DIMENSION FINIE assurée, une règle de base est de fixer un nombre maximum d itérations k max. On obtient alors l algorithme présenté table B3 et dit du gradient. poser k = 0 choisir x (0) tant que ( x (k+1) x (k) IR n ε) et (k k max ) faire calculer d (k) = J(x (k) ) calculer ρ (k) poser x (k+1) = x (k) + ρ (k) d (k) fin tant que Table B3 : Algorithme du gradient. Même si ces méthodes sont conceptuellement très simples et qu elles peuvent être programmées directement, elles sont souvent lentes dans la pratique. Elles convergent mais sous des conditions de convergence souvent complexes. A titre d exemple, donnons le résultat suivant. Théorème II.3.1. Algorithme du gradient à pas variable Soit J une fonction de classe C 1 de IR n dans IR, x un minimum de J. Supposons que (i) J est α-elliptique, c est-à-dire, α > 0, (x,y) (IR n ) 2, J(x) J(y)), x y IR n α x y 2 IR n. (ii) l application J est lipschitzienne M > 0, (x,y) (IR n ) 2, J(x) J(y) IR n M x y IR n. S il existe deux réels a et b tels que ρ (k) satisfasse 0 < a < ρ (k) < b < 2α M 2, pour tout k 0, alors, la méthode du gradient définie par x (k+1) = x (k) ρ (k) J(x (k) ) converge pour tout choix de x (0) de façon géométrique, autrement dit β ]0; 1[, x (k+1) x IR x βk (0) x IR. n n Le choix du pas ρ (k) peut être effectué de la manière suivante soit ρ (k) = ρ est fixé a priori : c est ce que l on appelle la méthode du gradient à pas fixe ou constant, soit ρ (k) est choisi comme le minimum de la fonction q(ρ) = J(x (k) ρ J(x (k) )). C est ce que l on appelle la méthode du gradient à pas optimal, soit ρ (k) est calculé par les méthodes présentées précédemment. Dans le cas du gradient à pas optimal, nous avons le même résultat de convergence que précédemment sous des hypothèses faibles sur J. 92
99 II.3. MÉTHODES DE GRADIENT Théorème II.3.2. Algorithme du gradient à pas optimal Soit J une fonction de classe C 1 de IR n dans IR, x un minimum de J. On suppose que J est α-elliptique. Alors, la méthode du gradient à pas optimal converge pour tout choix du vecteur d initialisation x (0). Remarque II.3.3 Même pour le gradient à pas optimal qui est en principe la meilleure de ces méthodes d un point de vue de la rapidité de convergence, celle-ci peut être lente car altérée par un mauvais conditionnement de la matrice hessienne de J. Par ailleurs, on peut considérer des critères de convergence sur le gradient de J en x (k) : J(x (k) ) < ε 1. II.3.2 Méthode du gradient conjugué Considérons une matrice A, définie positive, et soit J la fonctionnelle quadratique définie par J : IR n IR x J(x) = 1 2 Ax,x IR n b,x IR n. La fonction J est alors une fonctionnelle strictement convexe et C. On calcule J(x) = Ax b et HessJ(x) = A. Par conséquent, le minimum (unique et global) de J est réalisé en x tel que : Ax = b. Définition II.3.4. Directions conjuguées Nous dirons que deux vecteurs (ou directions) d 1 et d 2 sont conjugués pour la matrice A si Ad 2, d 1 IR n = 0. Ceci signifie que ces deux vecteurs sont orthogonaux pour le produit scalaire associé à la matrice A, défini par x, y A = Ax, y IR n, (x, y) (IR n ) 2. Faisons l hypothèse que nous connaissons k directions conjuguées d (0),..., d (k 1). La méthode de descente consiste, en partant d un point x (0) IR n, à calculer par des itérations successives x (k+1) tel qu il satisfasse J(x (k+1) ) = J(x (k) + ρ (k) d (k) ) = min ρ IR J(x(k) + ρd (k) ). On peut expliciter la valeur de ρ (k) en utilisant la condition de minimum au premier ordre. On obtient ρ (k) = Ax(k) b,d (k) IR n d (k) 2 A = x(k),d (k) A d (k) 2 A + b, d(k) IR n d (k) 2 A (B2) 93
100 CHAPITRE B ALGORITHMES D OPTIMISATION SANS CONTRAINTE EN DIMENSION FINIE en posant d (k) A = d (k), d (k) 1/2 A. Or, par définition, x(k) x (0) peut s exprimer selon les vecteurs d (0),..., d (k 1) puisque x (k) = x (k 1) + ρ (k 1) d (k 1) = x (k 2) + ρ (k 2) d (k 2) + ρ (k 1) d (k 1) =... k 1 = x (0) + ρ (l) d (l) l=0 Ainsi, nous pouvons simplifier (B2) par conjugaison pour écrire ρ (k) = x(0),d (k) A d (k) 2 A + b, d(k) IR n d (k) 2 A = r(0),d (k) A d (k) 2, A où le vecteur résidu r (0) à l instant initial est défini par : r (0) = Ax (0) b. Le succès de l algorithme du gradient conjugué est intimement lié à la proposition importante suivante. Proposition II.3.5. Le point x (k) est le minimum de J sur le sous-espace affine passant par x (0) engendré par les vecteurs {d (0),...,d (k 1) }. Une conséquence fondamentale de la proposition précédente est que, si l on est capable de trouver n directions conjuguées {d (0),...,d (n 1) }, on a résolu le problème de minimisation puisque {d (0),...,d (n 1) } est une base de IR n. En fait, l algorithme du gradient conjugué consiste à construire simultanément ces directions conjuguées par le procédé de Gram- Schmidt. Plus précisément, l algorithme est décrit dans la table B4. 94
101 II.4. LES MÉTHODES DE NEWTON ET QUASI-NEWTON k = 0 choisir x (0) IR n choisir ε > 0 choisir ε 1 > 0 poser r (0) = J(x (0) ) tant que ( x (k+1) x (k) IR n ε) et (k k max ) faire si ( r (k) IR n < ε 1 ) alors arrêt sinon si (k = 0) alors poser d (k) = r (k) sinon calculer α (k) = r(k),d (k 1) A d (k 1) 2 A poser d (k) = r (k) + α (k) d (k 1) fin si calculer ρ (k) = r(k),d (k) IR n d (k) 2 A poser x (k+1) = x (k) + ρ (k) d (k) calculer r (k+1) = Ax (k+1) b poser k = k + 1 fin si fin tant que Table B4 : Algorithme du gradient conjugué pour une fonctionnelle quadratique. L algorithme de Gram-Schmidt peut, dans certains cas, s avérer instable. Due aux erreurs d arrondis, la méthode peut mettre un peu plus que n itérations pour converger. Rappelons que l algorithme présenté ici était particularisé au cas d une fonctionnelle quadratique. On peut étendre l algorithme pour une fonctionnelle J quelconque de manière efficace. On calcule alors d (k) comme précédemment ou selon une variante (Polak-Ribière) d (k) = J(x (k) ) + J(x(k) ), J(x (k) ) J(x (k 1) ) IR n J(x (k 1) ) 2 IR n d (k 1), et on obtient ρ (k) en optimisant numériquement ρ J(x (k) ρd (k) ). Bien sûr, plus rien ne garantit que la méthode convergera en un nombre fini d itérations. II.4 Les méthodes de Newton et quasi-newton La méthode de Newton n est pas à proprement parler une méthode d optimisation. C est une méthode de recherche de zéros d une fonction F : IR n IR n, autrement dit on résout F (x) = 0. L idée en optimisation est d appliquer cette méthode en vue de la résolution de l équation J(x) = 0, condition nécessaire de premier ordre pour la détection d extrema d une fonction (cas sans contrainte). L équation J(x) = 0 est donnée par un système 95
102 CHAPITRE B ALGORITHMES D OPTIMISATION SANS CONTRAINTE EN DIMENSION FINIE n n d équations non linéaires. La méthode s écrit formellement x (k+1) = x (k) [D 2 J(x (k) )] 1 J(x (k) ). II.4.1 Méthodes de Newton Cherchons à résoudre, pour f : IR IR, une équation f(x) = 0. Nous supposons que f est de classe C 1. L algorithme de Newton est donné table B5. poser k = 0 choisir x (0) dans un voisinage de x choisir ε > 0 tant que ( x (k+1) x (k) ε) et (k k max ) faire poser x (k+1) = x (k) f(x(k) ) f (x (k) ) poser k = k + 1 fin tant que Table B5 : Méthode de Newton unidimensionnelle. Une interpétation géométrique simple de cette méthode est donnée à partir de la tangente au point x (k). La convergence de la méthode doit être précisée ainsi que la définition de la suite (f (x (k) )) k. Généralisons maintenant cette méthode au cas d un champ scalaire J donné de IR n dans IR. Soit F une fonction de classe C 1. On suppose que l équation F (x) = 0 possède au moins une solution notée x et que la matrice DF (x ) est une matrice inversible. La continuité de DF permet en fait d assurer l inversibilité de DF (x (k) ) pour tout point x (k) se trouvant dans un voisinage de x et permet de définir l itéré x (k+1). L extension de la seconde étape est réalisée par la résolution du système linéaire [DF (x (k) )]δ (k) = F (x (k) ), puis on pose x (k+1) = x (k) δ (k). En résumé, l algorithme de Newton peut s écrire sous la forme présentée table B6. En ce qui concerne la convergence de ce dernier algorithme, nous avons le résultat suivant. 96
103 II.4. LES MÉTHODES DE NEWTON ET QUASI-NEWTON Théorème II.4.1. Soit F : IR n IR n une fonction de classe C 1 et x un zéro de F. On suppose que ce zéro est isolé et que DF (x ) est inversible (DF désigne la dérivée première de F ). Alors, il existe une boule B(x ) telle que, pour tout point x (0) B(x ), la suite (x (k) ) k définie par la méthode de Newton est entièrement contenue dans B(x ) et converge vers x, seul zéro de F dans B(x ). De plus, la convergence est géométrique : il existe β ]0; 1[ tel que k 0, x (k+1) x β k x (0) x. Par conséquent, si nous choisissons x (0) "suffisamment près" de x, la méthode de Newton converge. Un des gros problèmes de cette méthode est que le choix de x (0) joue un grand rôle sur la convergence de la méthode de Newton. La méthode est très sensible à l initialisation. Il peut aussi arriver que la méthode converge vers un extremum qui n est pas celui cherché. Une approche possible consiste à faire tourner quelques itérations d une méthode de gradient pour approcher x et de considérer l itéré résultant comme le point de départ de la méthode de Newton. L avantage de la méthode de Newton est sa grande rapidité de convergence : la convergence de la méthode de Newton est quadratique. Un des inconvénients de la méthode de Newton réside également dans le fait que nous avons à évaluer et "à inverser" (en fait résoudre un système plein associé) la matrice DF (x (k) ) à chaque itération. Certaines méthodes proposent d utiliser non pas DF (x (k) ) comme matrice mais plutôt une approximation de celle-ci (plus précisemment, dans les méthodes de quasi-newton décrites ci-dessous, on construit une suite de matrices S (k) qui approchent [DF (x (k) )] 1 ). Lorsque l on utilise la méthode de Newton pour résoudre : J(x ) = 0, on prend bien sûr F = J. La méthode donnera alors les points critiques de J, la propriété de minimum étant à vérifier a posteriori. Dans ce cas, DF est la matrice hessienne D 2 J. poser k = 0 choisir x (0) dans un voisinage de x choisir ε > 0 tant que ( x (k+1) x (k) ε) et (k k max ) faire resoudre le systeme lineaire [DF (x (k) )]δ (k) = F (x (k) ) poser x (k+1) = x (k) δ (k) poser k = k + 1 fin tant que Table B6 : Méthode de Newton multidimensionnelle. II.4.2 Méthode de quasi-newton de Lenvenberg-Marquardt (avec recherche linéaire) Nous donnons table B7 un algorithme de type quasi-newton (avec recherche linéaire d Armijo) qui se trouve être à convergence quadratique sous des hypothèses standards (remarquer que l hypothèse de localité du point de départ n est plus demandée). 97
104 CHAPITRE B ALGORITHMES D OPTIMISATION SANS CONTRAINTE EN DIMENSION FINIE choisir (α,β,γ) ]0; 1[ ]0; 1[ ]0; 1[ poser k = 0 choisir x (0) IR n calculer µ (0) = J(x (0) ) 2 choisir ε > 0 tant que ( x (k+1) x (k) ε) et (k k max ) faire resoudre le systeme lineaire [µ (k) Id + D 2 J(x (k) ) T D 2 J(x (k) )]d (k) = D 2 J(x (k) ) J(x (k) ) si ( J(x (k) + d (k) ) γ J(x (k) ) ) alors poser x (k+1) = x (k) + d (k) aller en 4 sinon aller en 3 fin si debut 3 : soit m k le plus petit entier positif tel que Ψ(x (k) + β m d (k) ) 2 Φ(x (k) ) 2 αβ m d (k) Ψ(x (k) ) avec Ψ(x) = 1 2 (x) 2 poser x (k+1) = x (k) + β m d (k) aller en 4 fin 3 : debut 4 : calculer µ (k+1) = J(x (k+1) ) 2 poser k = k + 1 fin 4 : fin tant que Table B7 : Méthode de quasi-newton de Lenvenberg-Marquardt (avec recherche linéaire). Remarque II.4.2 Algorithmes de Quasi-Newton Mentionnons également l existence de méthodes cherchant à imiter l algorithme de Newton tout en évitant de calculer D 2 J et "son inverse". Plus précisément, cela signifie qu à l itération k, on cherche à construire une approximation S (k) symétrique définie positive de [D 2 J(x (k) )] 1 et ρ (k) un paramètre positif fourni par un algorithme de minimisation unidimensionnel le long de la direction d (k) = S (k) J(x (k) ) tels que l opération classique x (k+1) = x (k) [D 2 J(x (k) )] 1 J(x (k) ), soit remplacée par l opération plus simple et beaucoup moins coûteuse x (k+1) = x (k) ρ (k) S (k) J(x (k) ). Le but est de calculer "une bonne approximation" S (k) de [D 2 J(x (k) )] 1, c est-à-dire telle que la différence soit petite pour une norme matricielle. Il s agit par exemple des méthodes de quasi-newton DFP (Davidson-Fletcher-Powell) et BFGS (Broyden-Fletcher-Goldfarb-Shanno) que nous ne décrivons pas dans ce polycopié. 98
105 C Algorithmes d optimisation sous contraintes en dimension finie Soit C un ensemble non vide, fermé de R n. On s intéresse à la résolution du problème (P) inf J (x) x C III.1 Retour sur les conditions d optimalité Rappelons le théorème de Kuhn-Tucker : soit J, f i,i {1,...,p}, g i,i {1,...,m} des fonctions de classe C 1. On veut minimiser J sur l ensemble C = { x IR N, f i (x) = 0, i = 1,...,p, g j (x) 0, j = 1,...,m }. On suppose les contraintes qualifiées au point X. Alors, une condition nécessaire pour que X soit un minimum de J est qu il existe des nombres positifs λ 1,..., λ m et des nombres réels µ 1,..., µ p tels que x J (x ) + m j=1 λ j g j (x ) + p µ i f i (x ) = 0 i=1 avec λ i g i (x ) = 0, i = 1,..., m. (C1) Définition III.1.1. Lagrangien du problème (P) On appelle Lagrangien du problème (P) la fonction définie sur R n R p R m + par : La relation (C1) s écrit alors p L (x,µ,λ) = J (x) + i=1 m µ i f i (x) + λ i g i (x) j=1 x L (x,µ,λ ) = 0 III.2 Conditions d optimalité nécessaires du second ordre Les résultats énoncés dans la section I.2.2 donnent des conditions nécessaires pour résoudre le problème de minimisation sous contraintes. Ils fournissent des candidats valables pour résoudre (P), c est-à-dire les points critiques du Lagrangien. 99
106 CHAPITRE C ALGORITHMES D OPTIMISATION SOUS CONTRAINTES EN DIMENSION FINIE Toutefois, il est nécessaire, pour pouvoir conclure, d avoir des résultats précisant si la solution obtenue est effectivement un minimum. Pour cela, on peut restreindre le nombre de candidats grâce à une conditon du second ordre. Théorème III.2.1. On suppose que J,f et g sont de classe C 2, que x est un minimum (local) de J sur C et que le point x est régulier (i.e. que les contraintes sont qualifiées en ce point). On désigne par µ (resp. λ ) le vecteur des multiplicateurs de Lagrange associés aux contraintes égalités (resp. inégalités). Alors, pour toute direction d R n vérifiant f i (x ),d IR n = 0, i = 1,...,p g j (x ),d IR n = 0, j I 0 + (x ) et g j (x ),d IR n 0, j I 0 (x ) \ I 0 + (x ) } où I 0 + (x ) = {j 1 j q, g j (x ) = 0 et µ j > 0, on a 2 xxl (x,µ,λ ) d,d IR n 0, où 2 xxl (x,µ,λ) désigne la dérivée seconde de L au point (x,µ,λ). Définition III.2.2. L ensemble I 0 + (x ) est l ensemble des contraintes fortement actives. Lorsque I 0 + (x ) = I 0 (x ), c est-à-dire 0 = g j (x ) λ j > 0, on dit qu il y a stricte complémentarité. III.3 Les algorithmes III.3.1 Méthode du gradient projeté Rappelons que, dans le cas sans contrainte, l algorithme du gradient, qui est une méthode de descente, s écrit sous la forme générique. { x (0) R n donné. x (k+1) = x (k) + ρ (k) d (k),d (k) R n \ {0}, ρ (k) R + où f (k) et d (k) sont choisis de telle sorte que J ( x (k+1)) J ( x (k)). Lorsque l on minimise sur un ensemble de contraintes C supposé fermé, il n est pas sûr que x (k) reste dans C. Il est donc nécessaire de se ramener dans C. On réalise cette dernière opération grâce à une projection sur C, l opérateur associé étant noté Π C : R n C. x Π C (x) Ceci donne lieu alors naturellement à l algorithme du gradient projeté, algorithme identique à celui du gradient à la projection près. 100
107 III.3. LES ALGORITHMES Initialisation k = 0 ; choix de x 0 et g 0 > 0 Iteration k Tant que le critere d arret est non satisfait x (k+1) = x (k) ρ (k) J ( x (k)) x (k+1) = Π C x (k+1) k = k + 1 fin Table C1 : Algorithme du gradient projeté. Théorème III.3.1. Algorithme du gradient projeté Soit J une fonction C 1 de R n dans R. On suppose que J est α-elliptique de dérivée M-lipschitzienne (voir le théorème II.3.1). Alors, si on choisit le pas ρ (k) dans un intervalle [β 1 ; β 2 ] tel que 0 < β 1 < β 2 < 2α. Alors la suite ( x (k)) définie par la M 2 k méthode du gradient projeté converge vers la solution du problème (P). Cette approche paraît simple au premier abord. Toutefois, il ne faut pas oublier que l on doit connaître l opérateur de projection sur C, ce qui n est pas, à priori simple. Il est clairement hors de question de résoudre le problème de minimisation pour x IR n fixé inf y C y x 2 IR n qui est lui-même un problème de minimisation sur le même ensemble de contraintes. Dans quelques cas particuliers, on peut expliciter l opérateur de projection. Supposons que C soit une intersection de demi-espaces du type C = {x = (x 1,..., x n ), x i a i, i I, x j b j, j J} I et J étant des ensembles d indices non nécessairement disjoints (ceci contient notamment le cas des pavés). Pour ce qui est du cas d une contrainte du type x i a i, on peut se convaincre facilement que la i-ième coordonnée de Π C x sera x i si x i a i et a i sinon. On raisonne de même pour le cas d une contrainte du type x j b j. On peut résumer cela par (Π C x) i = max (x i,a i ) ou (Π C x) j = min (x j,b j ). Si l ensemble des contraintes est C = {x R n x B f (x 0,R)}, où B f (x 0,R) désigne la boule fermée de centre x 0 et de rayon R > 0 (pour la norme euclidienne), la projection Π C s écrit alors { x, si x C ; Π C x = x 0 + R x x 0 x x 0, si x / C 101
108 CHAPITRE C ALGORITHMES D OPTIMISATION SOUS CONTRAINTES EN DIMENSION FINIE III.3.2 Méthodes de pénalisation Les méthodes de pénalisation sont très utilisées en pratique car elles sont très simples. Elles partent du principe suivant : on remplace le problème avec contraintes. (P) inf J (x) x C R n par un problème sans contraintes (P ε ) inf x R n J (x) + 1 ε α (x), où α : R n R est une fonction de pénalisation des contraintes et ε > 0. Le but est de trouver des fonctions α telles que les problèmes (P) et (P ε ) soient équivalents, c est-à-dire, tels qu ils aient les mêmes solutions. Dans ce cas, on dit que la pénalisation est exacte. On peut, par exemple, choisir { 0 si x C α (x) = + si x / C Cette fonction n a pas de bonnes propriétés mathématiques (notamment la dérivabilité) pour qu on puisse appliquer les techniques de résolution sans contraintes. Principe intuitif des méthodes de pénalisation : on espère que, lorsque ε devient petit, le terme 1 εα(x) sera très grand si x / C, et donc que la contrainte sera naturellement satisfaite à l optimum. En général, on effectue ce que l on appelle une pénalisation dite inexacte, telle que le problème (P) à des solutions qui ne sont pas solutions de (P ε ) ; l ensemble des solutions de (P ε ) ne couvre pas tout l ensemble des solutions de (P). Néanmoins, on peut trouver dans ce cas des fonctions α qui sont dérivables, ce qui permet d utiliser les résultats de minimisation sans contraintes. Donnons quelques exemples de fonctions de pénalisation α où la pénalisation est dite extérieure car la suite (x ε ) ε>0 converge vers x en venant de l extérieur de C. Ici, nous supposons que α vérifie les propriétés suivantes : (i) α est continue sur R n, (ii) x R n, α (x) 0, (iii) α (x) = 0 x C. Nous donnons quelques exemples de fonction de pénalisation pour différentes contraintes : Contrainte x 0 : la fonction α est α (x) = x + 2 IR n, Contrainte h (x) = 0 : la fonction α est α (x) = h (x) 2 IR n, contrainte g (x) 0 : la fonction α est α (x) = g (x) + 2 IR n, où x + = ( x + 1,...,x+ n ). Nous avons alors le résultat de convergence suivant : 102
109 III.3. LES ALGORITHMES Théorème III.3.2. Algorithme de pénalisation Soit J une fonction continue et coercive. Soit C un ensemble fermé non vide. On suppose que α vérifie les conditions suivantes : (i) α est continue sur R n. (ii) x R n,α (x) 0. (iii) α (x) = 0 x C. Alors, ε > 0, (P ε ) a au moins une solution x ε, La famille (x ε ) ε>0 est bornée, Toute sous-suite convergente extraite de (x ε ) ε>0 converge vers une solution de (P) lorsque ε 0. On obtient alors l algorithme suivant de pénalisation extérieure. Initialisation k = 1 Choisir x (0) R n,ε (1) > 0 Iteration k tant que le critere d arret n est { pas satisfait : min J (x) + 1 α (x) a) Resoudre le sous probleme (P ε (k)) ε (k) x R n avec x (k 1) le point d initialisation. b) k k + 1, prendre ε (k+1) < ε (k). Table C2 : Algorithme de pénalisation extérieure III.3.3 Méthode de dualité : l algorithme d Uzawa La technique proposée ici provient de la partie de l optimisation appelée théorie de la dualité convexe. L idée générale est de considérer le Lagrangien L au lieu de la fonction J ; ce choix est motivé (au moins) par deux raisons : La fonction Lagrangienne englobe à la fois la fonction J et les contraintes f et g et représente bien le problème. Ensuite, nous avons vu qu une condition nécessaire du premier ordre pour que x soit un minimum de J avec contraintes est que x (associé aux multiplicateurs de Lagrange) soit un point critique de L. Dans ce paragraphe, nous nous placerons dans le cas particulier où C = { x IR N, f i (x) = 0, i = 1,...,p, g j (x) 0, j = 1,...,m }.. Rappelons que le Lagrangien du problème est p m L (x,µ,λ) = J (x) + µ i f i (x) + λ j g j (x) i=1 j=1 103
110 CHAPITRE C ALGORITHMES D OPTIMISATION SOUS CONTRAINTES EN DIMENSION FINIE Nous avons besoin, pour la suite, de la notion de point-selle. Définition III.3.3. Point-selle (ou point col) On appelle point-selle de L sur R n R p R m + tout triplet (x,µ,λ ) R n R p R m + vérifiant L (x,µ,λ) L (x,µ,λ ) L (x,µ,λ ) (x,µ,λ) R n R p R m + Théorème III.3.4. Supposons que J,f et g soient des fonctions de classe C 1 et que le triplet (x,µ,λ ) R n R p R m + soit un point-selle de L sur R n R p R m +. Alors, ce triplet vérifie les conditions de Kuhn-Tucker. Dans le cas convexe, on a une caractérisation des points-selles grâce aux conditions de Kuhn-Tucker. Théorème III.3.5. Supponsons que J,f et g soient convexes et C 1. Alors, le triplet (x,µ,λ ) R n R p R m + est point-selle de L sur R n R p R m + si et seulement si il vérifie les conditions de Kuhn-Tucker. Le théorème précédent indique une procédure algorithmique de recherche du minimum. Nous allons chercher un triplet (x,µ,λ ) R n R p R m + vérifiant les conditions de Kuhn- Tucker de la façon suivante : (i) Pour (µ,λ ) fixés dans R n (R + ) m, nous allons chercher le minimum sans contrainte (sur tout R n ) de la fonction x L (x,µ,λ ). (ii) Pour x fixé dans R n, on cherche le maximum sur R p R m + (c est-à-dire des contraintes de bornes simples) de la fonction (µ,λ) L (x,µ,λ) On fait ces deux calculs simultanément. On obtient alors l algorithme d Uzawa. 104
111 III.3. LES ALGORITHMES Initialisation : k = 0, choisir µ (0) R p et λ (0) R m + Iteration. Tant que le critere d arret n est pas satisfait : a) calculer x (k) R n solution de ( P (k) ) { min L ( x,µ (k),λ (k)) x R n b) calculer µ (k+1) et λ (k+1) avec { µ (k+1) i = µ (k) ( i + ρ f i x (k) ) (,i = 1,...,p λ (k+1) j = max 0,λ (k) ( j + ρg j x (k) )), j = 1,...,m ou ρ > 0, est un reel fixe (par l utilisateur). Table C3 : Algorithme d Uzawa La première étape revient à résoudre : x L ( x,µ (k),λ (k)) = J (x) + p j=1 La seconde étape est immédiate. On a alors le théorème de convergence suivant. µ (k) j f j (x) + m i=1 λ (k) i g i (x) = 0 Théorème III.3.6. Algorithme d Uzawa On suppose que J est C 1 et elliptique, que f est affine, g convexe de classe C 1 et que h et g sont lipschitziennes. On suppose de plus que le Lagrangien L possède un point-selle (x,µ,λ ) dans R n R p R m +. Alors, il existe ρ 1, ρ 2, avec 0 < ρ 1 < ρ 2 tels que ρ [ρ 1,ρ 2 ], la suite ( x (k)) k>0 générée par l algorithme d Uzawa converge vers x. 105
112 CHAPITRE C ALGORITHMES D OPTIMISATION SOUS CONTRAINTES EN DIMENSION FINIE 106
113 BIBLIOGRAPHIE Bibliographie [All07] [Ams11] [BB02] [BF94] [BF96] [BF06a] [BF06b] Grégoire Allaire, Conception optimale de structures, Mathématiques & Applications (Berlin) [Mathematics & Applications], vol. 58, Springer-Verlag, Berlin, 2007, With the collaboration of Marc Schoenauer (INRIA) in the writing of Chapter 8. MR (2008c :74001) Samuel Amstutz, Augmented Lagrangian for cone constrained topology optimization, Comput. Optim. Appl. 49 (2011), no. 1, MR (2012d :49080) Dorin Bucur and Giuseppe Buttazzo, Variational methods in some shape optimization problems, Appunti dei Corsi Tenuti da Docenti della Scuola. [Notes of Courses Given by Teachers at the School], Scuola Normale Superiore, Pisa, MR (2004h :49001) C.-H. Bruneau and P. Fabrie, Effective downstream boundary conditions for incompressible navier-stokes equations, Int. J. for Num. Methods in Fluids 19 (1994), no. 8, , New efficient boundary conditions for incompressible Navier-Stokes equations : a well-posedness result, RAIRO Modél. Math. Anal. Numér. 30 (1996), no. 7, MR MR (98f :35114) Franck Boyer and Pierre Fabrie, Éléments d analyse pour l étude de quelques modèles d écoulements de fluides visqueux incompressibles, Mathématiques & Applications (Berlin) [Mathematics & Applications], vol. 52, Springer-Verlag, Berlin, MR (2009f :76040), Eléments d analyse pour l étude de quelques modèles d écoulements de fluides visqueux incompressibles, Mathématiques & Applications (Berlin) [Mathematics & Applications], vol. 52, Springer-Verlag, Berlin, MR MR [BGLS06] J. Frédéric Bonnans, J. Charles Gilbert, Claude Lemaréchal, and Claudia A. Sagastizábal, Numerical optimization, second ed., Universitext, Springer- Verlag, Berlin, 2006, Theoretical and practical aspects. MR MR (2007e :90001) [Bre11] [Che75] [Che77] Haim Brezis, Functional analysis, Sobolev spaces and partial differential equations, Universitext, Springer, New York, MR (2012a :35002) Denise Chenais, On the existence of a solution in a domain identification problem, J. Math. Anal. Appl. 52 (1975), no. 2, MR MR (52 #6526), Sur une famille de variétés à bord lipschitziennes. Application à un problème d identification de domaines, Ann. Inst. Fourier (Grenoble) 27 (1977), no. 4, x, MR (57 #13463) 107
114 BIBLIOGRAPHIE [Cla90] [DL72] [DM93] F. H. Clarke, Optimization and nonsmooth analysis, second ed., Classics in Applied Mathematics, vol. 5, Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, MR (91e :49001) G. Duvaut and J.-L. Lions, Les inéquations en mécanique et en physique, Dunod, Paris, 1972, Travaux et Recherches Mathématiques, No. 21. MR (57 #4778) Gianni Dal Maso, An introduction to Γ-convergence, Progress in Nonlinear Differential Equations and their Applications, 8, Birkhäuser Boston, Inc., Boston, MA, MR (94a :49001) [DMNV07] G. Doǧan, P. Morin, R. H. Nochetto, and M. Verani, Discrete gradient flows for shape optimization and applications, Comput. Methods Appl. Mech. Engrg. 196 (2007), no , MR MR (2008h :49029) [DZ11] [Fig11] [Gal94] [HP05] [Mic72] [MP10] [MS76a] [MS76b] [Sch66] M. C. Delfour and J.-P. Zolésio, Shapes and geometries, second ed., Advances in Design and Control, vol. 22, Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 2011, Metrics, analysis, differential calculus, and optimization. MR (2012c :49002) Alessio Figalli, Autour des inégalités isopérimétriques, Éditions de l?école Polytechnique, Giovanni P. Galdi, An introduction to the mathematical theory of the Navier- Stokes equations. Vol. I and II, Springer Tracts in Natural Philosophy, vol. 38 and 39, Springer-Verlag, New York, 1994, Nonlinear steady problems. Antoine Henrot and Michel Pierre, Variation et optimisation de formes, Mathématiques et Applications, vol. 48, Springer-Verlag, Berlin, Anna Maria Micheletti, Metrica per famiglie di domini limitati e proprietà generiche degli autovalori, Ann. Scuola Norm. Sup. Pisa (3) 26 (1972), MR MR (51 #13479) Bijan Mohammadi and Olivier Pironneau, Applied shape optimization for fluids, second ed., Numerical Mathematics and Scientific Computation, Oxford University Press, Oxford, MR (2010m :76001) F. Murat and J. Simon, Sur le contrôle par un domaine géométrique, Publication du Laboratoire d Analyse Numérique de l Université Paris (1976). François Murat and Jacques Simon, étude de problèmes d optimal design, Lecture Notes in Computer Science, vol. 41, Springer-Verlag, Berlin, Laurent Schwartz, Théorie des distributions, Publications de l Institut de Mathématique de l Université de Strasbourg, No. IX-X. Nouvelle édition, entiérement corrigée, refondue et augmentée, Hermann, Paris, MR (35 #730) [Šve93] V. Šverák, On optimal shape design, J. Math. Pures Appl. (9) 72 (1993), no. 6, MR (94j :49047) [SZ92] [Tem01] Jan Sokołowski and Jean-Paul Zolésio, Introduction to shape optimization, Springer Series in Computational Mathematics, vol. 16, Springer-Verlag, Berlin, 1992, Shape sensitivity analysis. MR MR (94d :49002) Roger Temam, Navier-Stokes equations, AMS Chelsea Publishing, Providence, RI, 2001, Theory and numerical analysis, Reprint of the 1984 edition. MR MR (2002j :76001) 108
115 109 BIBLIOGRAPHIE
Approximations variationelles des EDP Notes du Cours de M2
Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation
Dualité dans les espaces de Lebesgue et mesures de Radon finies
Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention
Fonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Théorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Limites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Intégration et probabilités TD1 Espaces mesurés Corrigé
Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.
Image d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Cours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Chapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Calcul différentiel. Chapitre 1. 1.1 Différentiabilité
Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace
I. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)
Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut
Continuité d une fonction de plusieurs variables
Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs
Introduction à la méthode des éléments finis
ÉCOLE NATIONALE SUPERIEURE DES MINES DE PARIS Introduction à la méthode des éléments finis Michel KERN 1 2004 2005 S3733 / S3735 1 Inria, Rocquencourt, BP 105, 78153 Le Chesnay, [email protected] 2
Calcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Continuité en un point
DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à
Suites numériques 3. 1 Convergence et limite d une suite
Suites numériques 3 1 Convergence et limite d une suite Nous savons que les termes de certaines suites s approchent de plus en plus d une certaine valeur quand n augmente : par exemple, les nombres u n
Chp. 4. Minimisation d une fonction d une variable
Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie
* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours
Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****
Notes de cours M2 Équations aux dérivées partielles elliptiques. Hervé Le Dret
Notes de cours M2 Équations aux dérivées partielles elliptiques Hervé Le Dret 4 mars 2010 2 Table des matières 1 Rappels en tous genres 7 1.1 Les théorèmes de convergence de Lebesgue............ 7 1.2
Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Calcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
www.h-k.fr/publications/objectif-agregation
«Sur C, tout est connexe!» www.h-k.fr/publications/objectif-agregation L idée de cette note est de montrer que, contrairement à ce qui se passe sur R, «sur C, tout est connexe». Cet abus de langage se
Différentiabilité ; Fonctions de plusieurs variables réelles
Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Texte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au
Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
Cours Fonctions de deux variables
Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté
* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable
Eo7 Fonctions de plusieurs variables Eercices de Jean-Louis Rouget Retrouver aussi cette fiche sur wwwmaths-francefr * très facile ** facile *** difficulté moenne **** difficile ***** très difficile I
Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples
45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et
Le produit semi-direct
Le produit semi-direct Préparation à l agrégation de mathématiques Université de Nice - Sophia Antipolis Antoine Ducros Octobre 2007 Ce texte est consacré, comme son titre l indique, au produit semi-direct.
Intégration et probabilités TD1 Espaces mesurés
Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?
Calcul intégral élémentaire en plusieurs variables
Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement
Equations aux Dérivées Partielles
Equations aux Dérivées Partielles Tony Lelièvre 29-2 Après avoir considéré dans le capitre précédent des équations d évolution pour des fonctions ne dépendant que du paramètre temps, nous nous intéressons
Les indices à surplus constant
Les indices à surplus constant Une tentative de généralisation des indices à utilité constante On cherche ici en s inspirant des indices à utilité constante à définir un indice de prix de référence adapté
La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Théorie de la mesure. S. Nicolay
Théorie de la mesure S. Nicolay Année académique 2011 2012 ii Table des matières Introduction v 1 Mesures 1 1.1 Sigma-algèbres................................. 1 1.2 Mesures.....................................
La mesure de Lebesgue sur la droite réelle
Chapitre 1 La mesure de Lebesgue sur la droite réelle 1.1 Ensemble mesurable au sens de Lebesgue 1.1.1 Mesure extérieure Définition 1.1.1. Un intervalle est une partie convexe de R. L ensemble vide et
Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques
Université de Provence Topologie 2 Cours3. Applications continues et homéomorphismes 1 Rappel sur les images réciproques Soit une application f d un ensemble X vers un ensemble Y et soit une partie P de
Exercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Programmation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Résolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v 1 1 2 t
3.La méthode de Dirichlet 99 11 Le théorème de Dirichlet 3.La méthode de Dirichlet Lorsque Dirichlet, au début des années 180, découvre les travaux de Fourier, il cherche à les justifier par des méthodes
Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Espérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Programmation linéaire
Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire
Introduction à la. Points Critiques. Otared Kavian. et Applications aux Problèmes Elliptiques. Springer-Verlag
Otared Kavian Introduction à la Théorie des Points Critiques et Applications aux Problèmes Elliptiques Springer-Verlag Berlin Heidelberg NewYork London Paris Tokyo Hong Kong Barcelona Budapest Avant propos
Correction de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Programmation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
1 Définition et premières propriétés des congruences
Université Paris 13, Institut Galilée Département de Mathématiques Licence 2ème année Informatique 2013-2014 Cours de Mathématiques pour l Informatique Des nombres aux structures Sylviane R. Schwer Leçon
RO04/TI07 - Optimisation non-linéaire
RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 I Motivations et notions fondamentales 4 I1 Motivations 5 I2 Formes quadratiques 13 I3 Rappels
Continuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Probabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
I. Ensemble de définition d'une fonction
Chapitre 2 Généralités sur les fonctions Fonctions de références et fonctions associées Ce que dit le programme : Étude de fonctions Fonctions de référence x x et x x Connaître les variations de ces deux
Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.
Problèmes mathématiques de la mécanique/mathematical problems in Mechanics Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions. Cristinel Mardare Laboratoire
Chapitre VI Fonctions de plusieurs variables
Chapitre VI Fonctions de plusieurs variables 6. 1 Fonctions différentiables de R 2 dans R. 6. 1. 1 Définition de la différentiabilité Nous introduisons la différentiabilité sous l angle des développements
Moments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Planche n o 22. Fonctions de plusieurs variables. Corrigé
Planche n o Fonctions de plusieurs variables Corrigé n o : f est définie sur R \ {, } Pour, f, = Quand tend vers, le couple, tend vers le couple, et f, tend vers Donc, si f a une limite réelle en, cette
Théorie de la Mesure et Intégration
Université Pierre & Marie Curie (Paris 6) Licence de Mathématiques L3 UE LM364 Intégration 1 & UE LM365 Intégration 2 Année 2010 11 Théorie de la Mesure et Intégration Responsable des cours : Amaury LAMBERT
Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
On ne peut pas entendre la forme d un tambour
On ne peut pas entendre la forme d un tambour Pierre Bérard Institut Fourier Laboratoire de Mathématiques Unité Mixte de Recherche 5582 CNRS UJF Université Joseph Fourier, Grenoble 1 Introduction 1.1 Position
Chapitre 3. Mesures stationnaires. et théorèmes de convergence
Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée
Fonctions de plusieurs variables
Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les
Équations non linéaires
Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et
Mesures gaussiennes et espaces de Fock
Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première
Relation d ordre. Manipulation des relations d ordre. Lycée Pierre de Fermat 2012/2013 Feuille d exercices
Lycée Pierre de Fermat 2012/2013 MPSI 1 Feuille d exercices Manipulation des relations d ordre. Relation d ordre Exercice 1. Soit E un ensemble fixé contenant au moins deux éléments. On considère la relation
Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007
Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................
Programmes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Développement décimal d un réel
4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce
Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Cours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Commun à tous les candidats
EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle
Amphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
EXERCICE 4 (7 points ) (Commun à tous les candidats)
EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat
8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2
Chapitre 8 Fonctions de plusieurs variables 8.1 Généralités sur les fonctions de plusieurs variables réelles Définition. Une fonction réelle de n variables réelles est une application d une partie de R
Formation à la C F D Computational Fluid Dynamics. Formation à la CFD, Ph Parnaudeau
Formation à la C F D Computational Fluid Dynamics Formation à la CFD, Ph Parnaudeau 1 Qu est-ce que la CFD? La simulation numérique d un écoulement fluide Considérer à présent comme une alternative «raisonnable»
Cours d Analyse 3 Fonctions de plusieurs variables
Université Claude Bernard, Lyon I Licence Sciences, Technologies & Santé 43, boulevard 11 novembre 1918 Spécialité Mathématiques 69622 Villeurbanne cedex, France L. Pujo-Menjouet [email protected]
Correction du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et
Fonctions de plusieurs variables. Sébastien Tordeux
Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................
La fonction exponentielle
DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction
Introduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Espaces de Sobolev et introduction aux équations aux dérivées partielles
Espaces de Sobolev et introduction aux équations aux dérivées partielles A. Munnier 1 Institut Élie Cartan 27-28 1 Maître de conférences, Institut Élie Cartan, Université Henri Poincaré, Nancy 1, B.P.
Capes 2002 - Première épreuve
Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : [email protected] Mots-clés : équation fonctionnelle, série
Principe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, [email protected] 2 Université
ANALYSE NUMERIQUE ET OPTIMISATION. Une introduction à la modélisation mathématique et à la simulation numérique
1 ANALYSE NUMERIQUE ET OPTIMISATION Une introduction à la modélisation mathématique et à la simulation numérique G. ALLAIRE 28 Janvier 2014 CHAPITRE I Analyse numérique: amphis 1 à 12. Optimisation: amphis
Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme
Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet
Deux disques dans un carré
Deux disques dans un carré Table des matières 1 Fiche résumé 2 2 Fiche élève Seconde - version 1 3 2.1 Le problème............................................... 3 2.2 Construction de la figure avec geogebra...............................
PRIME D UNE OPTION D ACHAT OU DE VENTE
Université Paris VII - Agrégation de Mathématiques François Delarue) PRIME D UNE OPTION D ACHAT OU DE VENTE Ce texte vise à modéliser de façon simple l évolution d un actif financier à risque, et à introduire,
