Notes du cours d'équations aux Dérivées Partielles de l'isima, troisième année http://www.isima.fr/leborgne



Documents pareils
Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Calcul différentiel sur R n Première partie

NOTATIONS PRÉLIMINAIRES

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Fonctions de plusieurs variables

Approximations variationelles des EDP Notes du Cours de M2

Résolution de systèmes linéaires par des méthodes directes

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Condition inf-sup pour l Elément Fini de Taylor-Hood È ¾ -iso-è ½

3 Approximation de solutions d équations

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Implémentation de Nouveaux Elements Finis dans Life et Applications

Théorème du point fixe - Théorème de l inversion locale

Différentiabilité ; Fonctions de plusieurs variables réelles

La méthode des éléments finis et le contrôle des calculs

Fonctions de plusieurs variables et changements de variables

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

Cours d Analyse. Fonctions de plusieurs variables

Cours 02 : Problème général de la programmation linéaire

Programmes des classes préparatoires aux Grandes Ecoles

Calcul différentiel. Chapitre Différentiabilité

2. RAPPEL DES TECHNIQUES DE CALCUL DANS R

I. Polynômes de Tchebychev

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Cours d analyse numérique SMI-S4

Exercices Corrigés Premières notions sur les espaces vectoriels

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Chapitre 1 Régime transitoire dans les systèmes physiques

CONTRÔLE ET ÉQUATIONS AUX DÉRIVÉES PARTIELLES. par. Jean-Pierre Puel

CNAM UE MVA 210 Ph. Durand Algèbre et analyse tensorielle Cours 4: Calcul dierentiel 2

Structures algébriques

Axiomatique de N, construction de Z

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Correction de l examen de la première session

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://


Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

Développement décimal d un réel

MATHÉMATIQUES EN PREMIER CYCLE PRÉSENTATION DU PROGRAMME

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

1 Complément sur la projection du nuage des individus

3. Conditionnement P (B)

Programmation linéaire et Optimisation. Didier Smets

Algorithmes pour la planification de mouvements en robotique non-holonome

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Le produit semi-direct

Raisonnement par récurrence Suites numériques

Cours de Mécanique du point matériel

Limites finies en un point

Compte rendu des TP matlab

Polynômes à plusieurs variables. Résultant

Chapitre 2 Le problème de l unicité des solutions

Mesures gaussiennes et espaces de Fock

Notes de cours M2 Équations aux dérivées partielles elliptiques. Hervé Le Dret

Construction de l'intégrale de Lebesgue

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Programme de la classe de première année MPSI

Chapitre 2. Matrices

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Continuité d une fonction de plusieurs variables

Retournement Temporel

Recherche dans un tableau

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Introduction à la méthode des éléments finis

Chapitre VI Fonctions de plusieurs variables

Produit semi-direct. Table des matières. 1 Produit de sous-groupes 2. 2 Produit semi-direct de sous-groupes 3. 3 Produit semi-direct de groupes 4

I. Ensemble de définition d'une fonction

1 Introduction et modèle mathématique

Équations non linéaires

Calculs et Certificats de Quantités d Intérêts Non Linéaires d un Mousqueton Cédric Bellis

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Fonctions de plusieurs variables. Sébastien Tordeux

Capes Première épreuve

Intégration et probabilités TD1 Espaces mesurés Corrigé

Amphi 3: Espaces complets - Applications linéaires continues

Optimisation des fonctions de plusieurs variables

Introduction à l optimisation de forme et application à la mécanique des fluides

Analyse en Composantes Principales

Fonctions de plusieurs variables

Corps des nombres complexes, J Paul Tsasa

Théorèmes du Point Fixe et Applications aux Equations Diérentielles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Couples de variables aléatoires discrètes

Exercices - Polynômes : corrigé. Opérations sur les polynômes

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Formation à la C F D Computational Fluid Dynamics. Formation à la CFD, Ph Parnaudeau

Cours Fonctions de deux variables

Introduction à l étude des Corps Finis

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CCP PSI Mathématiques 1 : un corrigé

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Transcription:

Notes du cours d'équations aux Dérivées Partielles de l'isima, troisième année http://www.isima.fr/leborgne Comprendre la condition inf-sup numérique : application aux problèmes sous contrainte. Exemples du problème de Stokes, du problème des conditions aux limites, du locking de type KirchhoLove ou MindlinReissner Gilles Leborgne 4 août 2006 Table des matières C'est quoi la condition inf-sup? 2. Notations......................................... 2.2 Injectivité (et image dense) et condition inf-sup.................... 3.3 Condition inf-sup " k" : isomorphisme........................ 4 2 Rappels 4 2. Fonction à valeurs scalaires............................... 4 2.. Matrice jacobienne et gradient......................... 4 2..2 Matrice hessienne et laplacien.......................... 5 2.2 Fonction à valeurs vectorielles.............................. 5 2.3 Problème formel du laplacien pour les fonctions vectorielles............. 6 2.4 Remarque : notation de la double contraction..................... 7 3 Exemple : problème de Stokes 7 3. Le problème de Stokes formel.............................. 7 3.2 Le problème de Stokes numérique : les projections.................. 8 3.3 Cas div h surjectif..................................... 9 3.4 Sinon : une correction par les projections....................... 0 3.5 Méthode de Brezzi et Pitkäranta............................ 3.6 Méthode de Hughes, Franca et Balestra........................ 3.7 Méthode de Douglas et Wang.............................. 2 3.8 La pression : multiplicateur de Lagrange et condition inf-sup............ 2 3.8. Multiplicateur de Lagrange........................... 2 3.8.2 La condition inf-sup............................... 3 4 Conditions aux limites de Dirichlet 4 4. Introduction........................................ 4 4.2 Espaces fonctionnels et condition inf-sup........................ 4 4.3 Problème approché.................................... 6 4.4 Éléments nis P k : non stables............................. 7 4.5 Problème stabilisé.................................... 7 4.5. Barbosa et Hughes................................ 7 4.5.2 Elimination du multiplicateur : méthode de Nitsche [23]........... 8 5 Locking 20 5. Le problème type..................................... 20 5.2 Coercivité nie en p................................... 2 5.3 Le problème discrétisé : explosion éventuelle de la constante de coercivité en p h, d'où le locking...................................... 22 5.4 Une correction du locking................................ 22 5.5 Traitement classique du locking : problème continu.................. 23 5.5. Problème continu................................. 23 5.5.2 Problème discrétisé................................ 24 4 août 2006

2. C'est quoi la condition inf-sup? A Singular value decomposition (SVD) 25 B Application à la condition inf-sup 27 C'est quoi la condition inf-sup? Ω est un ouvert régulier de R n de bord Ω = Γ.. Notations Soit E un espace de Banach (espace vectoriel normé complet), et on note. E sa norme. On note E = L(E; R) son dual, i.e. l'espace des formes linéaires continues sur E. Il est muni de la norme, pour l E : l(v) l E = sup = sup l(v), v E, v 0 v E v E, v E = qui en fait un espace de Banach. Soit F un second espace de Banach,. F sa norme, F son dual et. F la norme associée. Soit B L(E, F ) un opérateur borné (i.e. une application linéaire continue) de E dans F. L'opérateur B est caractérisé par ses valeurs Bv F pour tout v E, i.e. par les valeurs réelles (Bv)(w) = Bv, w F,F pour tout w F. On note : b(v, w) déf = Bv, w F,F R. On a ainsi déni une application bilinéaire b(, ) : E F R qui est continue (vérication immédiate). Et on dispose de l'adjoint, l'opérateur B T L(F, E ), caractérisé par, pour tout (v, w) E F : B T w, v E,F = Bv, w F,F (= b(v, w)). (.) Remarque. On rappelle que (.) détermine B T de manière unique, sa construction étant la suivante : pour w F xé, on dénit g w (v) = Bv, w pour tout w F. L'application g w ainsi dénie est trivialement linéaire et continue sur E (avec g w E B L(E,F ) w F ). Et on pose alors B T w = g w pour tout w F. Et B T est trivialement linéaire et continu sur F (avec B T L(F,E ) B L(E,F )). Exemple.2 E = R n, F = R m. Toutes les normes sont équivalentes en dimension nie. On choisit pour simplier les normes euclidiennes. Et on peut identier E et E et F et F (on dispose du produit scalaire euclidien et du théorème de représentation de Riesz). On se donne des bases, et un opérateur B : R n R m peut être représenté par une matrice m n. Et l'opérateur adjoint peut être représenté par la matrice transposée n m et on a : ([B]. x) T. y = ([B]. x, y) R m = ([B] T. y, x) R n = x T.([B] T. y), (.2) qui est encore noté = b( x, y). Exemple.3 B = div : (H0 (Ω)) n L 2 (Ω), opérateur divergence. Ici E = (H0 (Ω)) n, F = L 2 (Ω), et avec lorsque L 2 (Ω) est identié à son dual on a b( v, q) = (div v, q) L 2 (Ω) pour tout v (H0 (Ω)) n et tout q L 2 (Ω). Son dual est l'opérateur grad : L 2 (Ω) (H (Ω)) n (opérateur gradient) : b( v, q) = (div v, q) L 2 (Ω) = div v, q L 2 (Ω),L 2 (Ω) = v, gradq H 0 (Ω),H (Ω), (.3) pour tout v H 0 (Ω) et tout q L 2 (Ω). Et lors d'une discrétisation par éléments nis, on retrouve l'égalité sous forme calcul matriciel (.2). Exemple.4 B = γ 0 : H (Ω) H 2 (Γ), opérateur trace sur Γ, avec H 2 (Γ) = γ 0 (H (Ω)) (espace image de l'application trace). Ici E = H (Ω), F = H 2 (Γ) et F = H 2 (Γ). Avec son dual 2 4 août 2006

3. C'est quoi la condition inf-sup? γ T 0 : H 2 (Γ) H (Ω), on a, pour tout v H (Ω) et tout w H 2 (Γ) : b(v, w) = γ 0 v, w H 2 (Γ),H 2 (Γ) = γt 0 w, v (H (Ω)),H (Ω). En particulier lorsque w L 2 (Γ) (i.e. w susamment régulier), on a : b(v, w) = Γ v( x)w( x) dγ. N.B. : ici l'espace F est le dual H 2 (Γ) = (H 2 (Γ)) de H 2 (Γ), et donc le dual F est le bidual (H 2 (Γ)) de H 2 (Γ), canoniquement isomorphe à H 2 (Γ), et donc identié à H 2 (Γ), i.e. F = H 2 (Γ)..2 Injectivité (et image dense) et condition inf-sup B T : F E étant linéaire, il est injectif ssi KerB T = {0} = (ImB), où KerB T = {w F : B T w = 0} est le noyau de B T, et ImB l'image de B (en eet, KerB T = {w F : Bv, w F,F = 0, v E} = (ImB) ). Donc B T est injectif ssi ImB = F, i.e. ssi ImB est dense dans F. Exemple.5 En dimension nie, tout sous-espace vectoriel est fermé, et donc, ImB est dense dans F équivaut à ImB = F, i.e. B surjectif. C'est faux en dimension innie. Exemple.6 Soit l 2 l'ensemble des suites de carré sommable : l 2 = {(x n ) R N : x 2 n < }. n N On prend E = F = l 2. Soit T : l 2 l 2 l'opérateur de multiplication par la suite (λ n ) = ( n ), i.e. T ((x n ) N ) = ( xn n ) pour tout N (x n) l 2. Cet opérateur est injectif car KerT = {0} (immédiat). Et son image est dense dans l 2 (pour une suite (y n ) N dans l'image considérer la suite tronquée dont l'antécédent est dans l 2...). Cependant il n'est pas surjectif (l'image n'est pas fermée). Par exemple, la suite ( n ) n'a pas d'antécédant dans N. C'est la généralisation de l'exemple.5 au cas l2 R n = R m et matrice diagonale B = diag( n quand ) n. On a B T (linéaire) injectif équivaut à : ou encore à (avec B T w E ) : w 0 B T w 0, w F t.q. w F =, v E, B T w, v E,E > 0, ou encore à (en prenant v E = ) : w F t.q. w F =, sup B T w, v E,E > 0. (.4) v E v E = Maintenant deux cas peuvent se présenter : er cas : inf w F w F = sup B T w, v E,E = 0. v E v E = Exemple.7 On reprend l'exemple.6 où on prend B T = T, et ici T w, v = (T w, v) l 2 le produit scalaire dans l 2. On prend w = e n le n-ième vecteur de base canonique (toutes les composantes sont nulles sauf la n-ième). On a T (e n ) = n e n, et T w, v = (T w, v) l 2 le produit scalaire dans l 2. Et par Cauchy-Schwarz, le donc sup (T e n, v) l2 = v l 2 v l 2 = sup (T e n, v) l2 est atteint pour v = T en v l 2 v l 2 = 0. On se contente donc de la caractérisation (.4). Noter qu'ici n n l'opérateur T n'est pas à image fermé. 2ème cas : k > 0, cas traité au paragraphe suivant. inf w F w F = T e n i.e. pour v = e n. On a sup B T w, v E,E > k, (.5) v E v E = 3 4 août 2006

4 2. Rappels.3 Condition inf-sup " k" : isomorphisme On traite le cas (.5), i.e. la condition (.4) dans le cas favorable : k > 0, w F t.q. w F =, sup B T w, v E,E k. (.6) v E v E = (Minoration sur la boule unité.) La condition inf-sup (.5) s'écrit aussi : k 0, inf w F w F = sup Bv, w F,F k, (.7) v E v E = Et le théorème de l'application ouverte nous dit que B est surjectif (voir cours de 3ème année, ou bien Brézis [6]). Donc, si la condition inf-sup (.5) (i.e. (.7)) est satisfaite, on a : - B est surjectif, et B : E/KerE F est un isomorphisme (i.e. linéaire continu inversible d'inverse continu), et 2- B T est injectif, et B T : F Im(B T ) est un isomorphisme. Remarque.8 Dans la pratique, si k > 0 pas trop petit alors la matrice sous-jacente (pour le problème approché) sera bien conditionnée. Par contre, si k = 0 (ou bien k plus petit que la précision machine), alors la matrice sousjacente (pour le problème approché) sera mal conditionnée, i.e. non inversible numériquement. Remarque.9 La condition inf-sup (.5) est bien sûr non satisfaite si B T n'est pas injective (trivial). Exemple.0 On reprend l'exemple.3. L'opérateur divergence div est surjectif de (H0 (Ω)) n dans L 2 (Ω)/R. Et son transposé qui est l'opérateur gradient est injectif de L 2 (Ω)/R dans (H (Ω)) n. Voir GiraultRaviart [5] ou cours de 3ème année. Exemple. Cf exemple.4. L'opérateur trace γ 0 est surjectif de H (Ω) dans H 2 (Γ). Et son transposé est injectif de H 2 (Γ) dans le dual de H (Ω). 2 Rappels 2. Fonction à valeurs scalaires 2.. Matrice jacobienne et gradient Soit f : Ω R n R une fonction diérentiable (ou dérivable) à valeurs scalaires, i.e. qui en tout point x Ω admet un plan tangent, i.e. telle qu'en tout point x Ω il existe une application linéaire df( x) : R n R telle que pour tout v R n : f( x + h v) = f( x) + h df( x). v + o(h). L'application linéaire df( x) L(R n ; R) est appelée diérentielle de f en x. Si df : Ω L(R n ; R) est de plus continue dans Ω, on dit que f est C (Ω; R). On travaillera avec la base canonique ( e i ) i=,...,n de R n. Dans cette base, l'application linéaire df( x) est représentée par la matrice ligne [df( x)] = ( f f x ( x)... x n ( x) ) où par dénition f. La matrice ligne est appelée matrice jacobienne de f f( x+h e x i ( x) = df( x). e i = lim i) f( x) h 0 h en x, et on utilise le calcul matriciel usuel, si v = i v i e i = v. : v n f( x + h v) = f( x) + h [df( x)]. v + o(h). Et f est C ssi toutes les f x i : Ω R sont continues. 4 4 août 2006

5 2. Rappels Utilisant le produit scalaire euclidien de R n et le théorème de représentation de Riesz, l'application linéaire df( x) peut être représentée par un vecteur appelé vecteur gradient : Et dans la base canonique, on a gradf( x) = df( x). v = ( gradf( x), v) R n. f x ( x). f colonne associée après choix d'une base). On a alors : x n ( x) f( x + h v) = f( x) + h gradf( x) T. v + o(h), où la notation M T désigne la matrice transposée de la matrice M. (représentation d'un vecteur par la matrice 2..2 Matrice hessienne et laplacien Si f est deux fois dérivables, i.e. si df : Ω L(R n ; R) est une fois dérivable, on note d(df)( x) : R n L(R n ; R) la diérentielle de df en x. On dispose alors du développement limité de f à l'ordre 2 en chaque point x Ω : f( x + h v) = f( x) + h df( x). v + 2 h2 (d(df)( x). v). v + o(h 2 ). Et f est dite C 2 (Ω; R) ssi d(df) est continue sur Ω. Avec la base canonique de R n, on peut alors représenter l'application linéaire d(df)( x) par la matrice [d(df)( x)] = [ 2 f x i x j ] i=,...,n j=,...,n, dite matrice hessienne. Cette matrice est symétrique (quand f est C 2, théorème de Schwarz), et notée [d 2 f( x)]. On a donc : On pose alors : f( x + h v) = f( x) + h [df( x)]. v + h2 2 vt.[d 2 f( x)]. v + o(h 2 ). f( x) = Tr([d 2 f( x)]) = n i= 2 f x 2 ( x). i (Trace de l'application linéaire donnée par la somme des termes diagonaux de la matrice la représentant.) Si de plus on se sert du produit scalaire euclidien de R n et du théorème de représentation de Riesz, on a : f( x) = div( gradf)( x). 2.2 Fonction à valeurs vectorielles Soit maintenant f : Ω R n R m une fonction dérivable (à valeurs vectorielles), i.e. telle qu'en tout point x Ω il existe une application linéaire d f( x) : R n R m telle que pour tout v R n : f( x + h v) = f( x) + h d f( x). v + o(h). L'application linéaire df( x) est appelée diérentielle de f en x. On travaillera avec la base canonique ( e i ) i=,...,m de R m (attention, même notation que pour la base canonique de l'ensemble de départ R n, ce pour alléger les notations). Dans cette base, notant f( x) = [ f i x j ] i=,...,m f ( x). f m ( x), l'application linéaire d f( x) est représentée par la matrice [d f( x)] =, où i l'indice de ligne et j l'indice de colonnes (travaillant toujours avec la base j=,...,n canonique de R n ). Cette matrice est appelée matrice jacobienne de f en x. On a donc : f ( x + h v). f m ( x + h v) = f ( x). f m ( x) + h [ f i ] i=,...,m. x j j=,...,n v. v n + o(h), soit encore, après utilisation du produit scalaire et du théorème de représentation de Riesz, pour 5 4 août 2006

6 2. Rappels tout i =,..., m : f i ( x + h v) = f i ( x) + h gradf i ( x) T. v + o(h), Attention : la matrice jacobienne [df( x)] est aussi appelée matrice gradient de f en x! Et on note gradf( x) = [df( x)] = [ f i x j ( x)] i=,...,m. (On n'a donc pas besoin du théorème de représentation j=,...,n de Riesz pour parler de matrice gradient.) Si on utilise le produit scalaire euclidien de R n et le théorème de représentation de Riesz, la matrice gradient a donc ses lignes données par gradf i T (les transposés des vecteurs gradients). Dans la suite on aura m = n, i.e. R m = R n, et les matrices gradients (i.e. les matrices jacobiennes) seront des matrices n n. 2.3 Problème formel du laplacien pour les fonctions vectorielles Soit f : Ω R n R n une fonction donnée. Regardons formellement l'équation vectorielle où l'inconnue est une fonction u : Ω R n R n : u = f. Soit une fonction v : Ω R n R n ; prenant la valeur en un point x Ω, multipliant au sens du produit scalaire de R n, on obtient : ( u( x), v( x)) R n = ( f( x), v( x)) R n. (2.) Intégrons (2.3) dans Ω : ( u( x), v( x)) R n dω = ( f( x), v( x)) R n dω, (2.2) Ω Ω On travaille avec la base canonique de R n. Les inconnues sont n fonctions u i composantes de u, et on a le système à résoudre : soit encore, cf. (2.2) : n i= Ω u i = f i, i =,..., n, u i ( x)v i ( x) dω = n i= Ω f i ( x)v i ( x) dω. (2.3) Supposera les fonctions v i nulles sur le bord Γ (pour simplier la présentation). Intégrons (2.3) par parties : n n n f i ( x)v i ( x) dω, (2.4) soit : n i= i= et qui sera noté dans la suite : Ω Ω j= u i x j ( x) v i x j ( x) dω = i= ( gradu i ( x), gradv i ( x) R n dω = ( f( x), v( x)) R n dω, Ω Ω (grad u, grad v) L 2 = ( f, v) L 2. (2.5) Si M, N L 2 (Ω) n2 sont deux fonctions à valeurs matricielles (dont les coecients sont des fonctions de L 2 (Ω)), dans L 2 (Ω) n2 on utilise le produit scalaire (produit terme à terme) : (M, N) L 2 (Ω) = Ω avec la norme associée M L2 (Ω) = (M, M) L2 (Ω) = ( Ω ij M ij ( x)n ij ( x) dω, (2.6) ij M 2 ij ( x) dω) 2. 6 4 août 2006

7 3. Exemple : problème de Stokes 2.4 Remarque : notation de la double contraction Etant données deux matrices M, N R n2, la double contraction (M, N) M : N R est le résultat intrinsèque donnée par la trace du produit M.N (simple contraction qui correspond à la composition M N des applications linéaires sous-jacentes). Sachant que M.N est la matrice = [ k M ikn jk ] i=,...,n j=,...,n, on a donc : M : N = Tr(M.N) = n M ik N ki i,k= (ce n'est pas le produit terme à terme). Cette opération de double contraction correspondant à la trace de l'endomorphisme M N sousjacent est intrinsèque. Et donc (2.6) s'écrit : (grad u, grad v) L 2 (Ω) = Ω grad u( x) : grad v T ( x) dω. (2.7) Remarque 2. On rappelle qu'à l'aide du théorème de représentation de Riesz, si l est une forme linéaire et z un vecteur on représente l( z) dans une base par le produit matriciel w T. z (ligne * colonne) où w représente la forme l, et en terme de produit scalaire par ( w, z) (produit terme à terme). Et ici on a (2.7) (on laisse l'intégrale sur Ω à l'extérieur). 3 Exemple : problème de Stokes On se donne un domaine Ω R n de frontière Γ = Ω régulière. 3. Le problème de Stokes formel On considère le mouvement stationnaire d'un uide incompressible dans ce domaine, soumis à une force volumique f : Ω R n et une condition d'adhérence aux parois. Le problème à résoudre est : trouver u et p t.q. : u + gradp = f dans Ω, div u = 0 dans Ω, u = 0 sur Γ. ( u : Ω R n est le champ de vitesses et p : Ω R le champ de pressions.) La diculté numérique est de satisfaire la contrainte div u = 0. Remarque 3. On travaille ici en dimension innie (les inconnues sont des fonctions). Pour les problèmes sous-contrainte en dimension nie, on renvoie au cours de 2ème année sur les multiplicateurs de Lagrange. Pour la programmation (en vue de la résolution) de (3.) à l'aide de la méthode des éléments nis, on réécrit formellement (3.) sous la forme (intégration par parties) : trouver u t.q. u Γ = 0 et p t.q. : ( grad u, grad v) L 2 (p, div v) L 2 = ( f, v) L 2, v t.q. v Γ = 0, (div u, q) L 2 = 0, q. Une première idée consiste à chercher des éléments nis pour la vitesse qui satisfont exactement la condition div v = 0 (condition d'incompressibilité); on s'intéresse donc au problème : { trouver u t.q. u Γ = 0 et div u = 0 t.q. : ( grad u, grad v) L 2 = ( f, v) L 2, pour tout v t.q. v Γ = 0 et div v = 0, la pression étant calculée a posteriori en résolvant gradp = f + u. Fortin [4] a trouvé des éléments nis satisfaisant la condition d'incompressibilité, mais malheureusement ce ne sont pas des éléments nis d'utilisation simple. L'utilisation d'éléments nis usuels (P 0, P, Q, P 2...) nécessite la résolution de (3.2). (3.) (3.2) 7 4 août 2006

8 3. Exemple : problème de Stokes 3.2 Le problème de Stokes numérique : les projections On considère toujours le problème formel (3.2). On considère sa discrétisation : trouver u h V h et p h Q h t.q. : (grad u h, grad v h ) L 2 (p h, div v h ) L 2 = ( f, v h ) L 2, v h V h, (div u h, q h ) L 2 = 0, q h Q h, où V h et Q h sont des espaces vectoriels de dimension nie (éléments nis P, P 2...), les éléments de V h satisfaisant la condition v hγ = 0. Une fois les bases d'éléments nis choisies, le problème se met sous la forme de résolution du problème matriciel : ( A B t B 0 ). ( u p ) ( f = 0 (3.3) ). (3.4) La méthode des éléments nis est une méthode de projection : on dispose de l'équation (3.), on se donne une fonction v, et on projette l'équation sur la fonction v grâce au produit scalaire L 2 (Ω) : ( u, v) L 2 + ( gradp, v) L 2 = ( f, v) L 2. Pour un v donné, c'est équivalent à, avec v Γ = 0 : ( grad u, grad v) L 2 (p, div v) L 2 = ( f, v) L 2. D'où l'équation discrétisée (3.3). Et dans (3.3) on ne retient donc de f que sa partie projetée dans V h, i.e. la fonction discrétisée f h V h donnée par : ( f h, v h ) = ( f, v h ), v h V h. (Méthode d'éléments nis). Le premier terme ( grad u h, grad v h ) L 2 dans (3.3) ne pose pas de problème quand on choisit u h et v h dans le même espace V h : dès qu'on prend une base dans V h (supposé de dimension nie), on prend pour v h les fonctions de base, et les composantes de u h sur cette base sont en bon nombre : il y a autant d'équations que d'inconnues. Par contre, le second terme (p h, div v h ) L 2 va poser de sérieux problèmes. La pression approchée p h ne peut être calculée qu'à l'aide de ce terme (le seul où apparaît p h dans (3.3)). Le problème sous-jacent à résoudre est donc (supposant u h connu) : { trouver ph Q h t.q. : (3.5) (p h, div v h ) L 2 = (g, v h ) L 2, v h V h, où on a posé (g, v h ) L 2 = ( grad u h, grad v h ) L 2 ( f, v h ) L 2. D'où 2 cas : - Cas qui semble favorable : il y a assez de fonctions v h pour qu'il y ait (au moins) autant d'équations que d'inconnues (les composantes de p h dans une base de Q h ). C'est le cas si on prend par exemple V h espace des éléments nis P 2 et Q h espace des éléments nis P. Le fait qu'il y ait trop d'équations n'est pas gênant car pour le problème (3.3), grâce au terme ( grad u h, grad v h ) L 2, la matrice ( A B t ) aura ses lignes indépendantes, et la matrice ( ) A B t B 0 sera inversible. Par contre, ce cas n'est pas toujours aussi favorable qu'il en a l'air : la matrice peut être très mal conditionnée; cela correspond au cas de la condition inf-sup : k h > 0, inf p h Q h (div v h, p h ) L2(Ω) sup v h V h v h H 0 p h L 2 k h, (3.6) avec k h h 0 0. Dans ce cas la matrice, si la matrice est mathématiquement inversible, elle ne l'est plus numériquement. 2- Cas toujours défavorable. Il n'y a pas assez de fonctions v h pour qu'il y ait (au moins) autant d'équations (indépendantes) que d'inconnues. I.e. c'est le cas B T = grad non injectif. On prend par exemple V h espace des éléments nis P et Q h espace des éléments nis P 0 : on obtient un problème sous dimensionné, i.e. il y a plus d'inconnues (les composantes de p h dans une base de Q h ) que d'équations. Donc non unicité de la solution; l'exemple classique est donné par l'instabilité 8 4 août 2006

9 3. Exemple : problème de Stokes en cherckerboard (échiquier) donnée en 2-D par les éléments nis Q -continus en vitesse, Q 0 en pression. Analyse pour corriger l'approche et rendre les cas à nouveau favorables. Le problème (3.5) étant linéaire, on commence par regarder le problème homogène : { trouver ph Q h t.q. : (3.7) (p h, div v h ) L 2 = 0, v h V h, i.e. : { trouver p h Q h t.q. : ( gradp h, v h ) L 2 = 0, v h V h. On ne veut pas qu'il y ait des p h 0 qui puissent satisfaire ces équations. Cette analyse nécessite Q h H (Ω) pour que gradp h L 2 (Ω). Ici on ne regarde que les projections de gradp h sur l'espace V h. Quand V h est trop petit, on perd beaucoup d'information sur gradp h : on ne récupère que Π Vh gradp h où Π Vh est l'opérateur de projection de L 2 (Ω) dans V h (opérateur de projection orthogonal pour le produit scalaire (, ) L 2) déni par : f L 2 (Ω), Π Vh f Vh, (Π Vh f, vh ) L 2 déf = ( f, v h ) L 2 v h V h. L'opérateur fautif est ici l'opérateur discrétisé du gradient déni par : { Qh V grad h = (Π Vh grad) h : p h Π Vh gradp h, où (Π Vh gradp h, v h ) L 2 (3.8) déf = ( gradp h, v h ), v h V h. I.e. grad h p h = Π Vh gradp h est la projection orthogonale de gradp h sur V h (relativement au produit scalaire (, ) L 2). Donc on a retenu de gradp h (champ de vecteurs discontinus par exemple dans le cas p h Q h = P -continus) que la partie Π Vh gradp h (champ de vecteurs continus dans le cas V h = (P ) n -continus puisqu'on projette dans V h qui est un espace de fonctions continues). Et, dans le cas P -continu en vitesse et pression, l'opérateur Π Vh de projection sur V h est trop brutal (il tue trop de composantes). Il se trouve que dans le cas P 2 -P -continus en vitesse et pression, l'opérateur Π Vh est sympathique (l'espace V h est susamment grand). 3.3 Cas div h surjectif On note Π Qh : p Q p h = Π Qh p Q h l'opérateur de projection orthogonal sur Q h (pour le produit scalaire (, ) L 2) déni par, si p Q alors p h = Π Qh p Q h est donné par : (p h, q h ) = (p, q h ), q h q h. L'équation (3.7) admet la solution nulle (triviale) pour unique solution ssi l'opérateur : div h = Π Qh div : V h Q h est surjectif : en eet dans ce cas (3.7) implique (p h, q h ) L 2 = 0 pour tout q h et donc pour q h = p h, et donc p h = 0. C'est le sens de la condition inf-sup (3.6) qui doit être satisfaite. De plus, il faut que k h ne s'approche pas de 0 pour avoir un problème bien conditionné : il faut ce qui est appelé la condition inf-sup discrète (N.B. : k ne dépend pas de h) : k > 0, inf p h Q h (div v h, p h ) L2(Ω) sup v h V h v h H 0 p h L 2 k, (3.9) avec k supérieur à la précision machine. N.B. : on travaille ici en dimension nie, et l'espace div h (V h ) = Π Qh (divv h ) est un sous-espace réel de dimension nie dans Q h et est donc un sous-espace fermé. Si div h n'était pas sujectif, alors il existerait un vecteur q 0 Q h (non nul) orthogonal à div h (V h ), ce vecteur vériant (3.7). Sachant que la fonction nulle p h = 0 est solution (trivial), on aurait alors 2 solutions distinctes. On ne pourrait pas dans ce cas avoir l'unicité de la solution en pression. 9 4 août 2006

0 3. Exemple : problème de Stokes Exemples où la condition inf-sup discrète (3.9) est satisfaite : Eléments nis continus P 2 P en vitesse et pression, appelés éléments nis de TaylorHood. Voir Bercovier et Pironneau [4]. Eléments nis continus P -bullesp en vitesse et pression, appelés éléments nis minis. Voir Arnold, Brezzi et Fortin []. Eléments nis P 2 -continus en vitesse, P 0 en pression, appelés éléments nis de Crouzeix et Raviart. Eléments nis non conforme P P 0 discontinus en vitesse et pression de CrouzeixRaviart [2].... 3.4 Sinon : une correction par les projections On se place ici dans le cadre div h non surjectif, comme dans le cas éléments nis P en vitesse et pression. On va récupérer l'information perdue par la projection (, ) L 2 (perdue car l'espace V h est ici trop petit). Comme ( gradp h, v h ) L 2 = (Π Vh gradp h, v h ) L 2, de gradp h on dispose uniquement de sa projection Π Vh gradp h : on a perdu gradp h Π Vh gradp h. Il sut de mettre ce terme dans (3.3) pour obtenir : trouver u h V h et p h Q h t.q. : ( grad u h, grad v h ) L 2 (p h, div v h ) L 2 = ( f, v h ) L 2, v h V h, (3.0) (div u h, q h ) L 2 h 2 ( gradp h Π Vh gradp h, gradq h Π Vh gradq h ) L 2 = 0, q h Q h, On a mis un signe - devant (div u h, q h ) L 2 pour avoir un problème symétrique, un signe - devant le terme ajouté pour avoir un problème type pénalisé, et le coecient h 2 (où h est la taille moyenne d'une maille, par exemple h = aire de la maille en 2-D) pour des problèmes de dimensionnement et de convergence optimale (c'est p h qui nous intéresse et qui est contrôlé par son gradient, et on dispose des estimations de type p h h gradp h dans le cas de maillages réguliers). Voir Leborgne [20]. Remarque 3.2 Le problème initial était de trouver un point selle du lagrangien : L( v h, p h ) = 2 grad v h 2 L 2 (p h, div v h ) L 2 (f, v h ) L 2. (3.) Et on a modié ce problème : on cherche maintenant un point selle du lagrangien : L mod ( v h, p h ) = 2 grad v h 2 L (p h, div v 2 h ) L 2 (f, v h ) L 2 2 h2 gradp h Π Vh gradp h 2 L 2. (3.2) Pour des éléments nis P en vitesse et pression, on obtient des résultats de convergence à l'ordre (comme classiquement pour des éléments nis P ). Noter que l'équation (3.0) s'écrit plus simplement : trouver u h V h et p h Q h t.q. : ( grad u h, grad v h ) L 2 (p h, div v h ) L 2 = ( f, v h ) L 2, v h V h, (div u h, q h ) L 2 h 2 ( gradp h Π Vh gradp h, gradq h ) L 2 = 0, q h Q h, (3.3) puisque ( gradp h Π Vh gradp h, w h ) = 0 pour tout w h V h par dénition de la projection, en particulier pour w h = Π Vh gradq h. Il faut cependant calculer une nouvelle inconnues z h = Π Vh gradp h V h, i.e. résoudre : trouver u h, z h V h et p h Q h t.q. : ( grad u h, grad v h ) L 2 (p h, div v h ) L 2 = ( f, v h ) L 2, v h V h, (div u h, q h ) L 2 h 2 ( gradp h z h, gradq h ) L 2 = 0, q h Q h, ( z h, v h ) L 2 ( gradp h, v h ) L 2 = 0, v h V h. (3.4) Mais cette équation nouvelle en z h est presque gratuite avec des éléments nis P en vitesse et pression car la matrice (de masse) relative à l'équation en z h peut être rendue diagonale à l'aide 0 4 août 2006

3. Exemple : problème de Stokes de la méthode de mass lumping (matrice de masse rendue diagonale qui donne explicement z h en fonction de gradp h ). 3.5 Méthode de Brezzi et Pitkäranta Une méthode antérieure proposée par Brezzi et Pitkäranta [7] consiste à supprimer Π Vh gradp h, i.e. à pénaliser plus fortement : trouver u h V h et p h Q h t.q. : (3.5) ( grad u h, grad v h ) L 2 (p h, div v h ) L 2 = ( f, v h ) L 2, v h V h, (div u h, q h ) L 2 εh 2 ( gradp h, gradq h ) L 2 = 0, q h Q h, où ε > 0 est petit. La programmation montre cependant une condition aux limites naturelle pour la pression p n = 0 non souhaitée : c'est la condition aux limites attendue pour le terme ( gradp h, gradq h ) L 2 qui est une discrétisation du laplacien ( p, q) L 2 : prendre la formulation continue de (3.5) 2, faire une intégration par parties, et il reste div u + εh 2 p = 0 et p n Γ C'est cette dernière condition qu'on récupère numériquement. Cette condition aux limites = est 0. atténuée dans le cas de la programmation de (3.4). Remarque 3.3 L'intérêt d'une correction de type (3.5) (ou (3.0)) peut se comprendre par exemple en observant les oscillations numériques non contrôlées de la pression (phénomène de type checkerboard) dans le cas P : pour contrôler les variations de pressions, on contrôle son gradient par l'intermédiare de la norme gradq 2 L. Au lieu de considérer le lagragien : 2 L( v, q) = 2 grad u 2 (div v, q) f, dont la dériviation donne (3.) (recherche d'un extremum), on considère le lagrangien pénalisé : L ε ( v, q) = 2 grad u 2 (div v, q) f 2 ε gradq 2. L'extremum de L ε est alors donné par : trouver u V et p Q t.q. : ( grad u, grad v) L 2 (p, div v) L 2 = ( f, v) L 2, v V, (div u, q) L 2 ε( gradp, gradq) L 2 = 0, q Q, (3.6) d'où la discrétisation (3.5) avec ε remplacé par εh 2 pour avoir un résultat de convergence optimale en norme p h L 2 (Ω). 3.6 Méthode de Hughes, Franca et Balestra Cette méthode dite de Galerkin Least-squares [9] consiste à stabiliser à l'aide de l'équation satisfaite par la solution (méthode naturellement consistante) : au lieu de (3.), on considère : L( v, p) = 2 grad v 2 L 2 (Ω) (p, div v) L 2 (Ω) (f, v) L 2 (Ω) ε 2 K h 2 u+ gradp f 2 L 2 (K). (3.7) Cette méthode nécessite une valeur de ε susamment petite pour ne pas détruire l'ellipticité en u (ellipticité du terme ( gradu, gradv) L 2 (Ω) ε k h2 ( u, v) L (K)) : à l'aide de l'inégalité inverse 2 u h L 2 Ch gradu h L 2, u h V h, on supposera donc que 0 < ε < C. Et la méthode est programmée à l'aide de : ( gradu, gradv) L 2 (p, divv) (q, divu) εh 2 ( u + gradp f, v + gradq) L 2 = (f, v) L 2, (3.8) pour tout v et tout q (donc deux équations). Remarque 3.4 Dans le cas V h = P, cette méthode s'apparente à celle de BrezziPitakäranta (il n'y a plus de terme en u et l'analyse de stabilité est la même). 4 août 2006

2 3. Exemple : problème de Stokes 3.7 Méthode de Douglas et Wang Cette méthode [3] est inconditionnellement stable, mais non symétrique. Pour ne pas détruire l'ellipticité en u, l'équation (3.8) est modiée : ( gradu, gradv) L 2 (p, divv) (q, divu) εh 2 ( u + gradp f, v + gradq) L 2 = (f, v) L 2, pour tout v et q, où si on préfère (en changeant q en q) : ( gradu, gradv) L 2 (p, divv) + (q, divu) + εh 2 ( u + gradp f, v + gradq) L 2 = (f, v) L 2. (3.9) En particulier, en prenant v=u et q=p, la forme bilinéaire b((u, p), (v, q)) associée vérie b((u, p), (u, p)) = : ( gradu, gradu) L 2 (p, divu) + (p, divu) + εh 2 ( u + gradp, u + gradp) L 2 = gradu 2 L + 2 εh2 u + gradp L 2, et la coercivité en u ne dépend plus de ε>0. Cette méthode est particulière adaptée aux modiciations des équations de Stokes, comme les équations de NavierSotkes, lorsque le problème est de nature non symétrique. Remarque 3.5 Même remarque que remarque 3.4. 3.8 La pression : multiplicateur de Lagrange et condition inf-sup 3.8. Multiplicateur de Lagrange L'équation (3.2) fait apparaître p comme un multiplicateur de Lagrange relativement à la contrainte div u = 0. La démarche pour introduire le multiplicateur de Lagrange est similaire à la démarche en dimension nie (voir cours sur les multiplicateurs de Lagrange). Pour sortir du cadre formel et donner un sens aux équations, on a besoin des espaces vectoriels : L 2 (Ω) = {f : Ω R mesurable t.q. Ω f 2 ( x) dω < }, L 2 0(Ω) = {f L 2 (Ω)t.q. Ω f( x) dω = 0 (de moyenne nulle)}, H (Ω) = {f L 2 (Ω) t.q. gradf (L 2 (Ω)) n }, H 0 (Ω) = {f H (Ω) t.q. f Γ = 0}, H0,div0(Ω) = { u (H0 (Ω)) n t.q. div u = 0}, H (Ω) = L(H0 (Ω); R) espace des formes linéaires et continues sur H0 (Ω). Continues sur H0 (Ω) signie continues pour la norme. H qui fait de H0 (Ω) un Hilbert, avec f H = ( f 2 L + gradf 2 L ) 2. On supposera ici Ω ouvert borné dans R n, et on prendra : 2 f H 0 = gradf L 2, qui fait de H0 (Ω) un Hilbert (produit scalaire associé (f, g) H 0 = ( Ici, le problème pour la vitesse est : trouver u H0,div0 (Ω) tel que : Ω grad u : grad v dω = i.e. : trouver u H0,div0 (Ω) tel que : Ω u + f, v H,H 0 = 0, v H 0,div0(Ω). La solution u est donc telle que u + f (H 0,div0 (Ω)) où : gradf, gradg) L 2). f. v dω, v H 0,div0(Ω), (3.20) (H 0,div0(Ω)) = { g H (Ω) n t.q. v H 0,div0(Ω), g, v H,H 0 = 0}. (Orthogonal au sens de la dualité.) 2 4 août 2006

3 3. Exemple : problème de Stokes Or on montre que toute fonction g : Ω R de H (Ω) n qui appartient à (H0,div0 est de (Ω)) la forme g = gradp où p L 2 (Ω) (théorème de De Rham, voir GiraultRaviart [5]) : (H 0,div0(Ω)) grad(l 2 (Ω)). (3.2) Il existe donc p L 2 (Ω) (encore appelé multiplicateur de Lagrange) tel que : u + f = gradp, et le problème (3.20) se met sous la forme (3.). Noter que le gradient étant déni à une constante près, on a grad(l 2 (Ω)) = grad(l 2 0(Ω)). 3.8.2 La condition inf-sup Et si p L 2 (Ω), on a gradp, v H,H0 = (div v, p) et est nul pour tout L 2 v H 0,div0 grad(l 2 (Ω)) (H0,div0 et donc avec (3.2) : (Ω)) L'opérateur gradient est donc surjectif : (H 0,div0(Ω)) = grad(l 2 (Ω)). grad : L 2 (Ω) (H 0,div0(Ω)) Son noyau étant réduit aux fonctions constantes : surjectif. (Ω). Donc grad : L 2 0(Ω) (H0,div0(Ω)) bijectif. (3.22) En particulier, (H (Ω)) n étant fermé (espace de Banach), grad a son image fermé (c'est un orthogonal dans un Banach) et (3.22) équivaut à (théorème de l'application ouverte, voir Brézis [6] ou cours de troisième année) : I.e. à : I.e. à : k > 0, p L 2 0(Ω), gradp H k p L 2 0 (Ω). (3.23) k > 0, p L 2 0(Ω), sup v gradp, v (H 0 v H,H k p (Ω))n H 0 L 2 0 (Ω). 0 k > 0, inf sup p L 2 0 (Ω) v (H 0 (Ω))n (p, div v) L2 v H 0 p L 2 k. (3.24) C'est LA condition inf-sup. (Pour la démonstration basée sur la compacité, voir Girault Raviart [5] ou cours de troisième année.) Par dualité, l'opérateur div est également surjectif : div : (H 0 (Ω)) n L 2 0(Ω) surjectif. (Car (H 0,div0 (Ω)) (H (Ω)) n et (H (Ω)) n = (H 0 (Ω)) n.) Remarque 3.6 On dit souvent que la condition inf-sup est la condition de surjectivité de l'opérateur divergence. Voir à ce propos le paragraphe 3.3. Remarque 3.7 Identiant L 2 (Ω) à son dual L 2 (Ω) = L(L 2 (Ω), R) grâce au produit scalaire L 2 (Ω) (théorème de représentation de Riesz dans L 2 (Ω)), on obtient également : div : (H 0 (Ω)) n /Ker(div) L 2 0(Ω) isomorphisme hilbertien. 3 4 août 2006

4 4. Conditions aux limites de Dirichlet 4 Conditions aux limites de Dirichlet L'article de référence est celui de Babu²ka [2]. Voir également Pitkäranta [24], Stenberg [27], Barbosa et Hughes [3]. 4. Introduction On considère le problème, pour f L 2 (Ω) et u d H 2 (Γ) donnés : trouver u H (Ω) t.q. : u + u = f dans Ω, u Γ = u d sur Γ. Cherchant u u d + H0 (Ω) (espace ane d'espace vectoriel associé H0 (Ω)), la démarche classique consiste à écrire la formulation variationnelle dans H0 (Ω) : { trouver u u d + H0 (Ω) t.q. : (4.2) ( gradu, gradv) L 2 (Ω) + (u, v) L 2 (Ω) = (f, v) L 2 (Ω), v H 0 (Ω). Ici on souhaite imposer la condition aux limites de Dirichlet u Γ = u d à l'aide d'un multiplicateur de Lagrange. On s'intéresse donc formellement au point selle du Lagrangien : (4.) L(u, λ) = 2 gradu 2 L 2 (Ω) + 2 u 2 L 2 (Ω) + (u, λ) L 2 (Γ) (f, u) L 2 (Ω) (u d, λ) L 2 (Γ), (4.3) un éventuel point selle vériant : { ( gradu, gradv) L 2 (Ω) + (u, v) L 2 (Ω) + (v, λ) L 2 (Γ) = (f, v) L 2 (Ω), (u, µ) L 2 (Γ) = (u d, µ) L 2 (Γ), Quand cela a un sens, l'interprétation de ce problème donne (par intégration par parties) : µ. u + u = f dans Ω, u = u d sur Γ, (4.5) λ = u sur n Γ. L'interprétation du multiplicateur de Lagrange apparaît : c'est la force (au signe près) qu'il faut appliquer sur le bord Γ pour que la position u y vale bien u d. Remarque 4. - Le calcul de λ en lui-même peut être important. 2- Cette approche conduit aux problèmes de transmission aux parois traités par la méthode des éléments nis avec joints (mortar nite elements) de Bernardi, Maday et Patera. 4.2 Espaces fonctionnels et condition inf-sup Il s'agit de donner un sens aux problèmes formels (4.3) et (4.4). Pour u H (Ω) on a γ 0 (u) = u Γ H 2 (Γ), et imposer une condition sur u Γ H 2 (Γ) est équivalent à imposer une condition sur les λ(u) = λ, u H 2 (Γ),H R pour tout λ 2 (Γ) (H 2 (Γ)) = H 2 (Γ) (dual topologique de H 2 (Γ)). On cherchera donc : u H (Ω), Le problème formel (4.4) à résoudre devient : λ H 2 (Γ). v, (4.4) trouver (u, λ) H (Ω) H 2 (Γ) t.q. : ( gradu, gradv) L 2 (Ω) + (u, v) L 2 (Ω) + v, λ H 2 (Γ),H = (f, v) 2 (Γ) L 2 (Ω), v H (Ω), (4.6) u, µ H 2 (Γ),H = u d, µ 2 (Γ) H 2 (Γ),H, µ 2 (Γ) H 2 (Γ). 4 4 août 2006

5 4. Conditions aux limites de Dirichlet Ce problème est de la forme : où : où γ 0 est l'application trace : trouver (u, λ) V Λ t.q. a(u, v) + b(v, λ) = l (v), v V, b(u, µ) = l 2 (µ), µ Λ, V = H (Ω), Λ = H 2 (Γ), a(u, v) = ( gradu, gradv) L 2 (Ω) + (u, v) L 2 (Ω) b(v, λ) = γ 0 (v), λ H 2 (Γ),H 2 (Γ) l (v) = (f, v) L 2 (Ω), l 2 (µ) = u d, µ H 2 (Γ),H 2 (Γ), γ 0 : { H (Ω) H 2 (Γ) (= (u, v) H (Ω)), noté = v, λ H 2 (Γ),H 2 (Γ), u γ 0 (u) = u Γ. La forme bilinéaire a(, ) est bien continue et coercitive sur H (Ω) (c'est le produit scalaire), et : Théorème 4.2 (Babu²ka) La forme b(, ) vérie la condition inf-sup : k > 0, inf sup λ H 2 (Γ) v H (Ω) v λ b(, v H (Ω) λ H 2 (Γ) (4.7) (4.8) (4.9) ) k, (4.0) et le problème (4.6) est bien posé (existence et unicité de la solution (u, λ) H (Ω) H 2 (Γ), solution qui dépend continûment des données f et u d ). Preuve. (Babu²ka [2]) On veut montrer (relation équivalente à (4.0)) : On xe un λ Λ. On a : k > 0, λ Λ, λ H 2 (Γ) k λ H 2 (Γ) déf = sup z H 2 (Γ) sup v H (Ω) λ, z z H 2 (Γ). γ 0 (v) v H (Ω), λ. (4.) Soit w = w(z) H (Ω) la solution du problème de Dirichlet (le relèvement de z H 2 (Γ) donné par) : { w + w = 0 dans Ω, γ 0 (w) = z sur (4.2) Γ. Ce problème est bien posé dans H (Ω) (application du théorème de Lax-Milgram à la formulation faible), et on a : w H (Ω) C z H 2, (Γ) (4.3) où C est une constante indépendante de z (dépend du domaine Ω supposé borné), voir cours d'éléments nis. Et donc z C w H (Ω) et donc : H 2 (Γ) λ H 2 (Γ) C sup λ, γ 0 (w) w H (Ω) w H (Ω) w+w=0 C sup v H (Ω) γ 0 (v) v H (Ω), λ. (4.4) Et k = C convient. N.B. : en fait, on peut dénir z H 2 (Γ) par déf z H 2 = w(z) (Γ) H (Ω) où w(z) est solution de (4.2), voir cours d'éléments nis. Et ainsi au lieu de (4.3), on a w H (Ω) = z H 2 (Γ), i.e. on peut prendre C =. 5 4 août 2006

6 4. Conditions aux limites de Dirichlet Remarque 4.3 Un relèvement w = w(λ) H (Ω) de λ H 2 (Γ) dans H (Ω) donné par la solution de : i.e. par la solution de : w + w = 0 dans Ω, w n = λ sur (4.5) Γ, ( gradw, gradv) L 2 (Ω) + (w, v) L 2 (Ω) = λ, γ 0 (v) Λ,Λ, v H (Ω). (4.6) Ce problème de Neumann est bien posé dans H (Ω) (application du théorème de LaxMilgram) avec (4.6) qui donne immédiatement : w 2 H (Ω) = λ, γ 0(w) Λ,Λ et donc le relèvement w H (Ω) de λ H 2 (Γ) vérie : ( noté = w H (Ω) γ 0 λ H 2 (Γ), Γ λw dγ), puisque γ 0 (w) H 2 (Γ) γ 0 w H (Ω). Si on calcule w, et si pose u 0 = u w H 0 (Ω), le problème (4.6) à résoudre devient, grâce à (4.6) : touver u 0 H 0 (Ω) t.q. : ( gradu 0, gradv) L 2 (Ω) + (u 0, v) L 2 (Ω) = (f, v) L 2 (Ω), d'où u. Remarque 4.4 La forme bilinéaire b(, ) : H (Ω) H 2 (Γ) R est déterminée par b(u, λ) = λ, γ 0 u H 2 (Γ),H 2 (Γ) (et plus simplement si on se restreint aux λ L2 (Γ) par b(u, λ) = Γ λu Γ dγ). On peut alors déterminer γ t 0 le dual de l'opérateur de trace γ 0 : H (Ω) H 2 (Γ). Il est déterminé par γ t 0 : H 2 (Γ) (H (Ω)), pour tout λ H 2 (Γ) et tout v H (Ω) : γ t 0λ, v (H (Ω)),H (Ω) = λ, γ 0 v H 2 (Γ),H 2 (Γ), qui est également noté formellement Ω (γt 0λ) v dω = Γ λ v dγ. Soit maintenant w solution de (4.5) ou de (4.6); on obtient : (γ t 0λ, v) L 2 (Ω) = (w, v) H (Ω), non formel dès que γ t 0λ L 2 (Ω). Cela peut servir de caractérisation de γ t 0. Rem : on sait qu'un élément de (H (Ω)), donc γ t 0λ, est de la forme f 0 + div f où f 0 L 2 (Ω) et f L 2 (Ω) n. 4.3 Problème approché On se donne des espaces éléments nis V h H (Ω) et Λ h H 2 (Γ); dans les applications on prend V h = P k -continues (avec k N ) et Λ h P l (avec l N). Et le problème approché à résoudre (correspondant à (4.6)) est : trouver (u h, λ h ) V h Λ h t.q. : (u h, v h ) H (Ω) + v h, λ h H 2 (Γ),H 2 (Γ) = (f, v h) L 2 (Ω), v h V h, u h, µ h H 2 (Γ),H 2 (Γ) = u d, µ h H 2 (Γ),H 2 (Γ), µ h Λ h. On obtient un problème numérique à résoudre sous la forme (3.4) : ( A B t B 0 ) ( ) u λ. ( f = g (4.7) ). (4.8) 6 4 août 2006

7 4. Conditions aux limites de Dirichlet 4.4 Éléments nis P k : non stables L'approche élémentaire consiste à prendre pour Λ h (approximation sur le bord) les traces des éléments de V h : Λ h = Tr(V h ). Et l'opérateur Tr : V h Λ h est donc surjectif. Exemple 4.5 On prend comme maillage sur le bord le maillage de Ω restreint au bord (choix le plus simple). On prend Λ h = P k (Γ) (sur le bord), et en prend V h = P k (Ω) (dans Ω); on a alors Λ h = Tr(V h ). En eet, toute fonction de base dans Λ h est une fonction de base de V h restreinte à Γ. Proposition 4.6 Si on prend des éléments nis V h = P k (Ω) dans Ω, et si on prend des éléments nis λ h = P k (Γ) = γ 0 (P k (Ω)) sur Γ (choix le plus simple), alors on a la condition inf-sup (car surjectivité) : k h > 0, inf λ h Λ h 2 (Γ),H 2 (Γ) γ 0 v h, λ h H sup v V h λ h H v h 2 (Γ) H (Ω) k h. (4.9) Remarque 4.7 Malheureusement, ce choix P k pour V h et Λ h conduit à : k h 0, h 0 (4.20) et le problème devient mal conditionné (instable numériquement). D'où l'article initial de Babu²ka [2]. La vérication numérique est simple, voir annexe et calcul des valeurs singulères de la matrice B. Remarque 4.8 Cf. Pitkäranta [24]. Dans le cadre des éléments nis, à l'aide de l'inégalité inverse (cas d'un maillage quasi-uniforme) : la condition inf-sup (4.9) se comprend : γ > 0, λ h Λ h, h 2 λh L 2 (Γ) γ λ h H 2 (Γ), k h > 0, inf sup λ h Λ h v V h Γ v h λ h dγ k h λ h L 2 (Γ) v h H (Ω) γ h 2, (4.2) plus précisément, si on a (4.2) (condition numériquement vériable), alors on a (4.9). Et pour avoir une condition inf-sup numérique stable (cas k h > k > 0), on s'intéresse à la vérication de (4.2) avec un k h indépendant de h. 4.5 Problème stabilisé 4.5. Barbosa et Hughes (Voir Barbosa et Hughes [3], Pitkäranta [24], Stenberg [27]). On veut utiliser comme maillage sur Γ la trace du maillage T h déni sur Ω. L'idée de Barbosa et Hughes est de stabiliser le multiplicateur de Lagrange λ h à l'aide de sa valeur souhaitée λ h = u h n sur Γ. Pour ce, le lagrangien formel initial (4.3) est transformé en (cf. Stenberg [27]) : L h (u, λ) = L(u, λ) α(h u 2 λ+ n L 2 (Γ)) 2, (4.22) pour α une constante à déterminer. I.e. le problème approché (4.7) est transformé en le problème : trouver (u h, λ h ) V h Λ h t.q. pour tout (v h, µ h ) V h Λ h : (u h, v h ) H (Ω) + v h λ h dγ αh (λ h + u h Γ Γ n ) v h n dγ = (f, v h) L 2 (Ω), u h µ h dγ αh (λ h + u h n )µ h dγ = u d µ h dγ. Γ Γ Et le problème est ainsi transformé en le problème matriciel sous forme pénalisée : ( ) ( ) ( A B t u f. = B αc p g Γ (4.23) ). (4.24) 7 4 août 2006

8 4. Conditions aux limites de Dirichlet Théorème 4.9 (Barbosa et Hughes [3], Pitkäranta [24].) On suppose que le maillage T h est quasiuniforme, ou plus précisement qu'il est tel que l'inégalité inverse suivante est satisfaite : C i > 0, v h V h, h 2 v h n L 2 (Γ) C i gradv h L 2 (Ω). (4.25) On suppose dans (4.22) que α est assez petit (pour ne pas détruire la coercivité en u), à savoir : 0 < α < C i. (4.26) Alors le problème approché stabilisé (4.23) est bien posé, et de plus on a l'estimation d'erreur optimale, dès que la solution exacte u H k+ (Ω) : où C est une constante indépendante de h. u u h H (Ω) Ch k u H k+ (Ω), Preuve. Voir Barbosa et Hughes [3] et Stenberg [27]. Remarque 4.0 L'inégalité (4.25) se réécrit : h ( gradv. n) 2 dγ Ci 2 Γ Ω gradv 2 R n dω, et le facteur h est attendu : (h Γ ) a même dimension que ( ), dimension d'un volume. Ω 4.5.2 Elimination du multiplicateur : méthode de Nitsche [23] Stenberg [27] a montré que la Méthode de Barbosa et Hughes [3] était équivalente à la méthode plus ancienne de Nitsche [23], dans le cas où Λ h = P 0 (Γ h ) et V h = P (Ω h ) (quand Γ h est la trace de Ω h ) : i.e. trouver u h V h t.q. v h V h : (u h, v h ) H (Ω) u h n, v h Γ v h n, u h u d Γ + γ E E h h E u h u d, v h E = (f, v h ) L 2 (Ω), trouver u h V h t.q. v h V h : (u h, v h ) H (Ω) u h n, v h Γ v h n, u h Γ + γ E E h h E u h, v h E = (f, v h ) L 2 (Ω) v h n, u d Γ + γ E E h h E u d, v h E. (4.27) On retrouve alors u Γ = u d. Cette méthode est plus simple à programmer car sans multiplicateur de Lagrange. Proposition 4. Sous l'hypothèse (4.25), quand γ > C i, le problème (4.27) est bien posé : u u h H (Ω) Ch k u H k+ (Ω), pour une approximation P k quand u H k+ (Ω). Preuve. Voir Stenberg [27]. 8 4 août 2006

9 4. Conditions aux limites de Dirichlet Comparaison de la méthode de Nitsche et de la méthode de Barbosa et Hughes : on cherche à éliminer λ h dans (4.23). A partir de (4.23) 2 on obtient : Reporté dans (4.23), on obtient : λ h = Π Λh ( u h n ) + αh (u h u d ). (u h, v h ) H (Ω) Π Λh ( u h Γ n )v h dγ Π Λh ( v h Γ n )u h dγ + u h v h dγ αh Γ u h v h αh( Γ n n Π u h Λ h n Π v h Λ h n dγ) v h = (f, v h ) L2 (Ω) g Π Λh n dγ + gv h dγ, αh Γ On se place alors dans le cas Λ h = P 0 et V h = P : on a alors Π Λh ( u h n ) = u h n. Et on retrouve (4.27). Γ 9 4 août 2006

20 5. Locking 5 Locking Le locking est un phénomène très diérent du problème de l'instabilité inf-sup (bien qu'en modiant les équations on puisse se ramener à un problème de multiplicateur de Lagrange et donc d'inf-sup). Le locking intervient quand l'ellipticité numérique explose (alors que l'ellipticité du problème initiale est nie) : dans ce cas, la solution numérique trouvée est proche de la solution identiquement nulle, et le problème numérique est bloqué. 5. Le problème type Soit Ω un ouvert borné de R n. On cherche un champ de vecteurs u : Ω R n et un champ de scalaires p : Ω R qui minimisent sur X = H 0 (Ω) n H 0 (Ω) la fonctionnelle : M( v, q) = 2 grad v 2 L 2 (Ω) + λ 2 v gradq L 2 (Ω) ( f, v) L 2 (Ω) (g, q) L 2 (Ω), (5.) où λ R est très grand (mais xé). Remarque 5. Pour les notations, voir les paragraphes 2.3 et 2.4. Remarque 5.2 A la place de grad v 2 L 2 (Ω) on peut mettre d'importe expression a( v, v) où a(, ) : (H 0 (Ω)) n (H 0 (Ω)) n R est une forme bilinéaire coercitive sur H 0 (Ω), comme c'est le cas pour les équations de MindlinReissner. On a supposé Ω borné, et on dispose donc de l'inégalité de Poincaré : β > 0, z H 0 (Ω), gradz L 2 (Ω) β z L 2 (Ω). (5.2) Et H0 (Ω) est alors muni de sa norme z H 0 (Ω) = gradz L 2 (pour tout z H0 (Ω)). De même pour H0 (Ω) n. On munit X = H0 (Ω) n H0 (Ω) du produit scalaire associé à la norme : ( v, q) X = ( grad v 2 L 2 + gradq 2 L 2) 2. Et il est immédiat que X est un Hilbert. La solution ( u, p) X réalisant le min de M vérie : { (grad u, grad v)l 2 + λ( u gradp, v) L 2 = ( f, v), v H0 (Ω) n, (5.3) λ( u gradp, gradq) L 2 = (g, q), q H (Ω). On va regarder ce problème sous la forme LaxMigram en posant : Φ(( u, p), ( v, q)) = (grad u, grad v) L 2 + λ( u gradp, v et en cherchant ( u, p) X tel que pour tout ( v, q) X on ait (réécriture de (5.3)) : gradq) L 2, (5.4) Φ(( u, p), ( v, q)) = ( f, v) L 2 + (g, q) L 2. (5.5) Proposition 5.3 La forme bilinéaire Φ : X X R coercitive et continue sur X : on a, il existe α Φ > 0 t.q. pour tout ( v, q) X : Φ(( v, q), ( v, q)) α Φ ( v, q) 2 X, où α Φ β et, il existe C > 0, pour tout ( u, p) X et ( v, q) X : au vois de λ =, (5.6) Φ(( u, p), ( v, q)) C ( u, p) X ( v, q) X, où C = O(λ) au vois de λ =. Et le problème (5.5) est bien posé. 20 4 août 2006