Méthodes de décomposition de domaine pour des problèmes hétérogènes SMA - Projet de semestre - Analyse Numérique Sous la direction du Dr. Marco Discacciati Rime Mathias automne 2008
Remerciements Je remercie vivement Marco Discacciati pour m'avoir suivi durant ce projet, en prenant le temps, parfois des heures, de vérier mes calculs ou trouver des erreurs. Je le remercie aussi pour le code MATLAB écrit à mon intention. Finalement je remercie mes collègues Gwenol, Matthieu et Fabrizio pour leur soutient, leur faculté à parler d'analyse numérique, et simplement leur bonne humeur! iii
Table des matières 1 Problème de diusion hétérogène 1 1.1 Forme faible................................... 2 1.2 Forme multi-domaines............................. 3 1.2.1 Forme faible multi-domaines...................... 5 1.3 Approximation par éléments nis et forme multi-domaines......... 8 1.3.1 Le complément de Schur........................ 10 2 Méthodes itératives de décomposition de domaine 15 2.1 Méthode de Dirichlet-Neumann........................ 15 2.2 Méthode de Neumann-Neumann........................ 18 2.2.1 Approximation par éléments nis et forme algébrique........ 19 2.3 Convergence des méthodes itératives..................... 21 2.4 Préconditionneur de Neumann-Neumann pour plusieurs sous-domaines.. 27 3 Une méthode de Schwarz hybride 29 3.1 Forme variationnelle.............................. 30 3.2 Une méthode de projection........................... 31 3.3 Généralisation à plusieurs sous-domaines................... 32 3.4 Forme algébrique................................ 38 3.5 Méthode à deux niveaux............................ 40 4 Résultats numériques 43 4.1 Méthode de Neumann-Neumann........................ 43 4.1.1 Nombre de conditionnement et scalabilité............... 43 4.1.2 Inuence des sauts des coecients.................. 44 4.2 Méthode de Schwarz hybride.......................... 46 4.2.1 Problème elliptique........................... 46 4.2.2 Problème de Stokes........................... 48 Bibliographie 49 v
Chapitre 1 Problème de diusion hétérogène Nous introduisons dans ce chapitre le problème de diusion hétérogène que nous étudierons tout au long du projet. Considérons le problème elliptique suivant : { (µ u = f, dans Ω R (1.1 d ; (d = 2, 3 u = 0, sur Ω avec µ L (Ω, inf Ω µ > 0 et f L 2 (Ω. On considère une décomposition de Ω en deux sous-domaines sans recouvrement Ω 1 et Ω 2, avec Ω 1 Ω 2 = Ω, Ω 1 Ω 2 = et Ω 1 Ω 2 =: Γ. Soit { µ 1 (x dans Ω 1 µ(x = µ 2 (x dans Ω 2 avec µ 1 L (Ω 1 et µ 2 L (Ω 2. Nous nous intéressons donc au cas où la décomposition du domaine Ω se fait suivant les particularités physiques du problème que nous voulons modéliser ; ici, on décompose Ω suivant les sauts de la fonction de diusion µ. Nous introduisons maintenant les divers notations et espaces fonctionnels que nous utiliserons. Ensuite nous pourrons décrire la forme faible du problème (1.1 et, surtout, ses formes multidomaines ainsi que l'équation d'interface de Steklov-Poincaré associée à l'interface Γ. Dénition. Soit Ω R d, d = 2, 3 un ouvert. Nous dénissons (w, v Ω := wv, Ω L 2 (Ω := {v : Ω R, v mesurable (v, v Ω < } H 1 (Ω := { v L 2 (Ω D j v L 2 (Ω j = 1,..., d } H 1 0(Ω := { v H 1 (Ω v Ω = 0 } V := H 1 0(Ω, où D j désigne l'opérateur de dérivée partielle x j, j = 1,..., d. La norme de L 2 (Ω sera notée. 0,Ω tandis que la norme de H 1 (Ω sera notée. 1,Ω, avec v 0,Ω = (v, v 1/2 Ω v L 2 (Ω 1
2 CHAPITRE 1. PROBLÈME DE DIFFUSION HÉTÉROGÈNE et où on a noté v 1,Ω = ( v 2 0,Ω + v 2 0,Ω 1/2 v H 1 (Ω, v 2 0,Ω = Nous avons l'inégalité de Cauchy-Schwartz d D j v 2 0,Ω. (u, v u 0,Ω v 0,Ω. L'inégalité de Poincaré nous dit qu'il existe une constante C Ω > 0 telle que (1.2 v 2 0,Ω C Ω v 2 0,Ω v H 1 0(Ω. La semi-norme v 0,Ω est donc une norme pour v H0(Ω, 1 équivalente à la norme v 1,Ω. En eet nous avons 1 1 + C Ω v 2 1,Ω v 2 0,Ω v 2 1,Ω v H 1 0(Ω. On dénit aussi l'espace de trace H 1/2 ( Ω de H 1 (Ω sur le bord Ω H 1/2 ( Ω = { v Ω v H 1 (Ω }, et on a une dénition analogue pour un sous-ensemble ouvert non vide Σ Ω H 1/2 (Σ = { v Σ v H 1 (Ω }. 1.1 Forme faible Nous multiplions l'équation (1.1 par une fonction test v H0(Ω 1 et on intègre sur Ω : v (µ u = fv. Ω Ω On intègre le membre de gauche par partie en utilisant (vµ u = v µ u + v (µ u, on obtient v µ u (vµ u = fv. Ω Ω Ω En utilisant le théorème de Green, on a (vµ u = (vµ u n Ω, Ω Ω
1.2. FORME MULTI-DOMAINES 3 où n Ω désigne la normale extérieure du domaine Ω. Comme v H 1 0(Ω est nul sur le bord de Ω, la dernière intégrale est nulle. Finalement, on obtient la forme faible du problème (1.1 : (1.3 Trouver u H 1 0(Ω : a(u, v = (f, v Ω, v H 1 0(Ω où a(u, v = (µ u, v Ω. La forme a(, est coercive sur H0(Ω, 1 en eet nous avons a(u, u = µ u u (min µ u 2 0,Ω min Ω µ u 2 Ω 1 + C 1,Ω, Ω Ω où on a utilisé l'inégalité de Poincaré pour la dernière étape. De plus a(, est continue, on a a(u, v = µ u v (max µ u 0,Ω v 0,Ω (max µ u 1,Ω v 1,Ω, Ω Ω Ω où on a utilisé l'inégalité de Cauchy-Schwarz en première étape. 1.2 Forme multi-domaines Nous posons u i = u Ωi la restriction à Ω i de la solution u du problème (1.1, et notons n i la direction normale à Ω i Γ, orientée vers l'extérieur de Ω i. Nous notons aussi n = n 1 (voir gure 1.1. n 2 1 (1.4 Figure 1.1 Décomposition de Ω en deux sous-domaines. Le problème (1.1 peut alors être reformulé sous la forme multi-domaines suivante (µ 1 u 1 = f sur Ω 1 u 1 = 0 sur Ω 1 Ω u 1 = u 2 sur Γ u µ 2 2 = µ n 1 u 1 sur Γ n (µ 2 u 2 = f sur Ω 2 u 2 = 0 sur Ω 2 Ω.
4 CHAPITRE 1. PROBLÈME DE DIFFUSION HÉTÉROGÈNE Remarquons que les deux problèmes (1.1 et (1.4 sont équivalent si la solution u est assez régulière (u C 2 (Ω par exemple, si non, ce sont les formes faibles de ces problèmes qui sont équivalentes. Les deux équations (1.4 3 et (1.4 4 sont les conditions de transmissions pour u 1 et u 2 à travers Γ. Ces équations assurent la continuité à l'interface Γ de la solution globale u, la réunion de u 1 et u 2, ainsi que la continuité du ux µ u. Notons λ := u n Γ la valeur de la solution sur l'interface Γ. Si on connaissait la valeur de λ, nous pourrions retrouver la solution complète en résolvant deux problèmes indépendants sur Ω 1 et Ω 2, avec la valeur λ comme conditions au bord de Dirichlet sur Γ et une condition de Dirichlet homogène sur Ω i \ Γ. Le problème est comment trouver λ? Pour trouver une équation déterminant λ, nous séparons les solutions u i en deux contributions. Nous posons u i = H i λ + G i f, i = 1, 2, où les contributions H i λ et G i f satisfont les problèmes suivant : (µ i H i λ = 0 sur Ω i (1.5 H i λ = 0 sur Ω i Ω H i λ = λ sur Γ et (1.6 (µ i G i f = f sur Ω i G i f = 0 sur Ω i Ω G i f = 0 sur Γ. Pour chaque i = 1, 2, H i λ est l'extension harmonique de λ vers Ω i (noter qu'en général on appelle extension harmonique une fonction satisfaisant au problème de Laplace, i.e. Hη = 0, Hη Γ = η. Remarquons que G i f ne dépend que de f, tandis que H i λ ne dépend que de la valeur λ de la solution u à l'interface. Pour vraiment obtenir un problème équivalent au problème (1.4, il nous faut encore la condition (1.4 4 sur le ux. Nous devons donc avoir (H 1 λ + G 1 f = (H 2λ + G 2 f n L n L où on a noté v n L = µ v n, la dérivée conormale. La dernière équation est équivalente à dire que λ est solution de l'équation d'interface de Steklov-Poincaré (1.7 Sλ = χ sur Γ où (1.8 χ := G 2f n L 2 = G 1f n L µ i G i f n i
1.2. FORME MULTI-DOMAINES 5 et S est l'opérateur de Steklov-Poincaré déni par (1.9 Sη := H 1η n L 2 = H 2η n L µ i H i η n i. Nous dénissons de plus les opérateurs locaux de Steklov-Poincaré par Nous avons donc S i η := µ i H i η n i, i = 1, 2. S = S 1 + S 2. 1.2.1 Forme faible multi-domaines On introduit les espaces suivant pour la décomposition Ω 1, Ω 2 : V i := { v i H 1 (Ω i v i Ω Ωi = 0 } i = 1, 2 V 0 i := H 1 0(Ω i = { v i V i v i Γ = 0 }. Pour tout v V i, on peut dénir l'opérateur de trace γ : V i L 2 (Γ γw = w Γ w C 0 (Ω V i. On sait que si d > 1, alors H 1 (Ω C 0 (Ω, mais on peut étendre l'opérateur par densité. Donc il existe un opérateur γ continu tel que v Γ L 2 (Γ = γv L 2 (Γ C v 1,Ωi. De plus, on peut démontrer que γ(v i L 2 (Γ, on dénit alors l'espace de trace Λ := γ(v i et on peut dénir une norme η Λ := inf v 1,Ωi v V i v Γ =η tel que (Λ, Λ est un espace de Banach. On caractérise Λ par Λ = { η H 1/2 (Γ η = v Γ pour un v V = H 1 0(Ω }. L'opérateur γ : V i Λ est continu par rapport à cette norme, c'est-à-dire qu'il existe Ci > 0 tel que (1.10 v i Γ Λ C i v i 1,Ωi v i V i et il existe des opérateurs d'extension R i : Λ V i satisfaisant (R i η Γ = η.
6 CHAPITRE 1. PROBLÈME DE DIFFUSION HÉTÉROGÈNE Dénissons, pour i = 1, 2, a i (u i, v i := (µ i u i, v i Ωi u i, v i V i. Les formes bilinéaires a i (, sont coercives et continues, en eet par l'inégalité de Poincaré nous avons a i (u i, u i (min µ i u i 2 0,Ω Ω i min Ω i µ i u i 2 1,Ω i 1 + C i Ωi et a i (u i, v i (max µ i u i 0,Ωi v i 0,Ωi (max µ i u i 1,Ωi v i 1,Ωi, Ω i Ω i où on a utilisé l'inégalité de Cauchy-Schwarz en première étape. Ces formes sont les restrictions de a(, à chaque sous-domaine. Nous donnons maintenant la forme faible du problème multidomaine (1.4, ou plutôt la forme multidomaine de (1.3. Lemme 1.1. Le problème (1.3 est équivalent au problème : trouver u 1 V 1, u 2 V 2 tel que (1.11 a 1 (u 1, v 1 = (f, v 1 Ω1 v 1 V1 0 u 1 = u 2 sur Γ a 2 (u 2, v 2 = (f, v 2 Ω2 v 2 V2 0 a 2 (u 2, R 2 η = (f, R 1 η Ω1 + (f, R 2 η Ω2 a 1 (u 1, R 1 η η Λ, où R i est un opérateur d'extension quelconque de Λ vers V i. Démonstration. Soit u la solution de (1.3. Posons u i = u Ωi. Nous avons u i V i et les trois premières équations de (1.11 sont clairement satisfaite. De plus, pour chaque η Λ, on peut dénir Rη par { R 1 η sur Ω 1 Rη := R 2 η sur Ω 2 et on aura Rη V. Ainsi nous avons a(u, Rη = (f, Rη 2 2 a i (u i, R i η = (f, R i η Ωi, c'est-à-dire la dernière équation est satisfaite. Réciproquement, si u 1 et u 2 sont solutions de (1.11, en posant { u 1 sur Ω 1 u =, u 2 sur Ω 2 grâce à (1.11 2 nous avons u V. Maintenant, pour chaque v V, nous avons η := v Γ Λ, et en dénissant Rη comme auparavant, nous trouvons que (v Ωi R i η V 0 i, et grâce
1.2. FORME MULTI-DOMAINES 7 aux équations 1, 3 et 4 de (1.11 nous trouvons a(u, v = = 2 [ ai (u i, v Ωi R i η + a i (u i, R i η ] 2 [ ] (f, v Ωi R i η Ωi + (f, R i η Ωi c'est-à-dire u est solution de (1.3. = (f, v v V, On caractérise maintenant l'opérateur de Steklov-Poincaré S comme agissant entre l'espace de trace Λ et son dual Λ. Pour tous η, ξ Λ, en utilisant le théorème de Green et du fait que (µ i H i η = 0 sur Ω i et ξ = (R i ξ Γ, on a Sη, ξ = = = = 2 2 µ i n H iη, ξ = µ i i (R i ξ Γ ( H i η n i Γ } {{ } =ξ 2 R i ξ (µ i H i η + R i ξ (µ i H i η Ω i Ω i } {{ } =0 2 µ i H i η R i ξ Ω i 2 a i (H i η, R i ξ η, ξ Λ. On peut alors prendre R i ξ := H i ξ comme opérateur d'extension, et on obtient la représentation variationnelle de S : 2 (1.12 Sη, ξ = a i (H i η, H i ξ η, ξ Λ. On en déduit que l'opérateur S est symétrique. De plus, grâce à la coercivité des opérateurs a i (,, nous avons Sη, η 2 min Ωi µ i 1 + C Ωi H i η 2 1,Ω i, et en utilisant l'inégalité de trace (1.10 nous obtenons { 2 } min Ωi µ i Sη, η η 2 (Ci 2 Λ (1 + C Ωi donc S est un opérateur coercif. On remarque qu'on peut dénir l'action des opérateurs locaux S i par S i η, ξ = a i (H i η, H i ξ η, ξ Λ, i = 1, 2.
8 CHAPITRE 1. PROBLÈME DE DIFFUSION HÉTÉROGÈNE On a bien Sη, ξ = 2 S i η, ξ, et on trouve que chaque S i est symétrique et coercif car nous avons S i η, η min Ωi µ i (C i 2 (1 + C Ωi η 2 Λ. En suivant la même idée que pour l'opérateur S, nous donnons une expression variationnelle du membre de droite χ de (1.7. On utilise à nouveau le théorème de Green, (R i ξ Γ = ξ et le fait que (µ i G i f = f sur Ω i, on obtient (1.13 2 2 χ, ξ = µ i n G if, ξ = R i i ξ (µ i G i f n i Γ 2 [ ] = µ i G i f R i ξ + R i ξ (µ i G i f Ω i } {{ } = f 2 = [(f, R i ξ Ωi a i (G i f, R i ξ] ξ Λ. Finalement, nous obtenons une forme variationnelle pour l'équation d'interface de Steklov-Poincaré : (1.14 Trouver λ Λ : Sλ, ξ = χ, ξ ξ Λ. 1.3 Approximation par éléments nis et forme multidomaines Dans cette section nous introduisons l'approximation par éléments nis de la formulation multi-domaines (1.11. Nous allons voir que la décomposition eectuée au niveau variationnel entraîne une décomposition par bloc de la matrice associée au problème discret. De plus, le système linéaire associé à l'équation de Stecklov-Poincaré découlera d'une élimination de Gauss par bloc eectuée sur le système original, on l'appelle le complément de Schur du système original. Supposons que le domaine Ω R d est un domaine polygonal, c'est-à-dire que c'est un ouvert connexe tel que Ω est une union nie de polygones (d = 2 ou de polyèdre (d = 3. Considérons une triangulation régulière T h du domaine Ω, i.e Ω = K T h K, où chaque K T h est un triangle (tétraèdre avec ( K diam(k h pour tout K T h,
1.3. APPROXIMATION PAR ÉLÉMENTS FINIS ET FORME MULTI-DOMAINES 9 K 1 K 2 = pour chaque K 1, K 2 T h distincts si F = K 1 K 2, alors F est une face, arête ou sommet commun à K 1 et K 2. Dénissons l'espace de Lagrange X r h(ω := { v h C 0 (Ω v h K P r (K K T h }, r 1, où P r (K est l'espace des polynômes sur l'élément K de degré inférieur ou égal à r. Soit l'espace V h de dimension nie N V h := { v h X r h v Ω = 0 } = X r h H 1 0(Ω. En notant F (v = (f, v Ω, l'approximation de Galerkin du problème (1.3 est donc (1.15 trouver u h V h : a(u h, v h = F (v h v h V h. Soit {ϕ j } N une base de l'espace V h. Nous supposons que l'interface Γ = Ω 1 Ω 2 est une réunion d'arête ou de face de la triangulation T h. On peut alors introduire la partition suivante des noeuds du domaine Ω : soient {x (1 j, 1 j N 1 } les noeuds dans le sousdomaine Ω 1, {x (2 j, 1 j N 2 } les noeuds dans Ω 2 et soient {x (Γ j, 1 j N Γ } ceux sur l'interface Γ. On partitionne aussi les fonctions de base en notant ϕ (i j les fonctions associées aux noeuds x (i j, i = 1, 2, j = 1,..., N i et ϕ (Γ j celles liées aux noeuds x (Γ j sur l'interface. Les fonctions de bases satisfont donc { ϕ (α j (x (β δ ij 1 i, j N α si α = β i = 0 si α β avec α, β = 1, 2, Γ, et où δ ij est le symbole de Kronecker. Dans le problème (1.15 il sut maintenant de prendre comme fonctions tests v h V h uniquement les fonctions de bases {ϕ j }, le problème est donc équivalent à trouver u h V h tel que a(u h, ϕ (1 i = F (ϕ (1 i i = 1,..., N 1 (1.16 a(u h, ϕ (2 j = F (ϕ (2 j j = 1,..., N 2 a(u h, ϕ (Γ k = F (ϕ(γ k k = 1,..., N Γ. Comme auparavant, soit a i (,, i = 1, 2, la restriction de la forme a(, au sous-domaine Ω i et soit V i,h := X r h(ω i V i = {v h X r h(ω i v h Ωi \Γ = 0}, i = 1, 2 et V 0 i,h := { v h V i,h v h Γ = 0 } = X r h(ω i H 1 0(Ω i. Notons u (i h = u h Ω i V i,h. Le problème (1.16 peut s'écrire sous la formulation multidomaine suivante : trouver u (1 h V 1,h, u (2 h V 2,h tels que a 1 (u (1 h, ϕ(1 i = F 1 (ϕ (1 i i = 1,..., N 1 a (1.17 2 (u (2 h, ϕ(2 j = F 2 (ϕ (2 j j = 1,..., N 2 a 1 (u (1 h, ϕ(γ k Ω 1 + a 2 (u (2 h, ϕ(γ k Ω 2 = F 1 (ϕ (Γ k Ω 1 + F 2 (ϕ (Γ k Ω 2 k = 1,..., N Γ.
10 CHAPITRE 1. PROBLÈME DE DIFFUSION HÉTÉROGÈNE On peut décomposer la fonction u h sur la base {ϕ j } de l'espace V h : N 1 u h (x = u (1 j ϕ (1 j (x + N 2 u (2 j ϕ (2 j (x + N Γ u (Γ j ϕ (Γ j où u (α j := u h (x (α j (j = 1,..., N α, α = 1, 2, Γ sont les coecients de la combinaison linéaire représentant u h dans la base {ϕ j }. On obtient aussi Ni u (i h (x = u (i j ϕ(i j NΓ (x + u (Γ j ϕ (Γ j Ω i (x. En utilisant ces combinaisons linéaires, on peut écrire le problème (1.17 sous la forme algébrique suivante : A 11 u 1 + A 1Γ λ = f 1 (1.18 A 22 u 2 + A 2Γ λ = f ( 2 A Γ1 u 1 + A Γ2 u 2 + A (1 ΓΓ + A(2 ΓΓ λ = f1 Γ + f2 Γ où le vecteur des inconnues est u = (u 1, u 2, λ T avec u 1 := (u (1 j, u 2 := (u (2 j, λ = (u (Γ j, et où on a déni les matrices et vecteurs suivants : (A mm ij = a m (ϕ (m j, ϕ (m i, m = 1, 2 (A Γm ij = a m (ϕ (m j, ϕ (Γ i, m = 1, 2 (A mγ ij = a m (ϕ (Γ j, ϕ (m i, m = 1, 2 (A (m ΓΓ ij = a m (ϕ (Γ j, ϕ (Γ i, m = 1, 2 (f m i = F m (ϕ (m i, m = 1, 2 (f Γ m i = F m (ϕ (Γ i, m = 1, 2 En écrivant tout sous forme d'un système Au = f on obtient A 11 0 A 1Γ u 1 f 1 (1.19 0 A 22 A 2Γ u 2 = f 2, A Γ1 A Γ2 A ΓΓ λ f Γ où on a noté A ΓΓ = A (1 ΓΓ + A(2 ΓΓ et f Γ = f Γ 1 + f Γ 2. 1.3.1 Le complément de Schur Nous introduisons maintenant la forme discrète de l'équation de Steklov-Poincaré. Dénissons l'espace de trace discret Λ h := { v h Γ v h V h }. (x,
1.3. APPROXIMATION PAR ÉLÉMENTS FINIS ET FORME MULTI-DOMAINES 11 En répétant le travail eectué pour obtenir la forme variationnel (1.11, nous trouvons le problème a 1 (u (1 h, v(1 h = (f, v(1 h Ω 1 v (1 h V1,h 0 u (1 h = u (2 h sur Γ (1.20 a 2 (u (2 h, v(2 h = (f, v(2 h Ω 2 v (2 h V2,h 0 2 a i(u (i h, R i,hη h = 2 (f, R i,hη h Ωi η h Λ h, où R i,h, i = 1, 2 est un opérateur d'extension de Λ h vers V i,h. Cette formulation est équivalente au problème (1.17, car tout η h Λ h est entièrement déni par ses valeurs {η j } N Γ sur les noeuds {x (Γ j } N Γ, on peut donc prendre comme opérateur d'extension N Γ R i,h η h (x = η j ϕ (Γ j Ω i (x, et on trouve la formulation (1.17. De manière similaire, nous dénissons les opérateurs d'extension harmonique discrets H i,h et l'opérateur résolvant discret G i,h par H i,h η h V i,h : (1.21 a i (H i,h η h, v i,h = 0 v i,h Vi,h 0 H i,h η h Γ = η h sur Γ, et (1.22 G i,h f V 0 i,h : a i (G i,h f, v i,h = (f, v i,h Ωi v i,h V 0 i,h. En développant H i,h η h dans la base de l'espace V i,h, on trouve que l'extension harmonique satisfait le problème ( ( ( Aii A iγ Hi η 0 =, 0 I Γ η η où I Γ est la matrice identité d'ordre N Γ, η est la valeur (donnée de η h aux noeuds sur Γ, et H i η est le vecteur des inconnues donnant la valeur de H i,h η h sur les noeuds dans Ω i. Les matrices sont les mêmes que dénit précédemment. Remarquer qu'on a N 1 N Γ H i,h η h (x = (H i η j ϕ (1 j (x + η j ϕ (Γ j Ω i (x. La matrice A ii étant inversible (problème de Laplace avec condition de Dirichlet homogène pour i = 1, 2, on peut écrire H i η = A 1 ii A iγη. En faisant de même pour G i,h f nous trouvons ( Aii ( Gi f = ( f i,
12 CHAPITRE 1. PROBLÈME DE DIFFUSION HÉTÉROGÈNE avec les notations évidentes. On a donc G i f = A 1 ii f i. En posant u (i h = H i,h λ h + G i,h f, dans (1.19 on peut poser u i = H i λ + G i f, i = 1, 2, et en utilisant les identités trouvées précédemment on obtient le système A 1Γ λ + f 1 + A 1Γ λ = f 1 A (1.23 2Γ λ + f 2 + A 2Γ λ = f 2 A Γ1 A 1 11 A 1Γ λ + A Γ1 A 1 11 f 1 A Γ2 A 1 22 A 2Γ λ + A Γ2 A 1 22 f 2 + A ΓΓ λ = f Γ. On obtient donc un système pour l'inconnue λ, correspondant à la valeur de la solution u sur Γ, appelé complément de Schur du système original : (1.24 Σ h λ = χ Γ, avec (1.25 Σ h := A ΓΓ A Γ1 A 1 11 A 1Γ A Γ2 A 1 22 A 2Γ et (1.26 χ Γ = f Γ A Γ1 A 1 11 f 1 A Γ2 A 1 22 f 2. Le complément de Schur est la version algébrique de l'équation d'interface de Steklov- Poincaré. En eet, nous pouvons donner l'approximation par éléments nis de l'équation de Steklov-Poincaré comme étant S h λ h = χ h sur Γ avec χ h := S h η h := S i,h η h := 2 2 S i,h η h n i G i,hf n i H i,hη h. Alors Σ h est la version discrète de l'opérateur S h, et on peut dénir les compléments de Schur locaux par Σ i,h := A (i ΓΓ A ΓiA 1 ii A iγ, et on obtient ainsi les versions discrètes des opérateurs S i,h. On a Σ h = Σ 1,h + Σ 2,h. Remarquer que le complément de Schur peut aussi être obtenu en éliminant les variables u 1, u 2 directement dans le système original (1.19. Ainsi, si on trouve λ en résolvant le
1.3. APPROXIMATION PAR ÉLÉMENTS FINIS ET FORME MULTI-DOMAINES 13 complément de Schur, on peut récupèrer les solutions sur les domaines Ω i en résolvant indépendamment les deux problèmes A 11 u 1 = f 1 A 1Γ λ A 22 u 2 = f 2 A 2Γ λ. Comme dans la section précédente, les formes variationnelles de ces opérateurs donnent, pour tous η h, ξ h Λ h 2 2 (1.27 S h η h, ξ h = a i (H i,h η h, H i,h ξ h =: S i,h η h, ξ h, et (1.28 χ h, ξ h = 2 [ ] (f, R i,h ξ h Ωi a i (G i,h f, R i,h ξ h. Remarquons qu'on a les relations suivantes : [Σ h η, ξ] = S h η h, ξ h η h, ξ h Λ h, et [χ Γ, ξ] = χ h, ξ h ξ h Λ h, où [, ] est le produit scalaire euclidien sur R N Γ, et ηh Λ h, η R N Γ est le vecteur des valeurs aux noeuds sur Γ de η h. On en déduit que Σ i,h et Σ h sont des matrices symétriques, car S i,h et S h sont des opérateurs symétriques. En fait Σ h est symétrique dénie positive, on pourra donc utiliser la méthode du gradient conjugué pour résoudre le système du complément de Schur. Lors de l'application d'une telle méthode, chaque multiplication matrice-vecteur avec Σ h implique la résolution de deux sous-problèmes liés aux matrices A 1 11 et A 1 22. Si y Γ est le vecteur auquel on applique la matrice, on doit d'abord résoudre pour i = 1, 2 le système suivant par rapport à x (i A ii x (i = A iγ y Γ, puis on peut calculer le vecteur résultant global Σ h y Γ 2 Σ h y Γ = A (i ΓΓ A Γix (i. Ces calculs peuvent être fait entièrement en parallèle. Remarquons aussi que la matrice Σ h est dense et le calcul de ses entrées nécessite la résolution du système précédent pour chaque fonction de base associée à chaque noeud sur l'interface Γ. Ainsi, si N Γ est grand, on préférera des méthodes itératives pour la résolution du système de Schur plutôt que des méthodes directes où on doit construire explicitement la matrice du complément de Schur. Finalement, il est important de noter que la matrice Σ h est mal conditionnée. En eet on peut montrer que le nombre de conditionnement spectral de Σ h est borné par κ(σ h C 0 h 1 pour une constante C 0 > 0 indépendante de h. Un préconditionneur pour ce système est donc nécessaire ; nous verrons au chapitre suivant comment obtenir de tels préconditionneurs.
14 CHAPITRE 1. PROBLÈME DE DIFFUSION HÉTÉROGÈNE
Chapitre 2 Méthodes itératives de décomposition de domaine Nous présentons ici des méthodes itératives pour la résolution du problème multidomaine (1.4. Nous nous intéressons particulièrement aux méthodes de Dirichlet-Neumann, et Neumann-Neumann. De manière générale, on calcule itérativement deux suites de solutions u k 1 et u k 2, associées aux domaines Ω 1 et Ω 2 respectivement, de sorte que les deux suites tendent vers la solution u lorsque k. Pour générer les suites u k 1 et u k 2, la méthode générale est de donner une valeur initiale λ 0 de la solution sur l'interface Γ, puis de résoudre un problème sur chaque domaine, donnant les solutions u 1 1 et u 1 2, puis de calculer λ 1 à partir de ces solutions, donnant la valeur initiale pour l'incrément suivant de la suite. Nous verrons que ces méthodes sont interprétées comme des méthodes de Richardson préconditionnées pour résoudre l'équation d'interface de Steklov-Poincaré. Cela permettra d'estimer leur taux de convergence, et plus particulièrement de voir si le nombre de conditionnement du système préconditionné est aecté par les sauts de la fonction de diusion µ à travers l'interface Γ. On pourra de plus utiliser des méthodes itératives telles que la méthode du gradient conjugué préconditionné pour résoudre le système du complément de Schur avec le préconditionneur donné par la méthode de Dirichlet-Neumann ou Neumann-Neumann. Nous utiliserons ici les mêmes notations qu'au chapitre 1. 2.1 Méthode de Dirichlet-Neumann La méthode de Dirichlet-Neumann consiste à résoudre un problème de Dirichlet dans le premier domaine, avec une donnée de Dirichlet λ k sur Γ, puis de résoudre un problème mixte de Dirichlet-Neumann sur le second domaine où on utilise la valeur du ux de la solution précédente sur Γ comme condition de Neumann, et une condition de Dirichlet homogène sur le reste du bord du domaine. Nous avons l'algorithme suivant. Étant donné λ 0, pour chaque k 0 résoudre (µ 1 u k+1 1 = f dans Ω 1 (2.1 u k+1 1 = 0 sur Ω 1 Ω u k+1 1 = λ k sur Γ 15
16 CHAPITRE 2. MÉTHODES ITÉRATIVES DE DÉCOMPOSITION DE DOMAINE puis résoudre (2.2 et poser (µ 2 u k+1 2 = f dans Ω 2 u k+1 1 = 0 sur Ω 2 Ω u µ k+1 2 u 2 = µ k+1 1 n 1 sur Γ n (2.3 λ k+1 := θu k+1 2 Γ + (1 θλk, où θ > 0 est un paramètre d'accélération. Le paramètre θ permet ici d'assurer la convergence de la méthode. En eet on peut montrer que dans le cas où θ = 1, c'est-à-dire λ k+1 = u k+1 2 Γ, on obtient la convergence seulement en imposant des conditions sur les domaines Ω 1 et Ω 2. Par exemple dans le cas unidimensionnel, la méthode converge seulement si la mesure de Ω 1 (le domaine avec condition de Dirichlet est plus grande que celle de Ω 2. Notons tout de suite que si la suite λ k converge vers un λ dénit sur Γ, alors les suites u k 1 et u k 2 converge vers les solutions u 1 et u 2 du problème (1.4, car lors de la convergence on aura λ k = u k 2 Γ = λ ainsi les problèmes (2.1 et (2.2 seront équivalents à (1.4. La méthode de Dirichlet-Neumann est donc consistante. Avant de passer aux formulations faibles et algébriques, nous faisons le lien entre la méthode Dirichlet-Neumann et l'équation de Steklov-Poincaré Sλ = χ en démontrant le théorème suivant, où on rappelle que par dénition H i η S = S 1 + S 2, S i η = µ i η Λ n i et χ = 2 µ i G i f n i. Théorème 2.1. La méthode de Dirichlet-Neumann est équivalente à la méthode de Richardson préconditionnée avec préconditionneur S 2 appliquée à l'équation d'interface de Steklov-Poincaré Sλ = χ, c'est-à-dire qu'on a λ k+1 = λ k + θs 1 2 (χ Sλ k. Démonstration. Grâce à (2.2 et la dénition de G 2 f, la fonction (u k+1 2 G 2 f satisfait le problème (µ 2 (u k+1 2 G 2 f = 0 dans Ω 2 (2.4 u k+1 2 G 2 f = 0 sur Ω 2 Ω µ 2 n 2 (u k+1 u 2 G 2 f = µ k+1 1 1 n 1 µ 2 G 2 f n 2 sur Γ. De plus, on a u k+1 2 Γ = (uk+1 2 G 2 f Γ. Notons maintenant que les opérateurs S i : η Γ µ i H i η Γ n i, i = 1, 2
2.1. MÉTHODE DE DIRICHLET-NEUMANN 17 permettent de passer d'une donnée de Dirichlet sur Γ à une donnée de Neumann sur Γ. Les opérateurs inverses S 1 i fournissent donc une donnée de Dirichlet sur Γ à partir d'une donnée de Neumann. Si S 1 i η =: w Γ, alors w est la solution du problème suivant (µ i w = 0 sur Ω i (2.5 w = 0 sur Ω i Ω w µ i = η sur Γ. n i En comparant (2.4 et (2.5 on trouve que u k+1 2 Γ = (uk+1 2 G 2 f Γ = S2 1 ( µ 1 u k+1 1 n 1 G 2 f µ 2. n 2 Mais grâce à (2.1 on peut écrire la solution u k+1 1 comme u k+1 1 = H 1 λ k +G 1 f, par dénition de H 1 et G 1 f. On trouve donc u k+1 2 Γ = S 1 2 ( µ 1 H 1 λ k n 1 µ 1 G 1 f n 1 µ 2 G 2 f = S 1 n 2 2 (χ S 1 λ k, en utilisant les dénitions de χ et S 1. On peut maintenant écrire l'étape de mise-à-jour (2.3 de la méthode comme λ k+1 = θ [ S 1 2 (χ S 1 λ k ] + (1 θλ k ou en écrivant θλ k = θs 1 2 S 2 λ k et en groupant les termes en θ, λ k+1 = λ k + θs 1 2 (χ Sλ k. Noter que le préconditionneur S 2 correspond au domaine où on résout le problème de Neumann. Le théorème précédent montre surtout que les méthodes itératives de décomposition de domaines sans recouvrement fournissent principalement des préconditionneurs pour l'équation d'interface de Steklov-Poincaré, indépendamment du fait que la méthode est équivalente à une méthode de Richardson. On utilisera plutôt une méthode de gradient conjugué préconditionné, dans le cas symétrique, ce qui sera beaucoup plus ecace. La formulation variationnelle de (2.1 et (2.2 donne trouver u k+1 1 V 1 : (2.6 a 1 (u k+1 1, v 1 = (f, v 1 Ω1 v 1 V1 0 u k+1 1 = λ k sur Γ et (2.7 trouver u k+1 2 V 2 : a 2 (u k+1 2, v 2 = (f, v 2 Ω2 v 2 V2 0 a 2 (u k+1 2, R 2 ξ = (f, R 1 ξ Ω1 + (f, R 2 ξ Ω2 a 1 (u k+1 1, R 1 ξ ξ Λ.
18 CHAPITRE 2. MÉTHODES ITÉRATIVES DE DÉCOMPOSITION DE DOMAINE 2.2 Méthode de Neumann-Neumann Dans la méthode de Neumann-Neumann on résout d'abord un problème de Dirichlet dans chaque sous-domaine avec donnée de Dirichlet λ k sur Γ, puis deux problèmes de Neumann où on utilise la diérence des ux des solutions précédentes comme donnée de Neumann sur Γ. L'algorithme est le suivant. Étant donné λ 0 sur Γ, pour chaque k 0 : pour i = 1, 2 résoudre (µ i u k+1 i = f dans Ω i (2.8 u k+1 i = 0 sur Ω i Ω u k+1 i = λ k sur Γ puis pour i = 1, 2 résoudre (µ i ψ k+1 i = 0 dans Ω i (2.9 ψ k+1 i = 0 sur Ω i Ω ψ µ k+1 i u i = µ k+1 1 u n 1 µ k+1 2 n 2 sur Γ n puis poser (2.10 λ k+1 := λ k θ(σ 1 ψ k+1 1 Γ σ 2ψ k+1 2 Γ. À nouveau, θ > 0 est un paramètre d'accélération. Le poids positifs σ 1 et σ 2 permettent de pondérer les contributions des ux suivant le domaine Ω 1 et Ω 2 pour, par exemple, atténuer les eets des sauts des fonctions de diusion µ 1 et µ 2. En général on prendra σ 1 +σ 2 = 1 et dans le cas de coecients de diusion constants, on pourra prendre σ i = pour la méthode la méthode de Dirichlet-Neumann, le schéma de Neumann-Neumann peut être interprété comme une méthode de Richardson préconditionnée : µ i µ 1 +µ 2. Comme Théorème 2.2. La méthode de Neumann-Neumann correspond à une méthode de Richardson préconditionnée appliquée à l'équation de Steklov-Poincaré avec préconditionneur N := (σ 1 S1 1 + σ 2 S2 1 1, on a donc λ k+1 = λ k + θ(σ 1 S 1 1 + σ 2 S 1 2 (χ Sλ k. Démonstration. Comme dans la preuve du théorème 2.1, en comparant (2.5 et (2.9 nous trouvons que ψ k+1 1 Γ = u S 1 1 (µ k+1 1 u k+1 2 1 + µ n 1 2 n 2 et ψ k+1 2 Γ = u S 1 2 ( µ k+1 1 u k+1 2 1 µ n 1 2 n 2 où on a utilisé n = n 1 = n 2. Or, pour i = 1, 2, grâce à (2.8 nous avons u k+1 i = H i λ k +G i f. En substituant ce résultat dans les équations précédentes on obtient ψ k+1 1 Γ = S 1 1 (µ 1 H 1 λ k n 1 = S 1 1 (χ Sλ k, G 1 f + µ 1 n + µ H 2 λ k 1 2 n 2 + µ 2 G 2 f n 2
2.2. MÉTHODE DE NEUMANN-NEUMANN 19 et D'où ψ k+1 2 Γ = H 1 λ S 1 2 ( µ k 1 n 1 = S 1 2 (χ Sλ k, G 1 f µ 1 n µ H 2 λ k 1 2 n 2 λ k+1 = λ k + θ(σ 1 S 1 1 + σ 2 S 1 2 (χ Sλ k. G 2 f µ 2 n 2 La formulation faible de (2.8 et (2.9 donne trouver u k+1 i V i : (2.11 a i (u k+1 i, v i = (f, v i Ωi v i Vi 0 u k+1 i = λ k sur Γ, pour i = 1, 2, puis trouver ψ1 k+1 V 1 : a (2.12 1 (ψ1 k+1, v 1 = 0 v 1 V1 0 a 1 (ψ1 k+1, R 1 ξ = (f, R 1 ξ Ω1 (f, R 2 ξ Ω2 +a 1 (u k+1 1, R 1 ξ + a 2 (u k+1 2, R 2 ξ ξ Λ. (2.13 trouver ψ2 k+1 V 2 : a 2 (ψ2 k+1, v 2 = 0 v 2 V2 0 a 2 (ψ2 k+1, R 2 ξ = (f, R 1 ξ Ω1 + (f, R 2 ξ Ω2 a 1 (u k+1 1, R 1 ξ a 2 (u k+1 2, R 2 ξ ξ Λ. 2.2.1 Approximation par éléments nis et forme algébrique En reprenant les notations de la section 1.3, l'approximation par éléments nis de la méthode de Neumann-Neumann est la suivante. Étant donné λ 0 h Λ h, pour chaque k 0 trouver les solutions u k+1 1,h et u k+1 2,h des problèmes trouver u k+1 i,h V i,h : (2.14 a i (u k+1 i,h, v i,h = (f, v i,h Ωi v i,h Vi,h 0 u k+1 i,h = λk h sur Γ, pour i = 1, 2, puis trouver ψ k+1 1,h V 1,h : a (2.15 1 (ψ k+1 1,h, v 1,h = 0 v 1,h V1,h 0 a 1 (ψ k+1 1,h, R 1,hξ = (f, R 1,h ξ Ω1 (f, R 2,h ξ Ω2 +a 1 (u k+1 1,h, R 1,hξ + a 2 (u k+1 2,h, R 2,hξ ξ Λ h.
20 CHAPITRE 2. MÉTHODES ITÉRATIVES DE DÉCOMPOSITION DE DOMAINE et (2.16 trouver ψ k+1 2,h V 2,h : a 2 (ψ k+1 2,h, v 2,h = 0 v 2,h V2,h 0 a 2 (ψ k+1 2,h, R 2,hξ = (f, R 1,h ξ Ω1 + (f, R 2,h ξ Ω2 a 1 (u k+1 1,h, R 1,hξ a 2 (u k+1 2,h, R 2,hξ ξ Λ h. Finalement poser λ k+1 h = λ k h θ(σ 1ψ k+1 1,h Γ σ 2ψ 2,h Γ. De la même manière qu'au niveau variationnel, l'approximation par éléments nis de la méthode de Neumann-Neumann correspond à une méthode de Richardson préconditionnée pour l'équation de Steklov- Poincaré discrète avec préconditionneur N h = (σ 1 S 1 1,h + σ 2S 1 2,h 1. En fait, sous sa forme algébrique la méthode de Neumann-Neumann consiste à résoudre d'abord les deux systèmes (2.17 A 11 u k+1 1 = f 1 A 1Γ λ k, A 22 u k+1 2 = f 2 A 2Γ λ k, qui correspondent aux problèmes de Dirichlet (2.14, puis de résoudre les deux systèmes suivants correspondant aux problèmes de Neumann (2.15 et (2.16 respectivement : (2.18 et (2.19 ( A11 A 1Γ A Γ1 A (1 ΓΓ ( A22 A 2Γ A Γ2 A (2 ΓΓ ( ( ψ k+1 1 η k+1 = 1 ( ( ψ k+1 2 η k+1 = 2 0 f Γ + A Γ1 u k+1 1 + A ΓΓ λ k + A Γ2 u k+1 2 + A (2 ΓΓ λk 0 f Γ A Γ1 u k+1 1 A ΓΓ λ k A Γ2 u k+1 2 A (2 ΓΓ λk où η k+1 i est le vecteur des degrés de liberté de ψ k+1 i,h associé aux noeuds sur Γ. On pose donc λ k+1 = λ k θ(σ 1 η k+1 1 σ 2 η k+1 2. Remarquons qu'en remplaçant u k+1 1 par sa valeur donnée en (2.17 dans le membre de droite de (2.18 on trouve ( 0 χ Γ + Σ h λ k. de même pour (2.19 on obtient ( 0 χ Γ Σ h λ k. En éliminant maintenant ψ k+1 1 et ψ k+1 2 dans (2.18 et (2.19 on a ψ k+1 i et la deuxième ligne de (2.18 devient = A 1 ii A iγη k+1 i A Γ1 A 1 11 A 1Γ η k+1 1 + A (1 ΓΓ ηk+1 1 = χ Γ + Σ h λ k
2.3. CONVERGENCE DES MÉTHODES ITÉRATIVES 21 c'est-à-dire En faisant de même pour (2.19 on obtient Σ 1,h η k+1 1 = χ Γ + Σ h λ k. Σ 2,h η k+1 2 = χ Γ Σ h λ k. Donc on a (2.20 λ k+1 = λ k + θ [ σ 1 Σ 1 1,h (χ Γ Σ h λ k + σ 2 Σ 1 2,h (χ Γ Σ h λ k ] = λ k + θ(σ 1 Σ 1 1,h + σ 2Σ 1 2,h (χ Γ Σ h λ k. La matrice associée au préconditionneur de Neumann-Neumann est donc N h := (σ 1 Σ 1 1,h + σ 2Σ 1 2,h 1. 2.3 Convergence des méthodes itératives Nous allons étudier la convergence de la méthode de Dirichlet-Neumann et de Neumann- Neumann en tant que méthode de Richardson préconditionnée. Nous allons voir que la vitesse de convergence dépend des valeurs extrêmes des fonctions µ 1 et µ 2. La première étape pour l'analyse de convergence est d'établir l'équivalence spectrale entre les préconditionneurs donnés par les méthodes itératives (S 2, respectivement (σ 1 S 1 1 + σ 2 S 1 2 1 et l'opérateur de Steklov-Poincaré S. Pour ce faire nous avons besoin d'un théorème d'extension pour les extensions harmoniques. Rappelons d'abord que Λ := γ(v i est l'image de V i par l'opérateur de trace γ. De plus, pour tout η Λ, son extension harmonique H i η sur Ω i satisfait le problème (2.21 (µ i H i η = 0 dans Ω i H i η = η sur Γ H i η = 0 sur Ω i \ Γ. La forme faible est : trouver H i η V i tel que H i η = η sur Γ et µ i H i η v = 0 v Vi 0. Ω i Théorème 2.3 (Théorème d'extension. Il existe deux constantes positives C 1 et C 2 telles que (2.22 C 1 η Λ H i η 1,Ωi C 2 η Λ η Λ, i = 1, 2. Démonstration. L'inégalité de gauche vient de l'inégalité de trace (1.10. On a η Λ C i H i η 1,Ωi, i = 1, 2
22 CHAPITRE 2. MÉTHODES ITÉRATIVES DE DÉCOMPOSITION DE DOMAINE { } 1 1 donc avec C 1 = min, C1 C on obtient le résultat. Pour l'inégalité de droite, comme 2 η Λ = γ(v i, il existe une fonction u V i telle que γu = η. On peut donc exprimer H i η comme H i η = u + u 0 avec u 0 H0(Ω 1 i qui est telle que γu 0 = 0. La forme faible du problème (2.21 peut donc s'écrire comme : trouver u 0 Vi 0 tel que µ i u 0 v = Ω i µ i u v Ω i v Vi 0. En prenant v = u 0 et en sortant la fonction µ i des intégrales, on obtient u 0 2 0,Ω i max µ i min µ i u u 0. Avec l'inégalité de Poincaré et l'inégalité de Cauchy-Schwarz on a et donc Mais on a 1 1 + C Ωi u 0 2 1,Ω i max µ i min µ i u 0,Ωi u 0 0,Ωi max µ i min µ i u 1,Ωi u 0 1,Ωi, u 0 1,Ωi (1 + C Ωi max µ i min µ i u 1,Ωi. H i η 1,Ωi = u 0 + u 1,Ωi u 0 1,Ωi + u 1,Ωi ( 1 + (1 + C Ωi max µ i min µ i u 1,Ωi, et cette inégalité est vraie pour toutes les fonctions u V i telles que u Γ = η. Ainsi ( H i η 1,Ωi 1 + (1 + C Ωi max µ i min µ i u 1,Ωi = inf u V i u Γ=η ( 1 + (1 + C Ωi max µ i min µ i η Λ. { } Il reste à poser C 2 = max 1 + (1 + C Ωi max µ i,2 min µ i pour trouver le résultat. Remarquer que C 2 dépend à priori des fonctions de diusions µ 1 et µ 2. Dans le cas où µ 1 et µ 2 sont des constantes, cette dépendance disparaît. avec Rappelons que les opérateurs de Steklov-Poincaré sont dénis par S = S 1 + S 2, S i η, ξ = a i ( H i η, H i ξ η, ξ Λ. De plus ces opérateurs sont symétriques et coercifs ; plus précisément, S i a une constante de coercivitié min µ i α i := (Ci 2 (1 + C Ωi.
2.3. CONVERGENCE DES MÉTHODES ITÉRATIVES 23 Grâce au théorème d'extension 2.3 nous obtenons aussi facilement que S 1 et S 2 sont continus, avec constantes β i := max µ i C 2 2, i = 1, 2. Évidemment S est aussi continu avec constante β 1 + β 2. Nous obtenons maintenant la proposition suivante. Proposition 2.4. Les opérateurs S 1 et S 2 sont spectralement équivalents : il existe des constantes positives C 3 et C 4 telles que (2.23 C 3 S 1 η, η S 2 η, η C 4 S 1 η, η η Λ. En conséquence, S 1 et S 2 sont spectralement équivalents à S. Démonstration. En utilisant le théorème d'extension 2.3, de la continuité des opérateurs S i nous tirons S i η, ξ (max µ i C 2 2 η Λ ξ Λ et par coercivité nous avons D'où S i η, η C 2 1 min µ i 1 + C Ωi η 2 Λ. S 1 η, η (max µ 1 C2 η 2 2 Λ ( 2 C2 max µ 1 (1 + C Ω2 S 2 η, η. min µ 2 En échangeant les rôles de S 1 et S 2 on obtient aussi Finalement on obtient le résultat avec et C 1 S 2 η, η (max µ 2 C2 η 2 2 Λ ( 2 C2 max µ 2 (1 + C Ω1 S 1 η, η. min µ 1 C 3 = 1 1 + C Ω2 C 4 = (1 + C Ω1 C 1 ( C1 C 2 ( C2 C 1 2 min µ 2 max µ 1 2 max µ 2 min µ 1. Nous pouvons maintenant estimer le nombre de conditionnement spectral de l'opérateur S2 1 S associé à la méthode de Dirichlet-Neumann. En eet, grâce à la proposition 2.4 nous avons les inégalités suivantes ( S 2 η, η Sη, η = S 1 η, η + S 2 η, η 1 + C max µ 1 S 2 η, η, min µ 2
24 CHAPITRE 2. MÉTHODES ITÉRATIVES DE DÉCOMPOSITION DE DOMAINE où C := (1 + C Ω2 borné par ( C 2 C 1 2. On en déduit que le nombre de conditionnement spectral est κ(s2 1 S 1 + C max µ 1. min µ 2 La méthode de Dirichlet-Neumann est donc très sensible aux sauts des coecients de diusion µ 1 et µ 2 à travers l'interface. Par exemple en posant µ 1 1 dans Ω 1 et en prenant µ 2 très petit, on fait exploser le nombre de conditionnement du système et ainsi la méthode converge très lentement. La convergence de la méthode est assurée par le théorème suivant. Théorème 2.5. Il existe θ max > 0 tel que pour tout θ (0, θ max et tout λ 0 Λ la méthode de Dirichlet-Neumann converge, i.e. que la suite λ k+1 = λ k + θs 1 2 (χ Sλ k converge vers la solution λ de l'équation Sλ = χ Démonstration. On introduit le produit scalaire engendré par S 2 (η, ξ S2 := 1 2 ( S 2η, ξ + S 2 ξ, η ainsi que la norme associée notée η S2 := (η, η 1/2 S 2 norme η Λ car nous avons = S 2 η, η 1/2 qui est équivalente à la α 2 η 2 Λ η 2 S 2 β 2 η 2 Λ η Λ. Pour montrer la convergence de la suite λ k il sut de montrer que l'opérateur d'itération T θ : Λ Λ, T θ η := η θs 1 2 Sη est une contraction respectivement à la norme S2. En supposant θ 0 nous avons T θ η 2 S 2 = η 2 S 2 + θ 2 Sη, S 1 2 Sη θ ( S 2 η, S 1 2 Sη + Sη, η. Comme S 2 est symétrique, nous avons S 2 η, S 1 2 Sη + Sη, η = Sη, η + Sη, η 2(α 1 + α 2 η 2 Λ 2 α 1 + α 2 β 2 η 2 S 2. De plus remarquons que S 1 2 est aussi continu avec constante de continuité 1/α 2 (voir la proposition 2.6, nous avons donc Ainsi, en posant Sη, S2 1 Sη 1 Sη 2 Λ α (β 1 + β 2 2 η 2 Λ (β 1 + β 2 2 η 2 2 α 2 α2 2 S 2. K θ = 1 + θ 2 (β 1 + β 2 2 α 2 2 2θ α 1 + α 2 β 2
2.3. CONVERGENCE DES MÉTHODES ITÉRATIVES 25 nous obtenons T θ η 2 S 2 K θ η 2 S 2. On en conclu que T θ est une contraction pour tout θ (0, θ max avec car alors K θ < 1. θ max = 2 α2 2 (α 1 + α 2 β 2 (β 1 + β 2 2 Nous obtenons aussi une estimation pour la méthode de Neumann-Neumann. Proposition 2.6. Soit L : Λ Λ un opérateur continu et coercif, avec constante de continuité β et constante de coercivité α. Alors son inverse L 1 : Λ Λ existe et est continu avec constante α 1 et coercif avec constante α/β 2. Grâce à la proposition 2.6, nous trouvons que le préconditionneur N = (σ 1 S1 1 + σ 2 S2 1 1 est continu et coercif, de plus il est symétrique (car S 1 et S 2 le sont, et l'inverse d'un opérateur symétrique est symétrique. Notons β N et α N les constantes de continuité et coercivité, respectivement, de N. En appliquant la proposition précédente, on trouve β N := β 2 1β 2 2 σ 1 α 1 β 2 2 + σ 2 α 2 β 2 1 α N := (σ 1α 1 β 2 2 + σ 2 α 2 β 2 1α 2 1α 2 2 β 2 1β 2 2(α 1 σ 2 + α 2 σ 1 2. Nous trouvons de plus que l'opérateur N est spectralement équivalent à l'opérateur de Steklov-Poincaré S, car nous avons N η, η β N η 2 Λ β N Sη, η η Λ, α 1 + α 2 et Sη, η (β 1 + β 2 η 2 Λ β 1 + β 2 N η, η η Λ. α N Nous pouvons ici conclure que le nombre de conditionnement spectral de l'opérateur de Steklov-Poincaré préconditionné avec N est borné par (2.24 κ(n 1 S β N (β 1 + β 2 α N (α 1 + α 2. Nous estimons maintenant cette borne pour le nombre de conditionnement spectral. Pour plus de simplicité, nous prenons le cas où les coecients de diusion µ 1 et µ 2 sont constants sur les domaines Ω 1 et Ω 2, respectivement. De plus nous pouvons prendre les valeurs suivantes des constantes de coercivités et continuités : α 1 = C µ 1, α 2 = C µ 2, β 1 = C 2 2µ 1, β 2 = C 2 2µ 2, où C = min,2 { 1 (C i 2 (1+C Ωi } et C 2 est la constante donnée par le théorème 2.3. Nous pouvons maintenant calculer explicitement (2.24 :
26 CHAPITRE 2. MÉTHODES ITÉRATIVES DE DÉCOMPOSITION DE DOMAINE κ(n 1 S β N (β 1 + β 2 α N (α 1 + α 2 = β4 1β2 4 (α 1 σ 2 + α 2 σ 1 2 (β 1 + β 2 (σ 1 α 1 β2 2 + σ 2 α 2 β1 2 2 α1α 2 2 2 (α 1 + α 2 = (µ4 1C2 8 (µ 4 2C2 8 C 2 (µ 1 σ 2 + µ 2 σ 1 2 C2(µ 2 1 + µ 2 C2 8 C 2 (σ 1 µ 1 µ 2 2 + σ 2 µ 2 µ 2 1 2 µ 2 1µ 2 2 C 4 C (µ 1 + µ 2 ( C 2 5 = 2. C Nous trouvons donc que le conditionnement ne dépend pas des coecients µ 1 et µ 2. Remarquons déjà que ce résultat est en contradiction avec les résultats numériques du chapitre 4. Nous montrons nalement le théorème suivant. Théorème 2.7. La méthode de Neumann-Neumann converge, i.e. il existe θ max > 0 tel que pour tout θ (0, θ max et pour tout λ 0 Λ donné, la suite λ k+1 = λ k + θn 1 (χ Sλ k converge dans Λ vers la solution λ du problème Sλ = χ. Démonstration. Comme N : Λ Λ est continu et coercif, il engendre un produit scalaire sur Λ dénit par (η, ξ N := 1 ( N η, ξ + N ξ, η, 2 et on note la norme associée η N := (η, η 1/2 N = N η, η 1/2 qui est équivalente à la norme η Λ car on a α N η 2 Λ η 2 N β N η 2 Λ. Pour montrer la convergence de la suite λ k, nous montrons que l'opérateur d'itération T θ : X X, T θ η := η θn 1 Sη est une contraction respectivement à la norme N. En supposant θ 0, pour η Λ nous avons T θ η 2 N = η 2 N + θ 2 Sη, N 1 Sη θ ( N η, N 1 Sη + Sη, η. Comme N est symétrique, nous avons N η, N 1 Sη + Sη, η = N N 1 Sη, η + Sη, η = 2 Sη, η 2(α 1 + α 2 η 2 Λ 2 α 1 + α 2 β N η 2 N. D'où T θ η 2 N θ 2 Sη, N 1 Sη + ( 1 2θ α 1 + α 2 η 2 N. β N
2.4. PRÉCONDITIONNEUR DE NEUMANN-NEUMANN POUR PLUSIEURS SOUS-DOMAINES 27 Remarquons que l'opérateur N 1 = σ 1 S1 1 + σ 2 S2 1 est continu et satisfait ( η, N 1 σ1 ψ + σ 2 ψ 2 Λ α 1 α ψ Λ, 2 ainsi on a Ainsi en posant on obtient Sη, N 1 Sη ( σ1 + σ ( 2 Sη 2 Λ α 1 α σ1 + σ 2 (β 1 + β 2 2 η 2 Λ 2 α 1 α 2 ( σ1 + σ 2 (β1 + β 2 2 η 2 N. α 1 α 2 α N ( K θ = 1 + θ 2 σ1 + σ 2 (β1 + β 2 2 2θ α 1 + α 2, α 1 α 2 α N β N T θ η 2 N K θ η 2 N. On en conclut que T θ est bien une contraction pour tout θ (0, θ max avec θ max := 2(α 1 + α 2 α ( N σ β 1 N α 1 + σ 2 α 2 (β 1 + β 2 2 car alors K θ < 1. 2.4 Préconditionneur de Neumann-Neumann pour plusieurs sous-domaines Nous décrivons ici brièvement le préconditionneur de Neumann-Neumann pour plusieurs sous-domaines, car nous l'utiliserons lors des tests numériques du chapitre 4. Le domaine Ω est ici décomposé en M > 2 sous-domaines sans recouvrement Ω i de diamètre H i, i = 1,..., M. On note Γ i := Ω i \ Ω les interfaces locales et Γ := M Γ i l'interface globale. Avec les notations évidentes, à chaque sous-domaine Ω i on associe la matrice A i correspondant au problème de Poisson sur Ω i avec donnée de Neumann sur Γ i (et des données de Dirichlet homogène sur Ω i Ω dénie par ( Aii A iγ A i := A Γi A (i ΓΓ La matrice de raideur globale A est liée à ces sous-matrices par l'équation A = M Ri T A i R i,
28 CHAPITRE 2. MÉTHODES ITÉRATIVES DE DÉCOMPOSITION DE DOMAINE où R i est la matrice de restriction d'un vecteur dénit sur tout Ω à un vecteur local associé à Ω i Γ i. Sa transposée Ri T dénote donc la prolongation par 0 sur les noeuds extérieurs à Ω i Γ i. On dénit maintenant les complément de Schur locaux, associés aux opérateurs de Steklov-Poincaré locaux, par Σ i,h = A (i ΓΓ A ΓiA 1 ii A iγ, pour i = 1,..., M. On peut alors dénir le complément de Schur global comme Σ h = M RΓ T i Σ i,h R Γi, où R Γi est la matrice de restriction d'un vecteur de degrés de libertés liés à l'interface globale Γ vers le vecteur de degré de liberté liés seulement à l'interface locale Γ i. Sa transposée RΓ T i dénote donc la prolongation par 0 d'un vecteur de degré de libertés de Γ i vers Γ. Notons que dans le cas de seulement deux domaines, on a Γ = Γ 1 = Γ 2 et RΓ T i, R Γi sont les matrices identités, on retrouve donc Σ h = Σ 1,h + Σ 2,h. On a à nouveau une équation de Steklov-Poincaré pour l'inconnue λ, valeur de la solution du problème elliptique sur l'interface Γ : Σ h λ = χ Γ, pour un second membre χ Γ convenable. Comme dans le cas de deux domaines, on peut dénir un préconditionneur de Neumann- Neumann en faisant une somme pondérée des inverses des opérateurs de Steklov locaux. On dénit donc (2.25 (P NN h 1 := M D i (R T Γ i Σ 1 i,h R Γ i D i, où D i est une matrice diagonale à coecients positifs servant à pondérer les contributions de chaque noeud sur Γ i pour chaque matrice Σ i,h. On choisit souvent ces matrices telles que M D i = I. Typiquement, si un noeud j Γ i appartient à l'interface d'un nombre n de domaines, alors on posera (D i jj = 1 de manière à éviter qu'un noeud soit comptabilisé n plusieurs fois. Une estimation du nombre de conditionnement du système préconditionné est donné par ([1] p.85 ( (2.26 κ((p NN h 1 Σ h CH 2 1 + log H 2 h où h est la taille du maillage et H = min i H i la taille moyenne d'un sous-domaine. Ce préconditionneur n'est donc pas scalable, c'est-à-dire que le nombre de conditionnement du système dépend du nombre de domaine M, ou de la taille H des domaines. Pour plus de détails voir [1, 2].
Chapitre 3 Une méthode de Schwarz hybride Nous introduisons dans ce chapitre une méthode de décomposition de domaine inspirée des méthodes de Schwarz classique. Dans les méthodes de Schwarz, nous considérons des décompositions du domaine Ω avec recouvrement, c'est-à-dire que l'intersection entre certains domaines est non-vide. Pour l'instant, considérons la même décomposition du domaine Ω qu'au chapitre précédent, c'est-à-dire Ω = Ω 1 Ω 2, Ω 1 Ω 2 =, Ω 1 Ω 2 =: Γ. On ajoute maintenant un domaine de recouvrement Ω 3 tel que Γ Ω 3, et on dénit Γ 1 = Ω 3 Ω 1 \ Ω, et Γ 2 = Ω 3 Ω 2 \ Ω. Un exemple de décomposition pour plusieurs sous-domaines est donné en gure 3.1 en page 33. À nouveau soit µ : Ω R dénit par { µ 1 (x sur Ω 1 µ(x = µ 2 (x sur Ω 2. On dénit les 3 opérateurs diérentiels suivants : L 1 u = (µ 1 u, L 2 u = (µ 2 u, L 3 u = (µ u, u : Ω 1 R u : Ω 2 R u : Ω 3 R Considérons la méthode suivante : Soit û 0 Γ donnée sur Γ. Résoudre pour tout k 0, L 1 û k+1 1 = f sur Ω 1 (3.1 û k+1 1 = û k Γ sur Γ û k+1 1 = 0 sur Ω 1 Ω et L 2 û k+1 2 = f sur Ω 2 (3.2 û k+1 2 = û k Γ sur Γ û k+1 2 = 0 sur Ω 2 Ω 29
30 CHAPITRE 3. UNE MÉTHODE DE SCHWARZ HYBRIDE puis (3.3 L 3 û k+1 3 = f sur Ω 3 û k+1 3 = û k+1 1 sur Γ 1 û k+1 3 = û k+1 2 sur Γ 2 û k+1 3 = 0 sur Ω 3 Ω puis poser û k+1 Γ = (û k+1 3 Γ. Cette méthode consiste donc a résoudre deux problèmes de diusion indépendant sur Ω 1 et Ω 2 avec condition de Dirichlet au bord, puis de résoudre le problème couplé, i.e. avec des coecients de diusion discontinu, sur le petit domaine Ω 3, avec condition de Dirichlet au bord. Nous notons déjà une grande diérence avec la méthode de Neumann-Neumann : ici tous les problèmes ont des conditions de Dirichlet sur le bord. En supposant que u est la limite unique des suites û k i, la continuité du gradient de la solution u à travers l'interface Γ est assurée par la continuité de la solution û k 3 sur le domaine de recouvrement Ω 3. Des conditions de Neumann sur l'interface Γ ne sont donc pas nécessaires. 3.1 Forme variationnelle On exprime maintenant la forme variationnelle de la méthode. On rappelle que V := H0(Ω 1 et Vi 0 := H0(Ω 1 i. De plus, nous avons trouvé la forme bilinéaire a(u, v = (µ u, v Ω u, v V, associée à l'opérateur L, et nous avons vu que la forme variationnelle du problème de diusion (1.1 s'écrit u V : a(u, v = (f, v Ω v V. Nous dénissons maintenant les trois formes associées aux opérateurs L 1, L 2 et L 3 : a 1 (u 1, v 1 := (µ 1 u 1, v 1 Ω1 u 1, v 1 H 1 (Ω 1 a 2 (u 2, v 2 := (µ 2 u 2, v 2 Ω2 u 2, v 2 H 1 (Ω 2 a 3 (u 3, v 3 := (µ u 3, v 3 Ω3 u 3, v 3 H 1 (Ω 3 Nous dénissons de plus les espaces V i, pour i = 1, 2, 3 par V i = { v V v = 0 sur Ω \ Ω i }. Pour tout w i Vi 0, nous notons w i Vi l'extension de w i par zéro sur Ω \ Ω i. Nous obtenons maintenant la forme faible de la méthode : Soit u 0 V donnée. Pour tout k 0, (3.4 Pour i = 1, 2, trouver w k i V 0 i : a i (w k i, v i = (f, v i Ωi a i (u k, v i v i V 0 i, u k+ 1 2 := wk 1 + w k 2 + u k V
3.2. UNE MÉTHODE DE PROJECTION 31 (3.5 puis trouver w k 3 V 0 3 : a 3 (w k 3, v 3 = (f, v 3 Ω3 a 3 (u k+ 1 2, v3 v 3 V 0 3, u k+1 := w k 3 + u k+ 1 2 V. Ce problème est équivalent au problème diérentiel. En eet, en posant û k Γ = (uk Γ dans (3.1 et (3.2, nous avons { u k+ 1 û k+1 2 = 1 sur Ω 1 û k+1 2 sur Ω 2 c'est-à-dire (3.4 est équivalent aux deux problèmes (3.1 et (3.2, de plus û k+1 3 sur Ω 3 u k+1 = û k+1 1 sur Ω 1 \ Ω 3 û k+1 2 sur Ω 2 \ Ω 3 c'est-à-dire (3.5 est équivalent à (3.3. 3.2 Une méthode de projection Nous allons voir maintenant comment écrire la méthode comme méthode de projection sur les espaces Vi. Pour i = 1, 2 et pour chaque vi Vi, nous avons Et, pour chaque v 3 V 3, nous avons Nous avons donc trouvé que a( w k i, v i = a i (w k i, v i Ω i = (f, v i Ω i Ωi a i (u k, v i Ω i = (f, v i Ω a(u k, v i = a(u u k, v i. a(u k+1 u k+ 1 2, v 3 = a( w k 3, v 3 = a 3 (w k 3, v 3 Ω 3 = (f, v 3 Ω 3 Ω3 a 3 (u k+ 1 2, v 3 Ω 3 = (f, v 3 Ω a(u k+ 1 2, v 3 = a(u u k+ 1 2, v 3. w k 1 = P 1(u u k w k 2 = P 2(u u k u k+ 1 2 u k = (P 1 + P 2(u u k u k+1 u k+ 1 2 = P 3 (u u k+ 1 2,
32 CHAPITRE 3. UNE MÉTHODE DE SCHWARZ HYBRIDE où Pi : V Vi est l'opérateur de projection orthogonal de V sur Vi par rapport au produit scalaire induit par la forme bilinéaire a(,. Plus précisément, pour tout w V on a Pi w Vi : a(pi w w, v = 0 v Vi. Notons I l'opérateur identité et J i : V i tout v V i. Dénissons de plus P i := J i P i u k+ 1 2 dans V, i.e. J i v = v pour : V V. Nous trouvons V l'immersion de V i = (I P1 P 2 u k + (P 1 + P 2 Gf, où Gf = u Lu = f, i.e. G = L 1 est l'opérateur résolvant. Ensuite on a où u k+1 = (I P 3 u k+ 1 2 + P3 Gf = (I P 3 [ (I P 1 P 2 u k + (P 1 + P 2 Gf ] + P 3 Gf = u k + Q(Gf u k = u k + QG(f Lu k, Q := P 1 + P 2 + P 3 P 3 P 1 P 3 P 2 = Pour le calcul de l'erreur, nous avons 3 P i u u k+ 1 2 = (I P1 P 2 (u u k, u u k+1 = (I P 3 (u u k+ 1 2. On introduit l'erreur e k := u u k, on trouve e k+1 = u u k+1 = (I P 3 (u u k+ 1 2 = (I P 3 (I P 1 P 2 e k. 2 P 3 P i. Remarquons que nous avons une méthode hybride. La première étape donnant u k+ 1 2 est une méthode de Schwartz additive, correspondant au terme (I P 1 P 2. La seconde étape donnant u k+1 est une méthode de Schwartz multiplicative, correspondant à la multiplication par le terme (I P 3. Cet observation sera encore mieux mise en évidence dans la section suivante, dans le cas de plusieurs sous-domaines. 3.3 Généralisation à plusieurs sous-domaines Considérons une décomposition sans-recouvrement de Ω en M domaines Ω i. C'est-àdire qu'on a Ω = M Ω i avec Ω i Ω j = si i j. On dénit l'interface globale Γ := Ω i Ω j \ Ω. i,,...m, i<j Soit C le nombre de composantes connexes de Γ et soit Γ j, j = 1,..., C la jième composante connexe. Pour chaque composante Γ j, on ajoute un domaine de recouvrement Ω M+j tel que
3.3. GÉNÉRALISATION À PLUSIEURS SOUS-DOMAINES 33 1. Γ j Ω M+j 2. Ω M+j Ω i = pour tout 1 i M tel que Ω i Γ j = 3. Ω M+j Ω M+l = si j l. Pour chaque j = 1,..., C, nous dénissons l'ensemble d'indices I Γ j = {i Ω i Ω M+j } et nous dénissons Γ j i = Ω i Ω M+j \ Ω pour i I Γ j. Un exemple de décomposition est donné en gure 3.1, avec M = 6 et C = 3. 1 2 2 2 6 6+3 1 5 6+1 3 2 6+2 4 3 2 Figure 3.1 Exemple de décomposition multidomaine. Ici nous avons M = 6 domaines sans-recouvrement, C = 3 composantes connnexes Γ j et donc 3 domaines Ω M+j de recouvrement. On voit aussi un exemple d'interface locale Γ j i (ici Γ 2 2 et Γ 2 3 associés à Γ 2. De plus, à chaque domaine Ω k, k = 1,..., M + C, est associé un opérateur diérentiel L k, restriction de l'opérateur L au domaine Ω k. Nous pouvons maintenant écrire la forme diérentielle pour plusieurs sous-domaines du problème [(3.1, (3.2, (3.3] : Soit û 0 Γ donnée sur Γ. Pour i = 1,..., M résoudre L i û k+1 i = f sur Ω i (3.6 û k+1 i = û k Γ sur Γ Ω i û k+1 i = 0 sur Ω i Ω Puis pour j = 1,..., C, résoudre L M+j û k+1 M+j = f (3.7 û k+1 M+j = ûk+1 s û k+1 M+j = 0 sur Ω M+j sur Γ j s, s I Γ j sur Ω M+j Ω
34 CHAPITRE 3. UNE MÉTHODE DE SCHWARZ HYBRIDE Nous donnons maintenant la forme variationnelle correspondante. Soit u 0 V donné. Pour tout k 0, pour i = 1,..., M, trouver wi k Vi 0 tel que a i (wi k, v i = (f, v i Ωi a i (u k, v i v i Vi 0 M u k+ 1 2 := u k + w i k. puis pour j = 1,..., C, trouver w k M+j V 0 M+j tel que a M+j (w k M+j, v M+j = (f, v M+j ΩM+j a M+j (u k+ 1 2, vm+j u k+1 := u k+ 1 2 + C w k M+j. v M+j V 0 M+j L'équivalence avec le problème diérentiel est donnée par l'observation suivante. On a { u k+ 1 û k+1 2 = i sur Ω i, i = 1,..., M sur Γ û k Γ et donc on a bien u k+1 Ω M+j = û k+1 M+j pour tout j = 1,..., C. En utilisant les opérateurs de projection de façon similaire au cas de deux domaines, on trouve pour i = 1,..., M w k i = P i (u u k d'où ( M (3.8 u k+ 1 2 u k = P i (u u k. Pour j = 1,..., C on trouve d'où w k M+j = P M+j(u u k+ 1 2 ( C (3.9 u k+1 u k+ 1 2 = P M+j (u u k+ 1 2. Ainsi on peut écrire ( ( C C u k+1 = I P M+j u k+ 1 2 + P M+j Gf = ( I C P M+j [(I ( M M ] ( C P i u k + P i Gf + P M+j Gf
3.3. GÉNÉRALISATION À PLUSIEURS SOUS-DOMAINES 35 c'est-à-dire avec Q C M = = ( I ( M+C u k+1 = u k + Q C MG(f Lu k ( C M ( C P M+j P i + P M+j P i [ C M ] P M+j P i. On voit que la partie multiplicative de la méthode se fait composante connexe par composante connexe, donc pour chaque j = 1,..., C xé, plusieurs termes de la somme M P M+jP i sont nuls, car si Ω i Ω M+j = alors P M+j P i = 0. Plus précisément, P M+j P i est non nul si et seulement si i I Γ j. Donc on peut écrire Q C M = ( M+C Pour le calcul de l'erreur, nous avons P i u u k+ 1 2 = (I u u k+1 = ( I À nouveau, avec e k := u u k, on trouve e k+1 = u u k+1 = = ( I ( C P M+j P i. i I Γ j M P i (u u k C P M+j (u u k+ 1 2 I C P M+j (u u k+ 1 2 C P M+j (I M P i Ici nous voyons bien que la méthode est une méthode multiplicative agissant sur deux blocs additifs : le premier bloc correspond à la décomposition en M domaines sansrecouvrement, le second à l'union des C domaines de recouvrement liés aux composantes connexes de l'interface globale Γ. On peut donc résoudre indépendamment chaque sousproblème sur les domaines Ω i, i = 1,..., M, ensuite on peut résoudre indépendamment chaque sous-problème sur tout les domaines Ω M+j, j = 1,..., C. e k
36 CHAPITRE 3. UNE MÉTHODE DE SCHWARZ HYBRIDE Pour montrer la convergence de la méthode, nous pouvons dénir deux opérateurs de projection globaux, correspondant à chaque bloc additif. On dénit les espaces suivant V a 1 := V a 2 := M C V i V M+j. Il est facile de voir que nous avons bien des sommes directes d'espaces vectoriels. Nous dénissons les opérateurs de projection associés à ces espaces, P a 1 := P a 2 := M C P i : V V a 1, P M+j : V V a 2, et en appliquant les opérateurs d'immersions J i on obtient les opérateurs P a 1 := P a 2 := M J i Pi : V V C J M+j PM+j : V V. On peut maintenant écrire la méthode de la manière suivante : u k+ 1 2 = (I P a 1 u k + P a 1 Gf, u k+1 = (I P2 a u k+ 1 2 + P a 2 Gf = (I P2 a (I P1 a u k + (P1 a + P2 a P2 a P1 a Gf, c'est-à-dire u k+1 = u k + Q a mg(f Lu k avec Q a m = P1 a + P2 a P2 a P1 a, ce qui correspond à une méthode multiplicative. Pour le calcul de l'erreur on a bien u u k+ 1 2 = (I P a 1 (u u k u u k+1 = (I P2 a (u u k+ 1 2 c'est-à-dire e k+1 = (I P a 2 (I P a 1 e k.
3.3. GÉNÉRALISATION À PLUSIEURS SOUS-DOMAINES 37 Remarquer qu'en posant e k+ 1 2 = u u k+ 1 2 nous avons aussi e (k+1+ 1 2 = (I P a 1 (I P a 2 e k+ 1 2. Chaque opérateur P k = J k P k, k = 1,..., M + C, est symétrique par rapport à la forme a(.,. : a(p k v, w = a(p kv, w = a(p kv, P kw = a(v, P kw = a(v, P k w v, w V. On en déduit que les opérateurs P a 1 et P a 2 sont aussi symétriques. Concernant la convergence de la méthode de Schwarz multiplicative, nous avons les résultats suivants ([1],p.138-139. Théorème 3.1. Soit Ω un domaine borné de R 2, avec un bord Lipschitz Ω. Si V a 1 V a 2 = V, alors les deux suites u k et u k+ 1 2 converge vers u dans V = H 1 0(Ω lorsque k. Ce théorème s'applique ici, car on a même V a 1 V a 2 = V. Rappelons que la forme bilinéaire a(, est continue, symétrique et coercive, elle induit donc une norme a équivalente à la norme. 1,Ω. On obtient ainsi le théorèmes suivant. Lemme 3.2. Si V a 1 V a 2 = V, alors il existe une constante C 0 1 telle que v a C 0 ( P a 1 v 2 a + P a 2 v 2 a 1 2 v V. Théorème 3.3. Si V a 1 V a 2 = V, alors les opérateurs d'itérations (I P a 2 (I P a 1 et (I P a 1 (I P a 2 sont des contractions dans H 1 0(Ω respectivement à la norme a engendrée par la forme bilinéaire a(,. Plus précisément, on a le résultat suivant (I P a 2 (I P a 1 v a (1 C 2 0 1/2 v a v H 1 0, où C 0 est la constante donnée par le lemme 3.2. Le résultat est identique pour (I P a 1 (I P a 2. La méthode de Schwarz hybride est donc convergente, et le taux de convergence est géométrique. En eet, en posant e k+1 = u u k+1, e k+ 1 2 = u u k+ 1 2 et K 0 = (1 C0 2 1/2 nous avons De même e k+1 a = (I P a 2 (I P a 1 e k a K 0 e k a K k+1 0 e 0 a. e (k+1+ 1 2 a = (I P a 1 (I P a 2 e k+ 1 2 a K k+1 0 e 1 2 a = K k+1 0 (I P a 1 e 0 a K k+1 0 e 0 a.
38 CHAPITRE 3. UNE MÉTHODE DE SCHWARZ HYBRIDE 3.4 Forme algébrique Nous décrivons ici la forme algébrique de la méthode de Schwarz pour plusieurs sousdomaines. La formulation par éléments nis de la méthode donne Soit u 0 h V h donné. Pour tout k 0, pour i = 1,..., M, trouver wi,h k V i,h 0 tel que (3.10 a i (wi,h, k v i,h = (f, v i,h Ωi a i (u k h, v i,h v i,h Vi,h 0 M u k+ 1 2 h := u k h + w i,h k. puis pour j = 1,..., C, trouver w k M+j,h V 0 M+j,h tel que a M+j (wm+j,h, k v M+j,h = (f, v M+j,h ΩM+j a M+j (u k+ 1 2 h, v M+j,h v M+j,h VM+j,h 0 C u k+1 h := u k+ 1 2 (3.11 h + w k M+j,h. Ici w k i,h est l'extension dans l'espace d'éléments nis de la fontion w k i,h par 0 dans Ω \ Ω i. Pour décrire la forme algèbrique de la méthode, remarquons que comme au chapitre 1, l'expansion de la solution u h dans la base de Lagrange {ϕ j } conduit au système linéaire Au = f où A ij = a(ϕ j, ϕ i est la matrice de raideur globale, f i = (f, ϕ i Ω et u = (u j est le vecteur des degrés de liberté de u h dans la base {ϕ j }. Rappelons que N h est le nombre de noeuds à l'intérieur de Ω. Notons I l'ensemble des tous les indices de 1 à N h. Pour i = 1,..., M + C notons I i I le sous-ensemble des indices correspondant aux noeuds intérieurs au domaine Ω i, et notons n i le nombre de ces indices. La matrice globale A peut ainsi se décomposer en blocs A i correspondants à chaque matrice de raideur associée au sous-domaine Ω i et donc à l'ensemble d'indice I i. Nous dénissons des matrices d'extension Ri T et de restriction R i telles que A i = R i AR T i, pour i = 1,..., M + C. Chaque matrice A i est inversible, car elle correspond à un problème de Poisson sur Ω i avec donnée de Dirichlet sur le bord Ω i. La matrice Ri T est une matrice rectangulaire de taille N h n i qui étend par 0 un sous-vecteur associé au domaine Ω i. Étant donné un vecteur v i de taille n i associé aux valeurs nodales d'une fonction v i,h Vi,h, 0 nous avons { (Ri T v i vj i pour j I i, j = 0 pour j I \ I i. Ainsi la matrice Ri T ne change pas les coecients de v i associés aux noeuds dans Ω i et met 0 sur tout les autres composantes du vecteur. Sa transposée R i de taille n i N h
3.4. FORME ALGÉBRIQUE 39 restreint un vecteur dénit sur Ω à un vecteur dénit sur Ω i en gardant simplement les entrées correspondant aux indices I i. Par exemple dans le cas de deux domaines, si on a ordonné les indices de I tel que I 1 soit en premier puis I 2 ensuite on obtient pour R T 1 R T 1 = 1 1 0 1 0... 0 1 La forme algébrique de la méthode de Schwarz se dérive maintenant directement de (3.10 et (3.11 en remplaçant les opérateurs par les matrices correspondantes. On obtient (3.12 u k+ 1 2 = u k + M u k+1 = u k+ 1 2 + C R T i A 1 i R i (f Au k R T M+jA 1 M+j R M+j(f Au k+ 1 2 Nous introduisons les opérateurs de projection discrets P i := R T i A 1 i R i A, i = 1,..., M + C et en remplaçant f par Au nous pouvons récrire la formulation algébrique comme (3.13 u k+ 1 2 = u k + M P i (u u k C u k+1 = u k+ 1 2 + P M+j (u u k+ 1 2. Nous retrouvons ici la même forme que dans les équations (3.8 et (3.9. Les matrices de projection P i sont symétriques et dénies non-négatives par rapport au produit scalaire induit par la matrice symétrique dénie-positive A, noté (w, v A = (Aw, v. En eet, remarquons que la matrice Ri T A 1 i R i est symétrique (par rapport au produit scalaire euclidien, donc pour tout w, v R N h nous avons (P i w, v A = (P i w, Av = (Ri T A 1 i R i Aw, Av = (Aw, Ri T A 1 i R i Av = (w, P i v A, donc P i est symétrique. De plus, en utilisant le fait que A 1 i (par rapport au produit scalaire euclidien nous avons est symétrique dénie positive (P i v, v A = (Ri T A 1 i R i Av, Av = (A 1 i R i Av, R i Av 0 v R N h,
40 CHAPITRE 3. UNE MÉTHODE DE SCHWARZ HYBRIDE donc P i est dénie non-négative. Une autre propriété des matrices P i est qu'elles sont des projections orthogonales par rapport au produit scalaire (, A sur le sous-espace engendré par les lignes de Ri T (noter que ce sous-espace correspond à Vi,h. En eet pour tout v R N h et tout w R n i, en utilisant la symétrie de R T i A 1 i R i nous avons (P i v, Ri T w A = (P i v, ARi T w = (Av, Ri T A 1 i R i ARi T w } {{ } =A i = (Av, R T i w = (v, R T i w A. Ces matrices de projection P i sont donc bien les versions discrètes des opérateurs de projection P i trouvés au niveau variationnel. Notons Q i := R T i A 1 i R i = P i A 1, i = 1,..., M + C. En fait nous avons vu que Q i est symétrique dénie non-négative par rapport au produit scalaire euclidien. Avec ces matrices, nous obtenons une forme compacte de la méthode : [ M ( C C ] M u k+1 = u k + Q i + Q M+j Q M+j A Q i (f Au k = u k + [ I ( I C P M+j (I ] M P i A 1 (f Au k. La méthode de Schwarz hybride peut donc être vue comme méthode de Richardson avec préconditionneur [ M ( C C ] 1 M P sh = Q i + Q M+j Q M+j A Q i pour le système Au = f. Ce préconditionneur n'étant pas symétrique, on utilisera des méthodes de résolution comme GMRES. La matrice du système préconditionné est P 1 M sh A = P i + C P M+j C P M+j Notons que l'action de P 1 sh sur un vecteur correspond à un pas de la méthode de Schwarz hybride. À chaque application du préconditionneur, on doit résoudre M problèmes de Dirichlet indépendants sur chaque sous-domaine Ω i, puis on doit résoudre C problèmes de Dirichlet indépendants sur chaque sous-domaine de recouvrement Ω M+j. Notons que dans le cas où l'interface Γ n'a qu'une composante connexe, la seconde partie se réduit à résoudre un seul problème de Dirichlet sur un petit sous-domaine de Ω. 3.5 Méthode à deux niveaux Nous introduisons ici brièvement la méthode de Schwarz à deux niveaux, car nous l'utiliserons pour les testes numériques du chapitre 4. Le principe des méthodes à deux M P i.
3.5. MÉTHODE À DEUX NIVEAUX 41 niveaux est d'ajouter un problème global au problème initial, mais sur un maillage plus grossier T H (appelé coarse grid que le maillage initial T h. Le but est de faire transiter l'information plus rapidement entre les domaines, de manière globale, et pas seulement localement comme c'est le cas des méthodes itératives standards. En notant a h (, la forme bilinéaire a(, étudiée précédemment, nous ajoutons une nouvelle forme a H (, associée aux problèmes sur la grille grossière. Nous avons maintenant le problème initial plus un problème auxiliaire trouver u h V h : a h (u h, v h = F h (v h v h V h trouver u H V H : a H (u H, v H = F H (v H v H V H, où V H est un espace convenable d'élément nis associé à la grille T H. Comme auparavant, notons N h la dimension de V h et {ϕ j } sa base. En notant N H la dimension de V H et {ψ j } N H une de ces bases, nous obtenons deux matrices A h et A H dénie par (A h ij := a h (ϕ j, ϕ i (A H ij := a H (ψ j, ψ i. Le but est de constuire un préconditionneur pour A h en utilisant le préconditionneur de Schwarz P sh ainsi que A H. Les espaces V h et V H sont liés par des opérateurs d'interpolation. Dans le cas où T h est un ranement du maillage T H, on peut dénir des opérateurs d'interpolation RH T et de restriction R H tel que A H = R H A h RH. T La matrice RH T interpole sur les noeuds de T h une fonction dénie sur les noeuds de T H. La matrice R H restreint une fonction dénie sur T h à T H en pondérant ses valeurs aux noeuds. Dénissons Q H = ( R T HA 1 H R H 1. On obtient une méthode de préconditionnement en deux étapes : Q H (u k+ 1 2 u n = f A h u k P sh (u k+1 u k+ 1 2 = f Ah u k+ 1 2. En développant l'étape liée à P sh on a une méthode en trois étapes : (3.14 u k+ 1 3 u k+ 2 3 = u k + R T HA 1 H R H(f A h u k = u k+ 1 3 + ( M u k+1 = u k+ 2 3 + ( C R T i A 1 i R i (f A h u k+ 1 3 R T M+jA 1 M+j R M+j Le préconditionneur P csh associé à cette méthode est déni par (f A h u k+ 2 3. P 1 csh = P 1 sh + Q 1 H P 1 sh A hq 1 H. On utilisera ce préconditionneur au chapitre 4 dans le cadre de la méthode GMRES. Chaque application à un vecteur équivaut à un pas de la méthode (3.14, soit une résolution globale sur la grille T H, puis l'application de la méthode de Schwarz hybride sur la grille T h. L'ordre de ces deux étapes peut être inversé.
42 CHAPITRE 3. UNE MÉTHODE DE SCHWARZ HYBRIDE
Chapitre 4 Résultats numériques 4.1 Méthode de Neumann-Neumann Pour la méthode de Neumann-Neumann, nous utilisons un code écrit par Marzio Sala sur Matlab, qui résoud le système du complément de Schur avec un préconditionneur de Neumann-Neumann. On utilise l'algorithme du gradient conjugué préconditionné (PCG. On considère le problème elliptique suivant : { (µ(x, y u(x, y = 1 (x, y Ω = ( 1, 1 ( 1, 1 (4.1 u(x, y = 0 (x, y Ω On fait une triangulation structurée du domaine Ω, i.e. on découpe Ω en carrés de largeur h, puis on les coupes en deux pour obtenir des triangles. On décompose Ω en M domaines sous forme d'échiquier, c'est-à-dire que chaque domaine est un carré de largeur H = 2/ M. Les domaines sont identiés par la couleur noir ou blanc comme sur un échiquier, et le coecient de diusion µ est donné par { µ 1 sur les domaines blanc µ = µ 2 sur les domaines noirs où µ 1, µ 2 > 0 sont des constantes. Un exemple de décomposition est donné en gure 4.1. 4.1.1 Nombre de conditionnement et scalabilité Commençons par étudier l'eet de la taille du maillage et du nombre de domaines sur le nombre de conditionnement du système préconditionné. Ici les coecients de diffusion sont tous égaux à 1, i.e. µ 1 = µ 2 = 1. Dans le tableau 4.1 nous reportons le nombre de conditionnement du système préconditionné ainsi que le nombre d'itération (entre parenthèses pour que le PCG converge. On utilise ici le préconditionneur P NN h dénit en (2.25. On observe bien l'inuence du nombre de domaine sur le nombre de conditionnement comme prédit par l'estimation 2.26. 43
44 CHAPITRE 4. RÉSULTATS NUMÉRIQUES h \ M 4 16 64 1/8 1.146 (3 7.104 (6-1/16 1.146 (3 10.413 (6 43.009 (13 1/32 1.146 (3 13.919 (6 67.861 (17 1/64 1.146 (3 17.576 (7 92.772 (18 Table 4.1 Nombre de conditionnement de (P NN h 1 Σ h. Entre parenthèses, le nombre d'itérations de PCG. Les coecients de diusions sont égaux à 1 dans chaque domaine. 1 1 0.5 Ω 1 0.8 0.6 0.4 Y Axis 0 Y Axis 0.2 0 0.2 0.5 Ω 2 0.4 0.6 0.8 1 1 0.5 0 0.5 1 X Axis 1 1 0.5 0 0.5 1 X Axis (a décomposition en deux domaines (b décomposition en échiquier Figure 4.1 Exemple de décomposition de domaine. On associe le coecient de diusion µ 1 aux domaines blancs et µ 2 aux domaines rouges. 4.1.2 Inuence des sauts des coecients Dans le cas de deux domaines Ω 1 et Ω 2 de même taille, nous voyons dans la table 4.2 que le nombre d'itération augmente avec la taille des sauts des coecients. Parallèlement, quand µ 1 = µ 2, le nombre d'itérations ne semble pas dépendre de h, le préconditionneur N h est donc optimal ; par contre, lors de grands sauts des coecients, le nombre d'itérations augmente lorsque la taille du maillage diminue, bien que légèrement. Ceci contredit quelque peu le résultat trouvé en (2.24. h (µ 1, µ 2 = (1, 1 (1, 10 2 (1, 10 4 (10 3, 10 6 1/8 1.117 (3 4.833 (7 9.986 (7 9.786 (6 1/16 1.118 (3 5.200 (6 20.455 (10 18.842 (9 1/32 1.118 (3 5.280 (6 35.091 (14 35.497 (13 1/64 1.118 (3 5.279 (6 48.251 (15 74.011 (17 Table 4.2 Nombre de conditionnement de N 1 h Σ h. Le domaine est décomposé en deux domaines rectangulaires Ω 1 et Ω 2 de même taille, avec coecients de diusions (µ 1, µ 2. Entre parenthèses, le nombre d'itération du PCG. Dans le cas de plusieurs sous-domaines en échiquier, nous voyons dans le tableau 4.3 que l'inuence des sauts des coecients est d'autant plus grande que le nombre de domaines M est élevé et que le maillage est n. Par exemple dans le cas de 64 domaines, si
4.1. MÉTHODE DE NEUMANN-NEUMANN 45 les coecients dièrent de 3 ou 4 ordres de grandeur, le nombre d'itérations peut tripler, et le nombre de conditionnement être multiplié par 10! Le préconditionneur de Neumann- Neumann n'est donc ici pas du tout scalable, ni optimal, mais il se comporte assez bien pour un petit nombre de domaine, par exemple pour 4 domaines où l'augmentation du nombre d'itérations est encore acceptable. M h (µ 1, µ 2 = (1, 1 (1, 10 2 (1, 10 4 (10 3, 10 6 1/8 1.146 (3 6.977 (4 21.457 (4 17.936 (4 4 1/16 1.146 (3 7.901 (7 43.335 (8 36.846 (8 1/32 1.146 (3 7.836 (7 70.348 (14 74.691 (14 1/64 1.146 (3 7.501 (6 88.745 (16 159.490 (20 1/8 7.104 (6 9.842 (9 32.833 (10 38.022 (10 16 1/16 10.413 (6 14.498 (11 86.387 (21 87.619 (20 1/32 13.919 (6 30.150 (12 181.979 (29 214.976 (29 1/64 17.576 (7 59.228 (13 281.673 (33 543.257 (40 1/16 43.009 (13 18.536 (13 115.865 (28 148.735 (30 64 1/32 67.861 (17 41.214 (18 272.515 (41 358.796 (42 1/64 92.772 (18 81.016 (21 455.745 (50 953.681 (59 Table 4.3 Nombre de conditionnement de (P NN h 1 Σ h. Le domaine est décomposé en échiquier, avec coecients de diusion (µ 1, µ 2. Entre-parenthèses, le nombre d'itération du PCG. Il faudra recourir à des méthodes à deux niveaux comme introduites en section 3.5 pour réduire ce problème de scalabilité, par exemple en utilisant le préconditionneur de Neumann-Neumann équilibré (balancing Neumann-Neumann. Pour plus de détails sur cette méthode, voir [2].
46 CHAPITRE 4. RÉSULTATS NUMÉRIQUES 4.2 Méthode de Schwarz hybride Nous avons tester la méthode de Schwarz hybride du chapitre 3 sur un problème elliptique semblable au précédent, ainsi que sur un problème de Stokes. On utilise la méthode GMRES préconditionnée par le préconditionneur de Schwarz P sh ainsi que par le préconditionneur à deux niveaux P csh. 4.2.1 Problème elliptique On s'intéresse au problème suivant { (µ(x, y u(x, y = 1 (x, y Ω = ( 0.5, 0.5 ( 0.5, 0.5 (4.2 u(x, y = 0 (x, y Ω Comme précédemment, le maillage sur Ω est structuré en rectangle coupé en triangle. Le domaine est décomposé en deux domaines rectangulaires Ω 1 := ( 0.5, 0 ( 0.5, 0.5 et Ω 2 := (0, 0.5 ( 0.5, 0.5. De plus, on ajoute un domaine de recouvrement Ω 3 construit en prenant des bandes de triangle de taille δ de chaque côté de l'interface Γ := Ω 1 Ω 2. Ainsi, si h est la taille du maillage, alors la largeur de Ω 3 sera de l'ordre de 2δh. La table 4.4 montre le nombre d'itération de la méthode GMRES préconditionnée pour une taille de maillage de l'ordre de h = 1/64. La colonne P sh correspond au préconditionneur donné par la méthode de Schwarz hybride. Pour la méthode avec correction par coarse grid, on indique la taille du maillage grossier T H en notant P csh (H, par exemple la colonne P csh (2h correspond à un maillage de taille H = 2h. µ 1 µ 2 δ P sh P csh (2h P csh (4h P csh (8h P csh (16h 1 14 10 15 15 15 1 1 2 12 7 11 12 12 3 10 6 9 10 10 1 15 11 15 15 15 1 10 2 2 12 7 11 12 12 3 10 6 9 10 10 1 15 11 15 15 15 1 10 4 2 12 7 11 12 12 3 10 6 9 10 10 1 17 14 18 19 17 10 3 10 6 2 14 9 13 14 14 3 11 8 11 12 12 Table 4.4 Itérations de GMRES avec préconditionneur P sh et P csh (H où H est la taille du maillage grossier. La largeur du domaine de recouvrement est 2δh. Ici h = 1/64. On observe immédiatement que le préconditionneur P sh se comporte très bien par rapport aux sauts des coecients µ 1 et µ 2, et cela quelque soit l'ordre de recouvrement δ. On remarque aussi que plus δ est grand, plus vite la méthode converge, ce qui est un
4.2. MÉTHODE DE SCHWARZ HYBRIDE 47 comportement propre aux méthodes avec recouvrement. Notons aussi que l'ajout d'une correction par coarse grid est ecace, mais seulement si la taille grille grossière n'est pas trop grande, typiquement H = 2h. Dès que H = 4h on retrouve les résultats obtenus sans coarse grid. On obtient le même type de résultat en table 4.5 en partant d'une grille ne de taille 2h où h = 1/64 à nouveau. µ 1 µ 2 δ P sh P csh (4h P csh (8h P csh (16h 1 9 11 11 9 1 1 2 8 6 9 9 3 7 6 8 7 1 9 11 11 9 1 10 2 2 8 6 9 9 3 7 6 8 7 1 9 11 11 9 1 10 4 2 8 6 9 9 3 7 6 8 7 1 10 13 12 9 10 3 10 6 2 9 8 11 9 3 8 8 10 8 Table 4.5 Itérations de GMRES avec préconditionneur P sh et P csh (H où H est la taille du maillage grossier. La taille du maillage n est 2h avec h = 1/64. La largeur du domaine de recouvrement est 2δ(2h.
48 CHAPITRE 4. RÉSULTATS NUMÉRIQUES 4.2.2 Problème de Stokes Nous testons ici la méthode sur le problème de Stokes suivant : trouver le champ de vitesse u : Ω R 2 R 2 et le champ de pression p : Ω R 2 R tels que ν u + p = 0 dans Ω := [0, 1] 2 divu = 0 dans Ω u = 0 sur Γ D := [0, 1] {0} [0, 1] {1} avec une condition de Poiseuille sur Γ in := {0} [0, 1] (c'est-à-dire un champ de vitesse parabolique et une condition de Neumann homogène sur Γ out := {1} [0, 1]. Ici ν est un coecient de viscosité. Le maillage n est de taille h = 1/64. Le domaine Ω est ici coupé horizontalement en deux domaines Ω 1 := [0, 1] [0, 0.5] et Ω 2 := [0, 1] [0.5, 1] plus un domaine de recouvrement, comme précédemment. En table 4.6 nous faisons varier les coecients de viscosité ν 1 et ν 2 associés à chaque sous-domaine, ainsi que le paramètre de recouvrement δ. Comme pour le problème elliptique, nous remarquons que notre méthode n'est pas sensible aux sauts des coecients. Par contre, l'eet de l'ajout d'une coarse grid est beaucoup plus prononcé, et on voit que pour des problèmes de Stokes il est nécessaire d'ajouter un maillage grossier, vu qu'on réduit d'un facteur 2 le nombre d'itération de GMRES. ν 1 ν 2 δ P sh P csh (2h 1 66 32 1 1 2 38 12 3 28 10 1 54 21 1 10 2 2 31 11 3 23 9 1 53 21 1 10 4 2 30 10 3 22 9 1 54 21 10 3 10 6 2 30 11 3 23 9 Table 4.6 Itérations de GMRES pour le problème de Stokes préconditionné avec P sh ou P csh (2h. ν 1 et ν 2 sont les coecients de viscosité sur Ω 1 et Ω 2 respectivement. Le domaine de recouvrement est de taille 2δh.
Bibliographie [1] A. Quarteroni and A. Valli. Domain Decomposition Methods for Partial Dierential Equations. Scientic Computation. Oxford University Press, Oxford, 1999. [2] A. Toselli and O. Widlund. Domain Decomposition Methods - Algorithms and Theory. Springer Series in Computational Mathematics. Springer, Berlin, 2005. 49