Notes de Cours : Analyse Numérique

Documents pareils
Approximations variationelles des EDP Notes du Cours de M2

Cours d analyse numérique SMI-S4

Résolution de systèmes linéaires par des méthodes directes

Amphi 3: Espaces complets - Applications linéaires continues

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Programmation linéaire

Capes Première épreuve

3 Approximation de solutions d équations

Image d un intervalle par une fonction continue

Résolution d équations non linéaires

Fonctions de plusieurs variables

I. Polynômes de Tchebychev

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Calcul différentiel sur R n Première partie

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Différentiabilité ; Fonctions de plusieurs variables réelles

Commun à tous les candidats

Introduction à la méthode des éléments finis

Cours d Analyse. Fonctions de plusieurs variables

3. Conditionnement P (B)

CCP PSI Mathématiques 1 : un corrigé

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Sur certaines séries entières particulières

Intégration et probabilités TD1 Espaces mesurés Corrigé

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Continuité en un point

RO04/TI07 - Optimisation non-linéaire

1 Introduction et modèle mathématique

Programmation linéaire et Optimisation. Didier Smets

Calcul différentiel. Chapitre Différentiabilité

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Programmes des classes préparatoires aux Grandes Ecoles

Cours 02 : Problème général de la programmation linéaire

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Moments des variables aléatoires réelles

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Limites finies en un point

Calcul fonctionnel holomorphe dans les algèbres de Banach

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Mesures gaussiennes et espaces de Fock

Chapitre 2. Matrices

Programmation linéaire

LES MÉTHODES DE POINT INTÉRIEUR 1

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

Cours Fonctions de deux variables

Théorème du point fixe - Théorème de l inversion locale

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Méthode des éléments-finis par l exemple

Polynômes à plusieurs variables. Résultant

Chapitre 2 Le problème de l unicité des solutions

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chp. 4. Minimisation d une fonction d une variable

Problème 1 : applications du plan affine

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Equations aux Dérivées Partielles

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Continuité d une fonction de plusieurs variables

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Dérivées d ordres supérieurs. Application à l étude d extrema.

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Espérance conditionnelle

Programmation Linéaire - Cours 1

Chapitre VI - Méthodes de factorisation

4. Martingales à temps discret

Le produit semi-direct

Chapitre 11. Séries de Fourier. Nous supposons connues les formules donnant les coefficients de Fourier d une fonction 2 - périodique :

Optimisation des fonctions de plusieurs variables

Première partie. Introduction à la méthodes des différences finies

Probabilités sur un univers fini

Équations d amorçage d intégrales premières formelles

Chapitre 3. Les distributions à deux variables

Équations non linéaires

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

Théorie de la Mesure et Intégration

Calcul intégral élémentaire en plusieurs variables

Fonctions de plusieurs variables. Sébastien Tordeux

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Introduction à l optimisation de forme et application à la mécanique des fluides

Fonctions holomorphes

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Optimisation Discrète

Correction de l examen de la première session

Intégration et probabilités TD1 Espaces mesurés

Algorithmes pour la planification de mouvements en robotique non-holonome

Introduction à la. Points Critiques. Otared Kavian. et Applications aux Problèmes Elliptiques. Springer-Verlag

Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.

Fonctions de plusieurs variables et applications pour l ingénieur

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Transcription:

Notes de Cours : Analyse Numérique Jérôme Lohéac 26 avril 2015 LUNAM Université, IRCCyN UMR CNRS 6597 (Institut de Recherche en Communications et Cybernétique de Nantes), École des Mines de Nantes, 4 rue Alfred Kastler, 44307 Nantes Jerome.Loheac@irccyn.ec-nantes.fr

Ce document reprend les résultats vus en cours. Merci au lecteur de me signaler toute erreur potentielle. Avant de vous lancer dans la résolution numérique d un problème, demandez vous si une solution existe...

Table des matières Notations 5 1 Résolution de systèmes linéaires 7 1.1 Élimination de Gauss.................................. 7 1.2 Méthodes itératives................................... 8 1.2.1 Méthodes de Jacobi, Gauss-Scheidel et relaxation.............. 8 1.2.2 Méthodes du gradient et du gradient conjugué............... 8 1.2.3 Algorithme pour les méthodes itératives................... 9 1.3 Conditionnement des matrices............................. 9 1.4 Stockage des matrices................................. 10 1.5 Systèmes surdéterminés et méthode des moindres carrés.............. 10 2 Résolution numérique des équations aux dérivées partielles elliptiques 13 2.1 Un exemple....................................... 13 2.1.1 Méthode des différences finies......................... 13 2.1.2 Méthode de Fourier.............................. 14 2.2 Introduction aux distributions............................. 15 2.3 Espaces de Sobolev................................... 15 2.3.1 Le Sobolev H 1 ()............................... 15 2.3.2 Théorèmes de trace.............................. 16 2.3.3 Espaces de Sobolev d ordre supérieurs.................... 17 2.4 Problèmes elliptiques.................................. 17 2.5 Exemple......................................... 17 2.5.1 Problèmes variationnels abstraits....................... 18 2.5.2 Approximation variationnelle......................... 19 2.6 Éléments finis P 1.................................... 19 2.6.1 En dimension 1................................. 19 2.6.2 En dimension 2................................. 20 2.6.3 résultat de convergence............................ 21 3

4 TABLE DES MATIÈRES

5 Notations Ensemble courants : N l ensemble des entiers naturels, Z l ensemble des entiers relatifs et R l ensemble des réels. Matrices : Pour m, n N, on note M m,n (R) l ensemble des matrices réelles de m lignes et n colonnes. Pour A M m,n (R) et (i, j) {1,, m} {1,, n} on note A i,j le coefficient de A placé à la i ème ligne et j ème colonne. Pour A M m,n (R), on note A M n,m (R) la transposée de A. Pour A M m,n (R), on note rg A le rang de A. Pour m = n, on pose M n (R) = M n,n (R). Pour A M n (R), on note det A le déterminant de la matrice A et Tr A sa trace. On note GL n (R) l ensemble des matrices de M n (R) inversibles. On note S n (R) l ensemble des matrices de M n (R) symétriques. On note S n + (R) (resp. Sn (R)) l ensemble des matrices de S n (R) positives (resp. négatives). Dérivées : Soit ϕ : x R n ϕ(x)r une fonction suffisamment régulière. On note : pour i {1,, n} et k N i kϕ la dérivée kième de ϕ par rapport à la variable x i, ϕ = 1 ϕ. n ϕ R n et ϕ = n i 2 ϕ ; i=1

Chapitre 1 Résolution de systèmes linéaires Les références utilisées pour ce chapitre sont [RP10, Chapitres 4 et 6], [Cia82, Partie 1] et [Sch01, Chapitres 9, 10, 11 et 12]. L objectif de ce chapitre est de donner des algorithmes permettant de résoudre ou d approcher la solution x R n du système linéaire Ax = b avec A M n (R) et b R n. Théorème 1.0.1. Si A GL n (R), alors quelque soit b R n, il existe une unique solution x R n de Ax = b. 1.1 Élimination de Gauss Remarque 1.1.1. Si A GL N (R) est triangulaire supérieure (resp. inférieure), la solution de Ax = b est aisée à calculer. Le principe de l élimination de Gauss est de remplacer le système Ax = b en un système équivalent Ux = c avec U GL N (R) une matrice triangulaire supérieure. Algorithme 1.1.2. (Pivot de Gauss) Soient A GL n (R) et b R n, La sortie de cet algorithme est A M n (R) et b R n. Pour i allant de 1 à n 1, faire : // On parcourt les lignes du système p = 1 A i,i Pour j allant de i + 1 à n, faire : A i,j = pa i,j // L i L i /A i,i Fin pour b i = p b i // b i b i /A i,i Pour k allant de i + 1 à n, faire : Pour j allant de i + 1 à n, faire : // L k L k A k,i L i A k,j = A k,j A k,i A i,j Fin pour b k = b k a k,i b i // b k b k A k,i b i Fin pour p = 1 A n,n b n = p b n A n,n = 1 Fin pour 7

8 RÉSOLUTION DE SYSTÈMES LINÉAIRES Remarque 1.1.3. Cet algorithme fonctionne si à l étape i, A i,i 0. Si tel n est pas le cas, il faut permuter les lignes. À la fin de cette algorithme, on est ramené a un système Ux = c avec U triangulaire supérieure qui se résout comme suit : Algorithme 1.1.4. Soit U GL n (R) triangulaire supérieure et c R n. La sortie de cet algorithme est x R n solution de Ux = c. Pour k allant de n à 1 avec pas 1, faire : x k = c k n i=k+1 U i,jx j Fin pour La complexité de l algorithme d élimination de Gauss est en O(n 3 ). 1.2 Méthodes itératives Pour résoudre le système Ax = b, on va construire une suite récursive (x n ) n convergente vers x. 1.2.1 Méthodes de Jacobi, Gauss-Scheidel et relaxation Soit A GL n (R), on écrit A = M N avec M GL n (R) et N M n (R). À partir d un point x 0 R n, on construit la suite récursive (x n ) n N à l aide de la relation : Mx n+1 = Nx n + b ( n N). (1.2.1) Exemple 1.2.1. Soit A = D E F avec D, E, F M n (R), D diagonale, E triangulaire supérieure (strict) et F triangulaire inférieure (strict). Méthode de Jacobi : M = D et N = E + F ; Méthode de Gauss-Scheidel : M = D E et N = F ; Méthode de relaxation : M = 1 1 ω ω D E et N = ω D + F. Théorème 1.2.2 (Convergence). Si M 1 N < 1 alors pour tout x 0 R n, la suite (x n ) n N définie par la relation de récurrence (1.2.1) est convergente vers x R n solution de (M N)x = b. Théorème 1.2.3. Soit A S + n (R) GL n (R), on écrit A = M N avec M GL n (R) et N M n (R). Alors M + N S n (R) et si M + N S + n (R) GL n (R), alors pour tout x 0 R n, la suite (x n ) n N définie par la relation de récurrence (1.2.1) est convergente vers x R n solution de (M N)x = b. Théorème 1.2.4. Soit A S + n (R) GL n (R). Si ω (0, 2), alors pour tout x 0 R n, la suite (x n ) n N définie par la relation de récurrence (1.2.1) est convergente vers x R n solution de (M N)x = b, où M et N sont données par la méthode de relaxation. 1.2.2 Méthodes du gradient et du gradient conjugué On considère dans ce paragraphe A S + n (R) GL n (R) et b R n. Théorème 1.2.5. Si x R n est solution de Ax = b, alors J(x) J(y) ( y R n ),

CONDITIONNEMENT DES MATRICES 9 avec J : R n R y 1 2 y Ay y b. (1.2.2) Par conséquent au lieu de chercher la solution de Ax = b, on va minimiser J. Proposition 1.2.6. Soit x R n et d R n \ {0}, alors le minimum de ρ J(x + ρd) est obtenu pour ρ = d (Ax b) d. Ad Pour ces méthode, on va construire une suite récurrente (x n ) n N et une suite (d n ) n N où la récurrence sur (x n ) est donnée par : On est alors libre sur le choix de la suite (d n ) n. x n+1 = x n + (dn ) (Ax n b) (d n ) Ad n. Exemple 1.2.7. Méthode du gradient : d n = J(x n ) ; Méthode du gradient conjugué : d 0 R n donné (par exemple d 0 = J(x 0 )) et d n+1 = J(x n+1 ) + J(xn+1 ) 2 J(x n ) 2 dn. Théorème 1.2.8. La méthode du gradient est convergente Théorème 1.2.9. La méthode du gradient conjugué est convergente en au plus n itérations (où n est la dimension de l espace, A M n (R)). Remarque 1.2.10. Ce dernier résultat est théorique. En pratique, nous n atteindrons pas la solution en moins de n itérations. 1.2.3 Algorithme pour les méthodes itératives Les méthodes itératives sont basées sur une relation de récurrence x n+1 = f(x n ). En pratique, nous nous donnons un critère d arrêt, qui est un nombre maximal d itération et un borne sur l erreur. Plus précisément, on se donne : Algorithme 1.2.11. Soit A GL n (R), b R n \ {0}, x 0 R n, N max N et ε > 0. La sortie de l algorithme étant x, approximant la solution de Ax = b. k = 0 x = x 0 Tant que k < N max et Ax b b > ε, faire : x = f(x) k = k + 1 Fin pour 1.3 Conditionnement des matrices Lorsque l on va résoudre un système Ax = b, on va commettre des erreurs numériques. Le conditionnement va permettre de mesurer l impact de ces erreurs sur la solution.

10 RÉSOLUTION DE SYSTÈMES LINÉAIRES Définition 1.3.1. Soit une norme sur R n. On définit la norme subordonnée sur M n (R) par : Ax A = max x R n, x x 0 ( A M n (R)). Théorème 1.3.2. Soit A M n (R), on a A = max { λ σ(a A) }, avec σ(a A) l ensemble des valeurs propres de A A. Définition 1.3.3 (Conditionnement). Soit A GL n (R), on appelle conditionnement de A la quantité χ(a) = A A 1. Proposition 1.3.4. Pour tout A GL n (R), on a χ(a) 1. Théorème 1.3.5. Soit A GL N (R), b R n \ {0} et δb R n, alors Avec Ax = b et A(x + δx) = b + δb. δx x χ(a) δb b, Théorème 1.3.6. Soit A GL n (R), δa M n (R), b R n \ {0} et δb R n. Si A 1 δa < 1, alors, ( δx χ(a) δb + δa ), x 1 χ(a) δa b A A avec Ax = b et (A + δa)(x + δx) = b + δb. 1.4 Stockage des matrices Soit A M n (R). On peut stocker cette matrice dans un tableau ou bien ne retenir que les coefficients non nuls (forme sparse). Dans ce dernier cas, on retient une liste formée de couples d indices (ligne et colonnes) et de valeurs (valeurs de la matrice pour les indices correspondant). Le nombre d octets occupés par un entier est 4 et par un réel est 8. Notons ñ le nombre de valeurs non nulles dans la matrice A. Alors si 2ñ n il est plus intéressant de retenir la matrice sous forme sparse. 1.5 Systèmes surdéterminés et méthode des moindres carrés On considère ici A M m,n (R) et b R m avec m > n. On va chercher le point x R n tel que Ax soit le plus proche de b, i.e. : Ax b Ay b ( y R n ), (1.5.3) où la norme choisie est le norme euclidienne, i.e. x = n x i 2. Théorème 1.5.1. Soit A M m,n (R) et b R m avec m n. Si rg A = n alors le problème de minimisation (1.5.3) admet une unique solution x R n solution de A Ax = A b. i=1

12 RÉSOLUTION DE SYSTÈMES LINÉAIRES

Chapitre 2 Résolution numérique des équations aux dérivées partielles elliptiques Les références utilisées pour ce chapitre sont [RT83, Chapitres 1, 2, 3 et 5] et [Bré83, Chapitres 5, 8 et 9]. 2.1 Un exemple On considère le domaine = (0, 1) R et le problème : u (x) = f(x) x (0, 1), (2.1.1a) 0 = u(0) = u(1). (2.1.1b) Avec f C ((0, 1), R). On admet temporairement que ce problème admet une unique solution et on va chercher à approcher numériquement la solution u. 2.1.1 Méthode des différences finies Cette méthode est basée sur la formule de Taylor. Plus précisément, si u est de classe C 2 alors, pour tout x (0, 1), u(x + h) = u(x) + hu (x) + h2 2 u (x) + o 0 (h 2 ) et u(x h) = u(x) hu (x) + h2 2 u (x) + o 0 (h 2 ). Ainsi, u (x) = 1 h 2 (u(x h) 2u(x) + u(x + h)) + o 0(1). Soit n > 2, on pose h n = 1/(n + 1) et x i = ih pour i {0,, n}, de sorte que x 0 = 0 et x n+1 = 1. On a alors (avec u(0) = u(1) = 0), u (x 1 ) = 1 h ( 2u(x 2 1 ) + u(x 2 )) + o n (1) n u (x i ) = 1 h (u(x 2 i 1 ) 2u(x i ) + u(x i+1 )) + o n (1) si i {2,, n 1} n u (x n ) = 1 h (u(x 2 n 1 ) 2u(x n )) + o n (1) n 13

14RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES 2 1 0. Posons A = 1........... 1 M n(r), de sorte que l on ai : 0 1 2 u (x 1 ). = 1 u(x 1 ) h 2 A. + o n (1). u n (x n ) u(x n ) f(x 1 ) Posons aussi F =. R n. On a alors : f(x n ) F = 1 h 2 n u(x 1 ) A. u(x n ) + o n (1). Soit alors U i l approximation de u(x i ) au sens où U est solution de : 1 h 2 AU = F. n Remarque 2.1.1. Si f n est pas continue, on peut tout de même définir une solution au problème (2.1.1), mais la formule de Taylor n est plus valable. Pour de dimension supérieure, cette méthode est technique à mettre en place 2.1.2 Méthode de Fourier Pour f continue et C 1 par morceaux, On étend par imparité la fonction f puis on l étend sur R par 2-périodicité. La fonction f se récrit sous la forme d une série de Fourier, f(x) = n=1 a n sin(πnx). On remarque que d2 dx 2 sin(πnx) = π2 n 2 sin(πnx). On écrit alors u sous la forme d une série de Fourier en sinus, u(x) = n=1 u n sin(πnx) et on a u n = an π 2 n. On peut alors 2 tronquer la somme et ceci donne une méthode numérique convergente pour le problème (2.1.1). Remarque 2.1.2. Il faut calculer les coefficients de Fourier de f. Ce qui n est pas en général (même numériquement) pas facile. Il est difficile d étendre cette méthode en dimension supérieure. La méthode devient très compliquée si au lieu de résoudre (2.1.1), on résout : d dx (a(x)u (x)) = f(x) x (0, 1), u(0) = u(1) = 0. Au vu des limitations des deux méthodes proposées précédemment, nous allons proposer une nouvelle méthode plus robuste par rapport au problème. Pour introduire cette méthode, nous avons tout d abord besoin de connaître l espace dans lequel vit la solution u.

INTRODUCTION AUX DISTRIBUTIONS 15 2.2 Introduction aux distributions Soit un ouvert non vide de R n. On note D() l ensemble des fonction C à support compact dans. Soit (ϕ n ) n N D() N, on dira que (ϕ n ) n converge vers ϕ D() si il existe un compact K tel qu à partir d un certain rang, supp ϕ n K et pour tout α N n, lim sup α1 n 1 αn n (ϕ n ϕ) = 0. x K On définit l espace des distributions D () comme les formes linéaires sur D(), c est-à-dire T D () si pour toute suite (ϕ n ) n D() N convergente vers ϕ D(), on a lim n T (ϕ n ) = T (ϕ). Remarque 2.2.1. En général, on note T, ϕ à la place de T (ϕ). Définition 2.2.2. On définit L 2 () comme l adhérence de D() pour la norme : ϕ L2 () = ϕ(x) 2 dx ( ϕ D()). Proposition 2.2.3. L 2 () est un espace de Hilbert séparable 1 pour le produit scalaire : (ϕ, ψ) L 2 () = ϕ(x)ψ(x) dx ( ϕ, ψ D()). Proposition 2.2.4 (L 2 D ()). Soit f L 2 (), on définit T f D () par T f, ϕ = (f, ϕ) L 2 () pour tout ϕ D(). Alors f L 2 () T f D () est injective. Remarque 2.2.5. Ainsi, tout élément de L 2 () peut aussi être vu comme une distribution. Définition 2.2.6 (Dérivation au sens des distributions). Soit T D (), on définit i T pour i {1,, n} par : i T, ϕ = T, i ϕ ( ϕ D()). Remarque 2.2.7. Cette formule de dérivation est basée sur la formule d intégration par parties. Si f L 2 () et de classe C 1, alors la dérivée au sens des distribution de f coïncide avec la dérivée classique. Les distributions sont infiniment dérivables. 2.3 Espaces de Sobolev 2.3.1 Le Sobolev H 1 () Définition 2.3.1. Soit un ouvert de R n, on définit : H 1 () = { ϕ L 2 (), ϕ L 2 () 3} et on munit cet espace du produit scalaire : (ϕ, ψ) H1 () = (ϕ(x)ψ(x) + ϕ(x) ψ(x)) dx ( ϕ, ψ H 1 ()). 1. séparable signifie qu il existe une suite dense.

16RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES Proposition 2.3.2. Soit un ouvert de R n, H 1 () est un espace de Hilbert séparable. 2 Théorème 2.3.3. Soit un ouvert borné de R n et 1, 2 deux ouverts tels que 1 2 = et 1 2 =. Soit v C 0 () tel que v 1 H 1 ( 1 ) et v 2 H 1 ( 2 ) alors v H 1 (). Définition 2.3.4. Soit un ouvert borné de R n, on note H 1 0 () l adhérence de D() pour la norme H 1 (). Théorème 2.3.5 (Inégalité de Poincaré). Soit un ouvert borné de R n, il existe une constante C() > 0 telle que pour tout v H 1 0 (), on a : v L 2 () C() v L 2 () n. Remarque 2.3.6. Cette dernière inégalité reste vraie si est seulement borné dans une direction. Corollaire 2.3.7. Soit un ouvert borné de R n, alors H 1 0 () définie par : v H 1 0 () = v L2 () n ( v H1 0 ()), est une norme sur H 1 0 () équivalente à la norme H1 (). 2.3.2 Théorèmes de trace On veut pouvoir définir v où = \ est la frontière de. Ceci n est pas trivial car dès que n 2 les éléments de H 1 () ne sont pas nécessairement continus. Théorème 2.3.8. Soit R n un ouvert borné. On suppose que la frontière de est de classe C 1 par morceaux 3. Alors D() est dense dans H 1 () et l application γ 0 : ϕ D() v L 2 ( ) se prolonge par continuité en une application linéaire continue de H 1 () dans L 2 ( ). Théorème 2.3.9. Sous les hypothèses du théorème précédent, H 1 0 () = Ker γ 0. Savoir que l on peut définir la trace d un élément de H 1 () nous permet d établir la formule de Green : Théorème 2.3.10 (Formule de Green). Soit R n un ouvert borné dont la frontière est de classe C 1 par morceaux. Alors, pour tout u, v H 1 () et tout i {1,, n}, on a : i u(x)v(x) dx = u(x) i v(x) dx + u(x)v(x)ν(x) dσ(x), où ν = (ν 1,, ν n ) est la normal à dirigée vers l extérieur de (c.f. Figure 2.1) et dσ est l élément de surface sur la frontière de. 2. Ce théorème sera nécessaire pour justifier que l approximation par éléments finis est bien dans H 1. 3. i.e. est l ensemble des zéros d une fonction C 1 par morceaux de R n à valeurs dans R dont le gradient est presque partout non nul

PROBLÈMES ELLIPTIQUES 17 ν Figure 2.1 Normale sortante à. 2.3.3 Espaces de Sobolev d ordre supérieurs Définition 2.3.11. Soit un ouvert de R n et m N, on note : { } n H m () = v L 2 (), α N n tels que α i m, on a α1 1 αn n v L 2 (), avec la convention 0 i v = v. i=1 Théorème 2.3.12. Soient un ouvert de R n et m N. Alors H m () muni du produit scalaire : m (u, v) H m () = α1 1 αn n u(x) α1 1 αn n v(x) dx ( u, v H m ()), α 1,,α n=0 α 1+ +α n m est un espace de Hilbert séparable. Pour v H 2 (), on peut de même que pour H 1 définir la trace de v sur on a alors par la formule de Green : Proposition 2.3.13. Soit un ouvert borné de R n dont la frontière est de classe C 1 par morceaux. Pour tout u H 2 () et tout v H 1 (), on a : u(x)v(x) dx = u(x) v(x) dx ( u(x) ν(x))v(x) dσ(x), avec comme précédemment, ν la normale sortante à et dσ l élément de surface sur. Théorème 2.3.14. Soit un ouvert borné de R n dont la frontière est de classe C 1 par morceaux. Si m N est tel que m > n 2 alors Hm () C 0 (). 2.4 Problèmes elliptiques 2.5 Exemple Soit R n un ouvert borné dont la frontière est de classe C 1 par morceaux et soit f L 2 () on considère le problème aux limites : u = f dans, (2.5.2a) u = 0 sur. (2.5.2b)

18RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES On suppose momentanément que ce problème admet une solution u dans H 2 () alors en multipliant la première relation par un élément v de H 1 0 () et en utilisant la formule de Green avec v = 0, on obtient : Il est alors tentant de poser : u(x) v(x) dx = f(x)v(x) dx. a : H0 1 () H0 1 () R (u, v) u(x) v(x) dx et l : H0 1 () R v f(x)v(x) dx. De sorte que si u H 2 () est solution de (2.5.2) alors u est solution du problème variationnel : a(u, v) = l(v) ( v H 1 0 ()). Remarque 2.5.1. Pour certains domaines, il n existe pas de solution dans H 2 () mais seulement une solution u H 1 0 () solution du problème variationnel. Nous allons donc dans ce qui suite chercher à résoudre ce problème variationnel. 2.5.1 Problèmes variationnels abstraits Soit V un espace de Hilbert séparable (on va noter V sa norme et (, ) V son produit scalaire), a : V V R une forme bilinéaire continue, (i.e. C > 0, (u, v) V V, a(u, v) C u V v V et a linéaire par rapport à chacune de ses variables) et l : V R une forme linéaire continue (i.e. C > 0, v V, l(v) C v V ). Définition 2.5.2. La forme bilinéaire a est dite elliptique sur V s il existe α > 0 tel que pour tout u V, on a : a(u, u) α u 2 V. Théorème 2.5.3 (Théorème de représentation de Riesz). Soit l V (une forme linéaire continue sur V ). Il existe un unique élément λ V tel que pour tout v V, l(v) = (λ, v) V. Théorème 2.5.4 (Lemme de Lax-Milgram). Soit a une forme bilinéaire continue et elliptique sur V et l V. Il existe un unique élément u V tel que a(u, v) = l(v) pour tout v V. Proposition 2.5.5. Sous les hypothèses du théorème précédent et si de plus a est symétrique (i.e. a(u.v) = a(v, u)) alors l unique solution u du problème variationnel a(u, v) = l(v) minimise la fonctionnelle : J : V R v 1 2a(v, v) l(v).

ÉLÉMENTS FINIS P 1 19 2.5.2 Approximation variationnelle Soit V un espace de Hilbert séparable, a : V V R une forme bilinéaire continue, et l : V R une forme linéaire continue. Soit V h V un sous-espace vectoriel de V. Proposition 2.5.6. Il existe une unique solution u h V h au problème variationnel : a(u h, v h ) = l(v h ) (v h V h ). Théorème 2.5.7. Soit u V (resp. u h V h ) la solution du problème variationnel a(u, v) = l(v) pour tout v V (reps. a(u h, v h ) = l(v h ) pour tout v h V h ). Il existe une constante C > 0 indépendante de V h telle que : u u h V C inf u v h V. v h V h Remarque 2.5.8. Supposons que dim V h = N <, il existe alors {ϕ 1,, ϕ N } une base de V h. Notons alors u h = N i=1 U iϕ i, avec U = (U 1,, U n ) R N, la solution du problème variationnel a(u h, v h ) = l(v h ) posé sur V h. On a alors par linéarité, N U i a(ϕ i, ϕ j ) = l(ϕ j ) ( j {1,, N}). i=1 Posons A = (A i,j ) i,j {1,..., N} où A i,j = a(ϕ j, ϕ i ) et B = (l(ϕ 1 ),, l(ϕ N )). On a alors U R N solution du problème : AU = B. 2.6 Éléments finis P 1 Soit R n. On considère maintenant V = H 1 () et une forme bilinéaire continue et elliptique a sur H 1 () et une for linéaire continue l sur H 1 (). Dans ce paragraphe, nous allons proposer une construction effective de l espace d approximation V h. 2.6.1 En dimension 1 Considérons = (0, 1). Soit x 0 = 0 < x 1 < < x N 1 < x N = 1 une subdivision de [0, 1] pour chaque i {0,, N}, on considère la fonction ϕ i donnée par (c.f. Figure 2.2 : 1. ϕ i est continue ; 2. ϕ i est affine sur chaque intervalle [x j, x j+1 ] ; 3. ϕ i (x i ) = 1 et ϕ i (x j ) = 0 pour j i. Alors la famille {ϕ 0,, ϕ N } est linéairement indépendante et l espace vectoriel engendré par cette famille est inclus dans H 1 0. Notons : et ρ = h. h = max (x i x i 1 ) i {1,...,N

20RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES 1 ϕ 0 ϕ i ϕn 0 x 1 x i 1 x i x i+1 x N 1 0 x Figure 2.2 Éléments finis en dimension 1 basés sur la subdivision 0 = x 0 < x 1 < < x N 1 < x N = 1 de [0, 1]. 2.6.2 En dimension 2 Considérons un ouvert borné polyédrique 4. Considérons T = {T 1,, T K } une famille de triangles ouverts telle que T i T j = et K k=1 T k =. Notons {x 1,, x n } l ensemble des sommets des triangles de T. Pour chaque T k T, on définit h k de diamètre de T k et σ k le diamètre du plus grand cercle inclus contenu dans T k (c.f. Figure 2.3). h k σ k Figure 2.3 Définition de k k et σ k pour un triangle T k de T. On considère pour chaque i {1,, N} la fonction ϕ i (c.f. Figure 2.4) satisfaisant : 1. ϕ i est continue ; 2. ϕ i est affine sur chaque triangle de T ; 3. ϕ i (x i ) = 1 et ϕ i (x j ) = 0 pour j i. Alors la famille {ϕ 0,, ϕ N } est linéairement indépendante et l espace vectoriel engendré par 4. polyédrique signifie que est l intersection finie de demi-espaces de R 2

ÉLÉMENTS FINIS P 1 21 x i Figure 2.4 Élément fini ϕ i en dimension 2. cette famille est inclus dans H 1 0. Notons : et ρ = σ k min. k {1,...,K} h k 2.6.3 résultat de convergence h = max k {1,...,K h k Dans les deux cas présentés ci-dessus, nous avons le résultat de convergence lorsque h tends vers 0. Théorème 2.6.1. Supposons que la forme linéaire l est donnée par l(v) = f(x)v(x) dx avec f L 2 () et supposons que l application f L 2 () u H 1 () (avec u la solution du problème variationnel) est continue. Supposons de plus, la solution u du problème variationnel est un élément de H 2 () et supposons enfin que ρ > 0 pour tout h > 0. Alors, il existe une constante C > 0 indépendante de h telle que : u u h L2 () Ch u L2 () n, où u est la solution du problème variationnel posé dans H 1 () et u h la solution du problème variationnel posé dans V h. Dans le théorème précédent, on a V h construit comme l espace vectoriel engendré par les ϕ i définis dans les deux paragraphes précédents.

22RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES

Bibliographie [Bré83] Haïm Brézis. Analyse fonctionnelle. Théorie et applications. Collection Mathématiques Appliquées pour la Maîtrise. Paris etc. : Masson. XIV, 233 p. FF 125.00 (1983)., 1983. [Cia82] Philippe G. Ciarlet. Introduction à l analyse numérique matricielle et à l optimisation. Collection Mathematiques Appliquees pour la Maitrise. Paris etc. : Masson. XII, 279 p. FF 110.00 (1982)., 1982. [RP10] Jacques Rappaz and Marco Picasso. Introduction à l analyse numérique. Lausanne : Presses Polytechniques et Universitaires Romandes, 2nd ed. edition, 2010. [RT83] Pierre-Arnaud Raviart and Jean-Marie Thomas. Introduction à l analyse numérique des équations aux dérivées partielles. Collection Mathématiques Appliquées pour la Maîtrise. Paris etc. : Masson. 224 p. (1983)., 1983. [Sch01] Michelle Schatzman. Analyse numérique : une approche mathématique. Sciences SUP. Mathématiques. Cours. Dunod, 2001. 23