Chapitre 4. Résolution numérique de systèmes linéaires par méthode itérative. I méthodes stationnaires. 4.1 Introduction. Sommaire

Documents pareils
Cours d analyse numérique SMI-S4

3 Approximation de solutions d équations

Résolution de systèmes linéaires par des méthodes directes

Résolution d équations non linéaires

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Limites finies en un point

Continuité et dérivabilité d une fonction

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

CCP PSI Mathématiques 1 : un corrigé

Fonctions de plusieurs variables

I. Polynômes de Tchebychev

Dualité dans les espaces de Lebesgue et mesures de Radon finies

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Correction de l examen de la première session

Exercices - Polynômes : corrigé. Opérations sur les polynômes

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Texte Agrégation limitée par diffusion interne

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Programmes des classes préparatoires aux Grandes Ecoles

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Cours d Analyse. Fonctions de plusieurs variables

Continuité en un point

Capes Première épreuve

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Correction du Baccalauréat S Amérique du Nord mai 2007

Chapitre 2. Matrices

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Équations non linéaires

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Chapitre 5 : Flot maximal dans un graphe

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Chapitre 2 Le problème de l unicité des solutions

Rappels sur les suites - Algorithme

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Calcul différentiel sur R n Première partie

Optimisation des fonctions de plusieurs variables

IV- Equations, inéquations dans R, Systèmes d équations

Programmation linéaire et Optimisation. Didier Smets

1 Introduction et modèle mathématique

Cours Fonctions de deux variables

Approximations variationelles des EDP Notes du Cours de M2

Cours 02 : Problème général de la programmation linéaire

Sur certaines séries entières particulières

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

Calcul différentiel. Chapitre Différentiabilité

Différentiabilité ; Fonctions de plusieurs variables réelles

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Chapitre 7 : Intégration sur un intervalle quelconque

Théorème du point fixe - Théorème de l inversion locale

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Dérivation : cours. Dérivation dans R

Optimisation, traitement d image et éclipse de Soleil

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Image d un intervalle par une fonction continue

Exercices Corrigés Premières notions sur les espaces vectoriels

Algorithmes pour la planification de mouvements en robotique non-holonome

C algèbre d un certain groupe de Lie nilpotent.

NOTATIONS PRÉLIMINAIRES

Condition inf-sup pour l Elément Fini de Taylor-Hood È ¾ -iso-è ½

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Raisonnement par récurrence Suites numériques

Simulation de variables aléatoires

LES MÉTHODES DE POINT INTÉRIEUR 1

Corrigé des TD 1 à 5

Fonctions linéaires et affines. 1 Fonctions linéaires. 1.1 Vocabulaire. 1.2 Représentation graphique. 3eme

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Calcul fonctionnel holomorphe dans les algèbres de Banach

1 Complément sur la projection du nuage des individus

I. Ensemble de définition d'une fonction

Programmation linéaire

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

Intégration et probabilités TD1 Espaces mesurés Corrigé

Suites numériques 3. 1 Convergence et limite d une suite

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

Développement décimal d un réel

Chapitre 6. Fonction réelle d une variable réelle

aux différences est appelé équation aux différences d ordre n en forme normale.

Chp. 4. Minimisation d une fonction d une variable

Quantification Scalaire et Prédictive

Nombre dérivé et tangente

Plan du cours : électricité 1

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Corrigé du baccalauréat S Asie 21 juin 2010

Dérivées d ordres supérieurs. Application à l étude d extrema.

Licence Sciences et Technologies Examen janvier 2010

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Géométrie dans l espace Produit scalaire et équations

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Chapitre VI - Méthodes de factorisation

Transcription:

Chapitre 4 Résolution numérique de systèmes linéaires par méthode itérative. I méthodes stationnaires Sommaire 4.1 Introduction................................ 1 4.2 Norme de vecteurs et de matrices................... 4 4.3 Conditionnement.............................. 7 4.4 Suite de vecteurs et de matrices..................... 9 4.5 Résultats généraux de convergence................... 11 4.5.1 Cas des M-matrices............................. 11 4.5.2 Cas des matrices hermitiennes....................... 12 4.6 Méthodes classiques............................ 12 4.7 Cas des matrices tridiagonales, comparaison des méthodes.... 14 4.8 Méthode de Richardson.......................... 15 4.9 La matrice du laplacien en dimension 1................ 16 4.10 Complexité................................. 16 4.1 Introduction Exemple de base en analyse numérique : équation de la chaleur 2D (et même 3D). On cherche u(x, y, t), solution de ρ t u u = f dans Ω; u = xx u + yy u + avec des conditions initiales et aux limites sur Ω. 1

Equilibre : u(x, y) u = f dans Ω. On choisit des pas d espace x = a m + 1, y = b m + 1 L opérateur de Laplace en deux dimensions est discrétisé avec des différences finies u(x + x, y) 2u(x, y) + u(x x, y) xx u ; x 2 yy u On obtient pour u i,j u(i x, j y), u(x, y + y) 2u(x, y) + u(x, y y) y 2 ; 1 x ( u 2 i 1,j + 2u i,j u i+1,j ) + 1 y ( u 2 i,j 1 + 2, u i,j u i,j+1 ) = f(x i, y j ) 2

On introduit les vecteurs u j = u 1,j. u m,j pour j = 1,, n. On multiplie l équation par y 2, et on obtient u j 1 + Tu j u j+1 = δu 0,j e 1 + f j y 2 2(1 + δ) δ 0 δ 2(1 + δ) δ T =......... δ 2(1 + δ) δ 0 δ 2(1 + δ) On introduit maintenant le vecteur de toutes les inconnues u 1 U =. On obtient un large système de m n équations à m n inconnues, avec A = u n AU = F T I 0 I T I 0......... 0 I T I 0 I T matrice m m La matrice A est CREUSE, TRIDIAGONALE PAR BLOCS. Dans chaque bloc-ligne de A, seuls 3 blocs sur les n sont non-identiquement nuls, avec dans chaque ligne de ces blocs au plus 3 éléments non-nuls. Ca fait dans chaque ligne de A 5 élément non nuls sur m n (faire m = 100, n = 50). La décomposition de Gauss risque de remplir la matrice. Les méthodes itératives n ont pas besoin de construire la matrice, mais plutôt de savoir faire le produit matrice-vecteur. Pour construire une méthode itérative on écrit A = M N; Au = b Mu Nu = b 3

On utilise le point fixe u = M 1 (Nu + b) Mu k+1 = Nu k + b Compromis entre M est une bonne approximation de A (le meilleur M est A) le système à résoudre à chaque itération est simple et peu onéreux. 4.2 Norme de vecteurs et de matrices Définition 4.1 Une norme sur un espace vectoriel V est une application : V R + qui vérifie les propriétés suivantes v = 0 v = 0, αv = α v, α K, v V, u + v u + v, (u,v) V 2 (inégalité triangulaire) Une norme sur V est également appelée norme vectorielle. On appelle espace vectoriel normé un espace vectoriel muni d une norme. Les trois normes suivantes sont les plus couramment utilisées sur C n : n v 1 = v i i=1 ( n ) 1/2 v 2 = v i 2 i=1 v = max i v i. La deuxième norme est la norme euclidienne sur C n. Elle dérive du produit scalaire (u, v) 2 = n i=1 u i v i. Théorème 4.1 Soit V un espace de dimension finie. Pour tout nombre réel p 1, l application v v p définie par ( n est une norme. v p = i=1 v i p ) 1/p Rappel 4.1 Pour p > 1 et 1 + 1 = 1, l inégalité p q ( n n ) 1/p ( n ) 1/q uv 1 = u i v i u i p v i q = u p v q i=1 i=1 i=1 s appelle l inégalité de Hölder. 4

Définition 4.2 Deux normes et, définies sur un même espace vectoriel V, sont équivalentes s il existe deux constantes C et C telles que v C v et v C v pour tout v V. Rappel 4.2 Sur un espace vectoriel de dimension finie toutes les normes sont équivalentes. Définition 4.3 Soit M n l anneau des matrices d ordre n, à éléments dans le corps K. Une norme matricielle est une application : M n R + vérifiant 1. A = 0 A = 0, 2. αa = α A, α K, A M n, 3. A+B A + B, (A, B) M 2 n (inégalité triangulaire) 4. AB A B, (A, B) M 2 n Rappel 4.3 Etant donné une norme vectorielle sur K n, l application : M n (K) R + définie par Av A = sup v K n v = sup Av = sup Av, v K n v K n v 0 v 1 v =1 est une norme matricielle, appelée norme matricielle subordonnée (à la norme vectorielle donnée). De plus Av A v v K n et la norme A peut se définir aussi par Il existe au moins un vecteur u tel que Enfin une norme subordonnée vérifie toujours A = inf {α R : Av α v, v K n }. u 0 et Au = A u. I = 1 Rappelons la définition du rayon spectral d une matrice. Notons λ i (A) les n valeurs propres de la matrice n n A. Le rayon spectral de A est ρ(a) = max λ i (A) i 5

Théorème 4.2 Soit A = (a ij ) une matrice carrée. Alors déf. Av A 1 = sup 1 v C n v 1 v 0 = max j a ij déf. Av A 2 = sup 2 = ρ (A v C n v A) = ρ (AA ) = A 2 2 v 0 déf. Av A = sup v C n v v 0 = max i i j a ij La norme 2 est invariante par transformation unitaire : UU = I = A 2 = AU 2 = UA 2 = U AU 2. Par ailleurs, si la matrice A est normale : AA = A A = A 2 = ρ (A). Remarque 4.1 1. Si une matrice A est hermitienne, ou symétrique (donc normale), on a A 2 = ρ (A). 2. Si une matrice A est unitaire ou orthogonale (donc normale), on a A 2 = 1. Théorème 4.3 1. Soit A une matrice carrée quelconque et une norme matricielle subordonnée ou non, quelconque. Alors ρ (A) A. 2. Etant donné une matrice A et un nombre ε > 0, il existe au moins une norme matricielle subordonnée telle que A ρ (A) + ε. Théorème 4.4 L application E : M n R + définie par ( ) 1/2 A E = a ij 2 = tr (A A), i,j pour toute matrice A = (a ij ) d ordre n, est une norme matricielle non subordonnée (pour n 2), invariante par transformation unitaire : UU = I = A E = AU E = UA E = U AU E et qui vérifie De plus I E = n. A 2 A E n A 2, A M n. 6

4.3 Conditionnement On veut estimer x y, où x est solution du système linéaire, et y solution du système perturbé Exemple de R.S. Wilson : A = Ax = b, (A + A) y = (b + b). 10 7 8 7 7 5 6 5 8 6 10 9 7 5 9 10, b = 10 7 8, 1 7, 2 A + A = 7, 08 5, 04 6 5 8 5, 98 9, 89 9, 6, 99 4, 99 9 9, 98 A = 0 0 0, 1 0, 2 0, 08 0, 04 0 0 0 0, 02 0, 11 0 0, 01 0, 01 0 0, 02, 1 Ax = b x = 1 1, 1 1, 82 Au = b + b u = 0, 36 1, 35 0, 79 81 (A + A)v = b v = 137 34 22, = x, = x 32 23 33, 31 b + b = b = 32, 01 22, 99 33, 01, 30, 99 0, 01 0, 01 0, 01. 0, 01 0, 82 x = u x = 1, 36 0, 35 0, 21 82 x = v x = 136 35 21 Définition 4.4 Soit. une norme matricielle subordonnée, le conditionnement d une matrice régulière A, associé à cette norme, est le nombre Nous noterons cond p (A) = A p A 1 p. κ(a) = cond(a) = A A 1. 7

Théorème 4.5 Soit A une matrice inversible. Soient x et x + x les solutions respectives de Supposons b 0, alors l inégalité Ax = b et A (x x + x) = b + b. x x x cond(a) b b b est satisfaite, et c est la meilleure possible : pour une matrice A donnée, on peut trouver des vecteurs b 0 et b 0 tels qu elle devienne une égalité. Démonstration Il suffit de soustraire les 2 équations. x est solution du système linéaire A x = b d où x x A 1 b b b b A 1 b b A x b Théorème 4.6 Soit A une matrice inversible. Soient x et x + x les solutions respectives de Supposons b 0, alors l inégalité Ax = b et (A + A) (x x + x) = b. x x x x + x cond(a) A A. est satisfaite, et c est la meilleure possible : pour une matrice A donnée, on peut trouver un vecteur b 0 et une matrice A 0 tels qu elle devienne une égalité. Théorème 4.7 1. Pour toute une matrice inversible A, cond(a) 1, 2. Pour toute matrice inversible A, cond(a) = cond(a 1 ), cond(αa) = cond(a), pour tout scalaire α 0 cond 2 (A) = µ max µ min où µ max et µ min sont respectivement la plus grande et la plus petite valeur singulière de A. 8

3. Si A est une matrice normale, cond 2 (A) = max λ i (A) i min λ i (A) i où les λ i (A) sont les valeurs propres de A. 4. Le conditionnement cond 2 (A) d une matrice unitaire ou orthogonale vaut 1. 5. Le conditionnement cond 2 (A) est invariant par transformation unitaire UU = I = cond 2 (A) = cond 2 (AU) = cond 2 (UA) = cond 2 (U AU). Rappel 4.4 Les valeurs singulières d une matrice rectangulaire A sont les racines carrées positives des valeurs propres de A A. Lorsque l on veut résoudre un système linéaire Ax = b avec une matrice mal conditionnée, il peut être intéressant de de multiplier à gauche par une matrice C telle CA soit mieux conditionnée. L exemple le plus simple est le préconditionnement diagonal, où la matrice C est la matrice diagonale constituée des inverses des éléments diagonaux de A : c est l algorithme de Richardson que nous verrons plus loin. 4.4 Suite de vecteurs et de matrices Définition 4.5 Soit V un espace vectoriel muni d une norme., on dit qu une suite (v k ) d éléments de V converge vers un élément v V, si lim k v k v = 0 et on écrit v = lim k v k. Remarque 4.1 Sur un espace vectoriel de dimension finie, toutes les normes sont équivalentes. Donc v k tend vers v si et seuelement si v k v tend vers 0 pour une norme. Théorème 4.8 1. Soit une norme matricielle subordonnée, et B une matrice vérifiant Alors la matrice (I + B) est inversible, et B < 1. (I + B) 1 1 1 B. 9

2. Si une matrice de la forme (I + B) est singulière, alors nécessairement B 1 pour toute norme matricielle, subordonnée ou non. La démonstration repose sur la série de Neumann B n. Théorème 4.9 Soit B une matrice carrée. Les conditions suivantes sont équivalentes : 1. lim k B k = 0, 2. lim k B k v = 0 pour tout vecteur v, 3. (B) < 1, 4. B < 1 pour au moins une norme matricielle subordonnée.. Théorème 4.10 Soit B une matrice carrée, et. une norme matricielle quelconque. Alors lim k B k 1/k = (B). Soit donc une suite v k définie par v k+1 = Bv k. On a v k = B k v 0. Si l on veut une erreur inférieure à ε v k v 0 Bk v k v 0 Bk ε B k 1 k ε 1 k Définition 4.6 On définit le facteur de convergence local de la méthode itérative dont la matrice d itération est B est ρ k (B) = B k 1 k. Le facteur asymptotique de convergence asymptotique est ρ(b). Le taux de convergence moyen est R k (B) = ln ρ k (B), le taux de convergence asymptotique est R(B) = ln ρ(b). Théorème 4.11 Le nombre d itérations nécessaires pour réduire l erreur d un facteur ε est au moins égal à K = ln ε R(B). 10

4.5 Résultats généraux de convergence Soit donc l algorithme Mu k+1 = Nu k + b (4.1) avec M N = A. Si la suite converge, elle converge vers la solution u de Au = b, et l erreur e k = u k u vérifie Me k+1 = Ne k. On note B = M 1 N, c est la matrice de l itération. On note aussi r k := b Au k = A(u u k ) = Ae k le résidu à l étape k. D après le théorème 4.9, on a Théorème 4.12 La suite u k converge pour toute donnée initiale u 0 si et seulement si (B) < 1, si et seulement si B < 1 pour au moins une norme matricielle subordonnée.. 4.5.1 Cas des M-matrices Définition 4.7 (Matrice non-négative ) Une matrice A M n (R) est dite non-négative (resp. non-positive) si pour tout i, j {1,, n}, a ij 0 (resp. a ij 0). Théorème 4.13 (Perron-Frobenius) Soit A M n (R) une matrice non-négative. Alors A a une valeur propre non-négative égale au rayon spectral de A, et un vecteur propre correspondant qui est aussi non-négatif. Définition 4.8 (Décomposition régulière ou regular splitting ). Une décomposition A = M N est dite régulière si M est inversible et si M 1 et N sont toutes deux non-négatives. Théorème 4.14 Soit A M n (R) une matrice, A = M N une décomposition régulière. Alors la méthode itérative converge pour toute donnée initiale si et seulement si A est inversible et A 1 est non-négative. Définition 4.9 (M-matrice). Une matrice A M n (R) est une M-matrice si elle possède les quatre propriétés suivantes : 1. a ii > 0 pour tout i, 2. a ij 0 pour tout (i, j), i j. 3. A est inversible. 4. A 1 est non négative. Corollaire 4.1 Soit A M n (R) une M-matrice, A = M N une décomposition régulière. Alors la méthode itérative Mu k+1 = Nu k +b converge pour toute donnée initiale vers la solution de Au = b. Définition 4.10 (Matrice à diagonale strictement dominante) La matrice est dite à diagonale strictement dominante si i, 1 i n, a ii > j i a ij. 11

4.5.2 Cas des matrices hermitiennes Théorème 4.15 (Householder-John) Soit A une matrice hermitienne définie positive, A = M N, où M est inversible. Si M + N (qui est toujours hermitienne), est définie positive, la méthode itérative converge pour toute donnée initiale. 4.6 Méthodes classiques Soit A M n (K) une matrice régulière et b K n. Il s agit de résoudre le système Au = b par une méthode itérative, c est-à-dire de créer une suite u k qui converge vers u. On note D = diag(a), E la matrice triangulaire inférieure vérifiant { eij = 0, i j e ij = a ij i > j et F la matrice triangulaire supérieure vérifiant { fij = 0, i j On a alors f ij = a ij i > j... F A = D = D E F. E.. Méthode de Jacobi ( (u k+1 ) i = 1 b i a ii n j=1,j i a ij (u k ) i ) Correspond à la décomposition M = D, N = E + F. i {1,...,n} Théorème 4.16 Si A est à diagonale strictement dominante, l algorithme de Jacobi converge. Méthode de Jacobi par blocs Reprenons l exemple des différences finies en dimension 2. On fait la décomposition T 0 T D =..., E = I 0...... T I 0 M = D, N = E + F. 12

Théorème 4.17 Soit A M(R) une matrice symétrique inversible, décomposée en A = D E E T, où D est diagonale définie positive, et E strictement triangulaire inférieure. Alors l algorithme de Jacobi converge si et seulement si A et 2D A sont définies positives. Méthode de Gauss-Seidel ( (u k+1 ) i = 1 i 1 b i a ij (u k+1 ) a j ii j=1 n j=i+1 Correspond à la décomposition M = D E, N = F. a ij (u k+1 ) j ) i {1,..., n} Méthodes de relaxation u k+1 = ωû k+1 + (1 ω)u k où û k+1 est obtenu à partir de uk par l une des deux méthodes précédentes. Avec la méthode de Jacobi (u k+1 ) i = ω a ii (b i Avec la méthode de Gauss-Seidel n j=1,j i (u k+1 ) i = ω i 1 (b i a ij (u k+1 ) a j ii j=1 a ij (u k ) j ) + (1 ω)(u k ) i i {1,..., n}. n j=i+1 a ij (u k ) j ) + (1 ω)(u k ) i i {1,..., n} Cette méthode de relaxation est appelée méthode S.O.R. (successive over relaxation) Toutes ces méthodes se mettent sous la forme avec Mu k+1 = Nu k + b Jacobi M = D N = E + F Gauss-Seidel M = D E N = F SOR M = 1 ω D E N = 1 ω ω D + F Programmation d une étape de l algorithme de Jacobi : 13

Pour i=1:n S:=B(i) Pour j=1:i-1 S=S-A(i,j)*X(j) Pour j=i+1:n S=S-A(i,j)*X(j) Y(i)=S/A(i,i) Pour i=1:n X(i):=Y(i) Test d arrêt : tant que r (k) > eps, on continue. Exercice 4.1 Ecrire une étape de l algorithme SOR. Il est d usage d affecter les noms suivants aux matrices des méthodes précédentes Jacobi J = D 1 (E + F) SOR L ω = ( 1 ω D E) 1 ( 1 ω ω D + F) Théorème 4.18 Soit A une matrice à diagonale strictement dominante. Si 0 < ω 1, la méthode de relaxation converge. Lemme 4.1 Pour tout ω 0, on a ρ(l ω ) ω 1. On en déduit par le théorème 4.12, Théorème 4.19 Si la méthode de relaxation converge pour toute donnée initiale, on a 0 < ω < 2 Corollaire 4.2 Soit A une matrice hermitienne définie positive. Si ω ]0, 2[, la méthode de relaxation converge pour toute donnée initiale. C est une conséquence du théorème 4.15. 4.7 Cas des matrices tridiagonales, comparaison des méthodes Théorème 4.20 Soit A une matrice tridiagonale. Alors ρ(l 1 ) = (ρ(j)) 2 : les méthodes de Jacobi et Gauss-Seidel convergent ou divergent simultanément. Si elles convergent, la méthode de Gauss-Seidel est la plus rapide. 14

ρ(l ω ) 1 ω 1 1 ω 2 ω Fig. 4.1 variations de ρ(l ω ) en fonction de ω Théorème 4.21 Soit A une matrice tridiagonale telles que les valeurs propres de J soient réelles. Alors les méthodes de Jacobi et de relaxation convergent ou divergent simultanément pour ω ]0, 2[. Si elles convergent, la fonction ω ρ(l ω ) a l allure suivante : avec ω = 2 1 + 1 (ρ(j)) 2. Remarque 4.2 On ne connaît pas précisément ce ω si on ne connaît pas ρ(j). Dans ce cas, le graphe ci-dessus montre que qu il vaut mieux choisir ω trop grand que trop petit. 4.8 Méthode de Richardson On réécrit l itération sous la forme u k+1 = u k + M 1 r k. Si on choisit M 1 = αi, on obtient la méthode de Richardson u k+1 = (I αa)u k + αb. Si A est une matrice symétrique et définie positive, ses valeurs propres λ i (A) sont strictement positives, nous les ordonnons de façon croissante. Théorème 4.22 Soit A une matrice symétrique et définie positive d ordre n. La méthode de Richardson converge si et seulement si α (0, 2/ρ(A)). La convergence est optimale pour α opt = 2 λ 1 +λ n. On a alors ρ(i α opt ) = κ(a) 1 κ(a) + 1. 15

4.9 La matrice du laplacien en dimension 1 On a A n = 2 1 0 1 2 1......... 1 2 1 0 1 2 ρ(j) = 1 π2 2n 2 + O(n 4 ), ρ(l 1 ) = 1 π2 n 2 + O(n 4 ), ω = 2(1 π n + O(n 2 )), ρ(l ω ) = ω 1 == 1 2π n + O(n 2 ). Pour n=100, pour obtenir une erreur de ε = 10 1, on doit faire 9342 itérations de l algorithme de Jacobi, 4671 itérations de l algorithme de Gauss-Seidel, 75 itérations de l algorithme de l algorithme de relaxation optimale. 4.10 Complexité Supposons la matrice A pleine. La complexité d une itération est d environ 2n 2. Si l on fait au moins n itérations, on a donc une complexité totale de 2n 3, à comparer aux 2n 3 /3 de la méthode de Gauss. Exercice 4.2 Calculer le facteur de convergence pour l algorithme de Richardson. Pour résoudre un système linéaire, on préfèrera les méthodes directes dans le cas des matrices pleines, et les méthodes itératives dans le cas des matrices creuses. 16