Méthodes itératives pour la résolution d un système

Documents pareils
Cours d analyse numérique SMI-S4

Résolution d équations non linéaires

3 Approximation de solutions d équations

aux différences est appelé équation aux différences d ordre n en forme normale.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Capes Première épreuve

I. Polynômes de Tchebychev

Résolution de systèmes linéaires par des méthodes directes

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

CCP PSI Mathématiques 1 : un corrigé

NOMBRES COMPLEXES. Exercice 1 :

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Correction de l examen de la première session

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Programmation linéaire

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Chapitre 2. Matrices

Continuité et dérivabilité d une fonction

Sur certaines séries entières particulières

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Équations non linéaires

Texte Agrégation limitée par diffusion interne

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

Chapitre 2 Le problème de l unicité des solutions

Développements limités. Notion de développement limité

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Dérivées d ordres supérieurs. Application à l étude d extrema.

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Limites finies en un point

I. Ensemble de définition d'une fonction

IV- Equations, inéquations dans R, Systèmes d équations

Première partie. Introduction à la méthodes des différences finies

Comparaison de fonctions Développements limités. Chapitre 10

Chp. 4. Minimisation d une fonction d une variable

Dualité dans les espaces de Lebesgue et mesures de Radon finies

DOCM Solutions officielles = n 2 10.

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Théorème du point fixe - Théorème de l inversion locale

Rappels sur les suites - Algorithme

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Chapitre 11. Séries de Fourier. Nous supposons connues les formules donnant les coefficients de Fourier d une fonction 2 - périodique :

Calcul intégral élémentaire en plusieurs variables

Programmation linéaire

Image d un intervalle par une fonction continue

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

F411 - Courbes Paramétrées, Polaires

Corrigé du baccalauréat S Asie 21 juin 2010

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Suites numériques 3. 1 Convergence et limite d une suite

Cours 02 : Problème général de la programmation linéaire

Chapitre 5 : Flot maximal dans un graphe

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Problème 1 : applications du plan affine

C f tracée ci- contre est la représentation graphique d une

Quelques contrôle de Première S

Chapitre 6. Fonction réelle d une variable réelle

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Introduction à l étude des Corps Finis

Angles orientés et fonctions circulaires ( En première S )

Programmation linéaire et Optimisation. Didier Smets

Intégration et probabilités TD1 Espaces mesurés Corrigé

Pour l épreuve d algèbre, les calculatrices sont interdites.

Amphi 3: Espaces complets - Applications linéaires continues

Calcul fonctionnel holomorphe dans les algèbres de Banach

NOTATIONS PRÉLIMINAIRES

Complément d information concernant la fiche de concordance

Algorithmes pour la planification de mouvements en robotique non-holonome

Suites numériques 4. 1 Autres recettes pour calculer les limites

[ édité le 30 avril 2015 Enoncés 1

Cours d Analyse. Fonctions de plusieurs variables

Calcul différentiel sur R n Première partie

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

Optimisation des fonctions de plusieurs variables

LE PRODUIT SCALAIRE ( En première S )

Commun à tous les candidats

Moments des variables aléatoires réelles

Représentation géométrique d un nombre complexe

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Exercices Corrigés Premières notions sur les espaces vectoriels

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Mathématiques appliquées à l'économie et à la Gestion

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Etude de fonctions: procédure et exemple

Dérivation : cours. Dérivation dans R

Chapitre 4: Dérivée d'une fonction et règles de calcul

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Fonctions homographiques

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Mesure d angles et trigonométrie

INTRODUCTION. 1 k 2. k=1

Fonctions de plusieurs variables

Transcription:

Table des matières Méthodes itératives pour la résolution d un système linéaire 3 1 Construction d une méthode itérative 3 Convergence 34 3 Détermination théorique du paramètre de relaxation optimal 37 4 Exercices : chapitre 39 5 Corrigé des exercices : chapitre 41 9

Chapitre Méthodes itératives pour la résolution d un système linéaire Les méthodes d élimination ou de factorisation sont utilisées surtout lorsque l ordre de la matrice est petit ( matrice 1 1 par exemple ) ou lorsque la matrice est pleine ( ie peu de coefficients nuls) Dans la pratique, beaucoup de problèmes nécessitent la résolution d un système Ax = b d ordre assez important, avec, A une matrice creuse (ie beaucoup de coefficients nuls) Des systèmes de ce type sont donnés par exemple par l application de la méthode des différences finies ou la méthode des éléments finis Pour ce genre de problèmes, on utilise les méthodes itératives Etant donné un vecteur initial arbitraire x, on construit une suite de vecteurs x, x 1,, x k, qui converge vers la solution x du système linéaire Ax = b 1 Construction d une méthode itérative On considère le système linéaire Ax = b (11) avec A une matrice carrée d ordre n inversible et b un vecteur de R n Pour toute matrice M carrée d ordre n inversible, le système (11) est équivalent à Mx (M A)x = b (1) ou encore, en posant N = M A, B = M 1 N et c = M 1 b x = Bx + c (13) 3

Ce qui nous permet de définir la méthode itérative : { x R n, vecteur initial x k+1 = Bx k + c (14) Soit x la solution de (11), si on note e k = x k x le kième vecteur erreur, on obtient e k = x k x = (Bx k 1 + c) (Bx + c) = B(x k 1 x) = Be k 1 = B k e (15) On dit que la méthode itérative (14) converge si la suite de vecteurs (e k ) converge vers zéro indépendamment du vecteur initial x, ce qui est équivalent, d après le théorème 3 du chapitre précédent, à l une des deux propositions équivalentes : (1) ρ(b) < 1 () B < 1 pour au moins une norme matricielle REMARQUE 11 Pour chaque choix de la matrice inversible M, on obtient une méthode itérative Le meilleur choix de M doit satisfaire les conditions suivantes : (a) la matrice M est facile à inverser, (b) ρ(b) = ρ(m 1 N) est le plus petit possible Dans la condition (a), on n a pas besoin de l inverse de M, il suffit que le calcul de x k+1 en fonction de x k, en utilisant (1) : Mx k+1 = Nx k + b, soit facile La condition (b) est une conséquence du comportement asymptotique de l erreur e k ; en effet, lim k [ maxe e k / e ] 1/k = lim k [ maxe B k e / e ] 1/k = lim k B k 1/k = ρ(b) la méthode est donc d autant plus rapide que ρ(b) est plus petit (voir théorème 16 du chapitre précédent) On considère la décomposition suivante : a 11 a 1 a 1n A = a 1 an a n1 a nn = D E F, D = diag(a 11, a,, a nn ) E = a 1 a n1 a n,n 1 31

F = a 1 a 1n an 1,n On suppose dans toute la suite que D est inversible et on pose (1) la méthode de Jacobi L = D 1 E, U = D 1 F, M = D, N = E + F, J = M 1 N = L + U le calcul de x k+1 à partir de x k se fait directement par le système a 11 x k+1 1 = a 1 x k a 13 x k 3 a 1n x k n +b 1 a x k+1 = a 1 x k 1 a 3 x k 3 a n x k n +b a nn x k+1 n = a n1 x k 1 a n x k a nn 1 x k n 1 +b n On remarque que la méthode de Jacobi nécessite n mémoires pour le vecteur x k et n mémoires pour le vecteur x k+1 La matrice J s appelle la matrice de Jacobi () la méthode de Gauss-Seidel M = D E, N = F, H = M 1 N = (I L) 1 U le calcul de x k+1 à partir de x k se fait directement par le système a 11 x k+1 1 = a 1 x k a 13 x k 3 a 1n x k n +b 1 a x k+1 = a 1 x k+1 1 a 3 x k 3 a n x k n +b a nn x k+1 n = a n1 x k+1 1 a n x k+1 a n,n 1 x k+1 n 1 +b n la méthode de Gauss-Seidel nécessite seulement n mémoires, la composante x k+1 i prend la place de x k i qui ne sera pas utilisée pour le calcul de xk+1 i+1, xk+1 i+,, xk+1 n (3) la méthode de relaxation, { M = D E, N = 1 D + F, H() = M 1 N = (I L) 1 [(1 )I + U], le calcul de x k+1 à partir de x k se fait directement par le système 3

a 11 x k+1 1 = a 11 x k 1 { a 11 x k 1 +a 1 x k + +a 1n x k n b 1 } a x k+1 = a x k { a 1 x k+1 1 +a x k + +a n x k n b } a nn x k+1 n = a nn x k n { a n1 x k+1 1 + +a n,n 1 xn 1 k+1 +a nn x k n b n } la méthode de relaxation nécessite seulement n mémoires Le paramètre s appelle le paramètre de relaxation et pour = 1 on retrouve la méthode de Gauss-Seidel Exemple : A = 1 1 1 1 1 1 1, b = La matrice de Jacobi J et la matrice de Gauss-Seidel H sont données par : 1 J = 1 1 1 1 1 1 1, H = 1 1 1 1 1 Le système qui donne la suite de la méthode de Jacobi est donné par : x k+1 1 = x k x k 3 + 1 x k+1 = x k 1 x k 3 x k+1 3 = x k 1 x k Le système qui donne la suite de la méthode de Gauss-Seidel est donné par : x k+1 1 = x k x k 3 + 1 x k+1 = x k+1 1 x k 3 x k+1 3 = x k+1 1 x k+1 Pour les deux méthodes, on démarre de x = ( ) T A chaque itération k de la méthode de Jacobi, le vecteur x = (x 1 x x 3 ) T joue le rôle de x k et le vecteur y = (y 1 y y 3 ) T joue le rôle de x k+1 Par exemple, si on veut calculer x 3 : k = : x = ( ) T et y est donné par : 1 y 1 = ( x x 3 + 1)/ = 1/ y = ( x 1 x 3 )/ = y 3 = x 1 x = k = 1 : x = (1/ ) T et y est donné par : y 1 = ( x x 3 + 1)/ = 1/ y = ( x 1 x 3 )/ = 1/4 y 3 = x 1 x = 1/ k = : x = (1/ 1/4 1/) T et y est donné par : y 1 = ( x x 3 + 1)/ = (1/4 1/ + 1)/ = 3/8 y = ( x 1 x 3 )/ = ( 1/ 1/)/ = 1/ y 3 = x 1 x = 1/ + 1/4 = 3/4 33

Ce qui donne : x 3 = 3/8 1/ 3/4 A chaque itération k de la méthode de Gauss-Seidel, le vecteur x = (x 1 x x 3 ) T joue le rôle de x k et au même temps le rôle de x k+1 Par exemple, si on veut calculer x : k = : x = ( ) T et x est donné par : x 1 = ( x x 3 + 1)/ = 1/ x = ( x 1 x 3 )/ = ( 1/ )/ = 1/4 x 3 = x 1 x = 1/ + 1/4 = 3/4 k = 1 : x = (1/ 1/4 3/4) T et x est donné par : x 1 = ( x x 3 + 1)/ = (1/4 3/4 + 1)/ = 1/4 x = ( x 1 x 3 )/ = ( 1/ 3/4)/ = 5/8 x 3 = x 1 x = 1/4 + 5/8 = 7/8 Ce qui donne : x = 1/4 5/8 7/8 On remarque que les itérations de la méthode de Jacobi nécessitent 6 variables : le vecteur x et le vecteur y, donc 6 mémoires et les itérations de la méthode de Gauss-Seidel nécessitent seulement 3 variables : le vecteur x, donc 3 mémoires Convergence Dans le cas d un système Ax = b, avec A une matrice hermitienne définie positive, le théorème suivant donne une condition suffisante pour qu une méthode itérative associée à une décomposition A = M N converge THÉORÈME 1 Soit A une matrice hermitienne définie positive, décomposée sous la forme A = M N, M : matrice inversible Pour que la méthode itérative associée à cette décomposition converge, c est à dire ρ(m 1 N) < 1 il suffit que la matrice hermitienne M + N soit définie positive DÉMONSTRATION : Vérifions d abord que M + N est hermitienne : M + N = A + N + N = A + N + N = M + N Soit λ sp(m 1 N) et soit v tel que M 1 Nv = λv 34

On pose soit encore on a alors : u = M 1 Av = (I M 1 N)v = v λv λv = v u λ v Av = (v u) A(v u) = v Av v Au u Av + u Au = v Av (Av) u u Av + u Au = v Av (Mu) u u Mu + u Au = v Av u (M + M A)u = v Av u (M + N)u d où (1 λ )v Av = u (M + N)u comme v, u et A, M + N sont définies positives, on déduit que λ < 1 COROLLAIRE 1 Soit A une matrice hermitienne définie positive, alors la méthode de relaxation converge pour < < En particulier, la méthode de Gauss-Seidel est convergente lorsque A est hermitienne définie positive DÉMONSTRATION : La matrice A est hermitienne définie positive, d où, les coefficients de la matrice diagonale D sont strictement positifs et E = F D autre part M = D E, N = 1 D + F d où M + N = D donc, pour < <, la matrice hermitienne M + N est définie positive THÉORÈME ( Kahan (1958) ) Le rayon spectral de la matrice de relaxation vérifie pour tout : H() = (I L) 1 {U + (1 )I} ρ(h()) 1 Ce qui montre, en particulier, que la méthode de relaxation ne converge pas pour ], [ DÉMONSTRATION : On a or λ i (H()) = det(h()) = i i det(u + (1 )I) det(i L) λ i (H()) ρ(h()) n = (1 ) n d où ρ(h()) 1 35

DÉFINITION 1 Soit A une matrice carrée et J = L + U la matrice de Jacobi associée à A On pose J(α) = αl + α 1 U On dit que la matrice A est correctement ordonnée si sp(j(α)) est indépendant de α Autrement dit sp(j(α)) = sp(j), α THÉORÈME ( Young (195) ) Soit A une matrice correctement ordonnée et, alors (a) µ sp(j) = µ sp(j) (b) µ sp(j) et (λ + 1) = λ µ, (1) alors λ sp(h()) (c) λ sp(h())) et µ vérifie (1), alors µ sp(j) DÉMONSTRATION : (a) J( 1) = L U = J, d où (b)-(c) Soit λ C, on a : soient α, β C tels que sp(j) = sp(j( 1)) = sp( J) det(λi H()) = det{(i L)(λI H())} = det{(λ + 1)I λl U} α = λ, et β = α/ alors, det(λi H()) = α n (λ + 1) det{ I (βl + β 1 U)} α D autre part, µ est une solution de (1) si et seulement si Donc { λ sp(h()) µ = ± (λ+ 1) α µ = ± (λ + 1) α { det{µi (±βl + (±β) 1 U)} = { µ = ± (λ+ 1) α µ sp(j(±β)) = sp(j) µ = (λ+ 1) λ COROLLAIRE Soit A une matrice correctement ordonnée, alors ρ(h) = (ρ(j)) En particulier, si A est correctement ordonnée la méthode de Gauss-Seidel converge si et seulement si la méthode de Jacobi converge, et si les deux méthodes convergent et ρ(j), alors : < ρ(h) < ρ(j) < 1 36

DÉMONSTRATION : Pour = 1, l équation (1) devient : λ = λµ et d après les propriétés b) et c) du théorème de Young, on a : (a) µ sp(j) = λ = sp(h) et λ = µ sp(h) (b) λ sp(h) = ±µ sp(j) avec µ = λ par conséquent, ρ(j) = si et seulement si ρ(h) = et si ρ(j) alors ρ(h) = (ρ(j)) 3 Détermination théorique du paramètre de relaxation optimal Soit A = D E F une matrice correctement ordonnée, avec D inversible Nous supposons que la méthode de Jacobi est convergente D après le corollaire précédent la méthode de relaxation converge pour = 1, et par continuité, il y a convergence sur un intervalle contenant 1 Le problème que nous voulons résoudre est de déterminer le paramètre de relaxation optimal b tel que : ρ(h( b )) = min ρ(h()) THÉORÈME 31 Soit A une matrice correctement ordonnée, si toutes les valeurs propres de J sont réelles et ρ(j) < 1, alors, la méthode de relaxation converge si seulement si < < ; de plus, on a : ( ) (1) b = 1 + 1 ρ(j) = 1 + ρ(j) 1 + 1 ρ(j) () ρ(h( b )) = b 1 (3) ρ(h()) > ρ(h( b )), b DÉMONSTRATION : On peut limiter l étude à ], [ (voir théorème de Kahan) D après le théorème de Young, les valeurs propres non nulles de J sont des paires ±µ i, avec : µ i ρ(j) et à chaque µ sp(j) correspond une paire de valeurs propres de H() {λ m (, µ), λ M (, µ)} solutions de (1) (on suppose que λ m (, µ) λ M (, µ) ), et à chaque valeur propre non nulle λ H() correspond une valeur propre µ sp(j) telle que λ = λ m (, µ) ou λ = λ M (, µ) D où D après l équation (1) ρ(h()) = max λ M (, µ) µ sp(j) ( 1) = λ m (, µ)λ M (, µ) λ M (, µ) 37

d où et on a : λ M (, µ) 1 λ m (, µ) = λ M (, µ) = 1 dans le cas d une racine double ou dans le cas de deux racines complexes conjuguées D après (1), si λ sp(h()) est réelle, alors, nécessairement λ et on a, pour : λ + 1 = ±µ λ (31) On définit et g (λ) = λ + 1, m µ (λ) = µ λ, µ ρ(j) < 1 Le graphe de g est la droite qui passe par (1, 1) et de pente 1 Géométriquement, les solutions réelles de (1) sont données par l intersection des deux courbes associées à g et m µ : 1 (1,1) m µ (λ) g (λ) λ m (, µ) λ 1 λ M (, µ) g (λ) fig 15 Pour >, les racines de (1) sont complexes conjuguées (car la droite d équation g (λ) ne coupe pas les courbes ±m µ (λ)) Il est clair, d après le graphe ci-dessus, que pour et tout µ sp(j) : { λm (, ρ(j)) < 1, si λ λ M (, µ) = M (, µ) R = 1 < 1, sinon or d où soit encore λ M (, ρ(j)) 1 µ sp(j), λ M (, µ) λ M (, ρ(j)) < 1 ρ(h()) = λ M (, ρ(j)) < 1, 38

ce qui prouve que H() converge pour < < Encore d après le graphe ci-dessus, on a : { λm (, ρ(j)) > λ ρ(h()) = M (, ρ(j)), < 1, D autre part est la valeur de ], [ pour laquelle l équation (λ + 1) = λ (ρ(j)) λ + {( 1) (ρ(j)) }λ + ( 1) = a une racine double, c est à dire : d où {( 1) (ρ(j)) } 4( 1) = (ρ(j)) 4 + 4 = Cette équation admet une racine et une autre égale à : et on a D où Par conséquent = 4 4(ρ(J)) (ρ(j)) = 1 + 1 (ρ(j)) ( ρ(j) = 1 + 1 + 1 ρ(j) ) ρ(h( )) = λ M (, ρ(j)) = 1 = 1 [ ] min ρ(h()) = min ρ(h( )); min 1 = 1 = ρ(h( )) vérifie ce qu il faut pour le théorème b = 4 Exercices : chapitre Exercice 1 1 Calculer dans chacun des cas suivants le rayon spectral de la matrice de la méthode de Jacobi et le rayon spectral de la matrice de la méthode de Gauss- Seidel pour la résolution du système Ax = b A = Que peut-on déduire? 1 1 1 1 1 et A = 1 1 1 1 39

Montrer que si la matrice A est à diagonale dominante stricte : 1 i n, a ii > j i a ij alors la méthode itérative de Jacobi pour la résolution de Ax = b est convergente (on pourra montrer que J < 1) 3 Etudier la convergence de la méthode de relaxation (pour la résolution du système Ax = b) lorsque 1 A = 1 1 1 1 Exercice Soit A = (a ij) une matrice d ordre n telle que a ii pour tout i = 1,, n On rappelle que la matrice de Jacobi J = L + U et la matrice de Gauss-Seidel H = (I L) 1 U avec A = D E F, L = D 1 E et U = D 1 F On dit que la matrice A est correctement ordonnée si : α, sp(j(α)) = sp(j) avec J(α) = αl + α 1 U 1 Calculer la matrice J = (c ij) et la matrice P αjpα 1 = (d ij) en fonction des coefficients de A avec P α = diag(1, α, α,, α n 1 ) Déduire qu une matrice tridiagonale est correctement ordonnée 3 En utilisant un théorème du cours, montrer que si A est tridiagonale alors : sp(h) = {} {µ /µ sp(j)} Exercice 3 Le but de l exercice est d étudier le problème { u (x) = f(x), x ], 1[, u() = u(1) = Soit h = 1 N+1 avec N N Le problème discrétisé correspondant est : étant donné le vecteur F = (f i) 1 i N trouver U = (u i) 1 i N tel que 1 h (u i+1 u i + u i 1) = f i, 1 i N, u = u N+1 = 1 Montrer que le système (1) est équivalent à la résolution de AU = F où on explicitera la matrice A = (a ij) 1 i,j N Calculer les valeurs propres des matrices de Jacobi et Gauss-Seidel pour la résolution de AU = F en fonction de celles de A (On pourra utiliser un exercice du chapitre précédent) 3 Comparer ces deux méthodes 4 Donner le paramètre optimal de relaxation pour la matrice L (1) 4

Exercice 4 Partie I : Dans cette partie, on se propose de prouver quelques propriétés utiles pour la partie II Soient K et M deux matrices carrées d ordre n On suppose que K et M sont symétriques et (I + K) inversible, I étant la matrice identité d ordre n 1 Montrer que ρ(k) = K On rappelle que ρ(l) L pour toute matrice L et toute norme matricielle En utilisant 1), montrer que : 3 Montrer que (a) λ sp(k) λ 1 et (b) β sp(k(i + K) 1 ) β 1 et ρ(km) ρ(k)ρ(m) λ 1+λ sp(k(i + K) 1 ), β 1 β sp(k) 4 Montrer que : ρ(k(i + K) 1 ) < 1 1 I + K est définie positive Partie II : Soit A une matrice carrée d ordre n symétrique Cette partie est consacrée à l étude d une méthode itérative de résolution du système linéaire Ax = b On introduit la décomposition A = D + H + V où D = ci, c > et où H et V sont deux matrices symétriques telles que les deux matrices D+H et D+V soient inversibles On considère la méthode itérative suivante : (D + H)x (k+ 1 ) = V x (k) + b (1) (D + V )x (k+1) = Hx (k+ 1 ) + b 1 Exprimer x (k+1) en fonction de x (k) En déduire lim k x(k) = x ρ((d + V ) 1 H(D + H) 1 )V ) < 1 On pose B = D 1 H, C = D 1 V (a) Montrer que ρ((d + V ) 1 H(D + H) 1 V ) = ρ(b(i + B) 1 C(I + C) 1 ) (b) Montrer que les matrices B(I + B) 1 et C(I + C) 1 sont des matrices symétriques (On pourra utiliser, après justification, que B(I + B) 1 = I (I + B) 1 ) (c) En déduire que ρ((d+v ) 1 H(D+H) 1 V ) ρ(b(i +B) 1 )ρ(c(i +C) 1 ) 3 Montrer que la méthode itérative (1) converge dès que 1 D + H et 1 D + V sont définies positives 5 Corrigé des exercices : chapitre Réponse 1 1 a) A = 1 1 1 1 1 : Jacobi : M = D = I,N = E + F = 1 1 et 41

J = M 1 N = 1 1 det(λi J) = λ 3 = sp(j) = {} = ρ(j) = 1 Gauss-Seidel : M = D E = 1 1, N = 1 et 1 H = M 1 N = 3 1 sp(h) = {,, 1} = ρ(h) = Conclusion : la méthode de Jacobi converge et la méthode de Gauss-Seidel diverge 1 1 b)a = : 1 1 Jacobi : M = D = I, 1 1 1 1 N = E + F = et J = M 1 N = 1 1 1 1 1 det(λi J) = λ 3 + 5λ = sp(j) = {, ± 5} = ρ(j) = 5 Gauss-Seidel : M = D E =, 1 1 1 1 5 5 N = et H = M 1 N = 5 5 5 sp(h) = {, ±5} = ρ(h) = 5 Conclusion : la méthode de Jacobi diverge et la méthode de Gauss-Seidel converge La matrice de Jacobi est égale à : a 1 a 1n d où, 3 A = I J = M 1 N = 1 J a 1 a a 11 a 3 a 13 a n1 a nn a 11 a a 11 a n a a n 1n a n 1n 1 a nn 1 a nn = max n i j=1,j i a ij a ii 1 = max n i a ii j=1,j i aij < 1 1 = D E F, d où : H() = ( D E) 1 ( 1 I + F ) 1 1 = 1 1 1 = 1 1 (1 ) 1 1 1 1 1 ce qui donne sp(h()) = {1 }, soit ρ(h()) = 1 Par conséquent, la méthode de relaxation converge pour ], [ 4

Réponse 1 D 1 E = a 1 a a 31 a 33 a 3 a n1 a nn a 33 a n a nn a nn 1 a nn a 1 a 11 a 13 a 11 a 1n a 11 a 3 a a n a D 1 F = a n 1n a n 1n 1 J = D 1 E + D 1 F = (c ij), d où : { si i = j c ij = a ij a ii si i j Si on note par d ij les coefficients de la matrice P αjp 1 α, on obtient : d ij = e T i P αjpα 1 e j = e T i P αjα 1 j e j = α 1 j e T i P n α k=1 c kje k = α 1 j e T n i k=1 αk 1 c kj e k = α 1 j α i 1 c ij = α i j c ij d où : { si i = j d ij = α i j a ij a ii si i j Si A est tridiagonale, les coefficients non nuls de A situés sur la diagonale a ij avec i j =, la sous-diagonale a ij avec i j = 1 et la sur-diagonale a ij avec i j = 1 D autre part, les coefficients non nuls de la matrice E sont les coefficients de la sousdiagonale et les coefficients non nuls de F sont les coefficients de la sur-diagonale Ce qui donne que : P α JPα 1 = αl + α 1 U = J(α) Donc, J(α) et J sont semblables et par conséquent, elles ont le même spectre 3 D après un théorème du cours, les valeurs propres {λ sp(h)} et les valeurs propres {µ sp(j)} sont liées par la relation suivante : λ = λµ car = 1 D où, chaque valeur propre µ sp(j) est associée à deux valeurs propres de H : λ = et λ = µ D autre part, det(h) = det(i L) 1 det(u) =, donc λ = est une valeur propre de H, ce qui donne : sp(h) = {} {µ, µ sp(j)} 43

Réponse 3 1 1 h ce qui donne le système AU = F avec : A = 1 h u 1 +u = f 1 u 1 u +u 3 = f u k 1 u k +u k+1 = f k u N 1 u N = f N 1 1 1 1 1 1 1 et F = f 1 f f 3 f N A = D E F avec D = I, h 1 1 E = 1 h 1 et F = 1 h 1 1 1 1 d où : J = D 1 E + D 1 F = 1 1 1 1 1 1 1 1 J est donc tridiagonale D après un exercice du chapitre précédent : sp(j) = {cos( kπ ); k = 1,, n} n + 1 ce qui donne ρ(j) = cos( π ) D après l exercice précédent : n+1 sp(h) = {} {cos ( kπ ); k = 1,, n} n + 1 Ce qui donne : ρ(h) = cos ( π n+1 ) 3 Les deux méthodes sont convergentes et la convergence de la méthode de Gauss- Seidel est plus rapide que la convergence de la méthode de Jacobi car ρ(h) = ρ(j) < ρ(j) < 1 4 D après un théorème du cours : Réponse 4 optim = 1 + 1 ρ(j) = 1 + sin( π n+1 ) 44

Partie I : 1 K = ρ(k K), comme K est symétrique, d après un théorème du cours : Uunitaire/K = U diag(λ i)u avec sp(k) = {λ i} D où, K K = U diag( λ i )U, ce qui prouve que : ρ(k K) = max i λ i = (max λ i i ) = ρ(k) ρ(km) KM K M = ρ(k)ρ(m), car K et M sont des matrices symétriques 3a) λ sp(k) alors, il existe u vecteur propre de K associé à λ tel que : Ku = λu Comme I + K est inversible, alors λ 1 (sinon (I + K)u = et u ) D autre part : Ku = λu = (I + K)u = (λ + 1)u = u = (λ + 1)(I + K) 1 u = Ku = (λ + 1)K(I + K) 1 u = λu = (λ + 1)K(I + K) 1 u = K(I + K) 1 u = λ 1+λ u = λ sp(k(i + 1+λ K) 1 ) b) β sp(k(i + K) 1 ) alors, il existe v vecteur propre de K(I + K) 1 associé à β tel que : K(I + K) 1 v = βv Comme v, alors u = (I + K) 1 v et on a v = (I + K)u, d où : K(I + K) 1 v = βv = Ku = β(i + K)u = (1 β)ku = βu ce qui montre que β 1 et on a : ce qui donne : Ku = β 1 β u β 1 β sp(k) 4 1 I + K est symétrique et elle est définie positive si et seulement si : sp( 1 I + K) ], + [ Supposons que ρ(k(i + K) 1 ) < 1 Soit γ sp( 1 I + K), alors, il existe w tel que : ( 1 I + K)w = γw ce qui donne K = (γ 1 )w, donc, λ = γ 1 sp(k) D après a), λ = γ 1 1 et on a : γ 1 1 + γ 1 = γ 1 γ + 1 sp(k(i + K) 1 ) Or ρ(k(i + K) 1 ) < 1, d où : γ 1 γ + 1 1 = γ 1 γ + 1 = γ + 1 1 < 1 45

ce qui donne : 1 < 1 γ + 1 1 < 1 d où : 1 < γ + 1, ou encore : γ > Supposons que 1 I + K est définie positive Soit β sp(k(i + K) 1 ) D après b) : d où 1 + β β 1et 1 β sp(k) β sp( 1 I + K) Par conséquent : 1 β 1 + β 1 β = 1 + β (1 β) > ou encore : 1 + β 1 β > ce qui donne {1 + β > et 1 β > } ou {1 + β < et 1 β < } La première possibilité donne 1 < β < 1 et la deuxième est impossible, d où, ce qu il faut Partie II 1 De la première équation, on a : La deuxième équation devient alors : x (k+ 1 ) = (D + H) 1 V x (k) + (D + H) 1 b x (k+1) = (D + V ) 1 H(D + H) 1 V x (k) (D + V ) 1 H(D + H) 1 b + b ce qui donne une méthode itérative de matrice (D + V ) 1 H(D + H) 1 V, donc, la convergence de la suite (x k ) est équivalente à ρ((d + V ) 1 H(D + H) 1 V ) < 1 a) On a : (D + V ) 1 H(D + H) 1 V = (I + D 1 V ) 1 D 1 H(I + D 1 H) 1 D 1 V = (I + C) 1 B(I + B) 1 C = (I + C) 1 B(I + B) 1 C(I + C) 1 (I + C) d où, la matrice (D + V ) 1 H(D + H) 1 V est semblable à B(I + B) 1 C(I + C) 1, donc, elles ont le même spectre et par conséquent le même rayon spectral b) B(I + B) 1 = (B + I I)(I + B) 1 = (B + I)(I + B) 1 I(I + B) 1 = I (I + B) 1 et il est clair que I (I+B) 1 est une matrice symétrique Même chose pour C(I+C) 1 c) On a : ρ((d + V ) 1 H(D + H) 1 V ) = ρ(b(i + B) 1 C(I + C) 1 ) Comme B(I + B) 1 et C(I + C) 1 sont deux matrices symétriques, d après la partie I : ρ(b(i + B) 1 C(I + C) 1 ) ρ(b(i + B) 1 )ρ(c(i + C) 1 ) 3 D après la partie I question 4 ρ(b(i + B) 1 ) < 1 si et seulement si 1 I + B = D 1 ( 1 D + H) est définie positive ce qui est encore équivalent à 1 D + H est une matrice définie positive car D = ci avec c > On montre de même que : 1 D + V est définie positive si et seulement si ρ(c(i + C) 1 ) < 1 Par conséquent, 1 D + H et 1 D + V sont définies positives nous donne que ρ(b(i + B) 1 )ρ(c(i + C) 1 ) < 1, ce qui donne, d après a) : ρ((d + V ) 1 H(D + H) 1 V ) < 1 D où, d après 1, la convergence de la méthode itérative (1) 46