Université Aix Marseille. Licence de mathématiques. Cours d Analyse numérique



Documents pareils
Résolution de systèmes linéaires par des méthodes directes

Cours d analyse numérique SMI-S4

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

3 Approximation de solutions d équations

Chapitre 2. Matrices

Limites finies en un point

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Simulation de variables aléatoires

Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables

Cours 02 : Problème général de la programmation linéaire

Résolution d équations non linéaires

Capes Première épreuve

Probabilités sur un univers fini

Image d un intervalle par une fonction continue

Théorème du point fixe - Théorème de l inversion locale

3. Conditionnement P (B)

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Amphi 3: Espaces complets - Applications linéaires continues

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Correction de l examen de la première session

Le produit semi-direct

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Calcul différentiel sur R n Première partie

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

CCP PSI Mathématiques 1 : un corrigé

I. Polynômes de Tchebychev

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Intégration et probabilités TD1 Espaces mesurés Corrigé

Moments des variables aléatoires réelles

Programmation linéaire et Optimisation. Didier Smets

Structures algébriques

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Exercices Corrigés Premières notions sur les espaces vectoriels

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Programmes des classes préparatoires aux Grandes Ecoles

Licence Sciences et Technologies Examen janvier 2010

Approximations variationelles des EDP Notes du Cours de M2

Polynômes à plusieurs variables. Résultant

Programmation linéaire

Fonctions de plusieurs variables

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Probabilités sur un univers fini

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Calcul différentiel. Chapitre Différentiabilité

Problème 1 : applications du plan affine

Continuité en un point

Chp. 4. Minimisation d une fonction d une variable

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

IV- Equations, inéquations dans R, Systèmes d équations

Algorithmes pour la planification de mouvements en robotique non-holonome

Continuité et dérivabilité d une fonction

Développement décimal d un réel

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Différentiabilité ; Fonctions de plusieurs variables réelles

Sur certaines séries entières particulières

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

Feuille d exercices 2 : Espaces probabilisés

Continuité d une fonction de plusieurs variables

Optimisation des fonctions de plusieurs variables

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Raisonnement par récurrence Suites numériques

Géométrie dans l espace Produit scalaire et équations

Programmation linéaire

DOCM Solutions officielles = n 2 10.

Calcul fonctionnel holomorphe dans les algèbres de Banach

[ édité le 30 avril 2015 Enoncés 1

Chapitre 2 Le problème de l unicité des solutions

Pour l épreuve d algèbre, les calculatrices sont interdites.

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

2.4 Représentation graphique, tableau de Karnaugh

Complément d information concernant la fiche de concordance

Eteindre. les. lumières MATH EN JEAN Mme BACHOC. Elèves de seconde, première et terminale scientifiques :

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Optimisation Discrète

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Représentation géométrique d un nombre complexe

Comment démontrer des formules sans effort? exposé de maîtrise

Première partie. Introduction à la méthodes des différences finies

LE PRODUIT SCALAIRE ( En première S )

Introduction à l étude des Corps Finis

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Chapitre VI - Méthodes de factorisation

Mathématiques appliquées à l'économie et à la Gestion

Transcription:

Université Aix Marseille Licence de mathématiques Cours d Analyse numérique Raphaèle Herbin 22 mai 206

Table des matières Systèmes linéaires 4. Objectifs................................................ 4.2 Pourquoi et comment?........................................ 4.2. Quelques rappels d algèbre linéaire............................. 4.2.2 Discrétisation de l équation de la chaleur.......................... 0.2.3 Exercices........................................... 4.2.4 Suggestions pour les exercices................................ 9.2.5 Corrigés des exercices.................................... 9.3 Les méthodes directes......................................... 28.3. Définition........................................... 28.3.2 Méthode de Gauss, méthode LU............................... 28.3.3 Méthode de Choleski..................................... 37.3.4 Quelques propriétés..................................... 43.3.5 Exercices........................................... 44.3.6 Suggestions.......................................... 48.3.7 Corrigés............................................ 48.4 Normes et conditionnement d une matrice.............................. 6.4. Normes, rayon spectral.................................... 6.4.2 Le problème des erreurs d arrondis............................. 66.4.3 Conditionnement et majoration de l erreur d arrondi.................... 67.4.4 Discrétisation d équations différentielles, conditionnement efficace........... 70.4.5 Exercices........................................... 7.4.6 Suggestions pour les exercices................................ 77.4.7 Corrigés............................................ 78.5 Méthodes itératives.......................................... 93.5. Définition et propriétés.................................... 93.5.2 Quelques exemples de méthodes itératives.......................... 95.5.3 Les méthodes par blocs.................................... 0.5.4 Exercices, énoncés...................................... 04.5.5 Exercices, suggestions.................................... 2.5.6 Exercices, corrigés...................................... 3.6 Valeurs propres et vecteurs propres.................................. 3.6. Méthode de la puissance et de la puissance inverse..................... 3.6.2 Méthode QR......................................... 32.6.3 Exercices........................................... 33.6.4 Suggestions.......................................... 37.6.5 Corrigés............................................ 37

TABLE DES MATIÈRES TABLE DES MATIÈRES 2 Systèmes non linéaires 42 2. Rappels et notations de calcul différentiel.............................. 42 2.2 Les méthodes de point fixe...................................... 45 2.2. Point fixe de contraction................................... 45 2.2.2 Point fixe de monotonie................................... 49 2.2.3 Vitesse de convergence.................................... 5 2.2.4 Méthode de Newton dans IR................................ 53 2.2.5 Exercices........................................... 54 2.3 Méthode de Newton dans IR n.................................... 62 2.3. Construction et convergence de la méthode......................... 62 2.3.2 Variantes de la méthode de Newton............................. 64 2.3.3 Exercices........................................... 67 3 Optimisation 20 3. Définitions et rappels......................................... 20 3.. Extrema, points critiques et points selle............................ 20 3..2 Convexité........................................... 202 3..3 Exercices........................................... 204 3.2 Optimisation sans contrainte..................................... 207 3.2. Définition et condition d optimalité............................. 207 3.2.2 Résultats d existence et d unicité............................... 207 3.2.3 Exercices........................................... 20 3.3 Algorithmes d optimisation sans contrainte............................. 28 3.3. Méthodes de descente.................................... 28 3.3.2 Algorithme du gradient conjugué.............................. 22 3.3.3 Méthodes de Newton et Quasi Newton........................... 225 3.3.4 Résumé sur les méthodes d optimisation........................... 228 3.3.5 Exercices........................................... 228 3.4 Optimisation sous contraintes..................................... 253 3.4. Définitions.......................................... 253 3.4.2 Existence Unicité Conditions d optimalité simple.................... 253 3.4.3 Conditions d optimalité dans le cas de contraintes égalité.................. 255 3.4.4 Contraintes inégalités..................................... 257 3.4.5 Exercices........................................... 258 3.5 Algorithmes d optimisation sous contraintes............................. 263 3.5. Méthodes de gradient avec projection............................ 263 3.5.2 Méthodes de dualité..................................... 265 3.5.3 Exercices........................................... 267 3.5.4 Corrigés............................................ 270 4 Equations différentielles 273 4. Introduction.............................................. 273 4.2 Consistance, stabilité et convergence................................. 276 4.3 Théorème général de convergence.................................. 278 4.4 Exemples............................................... 280 4.5 Explicite ou implicite?........................................ 28 4.5. L implicite gagne......................................... 28 4.5.2 L implicite perd.......................................... 282 4.5.3 Match nul........................................... 282 4.6 Etude du schéma d Euler implicite.................................. 282 4.7 Exercices............................................... 284 4.8 Corrigés................................................ 29 Analyse numérique I, télé-enseignement, L3 2 Université d Aix-Marseille, R. Herbin, 22 mai 206

Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de la modélisation de problèmes réels", et dont on cherche à calculer la solution à l aide d un ordinateur. Le cours est structuré en quatre grands chapitres : Systèmes linéaires Systèmes non linéaires Optimisation Equations différentielles. On pourra consulter les ouvrages suivants pour ces différentes parties (ceci est une liste non exhaustive!) : A. Quarteroni, R. Sacco et F. Saleri, Méthodes Numériques : Algorithmes, Analyse et Applications, Springer 2006. P.G. Ciarlet, Introduction à l analyse numérique et à l optimisation, Masson, 982, (pour les chapitre à 3 de ce polycopié). M. Crouzeix, A.L. Mignot, Analyse numérique des équations différentielles, Collection mathématiques appliquées pour la maitrise, Masson, (pour le chapitre 4 de ce polycopié). J.P. Demailly, Analyse numérique et équations différentielles Collection Grenoble sciences Presses Universitaires de Grenoble L. Dumas, Modélisation à l oral de l agrégation, calcul scientifique, Collection CAPES/Agrégation, Ellipses, 999. E. Hairer, polycopié du cours "Analyse Numérique", http ://www.unige.ch/ hairer/polycop.html J. Hubbard, B. West, Equations différentielles et systèmes dynamiques, Cassini. J. Hubbard et F. Hubert, Calcul Scientifique, Vuibert. P. Lascaux et R. Théodor, Analyse numérique matricielle appliquée à l art de l ingénieur, tomes et 2, Masson, 987 L. Sainsaulieu, Calcul scientifique cours et exercices corrigés pour le 2ème cycle et les éécoles d ingénieurs, Enseignement des mathématiques, Masson, 996. M. Schatzman, Analyse numérique, cours et exercices, (chapitres,2 et 4). D. Serre, Les matrices, Masson, (2000). (chapitres,2 et 4). P. Lascaux et R. Theodor, Analyse numérique sappliquée aux sciences de l ingénieur, Paris, (994) R. Temam, Analyse numérique, Collection SUP le mathématicien, Presses Universitaires de France, 970. Et pour les anglophiles... M. Braun, Differential Equations and their applications, Springer, New York, 984 (chapitre 4). G. Dahlquist and A. Björck, Numerical Methods, Prentice Hall, Series in Automatic Computation, 974, Englewood Cliffs, NJ. 3

TABLE DES MATIÈRES TABLE DES MATIÈRES R. Fletcher, Practical methods of optimization, J. Wiley, New York, 980 (chapitre 3). G. Golub and C. Van Loan, Matrix computations, The John Hopkins University Press, Baltimore (chapitre ). R.S. Varga, Matrix iterative analysis, Prentice Hall, Englewood Cliffs, NJ 962. Pour des rappels d algègre linéaire : Poly d algèbre linéaire de première année, P. Bousquet, R. Herbin et F. Hubert, http ://www.cmi.univmrs.fr/ herbin/publi/lalg.pdf Introduction to linear algebra, Gilbert Strang, Wellesley Cambridge Press, 2008 Analyse numérique I, télé-enseignement, L3 4 Université d Aix-Marseille, R. Herbin, 22 mai 206

Chapitre Systèmes linéaires. Objectifs On note M n (IR) l ensemble des matrices carrées d ordre n. Soit A M n (IR) une matrice inversible et b IR n, on a comme objectif de résoudre le système linéaire Ax = b, c est-à-dire de trouver x solution de : { x IR n (.) Ax = b Comme A est inversible, il existe un unique vecteur x IR n solution de (.). Nous allons étudier dans les deux paragraphes suivants des méthodes de calcul de ce vecteur x : la première partie de ce chapitre sera consacrée aux méthodes directes et la deuxième aux méthodes itératives. Nous aborderons ensuite en troisième partie les méthodes de résolution de problèmes aux valeurs propres. Un des points essentiels dans l efficacité des méthodes envisagées concerne la taille des systèmes à résoudre. La taille de la mémoire des ordinateurs a augmenté de façon drastique de 980 à nos jours. Le développement des méthodes de résolution de systèmes linéaires est liée à l évolution des machines informatiques. C est un domaine de recherche très actif que de concevoir des méthodes qui permettent de profiter au mieux de l architecture des machines (méthodes de décomposition en sous domaines pour profiter des architectures parallèles, par exemple). Dans la suite de ce chapitre, nous verrons deux types de méthodes pour résoudre les systèmes linéaires : les méthodes directes et les méthodes itératives. Pour faciliter la compréhension de leur étude, nous commençons par quelques rappels d algèbre linéaire..2 Pourquoi et comment? Nous donnons dans ce paragraphe un exemple de problème dont la résolution numérique recquiert la résolution d un système linéaire, et qui nous permet d introduire des matrices que nous allons beaucoup étudier par la suite. Nous commençons par donner ci-après après quelques rappels succincts d algèbre linéaire, outil fondamental pour la résolution de ces systèmes linéaires..2. Quelques rappels d algèbre linéaire Quelques notions de base Ce paragraphe rappelle des notions fondamentales que vous devriez connaître à l issue du cours d algèbre linéaire de première année. On va commencer par revisiter le produit matriciel, dont la vision combinaison linéaire de lignes est fondamentale pour bien comprendre la forme matricielle de la procédure d élimination de Gauss. 5

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES Soient A et B deux matrices carrées d ordre n, et M = AB. Prenons comme exemple d illustration [ ] [ ] [ ] 2 0 5 4 A =, B = et M = 0 3 2 3 2 On note a i,j, b i,j et m i,j, i, j =,... n les coefficients respectifs de A, B et M. Vous savez bien sûr que m i,j = n a i,k b k,j. (.2) Si on écrit les matrices A et B sous forme de lignes (notées l i ) et colonnes (notées c j ) : A = l (A)... et B = [ c (B)... l n (B) ] l n (A) Dans nos exemples, on a donc L expression (.2) s écrit encore k= l (A) = [ 2 ], l 2 (A) = [ 0 ], c (B) = m i,j = l i (A)c j (B), [ ] [ 0 c 3 2 (B) =. 2] qui est le produit d une matrice n par une matrice n, qu on peut aussi écrire sous forme d un produit scalaire : m i,j = (l i (A)) t c j (B) où (l i (A)) t désigne la matrice transposée, qui est donc maintenant une matrice n qu on peut identifier à un vecteur de IR n. C est la technique habituelle de calcul du produit de deux matrices. On a dans notre exemple : m,2 = l (A) c 2 (B) = [ 2 ] [ ] 0. 2 [ [ = (l i (A)) t 0 c j (B) = 2] 2] = 4. Mais de l expression (.2), on peut aussi avoir l expression des lignes et des colonnes de M = AB en fonction des lignes de B ou des colonnes de A : Dans notre exemple, on a donc : l i (AB) = c j (AB) = n a i,k l k (B) (.3) k= n b k,j c k (A) (.4) k= l (AB) = [ 0 ] + 2 [ 3 2 ] = [ 5 4 ] ce qui montre que la ligne de AB est combinaison linéaire des lignes de B. Le colonnes de AB, par contre, sont des combinaisons linéaires de colonnes de A. Par exemple : [ [ [ 2 4 c 2 (AB) = 0 + 2 = 0] ] 2] Il faut donc retenir que dans un produit matriciel AB, Analyse numérique I, télé-enseignement, L3 6 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES les colonnes de AB sont des combinaisons linéaires des colonnes de A les lignes de AB sont des combinaisons linéaires des lignes de B. Cette remarque est très importante pour la représentation matricielle de l élimination de Gauss : lorqu on calcule des systèmes équivalents, on effectue des combinaisons linéaires de lignes, et donc on multiplie à gauche par une matrice d élimination. Le tableau ci-dessous est la traduction littérale de Linear algebra in a nutshell, par Gilbert Strang Pour une matrice carrée A, on donne les caractérisations du fait qu elle est inversible ou non. A inversible A non inversible Les vecteurs colonne sont indépendants Les vecteurs colonne sont liés Les vecteurs ligne sont indépendants Les vecteurs ligne sont liés Le déterminant est non nul Le déterminant est nul Ax = 0 a une unique solution x = 0 Ax = 0 a une infinité de solutions. Le noyau de A est réduit à {0} Le noyau de A contient au moins un vecteur non nul. Ax = b a une solution unique x = A b Ax = b a soit aucune solution, soit une infinité. A a n (nonzero) pivots A a r < n pivots A est de rang maximal : rg(a) = n. rg(a) = r < n La forme totatement échelonnée R de A est la matrice identité R a au moins une ligne de zéros. L image de A est tout IR n. L image de A est strictement incluse dans IR n. L espace L(A) engendré par les lignes de A est tout IR n. L(A) est de dimension r < n Toutes les valeurs propres de A sont non nulles Zéro est valeur propre de A. A t A is symétrique définie positive 2 A t A n est que semi- définie. TABLE.: Extrait de Linear algebra in a nutshell, G. Strang On rappelle pour une bonne lecture de ce tableau les quelques définitions suivantes : Définition. (Pivot). Soit A M n (IR) une matrice carrée d ordre n. On appelle pivot de A le premier élément non nul de chaque ligne dans la forme échelonnée de A obtenue par élimination de Gauss. Si la matrice est inversible, elle a donc n pivots (non nuls). Définition.2 (Valeurs propres). Soit A M n (IR) une matrice carrée d ordre n. On appelle valeur propre de A tout λ Cl tel qu il existe x Cl n, x 0 tel que Ax = λx. L élément x est appelé vecteur propre de A associé à λ. Définition.3 (Déterminant). Il existe une unique application, notée det de M n (IR) dans IR qui vérifie les propriétés suivantes (D) Le déterminant de la matrice identité est égal à. (D2) Si la matrice à est obtenue à partir de A par échange de deux lignes, alors detã = deta.. Voir la page web de Strang www.mit.edu/~gs pour une foule d informations et de cours sur l algèbre linéaire. Analyse numérique I, télé-enseignement, L3 7 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES (D3) Le déterminant est une fonction linéaire de chacune des lignes de la matrice A. (D3a) (multiplication par un scalaire) si à est obtenue à partir de A en multipliant tous les coefficients d une ligne par λ IR, alors det(ã) = λdet(a). l (A) l (A) l (A)... (D3b) (addition) si A = l k (A), à = lk (A) et B = l k (A) + l k (A), alors..... l n (A) l n (A) l n (A) det(b) = det(a) + det(ã). On peut déduire de ces trois propriétés fondamentales un grand nombre de propriétés importantes, en particulier le fait que det(ab) = deta detb et que le déterminant d une matrice inversible est le produit des pivots : c est de cette manière qu on le calcule sur les ordinateurs. En particulier on n utilise jamais la formule de Cramer, beaucoup trop coûteuse en termes de nombre d opérations. On rappelle que si A M n (IR) une matrice carrée d ordre n, les valeurs propres sont les racines du polynôme caractéristique P A de degré n, qui s écrit : P A (λ) = det(a λi). Matrices diagonalisables Un point important de l algèbre linéaire, appelé réduction des endomorphismes dans les programmes français, consiste à se demander s il existe une base de l espace dans laquelle la matrice de l application linéaire est diagonale ou tout au moins triangulaire (on dit aussi trigonale). Définition.4 (Matrice diagonalisable dans IR). Soit A une matrice réelle carrée d ordre n. On dit que A est diagonalisable dans IR s il existe une base (u,..., u n ) de IR n et des réels λ,..., λ n (pas forcément distincts) tels que Au i = λ i u i pour i =,..., n. Les réels λ,..., λ n sont les valeurs propres de A, et les vecteurs u,..., u n sont des vecteurs propres associés. Vous connaissez sûrement aussi la diagonalisation dans Cl : une matrice réelle carrée d ordre n admet toujours n valeurs propres dans Cl, qui ne sont pas forcément distinctes. Une matrice est diagonalisable dans Cl s il existe une base (u,..., u n ) de Cl n et des nombres complexes λ,..., λ n (pas forcément distincts) tels que Au i = λ i u i pour i =,..., n. Ceci est vérifié si la dimension de chaque sous espace propre E i = Ker(A λ i Id) (appelée multiplicité géométrique) est égale a la multiplicité algébrique de λ i, c est-à-dire son ordre de multiplicité en tant que racine du polynôme caractéristique. [ ] 0 0 Par exemple la matrice A = n est pas diagonalisable dans Cl (ni évidemment, dans IR). Le polynôme 0 caractéristique de A est P A (λ) = λ 2, l unique valeur propre est donc 0, qui est de multiplicité algébrique 2, et de multiplicité géométrique, car le sous espace propre associé à la valeur propre nulle est F = {x IR 2 ; Ax = 0} = {x = (0, t), t IR}, qui est de dimension. Ici et dans toute la suite, comme on résout des systèmes linéaires réels, on préfère travailler avec la diagonalisation dans IR ; cependant il y a des cas où la diagonalisation dans Cl est utile et même nécessaire (étude de stabilité des Analyse numérique I, télé-enseignement, L3 8 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES systèmes diférentiels, par exemple). Par souci de clarté, nous préciserons toujours si la diagonalisation considérée est dans IR ou dans Cl. Lemme.5. Soit A une matrice réelle carrée d ordre n, diagonalisable dans IR. Alors A = P diag(λ,..., λ n )P, où P est la matrice dont les vecteurs colonnes sont égaux à des vecteurs propres u,..., u n associées aux valeurs propres λ,..., λ n. DÉMONSTRATION Par définition d un vecteur propre, on a Au i = λ iu i pour i =,... n, et donc, en notant P la matrice dont les colonnes sont les vecteurs propres u [ i, ] [ ] Au... Au n = A u... u n = AP et donc λ 0... 0 AP = [ ] [ ]. 0 λ..... 2 λ u... λ nu n = u... u n........ = P diag(λ,..., λn)... 0... 0 λ n Notons que dans ce calcul, on a fortement utilisé la multiplication des matrices par colonnes, c.à.d. n c i(ab) = a i,jc j(b). j= Remarquons que P lest aussi la matrice définie (de manière unique) par P e i = u i, où (e i) i=,...,n est la base canonique de IR n, c est-à-dire que (e i) j = δ i,j. La matrice P est appelée matrice de passage de la base (e i) i=,...,n à la base (u i) i=,...,n ; (il est bien clair que la i-ème colonne de P est constituée des composantes de u i dans la base canonique (e,..., e n). La matrice P est inversible car les vecteurs propres forment une base, et on peut donc aussi écrire : P AP = diag(λ,..., λ n) ou A = P diag(λ,..., λ n)p. La diagonalisation des matrices réelles symétriques est un outil qu on utilisera souvent dans la suite, en particulier dans les exercices. Il s agit d un résultat extrêmement important. Lemme.6 (Une matrice symétrique est diagonalisable dans IR). Soit E un espace vectoriel sur IR de dimension finie : dime = n, n IN, muni d un produit scalaire i.e. d une application E E IR, (x, y) (x y) E, qui vérifie : x E, (x x) E 0 et (x x) E = 0 x = 0, (x, y) E 2, (x y) E = (y x) E, y E, l application de E dans IR, définie par x (x y) E est linéaire. Ce produit scalaire induit une norme sur E, x = (x x) E. Soit T une application linéaire de E dans E. On suppose que T est symétrique, c.à.d. que (T (x) y) E = (x T (y)) E, (x, y) E 2. Alors il existe une base orthonormée (f,..., f n ) de E (c.à.d. telle que (f i f j ) E = δ i,j ) et λ,..., λ n dans IR tels que T (f i ) = λ i f i pour tout i {... n}. Analyse numérique I, télé-enseignement, L3 9 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES Conséquence immédiate : Dans le cas où E = IR n, le produit scalaire canonique de x = (x,..., x n ) t et y = (y,..., y n ) t est défini par (x y) E = x y = n i= x iy i. Si A M n (IR) est une matrice symétrique, alors l application T définie de E dans E par : T (x) = Ax est linéaire, et : (T x y) = Ax y = x A t y = x Ay = (x T y). Donc T est linéaire symétrique. Par le lemme précédent, il existe (f,..., f n ) et (λ... λ n ) IR tels que T f i = Af i = λ i f i i {,..., n} et f i f j = δ i,j, (i, j) {,..., n} 2. Interprétation algébrique : Il existe une matrice de passage P de (e,..., e n ) base canonique dans (f,..., f n ) dont la i-ieme colonne de P est constituée des coordonnées de f i dans (e... e n ). On a : P e i = f i. On a alors P AP e i = P Af i = P (λ i f i ) = λ i e i = diag(λ,..., λ n )e i, où diag(λ,..., λ n ) désigne la matrice diagonale de coefficients diagonaux λ,..., λ n. On a donc : P AP = De plus P est orthogonale, i.e. P = P t. En effet, λ i 0... 0 λ n P t P e i e j = P e i P e j = (f i f j ) = δ i,j = D. i, j {... n}, et donc (P t P e i e i ) e j = 0 j {... n} i {,... n}. On en déduit P t P e i = e i pour tout i =,... n, i.e. P t P = P P t = Id. DÉMONSTRATION du lemme.6 Cette démonstration se fait par récurrence sur la dimension de E. On ( ) le produit scalaire dans E et la norme associée. ère étape. On suppose dime =. Soit e E, e 0, alors E = IRe = IRf avec f = e. Soit T : E E linéaire. On a : e T f IRf donc il existe λ IR tel que T f = λ f. 2ème étape. On suppose le lemme vrai si dime < n. On montre alors le lemme si dime = n. Soit E un espace vectoriel normé sur IR tel que dime = n et T : E E linéaire symétrique. Soit ϕ l application définie par : ϕ : E IR x (T x x). L application ϕ est continue sur la sphère unité S = {x E x = } qui est compacte car dime < + ; il existe donc e S tel que ϕ(x) ϕ(e) = (T e e) = λ pour tout x E. Soit y E \ {0} et soit t ]0, [ alors e + ty 0. y On en déduit que : ( ) e + ty e + ty S et donc ϕ(e) = λ (e + ty) T e + ty e + ty e + ty E donc λ(e + ty e + ty) E (T (e + ty) e + ty). En développant on obtient : Comme t > 0, ceci donne : λ[2t(e y) + t 2 (y y) E] 2t(T (e) y) + t 2 (T (y) y) E. λ[2(e y) + t(y y) E] 2(T (e) y) + t(t (y) y) E. En faisant tendre t vers 0 +, on obtient 2λ(e y) E 2(T (e) y), Soit 0 (T (e) λe y) pour tout y E \ {0}. De même pour z = y on a 0 (T (e) λe z) donc (T (e) λe y) 0. D où (T (e) λe y) = 0 pour tout y E. On en déduit que T (e) = λe. On pose f n = e et λ n = λ. Soit F = {x E; (x e) = 0}, on a donc F E, et E = F IRe : On peut décomposer x E comme x = x (x e)e + (x e)e. Si x F, on a aussi T (x) F (car T est symétrique). L application S = T F est alors une application linéaire symétrique de F dans F et on a dimf = n. On peut donc utiliser l hypothèse de récurrence : λ... λ n dans IR et f... f n dans E tels que i {... n }, Sf i = T f i = λ if i, et i, j {... n }, f i f j = δ i,j. Et donc (λ... λ n) et (f,..., f n ) conviennent. Analyse numérique I, télé-enseignement, L3 0 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES x x x u i x x u(x) x x x x x 0 = 0 x x i = ih x x N+ = FIGURE.: Solution exacte et approchée de u = f.2.2 Discrétisation de l équation de la chaleur Dans ce paragraphe, nous prenons un exemple très simple pour obtenir un système linéaire à partir de la discrétisation d un problème continu. L équation de la chaleur unidimensionnelle Discrétisation par différences finies de u = f Soit f C([0, ], IR). On cherche u tel que u (x) = f(x) u(0) = u() = 0. (.5a) (.5b) Remarque.7 (Problèmes aux limites, problèmes à conditions initiales). L équation différentielle u = f admet une infinité de solutions. Pour avoir existence et unicité, il est nécessaire d avoir des conditions supplémentaires. Si l on considère deux conditions en 0 (ou en, l origine importe peu) on a ce qu on appelle un problème de Cauchy, ou problème à conditions initiales. Le problème (.5) est lui un problème aux limites : il y a une condition pour chaque bord du domaine. En dimension supérieure, le problème u = f nécessite une condition sur au moins un bout de frontière pour être bien posé : voir le cours d équations aux dérivées partielles de master pour plus de détails à ce propos. On peut montrer (on l admettra ici) qu il existe une unique solution u C 2 ([0, ], IR). On cherche à calculer u de manière approchée. On va pour cela introduire la méthode de discrétisation dite par différences finies. Soit n IN, on définit h = /(n + ) le pas de discrétisation, c.à.d. la distance entre deux points de discrétisation, et pour i = 0,..., n + on définit les points de discrétisation x i = ih (voir Figure.), qui sont les points où l on va écrire l équation u = f en vue de se ramener à un système discret, c.à.d. à un système avec un nombre fini d inconnues u,..., u n. Remarquons que x 0 = 0 et x n+ =, et qu en ces points, u est spécifiée par les conditions limites (.5b). Soit u(x i ) la valeur exacte de u en x i. On écrit la première équation de (.5a) en chaque point x i, pour i =... n. u (x i ) = f(x i ) = b i i {... n}. (.6) Supposons que u C 4 ([0, ], IR) (ce qui est vrai si f C 2 ). Par développement de Taylor, on a : u(x i+ ) = u(x i ) + hu (x i ) + h2 2 u (x i ) + h3 6 u (x i ) + h4 24 u(4) (ξ i ), u(x i ) = u(x i ) hu (x i ) + h2 2 u (x i ) h3 6 u (x i ) + h4 24 u(4) (η i ), Analyse numérique I, télé-enseignement, L3 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES avec ξ i ]x i, x i+ [ et η i ]x i, x i+ [. En sommant ces deux égalités, on en déduit que : u(x i+ ) + u(x i ) = 2u(x i ) + h 2 u (x i ) + h4 24 u(4) (ξ i ) + h4 24 u(4) (η i ). On définit l erreur de consistance, qui mesure la manière dont on a approché u (x i ) ; l erreur de consistance R i au point x i est définie par R i = u (x i ) u(x i+) + u(x i ) 2u(x i ) h 2. (.7) On a donc : R i = u(x i+) + u(x i ) 2u(x i ) h 2 + u (x i ) h 2 24 u(4) (ξ i ) + h2 24 u(4) (η i ) h2 2 u(4). (.8) où u (4) = sup x ]0,[ u (4) (x). Cette majoration nous montre que l erreur de consistance tend vers 0 comme h 2 : on dit que le schéma est consistant d ordre 2. On introduit alors les inconnues (u i ) i=,...,n qu on espère être des valeurs approchées de u aux points x i et qui sont les composantes de la solution (si elle existe) du système suivant, avec b i = f(x i ), { u i+ + u i 2u i h 2 = b i, i, n, (.9) u 0 = u n+ = 0. On cherche donc u = où b =.. b u. u n IR n solution de (.9). Ce système peut s écrire sous forme matricielle :K n u = b et K n est la matrice carrée d ordre n de coefficients (k i,j ) i,j=,n définis par : b n k i,i = 2, i =,..., n, h2 k i,j =, i =,..., n, j = i ±, h2 k i,j = 0, i =,..., n, i j >. (.0) On remarque immédiatement que K n est tridiagonale. On peut montrer que K n est symétrique définie positive (voir exercice 0 page 8), et elle est donc inversible Le système K n u = b admet donc une unique solution. C est bien, mais encore faut il que cette solution soit ce qu on espérait, c.à.d. que chaque valeur u i soit une approximation pas trop mauvaise de u(x i ). On appelle erreur de discrétisation en x i la différence de ces deux valeurs : e i = u(x i ) u i, i =,..., n. (.) Si on appelle e le vecteur de composantes e i et R le vecteur de composantes R i on déduit de la définition (.7) de l erreur de consistance et des équations (exactes) (.6) que K n e = R et donc e = K n R. (.2) Le fait que le schéma soit consistant est une bonne chose, mais cela ne suffit pas à montrer que le schéma est convergent, c.à.d. que l erreur entre max i=,...,n e i tend vers 0 lorsque h tend vers 0, parce que K n dépend de n Analyse numérique I, télé-enseignement, L3 2 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES (c est-à-dire de h). Pour cela, il faut de plus que le schéma soit stable, au sens où l on puisse montrer que Kn est borné indépendamment de h, ce qui revient à trouver une estimation sur les valeurs approchées u i indépendante de h. La stabilité et la convergence font l objet de l exercice 47, où l on montre que le schéma est convergent, et qu on a l estimation d erreur suivante : max { u i u(x i ) } h2 i=...n 96 u(4). Cette inégalité donne la précision de la méthode (c est une méthode dite d ordre 2). On remarque en particulier que si on raffine la discrétisation, c est à dire si on augmente le nombre de points n ou, ce qui revient au même, si on diminue le pas de discrétisation h, on augmente la précision avec laquelle on calcule la solution approchée. L équation de la chaleur bidimensionnelle Prenons maintenant le cas d une discrétisation du Laplacien sur un carré par différences finies. Si u est une fonction de deux variables x et y à valeurs dans IR, et si u admet des dérivées partielles d ordre 2 en x et y, l opérateur laplacien est défini par u = xx u + yy u. L équation de la chaleur bidimensionnelle s écrit avec cet opérateur. On cherche à résoudre le problème : u = f sur Ω =]0, [ ]0, [, u = 0 sur Ω, (.3) On rappelle que l opérateur Laplacien est défini pour u C 2 (Ω), où Ω est un ouvert de IR 2, par u = 2 u x 2 + 2 u y 2. Définissons une discrétisation uniforme du carré par les points (x i, y j ), pour i =,..., M et j =,..., M avec x i = ih, y j = jh et h = /(M + ), representée en figure.2 pour M = 6. On peut alors approcher les dérivées secondes par des quotients différentiels comme dans le cas unidimensionnel (voir page 0), pour obtenir un système linéaire : Au = b où A M n (IR) et b IR n avec n = M 2. Utilisons l ordre lexicographique" pour numéroter les inconnues, c.à.d. de bas en haut et de gauche à droite : les inconnues sont alors numérotées de à n = M 2 et le second membre s écrit b = (b,..., b n ) t. Les composantes b,..., b n sont définies par :pour i, j =,..., M, on pose k = j + (i )M et b k = f(x i, y j ). Les coefficients de A = (a k,l ) k,l=,n peuvent être calculés de la manière suivante : Pour i, j =,..., M, on pose k = j + (i )M, a k,k = 4 { h 2, a k,k+ = h 2 si j M, { 0 sinon, si j, a k,k = h2 { 0 sinon, si i < M, a k,k+m = h2 { 0 sinon, si i >, a k,k M = h2 0 sinon, Pour k =,..., n, et l =,..., n; a k,l = 0, k =,..., n, < k l < n ou k l > n. Analyse numérique I, télé-enseignement, L3 3 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES y 3 32 33 34 35 36 25 26 27 28 29 30 9 20 2 22 23 24 3 4 5 6 7 8 7 8 9 0 2 i = 2 3 4 5 6 x j = FIGURE.2: Ordre lexicographique des inconnues, exemple dans le cas M = 6 La matrice est donc tridiagonale par blocs, plus précisément si on note 4 0...... 0 4 0... 0. 0............ D =.,.. 0........ 0... 0 4 les blocs diagonaux (qui sont des matrices de dimension M M), on a : D Id 0...... 0 Id D Id 0... 0 0 Id D Id 0 A =................, (.4). 0.. Id D Id 0... 0 Id D où Id désigne la matrice identité d ordre M, et 0 la matrice nulle d ordre M. Matrices monotones, ou à inverse positive Une propriété qui revient souvent dans l étude des matrices issues de la discrétisation d équations différentielles est le fait que si leur action sur un vecteur u donne un vecteur positif v (composante par composante) alors le vecteur u de départ doit être positif (composante par composante) ; on dit souvent que la matrice est monotone, ce qui n est pas un terme très évocateur... Dans ce cours, on lui préfèrera le terme à inverse positive ; en effet, on montre à la proposition.9 qu une matrice A est monotone si et seulement si elle est inversible et à inverse positive. Analyse numérique I, télé-enseignement, L3 4 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES Définition.8 (IP-matrice ou matrice monotone). Si x IR n, on dit que x 0 [resp. x > 0] si toutes les composantes de x sont positives [resp. strictement positives]. Soit A M n (IR), on dit que A est une matrice monotone si elle vérifie la propriété suivante : Si x IR n est tel que Ax 0, alors x 0, ce qui peut encore s écrire : {x IR n t.q. Ax 0} {x IR n t.q. x 0}. Proposition.9 (Caractérisation des matrices monotones). Une matrice A est monotone si et seulement si elle inversible et à inverse positive (c.à.d. dont tous les coefficients sont positifs). La démonstration de ce résultat est l objet de l exercice 8. Retenez que toute matrice monotone est inversible et d inverse positive. Cette propriété de monotonie peut être utilisée pour établir une borne de A pour la matrice de discrétisation du Laplacien, dont on a besoin pour montrer la convergence du schéma. C est donc une propriété qui est importante au niveau de l analyse numérique..2.3 Exercices Exercice (Théorème du rang). Corrigé en page 20 Soit A M n,p (IR) (n, p ). On rappelle que Ker(A) = {x IR p ; Ax = 0}, Im(A) = {Ax, x IR p } et rang(a) = dim(im(a)). Noter que Ker(A) IR p et Im(A) IR n. Soit f,..., f r une base de Im(A) (donc r n) et, pour i {,..., r}, a i tel que Aa i = f i.. Montrer que la famille a,..., a r est une famille libre de IR p (et donc r p). 2. On note G le sous espace vectoriel de IR p engendré par a,..., a r. Montrer que IR p = G Ker(A). En déduire que (théorème du rang) p = dim(ker(a)) + dim(im(a)). 3. On suppose ici que n = p. Montrer que l application x Ax (de IR n dans IR n ) est injective si et seulement si elle est surjective. Exercice 2 (rang(a)=rang(a t )). Corrigé en page 20 Soit A M n,p (IR) (n, p ).. Soient P une matrice inversible dem n (IR) et Q une matrice inversible dem p (IR). Montrer que dim(im(p A)) = dim(im(aq)) = dim(im(a)). Montrer aussi que les matrices P t et Q t sont inversibles. Soit f,..., f r une base de Im(A) (donc r p) et, pour i {,..., r}, a i tel que Aa i = f i. Soit a r+,..., a p une base de Ker(A) (si Ker(A) {0}). La famille a,..., a n est une base de IR p (voir l exercice ). De même, on complète (si r < n) f,..., f r par f r+,..., f n de manière à avoir une base f,..., f n de IR n. Enfin, on note P et Q les matrices telles que P e i = a i (pour tout i =,..., p) et Qf j = ē j (pour tout j =,..., n) ou e,..., e p est la base canonique de IR p et ē,..., ē n est la base canonique de IR n. On pose J = QAP. 2. Montrer que P et Q sont inversibles. 3. calculer les colonnes de J et de J t et en déduire que les matrices J et J t sont de même rang. 4. Montrer que A et A t sont de même rang. 5. On suppose maintenant que n = p. Montrer que les vecteurs colonnes de A sont liés si et seulement si les vecteurs lignes de A sont liés. Analyse numérique I, télé-enseignement, L3 5 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES Exercice 3 (Vrai ou faux? Motiver les réponses... ). Corrigé en page 2 On suppose dans toutes les questions suivantes que n 2.. Soit Z IR n un vecteur non nul. La matrice ZZ t est inversible. 2. La matrice inverse d une matrice triangulaire inférieure est triangulaire supérieure. 3. Les valeurs propres sont les racines du polynôme caractéristique. 4. Toute matrice inversible est diagonalisable dans IR. 5. Toute matrice inversible est diagonalisable dans Cl. 6. Le déterminant d une matrice A est égal au produit de ses valeurs propres (comptées avec leur multiplicité et éventuellement complexes). 7. Soit A une matrice carrée telle que Ax = 0 = x = 0, alors A est inversible. 8. Soit A une matrice carrée telle que Ax 0 = x 0, alors A est inversible. 9. Une matrice symétrique est inversible. 0. Une matrice symétrique définie positive est inversible.. Le système linéaire n+ a i,j x j = 0 pour tout i =,..., n j= admet toujours une solution non nulle. Exercice 4 (Sur quelques notions connues). Corrigé en page 2. Soit A une matrice carrée d ordre n et b IR n. Peut il exister exactement deux solutions distinctes au système Ax = b? 2. Soient A, B et C de dimensions telles que AB et BC existent. Montrer que si AB = Id et BC = Id, alors A = C. 3. Combien y a -t-il de matrices carrées d ordre 2 ne comportant que des ou des 0 comme coefficients? Combien d entre elles sont inversibles? [ ] 3 2 4. Soit B =. Montrer que B 5 3 024 = Id. Exercice 5 (La matrice K 3 ). Suggestions en page 9. Corrigé en page 22 Soit f C([0, ], IR). On cherche u tel que u (x) = f(x), x (0, ), u(0) = u() = 0. (.5a) (.5b). Calculer la solution exacte u(x) du problèmes lorsque f est la fonction identiquement égale à (on admettra que cette solution est unique), et vérifier que u(x) 0 pour tout x [0, ]. On discrétise le problème suivant par différences finies, avec un pas h = 4 avec la technique vue en cours. 2. A l aide de dévloppements de Taylor, écrire l approximation de u (x i ) au deuxième ordre en fonction de u(x i ), u(x i ) et u(x i+ ). En déduire le schéma aux différences finies pour l approximation de (.5), qu on écrira sous la forme : K 3 u = b, (.6) où K 3 est la matrice de discrétisation qu on explicitera, u = u u 2 et b = b b 2 = f(x ) f(x 2 ). u 3 b 3 f(x 3 ) Analyse numérique I, télé-enseignement, L3 6 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES 3. Résoudre le système linéaire (.6) par la méthode de Gauss. Comparer u i et u(x i ) pour i =, 2, 3, et expliquer pourquoi l erreur de discrétisation u(x i ) u i est nulle. 4. Reprendre les questions précédentes en remplaçant les conditions limites (.5b) par : 5. Soit c IR. On considère maintenant le problème suivant : u(0) = 0, u () = 0. (.7) u (x) = c, x (0, ), u (0) = u () = 0, (.8a) (.8b) (a) Montrer que le problème (.8) admet soit une infinité de solutions, soit pas de solution. (b) Ecrire la discrétisation du problème (.8), toujours avec h = 4, sous la forme Ku = b en explicitant K et b. (c) Montrer que la matrice K n est pas inversible : on part d un problème continu mal posé, et on obtient par discrétisation un problème discret mal posé... Exercice 6 (Matrices symétriques définies positives). Suggestions en page 9, corrigé en page 23.On rappelle que toute matrice A M n (IR) symétrique est diagonalisable dans IR (cf. lemme.6 page 8). Plus précisément, on a montré en cours que, si A M n (IR) est une matrice symétrique, il existe une base de IR n, notée {f,..., f n }, et il existe λ,..., λ n IR t.q. Af i = λ i f i, pour tout i {,..., n}, et f i f j = δ i,j pour tout i, j {,..., n} (x y désigne le produit scalaire de x avec y dans IR n ).. Soit A M n (IR). On suppose que A est symétrique définie positive, montrer que les éléments diagonaux de A sont strictements positifs. 2. Soit A M n (IR) une matrice symétrique. Montrer que A est symétrique définie positive si et seulement si toutes les valeurs propres de A sont strictement positives. 3. Soit A M n (IR). On suppose que A est symétrique définie positive. Montrer qu on peut définir une unique matrice B M n (IR), symétrique définie positive t.q. B 2 = A (on note B = A 2 ). Exercice 7 (Diagonalisation dans IR ). Corrigé en page 25. Soit E un espace vectoriel réel de dimension n IN muni d un produit scalaire, noté (, ). Soient T et S deux applications linéaires symétriques de E dans E (T symétrique signifie (T x, y) = (x, T y) pour tous x, y E). On suppose que T est définie positive (c est-à-dire (T x, x) > 0 pour tout x E \ {0}).. Montrer que T est inversible. Pour x, y E, on pose (x, y) T = (T x, y). Montrer que l application (x, y) (x, y) T définit un nouveau produit scalaire sur E. 2. Montrer que T S est symétrique pour le produit scalaire défini à la question précédente. En déduire, avec le lemme.6 page 8, qu il existe une base de E, notée {f,..., f n } et une famille {λ,..., λ n } IR telles que T Sf i = λ i f i pour tout i {,..., n} et t.q. (T f i, f j ) = δ i,j pour tout i, j {,..., n}. Exercice 8 (IP-matrice). Corrigé en page 25 Soit n IN, on notem n (IR) l ensemble des matrices de n lignes et n colonnes et à coefficients réels. Si x IR n, on dit que x 0 [resp. x > 0] si toutes les composantes de x sont positives [resp. strictement positives]. Soit A M n (IR), on dit que A est une IP-matrice si elle vérifie la propriété suivante : Si x IR n est tel que Ax 0, alors x 0, ce qui peut encore s écrire : {x IR n t.q. Ax 0} {x IR n t.q. x 0}.. Soit A = (a i,j ) i,j=,...,n M n (IR). Montrer que A est une IP-matrice si et seulement si A est inversible et A 0 (c est-à-dire que tous les coefficients de A sont positifs). Analyse numérique I, télé-enseignement, L3 7 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES ( a b 2. Soit A = c d ) une matrice réelle d ordre 2. Montrer que A est une IP-matrice si et seulement si : ad < bc, a < 0, d < 0 b 0, c 0 ou ad > bc, a > 0, d > 0, b 0, c 0. (.9) 3. Montrer que si A M n (IR) est une IP-matrice alors A t (la transposée de A) est une IP-matrice. 4. Montrer que si A est telle que alors A est une IP-matrice. a i,j 0, pour tout i, j =,..., n, i j, et a i,i > 5. En déduire que si A est telle que alors A est une IP-matrice. a i,j 0, pour tout i, j =,..., n, i j, et a i,i > n a i,j, pour tout i =,..., n, (.20) j= j i n a j,i, pour tout i =,..., n, (.2) j= j i 6. Montrer que si A M n (IR) est une IP-matrice et si x IR n alors : Ax > 0 x > 0. c est-à-dire que {x IR n t.q. Ax > 0} {x IR n t.q. x > 0}. 7. Montrer, en donnant un exemple, qu une matrice A dem n (IR) peut vérifier {x IR n t.q. Ax > 0} {x IR n t.q. x > 0} et ne pas être une IP-matrice. 8. On suppose dans cette question que A M n (IR) est inversible et que {x IR n t.q. Ax > 0} {x IR n t.q. x > 0}. Montrer que A est une IP-matrice. 9. (Question plus difficile) Soit E l espace des fonctions continues sur IR et admettant la même limite finie en + et. Soit L(E) l ensemble des applications linéaires continues de E dans E. Pour f E, on dit que f > 0 (resp. f 0) si f(x) > 0 (resp. f(x) 0) pour tout x IR. Montrer qu il existe T L(E) tel que T f 0 = f 0, et g E tel que T g > 0 et g 0 (ceci démontre que le raisonnement utilisé en 2 (b) ne marche pas en dimension infinie). Exercice 9 (M-matrice). Corrigé en page 26 Dans ce qui suit, toutes les inégalités écrites sur des vecteurs ou des matrices sont à entendre au sens composante par composante. Soit A = (a i,j ) i,j=,...,n une matrice carrée d ordre n. On dit que A est une M-matrice si A est une IP-matrice (A est inversible et A 0, voir exercice 8) qui vérifie de plus (a) a i,i > 0 pour i =,..., n ; (b) a i,j 0 pour i, j =,..., n, i j ;. Soit A une( IP-matrice ) ; montrer que A est une M-matrice si et seulement si la propriété (b) est vérifiée. a b 2. Soit A = une matrice réelle d ordre 2. Montrer que A est une M-matrice si et seulement si : c d ad > bc, a > 0, d > 0, b 0, c 0. (.22) Analyse numérique I, télé-enseignement, L3 8 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES 3. Les matrices A = ( 2 2 ) et B = ( 2 2 4. Soit A la matrice carrée d ordre 3 définie par : A = 2 2 0 0 Montrer que A 0 mais que A n est pas une M matrice. ) sont-elles des IP-matrices? des M-matrices? 5. Soit A une matrice carrée d ordre n = m + p, avec m, p IN tels que m et p, vérifiant : a i,i 0, a i,j 0, pour j =,..., n, j i, n pour i =,..., m, (.23) a i,i + a i,j = 0 j= j i a i,i =, a i,j = 0, pour j =,..., n, j i, } pour i = m +,..., n. (.24) i m, (k l ) l=,...,li ; k = i, k Li > m, et a kl,k l+ < 0, l =,..., L i. (.25) Soit b IR n tel que b i = 0 pour i =,..., m. On considère le système linéaire Au = b (.26) 5. Montrer que le système (.26) admet une et une seule solution. 5.2 Montrer que u est tel que min k=m+,n b k u i max k=m+,n b k. (On pourra pour simplifier supposer que les équations sont numérotées de telle sorte que min k=m+,n b k = b m+2 b 2... b n = max k=m+,n b k.) 6. On considère le problème de Dirichlet suivant : u = 0 sur [0, ] u(0) = u() =. (.27a) (.27b) (.27c) 6. Calculer la solution exacte u de ce problème et vérifier qu elle reste comprise entre - et. 6.2 Soit m > et soient A et b et la matrice et le second membre du système linéaire d ordre n = m+2 obtenu par discrétisation par différences finies avec un pas uniforme h = m du problème (.27) (en écrivant les conditions aux limites dans le système). Montrer que la solution u = (u,..., u n ) t IR n du système Au = b vérifie u i. Exercice 0 (Matrice du Laplacien discret D). Corrigé détaillé en page 24. Soit f C([0, ]). Soit n IN, n impair. On pose h = /(n + ). Soit K n la matrice définie par (.0) page, issue d une discrétisation par différences finies avec pas constant du problème (.5a) page 0. Montrer que K n est symétrique définie positive. Exercice (Pas non constant). Reprendre la discrétisation vue en cours avec un pas h i = x i+ x i non constant, et montrer que dans ce cas,le schéma est consistant d ordre seulement. Analyse numérique I, télé-enseignement, L3 9 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES Exercice 2 (Réaction diffusion d.). Corrigé détaillé en page 24. On s intéresse à la discrétisation par Différences Finies du problème aux limites suivant : u (x) + u(x) = f(x), x ]0, [, u(0) = u() = 0. (.28) Soit n IN. On note U = (u j ) j=,...,n une valeur approchée de la solution u du problème (.28) aux points ). Donner la discrétisation par différences finies de ce problème sous la forme AU = b. ( j n+ j=,...,n Exercice 3 (Discrétisation). Corrigé en page 28 On considère la discrétisation à pas constant par le schéma aux différences finies symétrique à trois points du problème (.5a) page 0, avec f C([0, ]). Soit n IN, n impair. On pose h = /(n + ). On note u est la solution exacte, x i = ih, pour i =,..., n les points de discrétisation, et (u i ) i=,...,n la solution du système discrétisé (.9).. Montrer que si u C 4 ([0, ], alors la propriété (.7) est vérifiée, c.à.d. : u(x i+) + u(x i ) 2u(x i ) h 2 = u (x i ) + R i avec R i h2 2 u(4). 2. Montrer que si f est constante, alors max u i u(x i ) = 0. i n 3. Soit n fixé, et max i n u i u(x i ) = 0. A-t-on forcément que f est constante sur [0, ]?.2.4 Suggestions pour les exercices Exercice 5 page 5 (La matrice K 3 ) 2. Ecrire le développement de Taylor de u(x i + h) et u(x i h). 3. Pour l erreur de discrétisation, se souvenir qu elle dépend de l erreur de consistance, et regarder sa majoration. 4. Pour tenir compte de la condition limite en, écrire un développement limité de u( h). 5. Distinguer les cas c = 0 et c 0. Exercice 6 page 6 (Matrices symétriques définies positives) 3. Utiliser la diagonalisation sur les opérateurs linéaires associés..2.5 Corrigés des exercices Analyse numérique I, télé-enseignement, L3 20 Université d Aix-Marseille, R. Herbin, 22 mai 206

.2. POURQUOI ET COMMENT? CHAPITRE. SYSTÈMES LINÉAIRES Exercice page 4 (Théorème du rang). Soit α,..., α r dans IR tel que r i= α ia i = 0. On a donc 0 = A( r α i a i ) = i= r α i Aa i = i= r α i f i. Comme la famille f,..., f r est une famille libre, on en déduit que α i = 0 pour tout i {,..., r} et donc que la famille a,..., a r est libre. 2. Soit x IR p. Comme f,..., f r est une base de Im(A), il existe α,..., α r tel que Ax = r i= α if i. On pose y = r i= α ia i. On a Ay = Ax et x = (x y) + y. Comme y G et A(x y) = 0, on en déduit que IR p = G + KerA. Soit maintenant x KerA G. Comme x G, il α,..., α r tel que x = r i= α ia i. On a donc Ax = r i= α if i. Comme f,..., f r est une famille libre et que Ax = 0, on en déduit que α i = 0 pour tout i {,..., r} et donc x = 0. Ceci montre que IR p = G Ker(A). Enfin, comme dim G = r = dim(ima), on en déduit bien que p = dim(ker(a)) + dim(im(a)). 3. On suppose ici p = n. Comme n = dim(ker(a)) + dim(im(a)), on a dim(ker(a)) = 0 si et seulement si dim(im(a)) = n. Ceci montre que l application x Ax (de IR n dans IR n ) est injective si et seulement si elle est surjective. Exercice 2 page 4 (rang(a)=rang(a t )). On remarque tout d abord que le noyau de P A est égal au noyau de A. En effet, soit x IR p. Il est clair que Ax = 0 implique P Ax = 0. D autre part, comme P est inversible, P Ax = 0 implique Ax = 0. On a donc bien Ker(P A) = Ker(A). On en déduit que dim(ker(p A)) = dim(ker(a)) et donc, avec le théorème du rang (exercice ), que dim(im(p A)) = dim(im(a)). Pour montrer que dim(im(aq)) = dim(im(a)), on remarque directement que Im(AQ) = Im(A). En effet, on a, bien sûr, Im(AQ) Im(A) (l inversibilité de Q est inutile pour cette inclusion). D autre part, si z Im(A), il existe x IR p tel que Ax = z. Comme Q est inversible, il existe y IR p tel que x = Qy. On a donc z = AQy, ce qui prouve que Im(A) Im(AQ). Finalement, on a bien Im(AQ) = Im(A) et donc dim(im(aq)) = dim(im(a)). Pour montrer que P t est inversible, il suffit de remarquer que (P ) t P t = (P P ) t = I n (où I n désigne la matrice Identité de IR n ). Ceci montre que P t est inversible (et que (P t ) = (P ) t ). Bien sûr, un raisonnement analogue donne l inversibilité de Q t. 2. L image de P est égale à IR p car la famille a,..., a p est une base de IR p. Ceci prouve que P est inversible (on a Im(P ) = IR p et KerP = {0} par le théorème du rang). A propos de la matrice Q, il faut d abord remarquer que cette matrice existe bien. ceci est dû au fait que la famille f,..., f n est une base IR n. La matrice Q est alors l inverse de la matrice R dont les colonnes sont les vecteurs f j (c est-à-dire C j (R) = f j pour j =,..., n). Cette matrice R est bien inversible car la famille f,..., f n est une base IR n. On a donc Q = R et Q est bien une matrice inversible. 3. Pour i {,..., p}, on a C i (J) = QAP e i = QAa i. Si i {,..., r}, on a donc C i (J) = Qf i = ē i. Si i {r+,..., p}, on a C j (J) = 0 (car a i KerA). Ceci montre que Im(J) est l espace vectoriel engendré par ē,..., ē r et donc que le rang de J est r. La matrice J appartient àm n,p (IR), sa transposée appartient donc àm p,n (IR). En transposant la matrice J, on a, pour tout i {,..., r}, C i (J t ) = e i et, pour tout i {r +,..., n}, C j (J t ) = 0. Ceci montre que Im(J t ) est l espace vectoriel engendré par e,..., e r et donc que le rang de J t est aussi r. 4. Il suffit maintenant d appliquer la première question, elle donne que le rang que A est le même que le rang de J et, comme J t = P t A t Q t, que le rang que A t est le même que le rang de J t. Finalement le rang de A et de A t est r. i= Analyse numérique I, télé-enseignement, L3 2 Université d Aix-Marseille, R. Herbin, 22 mai 206