Décompositions de matrice, Orthonormalisation de Gram-Schmidt. 1 Méthode de Gauss et décomposition LU

Documents pareils
Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Résolution de systèmes linéaires par des méthodes directes

Chapitre 2. Matrices

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction

Exercices Corrigés Premières notions sur les espaces vectoriels

Fonctions de plusieurs variables

Cours d analyse numérique SMI-S4

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

3 Approximation de solutions d équations

CCP PSI Mathématiques 1 : un corrigé

Polynômes à plusieurs variables. Résultant

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Chapitre 1 : Évolution COURS

Résolution d équations non linéaires

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

I. Polynômes de Tchebychev

Programmes des classes préparatoires aux Grandes Ecoles

Représentation d un entier en base b

1 Complément sur la projection du nuage des individus

Limites finies en un point

Cours d Analyse. Fonctions de plusieurs variables

Évaluation de la régression bornée

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Correction de l examen de la première session

Calcul différentiel. Chapitre Différentiabilité

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

Programmation linéaire

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

Cours 02 : Problème général de la programmation linéaire

Calcul différentiel sur R n Première partie

Calcul intégral élémentaire en plusieurs variables

Simulation de variables aléatoires

Seconde Généralités sur les fonctions Exercices. Notion de fonction.

Programmation linéaire et Optimisation. Didier Smets

I. Ensemble de définition d'une fonction

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Développement décimal d un réel

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Programme de la classe de première année MPSI

Le produit semi-direct

Eteindre. les. lumières MATH EN JEAN Mme BACHOC. Elèves de seconde, première et terminale scientifiques :

Représentation géométrique d un nombre complexe

III- Raisonnement par récurrence

Théorème du point fixe - Théorème de l inversion locale

Introduction à MATLAB R

avec des nombres entiers

Introduction à l étude des Corps Finis

CARTE DE VOEUX À L ASSOCIAEDRE

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Raisonnement par récurrence Suites numériques

Synthèse «Le Plus Grand Produit»

Continuité en un point

Extrait du poly de Stage de Grésillon 1, août 2010

Optimisation Discrète

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Compter à Babylone. L écriture des nombres

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

3. Conditionnement P (B)

Proposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5.

Probabilités sur un univers fini

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Comment démontrer des formules sans effort? exposé de maîtrise

Première partie. Introduction à la méthodes des différences finies

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

[ édité le 30 avril 2015 Enoncés 1

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

108y= 1 où x et y sont des entiers

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Notion de fonction. Résolution graphique. Fonction affine.

Différentiabilité ; Fonctions de plusieurs variables réelles

1 Introduction et modèle mathématique

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

F411 - Courbes Paramétrées, Polaires

1S Modèles de rédaction Enoncés

Modèles et Méthodes de Réservation

Continuité et dérivabilité d une fonction

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Optimisation, traitement d image et éclipse de Soleil

Relation d ordre. Manipulation des relations d ordre. Lycée Pierre de Fermat 2012/2013 Feuille d exercices

Licence Sciences et Technologies Examen janvier 2010

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

Corps des nombres complexes, J Paul Tsasa

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Manipulateurs Pleinement Parallèles

DÉRIVÉES. I Nombre dérivé - Tangente. Exercice 01 (voir réponses et correction) ( voir animation )

2.4 Représentation graphique, tableau de Karnaugh

Calcul fonctionnel holomorphe dans les algèbres de Banach

Mathématiques appliquées à l'économie et à la Gestion

Calculer avec Sage. Revision : 417 du 1 er juillet 2010

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Une forme générale de la conjecture abc

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

Transcription:

Annette Paugam, Octobre 2001 1 Opérations élémentaires, Décompositions de matrice, Orthonormalisation de Gram-Schmidt 1 Méthode de Gauss et décomposition LU La décomposition LU est traitée en détail dans [Ciar] ou [Ser]. Soient K un corps et A = (a i,j ) GL n (K), une matrice inversible telle que les n sous-matrices diagonales k, formée des k premières lignes et des k premières colonnes, soient inversibles. Alors A se décompose de manière unique en un produit LU où U (comme up) est une matrice triangulaire supérieure et L (comme low) est une matrice triangulaire inférieure. En opérant sur les lignes de A, uniquement par des transvections, on la transforme en une matrice triangulaire supérieure U. On utilise, pour faire apparaitre des 0 dans la première colonne, le coefficient a 11 0 et la première ligne. Comme les opérations de la première étape ne change pas le rang des sous-matrices diagonales, elles restent inversibles et l algorithme continue de la même manière, en considérant la sous-matrice inversible, obtenue en ne regardant pas la première ligne et la première colonne et ainsi de suite. On peut, simultanément, agir sur la matrice unité de GL n (K). Par ces actions, la matrice unité se transforme en une matrice triangulaire inférieure. C est en fait la matrice inverse de la matrice triangulaire inférieure L (comme low) dans la décomposition LU de A. On schématise souvent cet algorithme de la manière suivante : a 11... a 1n......... a n1... a nn... u 1n 0...... 0 0 u nn u 11 1... 0... 1... 0... 1 1... 0... 1 0 l n1... 1 La matrice de gauche est U = L 1 A et celle de droite est L = L 1. Cette décomposition est unique. (voir [Ciar] page 84 ou [SER] page 90). Si la matrice ne vérifie pas les hypothèses de la décomposition LU, si elle est simplement inversible, on peut, de manière analogue, en agissant sur ses lignes et celles de I, calculer son inverse, ([Art] page 17) ou la décomposer en produit de transvections et d une dilatation. On montre ainsi que GL n (K)

Annette Paugam, Octobre 2001 2 est engendré par les transvections et les dilatations.(voir [Gob] page 51 ou [ArnBert] page 249). 2 Décomposition LU et résolution d un système linéaire Pour résoudre un système, on agit de la même manière que pour LU simultanément sur le premier membre des équations (lignes de la matrice correspondante) et sur le second membre b (vecteur en colonne). Si la matrice vérifie les hypothèses de la décomposition LU, on présente les calculs de la même manière. a 11... a 1n......... a n1... a nn u 11... u 1n 0...... 0 0 u nn b 1... b n b 1... b n Le nouveau système a pour matrice U et pour second membre b = L 1 b. Si la matrice ne vérifie pas les hypothèses de la décomposition LU, le coefficient diagonal de la i-ième étape peut être nul. Si l un des coefficients en dessous est différent de 0, on permute les lignes correspondantes et l on revient ainsi à l algorithme précédent. Si tous les coefficients en dessous sont nuls, on ne fait rien. On passe à la sous-matrice de taille inférieure. La nouvelle matrice du système est alors échelonnée. (voir [Grif]) On résout en commençant par la dernière équation et en remontant. Dans la résolution, les grandes marches correspondent à des variables libres. Par exemple, le système x + 2y + z = 3 z + t = 4 0 = a 0 = 0

Annette Paugam, Octobre 2001 3 admet des solutions si et seulement si a = 0. Dans ce cas on le résout en x et z, en fonction des variables libres y et t. Dans Grifone, les variables sont permutées pour reporter les variables libres en dernier. C est peut-être plus simple pour expliquer la théorie, mais, dans la pratique, ce n est pas utile. 3 LU et Cholesky La décomposition de Cholesky est démontrée en détail dans [Ciar] ou [Ser]. Si A GL n (R) est une matrice symétrique définie positive (donc vérifiant les hypothèse pour la décomposition LU), il existe une unique matrice triangulaire inférieure, B, d éléments diagonaux strictement positifs, telle que A se décompose en A = BB t. On utilise la décomposition LU. L idée est de diviser U par sa diagonale U = DU 1. Cette matrice diagonale D, avec l hypothèse, A définie positive, est à coefficients strictement positifs. On en extrait la racine carrée D 1. On obtient : A égale au produit de deux matrices triangulaires : LD 1 et D 1 U 1. 1 0 0... 1 0...... 1 u11 0 0 0 uii 0 0 0 u11 0 0 0 uii 0 0 0 1...... 0 1... 0 0 1 u11 0 0 u11...... A =... uii 0...... 0 uii... 0 0 L unicité de la décomposition LU permet de prouver que ces deux matrices sont transposées l une de l autre ([Ciar] page 87 ou [Ser] page 96 première méthode). C est la décomposition de Cholesky : A = BB t = LDL t Cette démonstration algorithmique n a pour le moment qu un intérêt théorique puisque, dans la pratique, on recherche directement la matrice B en résolvant les équations non linéaires, BB t = A. Ce calcul n est pas constitué d opérations élémentaires puisqu il introduit, à chaque étape, des racines carrées. (voir [Ciar] page 88 et 89 et [Ser] page 96, deuxième méthode).

Annette Paugam, Octobre 2001 4 4 LU et l orthonormalisation de Gram-Schmidt Soit E un espace euclidien de dimension finie n et (V i ) i=1..n une base de E. Soit A la matrice du produit scalaire <, > de E dans cette base. Considérons alors la décomposition LU de cette matrice. Comme A est définie positive, elle admet une décomposition de Cholesky : A = BB t = LDL t Mais alors L 1 AL 1t = D est la matrice du produit scalaire dans une base orthogonale (V 1,..., V n ) et la transposée de L 1 est la matrice de passage. Ainsi, on peut lire dans les colonnes de la transposée de L 1, c est à dire dans les lignes de L 1, obtenue par la méthode de Gauss, les composantes des (V i ) i=1..n dans la base (V 1...V n ). Compte tenu de la matrice L on voit que V i = V i + i 1 k=1 l i,k V k. On en déduit, pour tout i, V ect(v 1,..., V i ) = V ect(v 1,..., V i ). Les opérations effectuées sur les lignes de A = (< V i, V j >) i=1..n, pour obtenir U, peuvent s interpréter en disant que les coefficients de U sont les produits scalaires < V i, V j >. Comme U est triangulaire supérieure, on en déduit que V i est dans l orthogonal de V ect(v 1,..., V i 1 ). V ect(v 1,.., V i 1 ) V i V i 0 V i proj(v i) On reconnait donc le procédé géométrique de Gram-Schmidt : V i se déduit de V i en lui soustrayant sa projection orthogonale sur V ect(v 1,.., V i 1 ). i 1 proj(v i ) = l i,k V k La triangulation simultanée selon les lignes de A et de I, décrite dans le premier paragraphe donne tous les résultats de l orthonormalisation de Gram- Schmidt. Dans les lignes de L 1, obtenue par la méthode de Gauss, on lit les composantes des (V i ) i=1..n dans la base (V 1...V n ). k=1

Annette Paugam, Octobre 2001 5 De plus, la nouvelle matrice du produit scalaire, D, contient les normes aux carrés des vecteurs de la base, ( V 1 2,.., V n 2 ). On les lit sur la diagonale de U. Pour obtenir la base orthonormée, il suffit de diviser chaque ligne de L = L 1 par la racine carré du coefficient diagonal correspondant de U. 5 Décomposition QR et décomposition d Iwasawa Voir [Ser] page 96, [MNE,Test] page 44 et le problème 1998 de mathématiques générales. Soit M une matrice de GL n (R) alors 1. M = QR où Q est une matrice orthogonale, R une matrice triangulaire supérieure à coefficient diagonaux strictement positifs. 2. M = KD 1 T (décomposition d Iwasawa) où K est une matrice orthogonale, D 1 une matrice diagonale à coefficient strictement positifs et T une matrice triangulaire supérieure avec des 1 sur la diagonale. Interprétons M comme la matrice de n vecteurs colonnes, donnés par leur coordonnées, constituant une base de R n, (V 1,.., V n ). On calcule la matrice de Gram des V i : A = M t M = (< V i, V j >) i=1..n. Par l algorithme de Gauss sur A et I, on obtient les deux matrices U et L qui permettent de calculer une base orthogonale (V 1,.., V n ), puis orthonormée (V 1,.., V n ). Les relations V i = V i + i 1 k=1 l i,k V k montrent qu on obtient la matrice des V i en opérant sur les colonnes de M, c est à dire en multipliant M, à droite, par la matrice triangulaire supérieure L t dont l inverse sera noté T. Puis on agit encore sur les vecteurs colonne pour les diviser par leur norme. Si on pose D 1 = u11... 0... uii... 0.... la racine carrée de la diagonale de U et R = D 1 T, on obtient la matrice K = Q = MT 1 D1 1, orthogonale, puisque les vecteurs colonnes forment la base orthonormée (V 1,.., V n ). on a M = QR = KD 1 T. C est la décomposition QR et la décomposition d Iwasawa. Dans la pratique, la décomposition QR se calcule par une autre méthode, avec des matrices de Householder (voir [Ciar] page90). L idée est encore géométrique. Soit (e 1,..., e n ) la base orthonormée canonique de R n. On envoie le premier vecteur colonne V 1 de M sur V 1 e 1 par une symétrie orthogonale dont la matrice H 1 est une matrice de Householder. Ainsi H 1 M a pour première colonne V 1 e 1.

Annette Paugam, Octobre 2001 6 H 1 : Matrice de Householder V 1 0 H 1 (V 1 ) = V 1 e 1 On continue avec la matrice de taille inférieure obtenue en supprimant la première ligne et la première colonne. On obtient : ( ) V 1 0 1...... H 0 H 1 M = 0 V 2... 2 0 0.... et ainsi de suite. On obtient, en n étapes, une matrice triangulaire R, à diagonale positive, et M = H1 1...Hn 1 R = QR. On trouvera des détails pratiques sur cette méthode dans [Ciar] page 90. References [ArnBert] J.M.Arnaudiès, J.Bertin Groupes Algèbres et Géométrie, Ellipes. [Art] M.Artin, Algebra, Prentice Hall. (on y trouve tout sur les modules sur A euclidien, les réseaux,..., etc, avec de bons dessins) [Ciar] P.G.Ciarlet, Introduction à l analyse numérique et à l optimisation, Masson.( toutes les décompositions classiques avec leur complexité). [Gob] R.Goblot, Algèbre linéaire, Scientifika. (de nombreuses remarques intéressantes, précis sur les K[X]-modules et les invariants de similitude). [Grif] J.Grifone, Algèbre linéaire, Cepadues.(bon livre de premier cycle avec des opérations élémentaires. Remettre les vecteurs à la verticale). [Mne,Tes] R.Mneimné, F.Testard, Introduction à la théorie des groupes de Lie classiques, Hermann. (utile pour de nombreux résultats, notamment topologiques, sur les matrices : voir 0.6 page 5) [Ser] D.Serre Les Matrices, Dunod.( synthèse du Ciarlet, un peu de Mneimné-Testard (ch 7) avec, en plus, Perron-Frobenius et module sur A principal. Attention, erreur en haut de la page 3.