Autour de la diagonalisation



Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

NOTATIONS PRÉLIMINAIRES

Le produit semi-direct

Structures algébriques

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Problème 1 : applications du plan affine

[ édité le 30 avril 2015 Enoncés 1


Groupe symétrique. Chapitre II. 1 Définitions et généralités

Cours d analyse numérique SMI-S4

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

Programmes des classes préparatoires aux Grandes Ecoles

1 Complément sur la projection du nuage des individus

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Correction de l examen de la première session

Simulation de variables aléatoires

Programme de la classe de première année MPSI

Exercices Corrigés Premières notions sur les espaces vectoriels

I. Polynômes de Tchebychev

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Résolution de systèmes linéaires par des méthodes directes

Université Paris-Dauphine DUMI2E 1ère année, Applications

Capes Première épreuve

Cours de mathématiques

Calcul différentiel sur R n Première partie

Calcul fonctionnel holomorphe dans les algèbres de Banach

Chapitre VI Fonctions de plusieurs variables

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Proposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5.

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

Approximations variationelles des EDP Notes du Cours de M2

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

VI. COMPLÉMENTS SUR LES MODULES, THÉORÈME CHINOIS, FACTEURS INVARIANTS SÉANCES DU 15, 16 ET 22 OCTOBRE

Introduction à l étude des Corps Finis

Résumé du cours d algèbre 1, Sandra Rozensztajn. UMPA, ENS de Lyon, sandra.rozensztajn@ens-lyon.fr

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

3. Conditionnement P (B)

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Exercice : la frontière des portefeuilles optimaux sans actif certain

Intégration et probabilités TD1 Espaces mesurés Corrigé

Programmation linéaire

Calcul différentiel. Chapitre Différentiabilité

Analyse en Composantes Principales

Une introduction aux codes correcteurs quantiques

MATHÉMATIQUES EN PREMIER CYCLE PRÉSENTATION DU PROGRAMME

Fonctions de plusieurs variables

Théorème du point fixe - Théorème de l inversion locale

Fonctions de plusieurs variables. Sébastien Tordeux

3 Approximation de solutions d équations

Chapitre 2. Matrices

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Développement décimal d un réel

Programmation linéaire et Optimisation. Didier Smets

Axiomatique de N, construction de Z

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Chapitre VI - Méthodes de factorisation

Représentation des Nombres

Le Modèle Linéaire par l exemple :

Cours arithmétique et groupes. Licence première année, premier semestre

Espace II. Algèbres d opérateurs et Géométrie non commutative.

Résolution d équations non linéaires

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Différentiabilité ; Fonctions de plusieurs variables réelles

Contributions aux méthodes d estimation en aveugle

Cours de Mécanique du point matériel

Cours d Analyse. Fonctions de plusieurs variables

Systèmes Multivariables - Partie II

Triangle de Pascal dans Z/pZ avec p premier

Apprentissage Automatique

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Mesures gaussiennes et espaces de Fock

Premiers exercices d Algèbre. Anne-Marie Simon

La classification automatique de données quantitatives

Plan du cours : électricité 1

Correction du Baccalauréat S Amérique du Nord mai 2007

C algèbre d un certain groupe de Lie nilpotent.

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques

Les indices à surplus constant

CCP PSI Mathématiques 1 : un corrigé

Probabilités sur un univers fini

Calcul Différentiel. I Fonctions différentiables 3

Manipulateurs Pleinement Parallèles

Cours 02 : Problème général de la programmation linéaire

Bases de données documentaires et distribuées Cours NFE04

Table des matières. Introduction Générale 5

Géométrie dans l espace Produit scalaire et équations

Quelques tests de primalité

Définition 0,752 = 0,7 + 0,05 + 0,002 SYSTÈMES DE NUMÉRATION POSITIONNELS =

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Limitations of the Playstation 3 for High Performance Cluster Computing

La transformée de Fourier sur un groupe fini et quelques-unes de ses applications. Elise Raphael Semestre d automne

Transcription:

Autour de la diagonalisation Cédric Gérot, Pierre Granjon, Nicolas Le Bihan Laboratoire des Images et des Signaux Grenoble January 22, 2003 Contents 1 Eléments d algèbre 2 11 Espace vectoriel 2 111 Définition 2 112 Sous-espace vectoriel 2 113 Base d un espace vectoriel 2 12 Application linéaire 3 121 Définition 3 122 Sous espaces vectoriels Imϕ et Kerϕ 3 123 Déterminant 3 124 Spectre d un endomorphisme 4 13 Matrice 4 131 Définition 4 132 Matrice d une application linéaire 5 133 Matrice d un endomorphisme 5 2 Diagonalisation et SVD 5 21 Définitions 5 211 Qu est-ce qu être diagonalisable? 5 212 Exemples 5 213 Diagonalisation 6 214 Singular Values Decomposition 6 22 Interprétations algébriques 7 221 Changement de bases 7 222 Diagonalisation: un même changement de bases pour le départ et l arrivée 8 223 SVD: des changements de bases pour que les bases de départ et d arrivée soient toutes deux orthogonales 8 224 Diagonalisation orthogonale: réservée aux matrices symétriques 9 3 Utilisations 9 31 SVD: décomposer dans une meilleure base 9 32 Diagonalisation: de l itération au développement de Taylor 9 1

Introduction Ne cherchez pas: il n y a rien de nouveau dans ce petit rapport Celui-ci est né de questions que nous nous posions chacun pour soi et que nous avons voulu clarifier ensemble L implusion initiale pourrait se résumer à mais que signifie réellement ce que nous utilisons quotidiennement sans y penser Ou encore posons clairement une fois pour toute la signification stricte de nos outils afin de chasser les légers doutes qui peuvent nous envahir quand nous les utilisons Ce rapport sera donc assez sobre; l introduction en contient sans aucun doute toutes les phrases creuses Alors, ne tardons plus: bonne lecture! 1 Eléments d algèbre Dans cette première section, nous rappelons la définition des divers animaux algébriques que nous manipulons 11 Espace vectoriel 111 Définition Définition 1 (Espace vectoriel) On appelle espace vectoriel sur K (les scalaires) un ensemble non vide E muni d une loi de composition interne + (c est la somme de vecteurs), telle que (E, +) soit un groupe commutatif, d une loi de composition externe, application de K E dans E (c est le produit par un scalaire, ou encore produit externe) notée (λ, x) λx et telle que 1x = x (1 est l élément neutre multiplicatif de K) (λ + µ)x = λx + µx λ(µx) = (λµ)x λ(x + y) = λx + µy 112 Sous-espace vectoriel Définition 2 (Sous-espace vectoriel) Un sous-espace vectoriel de E est une partie non vide F de E, stable pour l addition de E ((x, y) F 2 x + y F ) stable pour le produit externe ((λ, x) K F λx F ) 113 Base d un espace vectoriel Définition 3 (Base) Une famille (x i ) i I de vecteurs de E est une base de E ssi elle est libre (ou encore composée de vecteurs linéairement indépendants: on ne peut en écrire un comme une combinaison d autres de la famille) ( i I λ i x i = 0) ( i I, λ i = 0) 2

et génératrice (tout vecteur de E peut s écrire comme une combinaison de vecteurs de la famille) x E, λ i : x = i I λ i x i 12 Application linéaire 121 Définition Définition 4 (Application linéaire) Soient E et F deux espaces vectoriels sur le même corps K Une application ϕ de E dans F est linéaire ssi ϕ(λx + µy) = λϕ(x) + µϕ(y) Définition 5 Une application linéaire est également appelée morphisme d espaces vectoriels Lorsque ϕ est bijective, c est un isomorphisme Lorsque ϕ est linéaire de E dans E, c est un endomorphisme Un endomorphisme bijectif est appelé automorphisme Enfin, une application linéaire de E dans K s appelle une forme linéaire sur E 122 Sous espaces vectoriels Imϕ et Kerϕ Définition 6 (Noyau) Le noyau d une application linéaire ϕ de E dans F est défini par Kerϕ = ϕ 1 (0) (c est l ensemble des vecteurs de l espace de départ E qui sont envoyés par ϕ dans le 0 de F ) Définition 7 (Image) L image d une application linéaire ϕ de E dans F est définie par Imϕ = ϕ(e) (c est l ensemble des vecteurs de l espace d arrivée F qui sont atteints par ϕ) Comme toute image d un sous-espace vectoriel par une application linéaire, le noyau d une application linéaire est un sous-espace vectoriel (de l espace de départ E) Comme toute image réciproque d un sous-espace vectoriel par une application linéaire, l image d une application linéaire est un sous-espace vectoriel (de l espace d arrivée F ) 123 Déterminant Définition 8 (Déterminant suivant une base) Le déterminant suivant une base B = (e 1,, e n ) de E notée det B est la seule forme de E n dans K qui soit n-linéaire (ses n applications partielles sont linéaires): (a 1,, a n ) E n, k 1 n, v E det B (, a k 1, v, a k+1, ) K est linéaire, alternée (si on échange deux vecteurs, les signe est changé), et qui prenne la valeur 1 en (e 1,, e n ) 3

Notons que toutes les formes n-linéaires alternées ψ sur E de dimension n sont proportionnelles: ψ(v 1,, v n ) = ψ(e 1,, e n )det B (v 1,, v n ) Définition 9 (Déterminant d un endomorphisme) On appelle déterminant d un endomorphisme ϕ de E le scalaire noté detϕ défini par où B = (e 1,, e n ) est une base de E detϕ = det B (ϕ(e 1 ),, ϕ(e n )) Notons que ce scalaire est indépendant de la base B 124 Spectre d un endomorphisme Définition 10 (Valeur propre, Vecteur propre) λ K est valeur propre de l endomorphisme ϕ : E E s il existe un vecteur v de E tel que Et x est un vecteur propre associé à λ ϕ(x) = λx Définition 11 (Spectre) On appelle spectre de l endomorphisme ϕ l ensemble de ses valeurs propre Définition 12 (Sous-espace propre) Le sous-espace vectoriel défini par Ker(ϕ λid E ) où λ est une valeur propre de ϕ, est le sous-espace propre associé à λ Privé de 0, c est l ensemble des vecteurs propres associés à λ Définition 13 (Polynôme caractéristique) On appelle polynôme caractéristique de l endomorphisme ϕ le polynôme de K dans K défini par P ϕ (λ) = det(ϕ λid E ) où l on note λid E l endomorphisme qui à tout vecteur v associe λv Notons que les valeurs propres de ϕ sont les racines de son polynôme caractéristique 13 Matrice 131 Définition Définition 14 (Matrice) On appelle matrice de type (n, p) sur un corps K toute application M : IN n IN p K (i, j) m ij 4

132 Matrice d une application linéaire Définition 15 (Matrice d une application linéaire dans des bases) Soit une application linéaire ϕ de E dans F Soient B E = (e 1,, e p ) une base de E et B F = (f 1,, f p ) une base de F Il existe alors (a ij ) tels que j 1 p, n ϕ(e j ) = a ij f j i=1 La matrice de ϕ relativement à B E et B F est l application Matϕ BE,B F : (i, j) a ij Notons que ϕ est déterminée de façon unique par (a ij ) i=1n, j=1p Notons également que les colonnes d une matrice sont les coordonnées dans B F de l image par ϕ des vecteurs de la base B E 133 Matrice d un endomorphisme Les matrices associées aux endomorphismes sont des matrices carrées La réciproque n est pas vraie: deux espaces vectoriels différents peuvent avoir la même dimension Cependant, toute matrice carrée est la matrice d un endomorphisme On peut donc malgré tout définir pour les matrices carrées les notions de déterminant et de spectre 2 Diagonalisation et SVD Dans cette section nous tentons d éclaircir l action de diagonaliser ou décomposer une application linéaire ou une matrice Notez à ce propos que l on parlera indifféremment d application linéaire ou de matrice 21 Définitions 211 Qu est-ce qu être diagonalisable? Théorème 1 (CNS pour être diagonalisable) Un endomorphisme ϕ (matrice carrée) est diagonalisable ssi P ϕ est scindé, et pour toute valeur propre λ i de ϕ, dimker(ϕ λ i id E ) = m ϕ (λ i ) Notez que P ϕ est scindé s il peut s écrire P ϕ = Π κ i=1(λ i λ) α i, κ i=1 α i = n Et alors, α i = m ϕ (λ i ) En d autres termes, la multiplicité algébrique (α i = m ϕ (λ i )) d une valeur propre doit être égale à sa multiplicité géométrique (la dimension du sous-espace propre associé) 212 Exemples Exemple 1 A = 2 1 1 1 0 1 0 0 2 5

n est pas diagonalisable En effet, si P A (λ) = (λ 1) 2 (λ 2) est bien scindé, en revanche Exemple 2 dimker(a I) = dimker A = = 3 rang = 1 1 1 1 1 1 1 0 0 1 < 2 = m A (1) 0 0 1 1 0 0 0 1 0 est diagonalisable dans IC, mais pas dans IR En effet, où j = exp( 1 2π 3 ) 213 Diagonalisation 1 1 1 1 1 1 0 0 1 P A (λ) = (λ 1)(λ j)(λ j 2 ) Diagonaliser une matrice carrée (n, n) diagonalisable A revient à écrire (on dit aussi décomposer en valeurs propres, EVD) où A = V ΛV 1 V est une matrice inversible, dont les colonnes sont des vecteurs propres de A, Λ est une matrice diagonale dont les éléments diagonaux sont les valeurs propres de A Les colonnes v i de V sont également appelées vecteurs propres droits de A: Av i = λ i v i afin de les différencier des colonnes ν i de V 1T qui sont des vecteurs propres gauches de A: νi T A = λ i νi T 214 Singular Values Decomposition Décomposer une matrice (n, p) A en valeurs singulières revient à écrire où A = UΣW T 6

U est une matrice (n, n) unitaire : U 1 = U T, Σ est une matrice (p, n) dont seuls les éléments diagonaux Σ ii peuvent être non nuls (elles sont appelées valeurs singulières), W est une matrice (p, p) unitaire : W 1 = W T, 22 Interprétations algébriques 221 Changement de bases Définition 16 (Matrice de passage) On appelle matrice de passage d une base B E = (e 1,, e n ) à une base B E = (e 1,, e n ) du même espace vectoriel E la matrice P dont les colonnes sont les coordonnées de (e 1,, e n ) dans la base (e 1,, e n ) Il faut comprendre l expression passage de B E à B E comme cette matrice permet d exprimer un vecteur donné par ses coordonnées dans B E (on le note V BE ) en fonction de ses coordonnées dans B E (on le note alors V BE ) : V BE = P V BE Théorème 2 Soit ϕ une application linéaire d un espace vectoriel E dans un espace vectoriel F Soient B E et B E deux bases de E et P la matrice de passage de B E à B E Soient B F et B F deux bases de F et Q la matrice de passage de B F à B F L application ϕ ramenée dans les bases B E et B F est notée ϕ BE,B F L application ϕ ramenée dans les bases B E et B F est notée ϕ BE,B F Alors Matϕ BE,B F = Q 1 Matϕ BE,B F P En effet, dans B E, 0 0 e i = 1 i 0 0 est transformé par P en la ième colonne de P qui est égale à e i (exprimé dans B E ) Soit x = x i dans B E Dans B E, il s écrit x i e i = i i x i P e i 7

= P x i e i i = P x i = P x Donc, en notant A = Matϕ BE,B F, l image de x par ϕ s écrit dans B F y = AP x = y i = i y i f i Aussi, comme on a écrit e i = P e i, on peut écrire f i = Q 1 f i y = i y i Q 1 f i Donc, dans B F, ce vecteur s écrit y = Q 1 y i = Q 1 AP x CQFD 222 Diagonalisation: un même changement de bases pour le départ et l arrivée La diagonalisation d une matrice carrée diagonalisable (d un endomorphisme diagonalisable ϕ) peut alors s interpréter comme la recherche d un changement de base V appliqué à E, tant comme espace de départ de ϕ que comme son espace d arrivée, pour que ϕ s exprime alors simplement comme une multiplication des coordonnées d un vecteur par un scalaire (a priori différent pour chaque coordonnée) La nouvelle base est une base de vecteurs propres de ϕ et les scalaires multipliant les coordonnées des vecteurs sont les valeurs propres de ϕ 223 SVD: des changements de bases pour que les bases de départ et d arrivée soient toutes deux orthogonales La décomposition en valeurs singulières d une matrice (d une application linéaire ϕ) peut alors s interpréter comme la recherche du changement de base W de l espace de départ E et du changement de base U de l espace d arrivée F qui permettent la situation suivante: 8

les nouvelles bases de départ et d arrivée sont orthonormées (U T U = I et W T W = I), ϕ s exprime alors simplement comme une multiplication des coordonnées d un vecteur par un scalaire (a priori différent pour chaque coordonnée) Les scalaires multipliant les coordonnées des vecteurs sont les éléments diagonaux de Σ (les valeurs singulières) 224 Diagonalisation orthogonale: réservée aux matrices symétriques Bien sûr, lorsque l on souhaite diagonaliser un endomorphisme diagonalisable ϕ de telle sorte que la nouvelle base de E soit une base orthonormée, on fait alors une diagonalisation orthogonale qui est à la fois une diagonalisation (EVD) et une SVD On peut montrer que cela n est réalisable (et réalisé) que pour les endomorphismes (matrices carrées) symétriques 3 Utilisations 31 SVD: décomposer dans une meilleure base 32 Diagonalisation: de l itération au développement de Taylor 9