Adhérence et intérieur de l ensemble des matrices diagonalisables de M n (C)? Montrons que toute matrice de M n (C) est limite d une suite de matrices diagonalisables ; soit M M n (C), onpeuttrigonaliser M = PTP 1 où P GL n (C), T T + n (C). Notons,sik N, T k la matrice dont tous les coefficients non diagonaux sont égaux à ceux de T,etlescoefficients diagonaux sont : (T k ) i,i = T i,i + 1 i + k Alors, assez clairement, T k T,donc(linéarité,donccontinuitéde k + A P AP 1 ) PT k P 1 M.Quiplusest,àpartird uncertainrang, k + les coefficients diagonaux de T k sont deux à deux distincts (une justification : si tous les T i,i sont égaux, c est assez clair. Sinon, soit δ>0 le plus petit des T i,i T j,j non nuls. A partir d un certain rang k 0,onaura n k 2 <δ,etalors, si i = j (T k ) i,i =(T k ) j,j T i,i T j,j = i j (k + i)(k + j) 0 < T i,i T j,j <δ qui montre par l absurde ce qu on voulait). Donc T k est diagonalisable, et PT k P 1 aussi. La caractérisation de l adhérence par les suites montre : L adhérence dans M n (C) de l ensemble des matrices diagonalisables est M n (C) Cherchons maintenant (plus difficile) l intérieur ; l exemple simple 0 1/p 0 0 p + 0 0 0 0 7
montre que la matrice nulle, diagonalisable, est limite d une suite de matrices non diagonalisables, donc la matrice nulle n est pas dans l intérieur de l ensemble des matrices diagonalisables. S inspirant de cet exemple, on peut penser qu une matrice diagonalisable ayant au moins une valeur propres double n est pas intérieure à l ensemble des matrices diagonalisables. Soit en effet M une telle matrice ; elle s écrit M = PDP 1 avec P inversible et D diagonale, et où l on peut supposer D 1,1 = D 2,2 = λ. Soit T p = D + 1 p E 1,2 (les coefficients de T p sont ceux de D, sauflecoefficient (1, 2)). T p n est pas diagonalisable (le rang de T p λi n est n m λ +1 où m λ est le nombre d apparitions de λ sur la diagonale, c est-à-dire la multiplicité de λ. DoncladimensiondeKer(T p λi n ) est m λ 1, cequifaitquet p n est pas diagonalisable). Comme PT p P 1 p + PDP 1 = M M est dans l adhérence de l ensemble des matrices non diagonalisables, elle n est donc pas dans l intérieur des matrices diagonalisables. On conclut provisoirement que : L intérieur dans M n (C) de l ensemble des matrices diagonalisables est inclus dans l ensemble des matrices ayant n valeurs propres distinctes L inclusion réciproque est le passage délicat. Soit (M p ) une suite de matrices convergeant vers une matrice M. OnsupposequeM a n valeurs propres distinctes. Montrons qu alors, à partir d un certain rang, M p aelleaussin valeurs propres distinctes. Notons λ 1,...,λ n les valeurs propres de M. Soit δ>0,etsupposonsquem p n ait pas de valeur propre dans le disque D(λ 1,δ). Le polynôme caractéristique de M p s écrit n χ p (X) = (X µ i,p ) i=1 8
où les µ i,p sont les valeurs propres de M p,comptéesavecleurmultiplicité. On aurait, pour tout i, µ i,p λ 1 δ, donc Or, par continuité du déterminant, χ p (λ 1 ) δ n χ p (λ 1 )=det(λ 1 I n M p ) p + det(λ 1I n M) =0 Donc, à partir d un certain rang, χ p (λ 1 ) <δ n ce qui permet de conclure que, pour tout δ>0, ilexisteunrangàpartir duquel M p aaumoinsunevaleurpropredansledisqued(λ 1,δ). Idempour les autres λ i. Choisissons alors δ strictement inférieur à la moitié de la plus petite distance entre deux λ i : 0 <δ< 1 2 min{ λ i λ j ; i = j} Apartird uncertainrang,m p aaumoinsunevaleurpropredanschacun des D(λ i,δ), orcesdisquessontdisjoints,doncm p aaumoinsn valeurs propres distinctes, donc M p est diagonalisable. Il n existe donc pas de suite de matrices non diagonalisables qui converge vers M. Donc M n appartient pas à l adhérence de l ensemble des matrices non diagonalisables. Donc M appartient à l intérieur de l ensemble des matrices diagonalisables. L intérieur dans M n (C) de l ensemble des matrices diagonalisables est l ensemble des matrices ayant n valeurs propres distinctes Remarque : Il y a bien d autres manières d aborder cette question. Ici, on aévitédeseposerdesproblèmesdecontinuitédel applicationquiàune matrice associe son polynôme caractéristique, de «continuité» des racines d un polynôme... 9
Commutant d une matrice ou d un endomorphisme La recherche du commutant d une matrice ou d un endomorphisme est un problème important, parfois sous-jacent à certains énoncés : par exemple, si on donne une matrice carrée A, sioncherchelesmatricesx telles que X 2 + X = A, oncommenceraparremarquerqu unetellematricecommute nécessairement avec A. 1. Cas des endomorphismes diagonalisables Soit E un espace vectoriel de dimension n, f un endomorphisme de E. Lecommutantdef est C f,ensembledesendomorphismes de E qui commutent avec f. C estunsous-espace vectoriel de L(E). (a) Trouver les matrices qui commutent avec une matrice carrée diagonale à coefficients distincts. Soit D une matrice diagonale de M n (K) àcoefficientsdiagonaux distincts (on les notera d i plutôt que d i,i ). Soit A M n (K). Alors AD = DA (i, j) {1,...,n} 2 (i, j) {1,...,n} 2 (AD) i,j =(DA) i,j a i,j d j = d i a i,j On obtient donc assez facilement (en distinguant ci-dessus les cas i = j et i = j) : AD = DA (A diagonale) (b) Si f est diagonalisable, déterminer la dimension de C f en fonction des dimensions des sous-espaces propres de 10
f (on pourra remarquer qu un endomorphisme qui commute avec f laisse stables les sous-espaces propres de f, et éventuellement poser le problème matriciellement). Soit f diagonalisable, λ 1,...,λ p ses valeurs propres (distinctes) ; pour chaque i,onnotee i le sous-espace propre E i =Ker(f λ i Id), et n i la dimension de E i (qui est aussi la multiplicité de λ i, f étant diagonalisable). Si g C f, g commute avec f, doncavecf λ i Id,doncg laisse stable E i (cours). Mais la réciproque est vraie : supposons que g laisse stable chaque E i ;six E k, (f g)(x) =f g(x) = λ k g(x) (car g(x) E k ); et (g f)(x) =g(λ k x)=λ k g(x). g f et f g coïncident sur chaque p E k,or E k = E (car f est diagonalisable), donc f g = g f. On a montré : Si f est diagonalisable, les endomorphismes qui commutent avec f sont les endomorphismes qui laissent stables les sous-espaces propres de f Maintenant, il reste à utiliser ceci pour calculer la dimension de C f. Une première méthode (matricielle) : Soit B une base adaptée à la décomposition E = E 1 E 2... E p (les n 1 premiers vecteurs de B sont une base de E 1,lesn 2 suivants une base de E 2, etc...). On vient de voir que g était dans C f si et seulement si g laissait stables tous les E k,doncsietseulementsilamatricedeg 11
dans la base B était diagonale par blocs de la forme : A 1 A 2... où chaque A k est carrée d ordre n k.orl espacef des matrices de cette forme est de dimension n 2 1 +...+ n 2 p [on peut en donner une base, ou dire que l application qui à (A 1,...,A p ) associe la matrice construite ci-dessus est un isomorphisme de M n1 (K)... M np (K) dans F,orladimensionde p M n1 (K)... M np (K) est n 2 k]. Comme l application g M B (g) est un isomorphisme de L(E) dans M n (K) (et donc préserve la dimension), on conclut : p dim(c f )= A p n 2 k Une deuxième méthode : Soit G le sous-espace de L(E) constitué des endomorphismes qui laissent stables les E k ;l application de G dans L(E 1 )... L(E p ) qui à g G associe (g 1,...,g p ),oùg k désigne l endomorphisme induit par g sur E k,estunisomorphisme (la linéarité est simple, il suffit de l écrire. La bijectivité est un corollaire du résultat sur «la définition d une application linéaire par ses restrictions aux facteurs d une somme directe supplémentaire»). Or dim L(E 1 )... L(E p ) p p = dim(l(e k )) = n 2 k, ce qui donne la conclusion. 12
(c) Si f admet n valeurs propres distinctes, démontrer que C f = K[f]. Un polynôme de f commute avec f. DoncK[f] C f. Mais le polynôme minimal de f apourdegrén (car il a n racines et ne peut être de degré > n). Donc dim(k[f]) = n. Or,parce qui précède, si f est diagonalisable à valeurs propres distinctes, dim(c f )=n. Ce qui conclut 2. Cas général On «rappelle» (ou plutôt on admet) que, si F est un espace vectoriel de dimension finie, si 0 p dim(f ), l ensembledes endomorphismes de F de rang supérieur ou égal à p est un ouvert de L(F ). (a) Soit E un espace vectoriel de dimension n, f un endomorphisme de E. OnnoteΦ f l élément suivant de L L(E) : Φ f : g g f f g Démontrer que l application f Φ f est continue. Elle est linéaire, et L(E) est de dimension finie car E l est. (b) Soit E un espace vectoriel de dimension n, f un endomorphisme de E. Exprimerdim(C f ) en fonction de rg(φ f ). Comme C f =Ker(Φ f ),onpeutappliquerlethéorèmedurang pour obtenir dim(c f )=n 2 rg(φ f ) 13
(c) Soit E un espace vectoriel de dimension n, f un endomorphisme de E. Déduiredu1.que,sif est diagonalisable, dim(c f ) n. Avec les notations de 1., p p dim(c f )= n 2 k n k = n (cette dernière égalité étant assurée par le fait que f est diagonalisable). (d) Soit E un C-espace vectoriel de dimension n, f un endomorphisme de E. Déduire de tout ce qui précède que dim(c f ) n dim(c f ) n est équivalent à rg(φ f ) n 2 n ;mais {f L(E) ; rg(φ f ) n 2 n} est l image réciproque par Φ f,continue,del ensembledesendomorphismes de L(E) (i.e. l ensemble des éléments de L(L(E))) de rang inférieur ou égal à n 2 n, fermécommecomplémentairede ceux de rang supérieur ou égal à n 2 n+1. C est donc un fermé. Il contient les endomorphismes diagonalisables, qui sont denses dans L(E) (autre exercice classique), donc c est L(E) tout entier. 14
L ensemble des matrices de rang supérieur ou égal à r est un ouvert Ce résultat est utilisé, conjointement à la densité des matrices diagonalisables dans M n (C), danslecadredel exercicesurlecommutant. Démontrons la propriété suivante : l ensemble R des matrices de rang supérieur ou égal à r est une partie ouverte de M n (K), K désignant R ou C. On supposera bien entendu 0 r n. Sir =0,pasdeproblème(R est l espace M n (K) tout entier). Si r = n, R est GL n (K), ouvertcommeimage réciproque de l ouvert K \{0} par l application det. On doit montrer que R est voisinage de chacun de ses points. a. Cas de la matrice canonique de rang r : On commence par une matrice très simple de R : J r = I r (0) (0) (0) notons que l application A A r,oùa r =(a i,j ) 1 i,j r (A r est le coin supérieur gauche r r de A) estcontinue(c estpresqueévident,etelleestlinéaire en dimension finie). Par composition, l application φ : A det(a r ) est continue. L image réciproque O par φ de K \{0} est un ouvert contenant J r,car φ(j r )=1. Mais O R(eneffet, si A O, A r est inversible. Il ne peut donc pas y avoir de relation de dépendance linéaire entre les r premières colonnes de A, carunetellerelationdonneraitunerelationdedépendancelinéaire (avec les mêmes coefficients) entre les colonnes de A r,quisontlespremières colonnes de A tronquées. Donc A est au moins de rang r). Finalement, R est voisinage de J r. Tout cela est assez technique ; il faut comprendre l idée de départ : si une matrice est proche de J r,soncoinr r en haut à gauche est proche de I r, donc inversible, donc la matrice est au moins de rang r. 15
b. «Transport» des résultats du a. vers une matrice quelconque de rang r : Soit maintenant une matrice A de rang r. IlexisteP, Q inversibles telles que A = PJ r Q.L isomorphismeψ : M P 1 MQ 1 est continu car linéaire en dimension finie, et conserve le rang. L image réciproque de O par ψ est un ouvert (car O est ouvert) contenant A (ψ(a) =J r O)etinclusdansR (ψ 1 : M PMQ conserve le rang). Donc R est un voisinage de A. c. Cas des matrices de rang >r Le même raisonnement que ci-dessus montre que, si A est de rang p>r, l ensemble des matrices de rang supérieur ou égal à p est un voisinage de A, donc R aussi car il le contient. On a raisonné sur des matrices carrées, mais si elles sont rectangulaires ça marche aussi bien. 16