Décomposition de Dunford

Documents pareils
Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Continuité en un point

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul fonctionnel holomorphe dans les algèbres de Banach

Commun à tous les candidats

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Limites finies en un point

Résolution d équations non linéaires

Théorème du point fixe - Théorème de l inversion locale

La fonction exponentielle

3 Approximation de solutions d équations

avec des nombres entiers

Image d un intervalle par une fonction continue

Université Paris-Dauphine DUMI2E 1ère année, Applications

Fonctions de plusieurs variables

Cours 02 : Problème général de la programmation linéaire

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Amphi 3: Espaces complets - Applications linéaires continues

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Introduction à l étude des Corps Finis

Quelques tests de primalité

Chapitre VI - Méthodes de factorisation

NOTATIONS PRÉLIMINAIRES

Structures algébriques

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Le produit semi-direct

[ édité le 30 avril 2015 Enoncés 1

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Polynômes à plusieurs variables. Résultant

Correction du Baccalauréat S Amérique du Nord mai 2007

Groupe symétrique. Chapitre II. 1 Définitions et généralités

3. Conditionnement P (B)

Extrait du poly de Stage de Grésillon 1, août 2010

Résolution de systèmes linéaires par des méthodes directes


Continuité et dérivabilité d une fonction

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Correction de l examen de la première session

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Chapitre 2. Matrices

Simulation de variables aléatoires

Exercices Corrigés Premières notions sur les espaces vectoriels

Développement décimal d un réel

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Probabilités sur un univers fini

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Espérance conditionnelle

Cours de mathématiques

I. Polynômes de Tchebychev

Dérivées d ordres supérieurs. Application à l étude d extrema.

Capes Première épreuve

Calcul différentiel sur R n Première partie

Cours d analyse numérique SMI-S4

Chapitre 2 Le problème de l unicité des solutions

1 Définition et premières propriétés des congruences

Intégration et probabilités TD1 Espaces mesurés Corrigé

Logique. Plan du chapitre

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Résumé du cours d algèbre 1, Sandra Rozensztajn. UMPA, ENS de Lyon, sandra.rozensztajn@ens-lyon.fr

Comparaison de fonctions Développements limités. Chapitre 10

Moments des variables aléatoires réelles

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Programmes des classes préparatoires aux Grandes Ecoles

Etude de fonctions: procédure et exemple

VI. COMPLÉMENTS SUR LES MODULES, THÉORÈME CHINOIS, FACTEURS INVARIANTS SÉANCES DU 15, 16 ET 22 OCTOBRE

Cours d Analyse. Fonctions de plusieurs variables

I. Ensemble de définition d'une fonction

Partie 1 - Séquence 3 Original d une fonction

Analyse en Composantes Principales

Suites numériques 3. 1 Convergence et limite d une suite

Développements limités. Notion de développement limité

Suites numériques 4. 1 Autres recettes pour calculer les limites

Calculabilité Cours 3 : Problèmes non-calculables.

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v t

Chapitre 1 : Évolution COURS

Cours d arithmétique Première partie

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Algorithmes pour la planification de mouvements en robotique non-holonome

Développements limités, équivalents et calculs de limites

Mathématiques Algèbre et géométrie

Calcul intégral élémentaire en plusieurs variables

NOMBRES COMPLEXES. Exercice 1 :

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

UNIVERSITE IBN ZOHR Faculté des sciences Agadir. Filière SMA & SMI. Semestre 1. Module : Algèbre 1

1/24. I passer d un problème exprimé en français à la réalisation d un. I expressions arithmétiques. I structures de contrôle (tests, boucles)

Équations d amorçage d intégrales premières formelles

Cours arithmétique et groupes. Licence première année, premier semestre

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Équations non linéaires

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Probabilités sur un univers fini

Transcription:

Décomposition de Dunford Forêt Jérémy El Gareh Amin 0 mars 0 Table des matières Enoncé du Théorème Démonstration Usuelle. Lemmes............................................... Démonstration.......................................... 4 Démonstration Effective 4. Lemmes.............................................. 4. Démonstration.......................................... 5 4 Exemple et Applications 6 4. Exemple de Décomposition de Dunford............................. 6 4. Exponentielle de matrice..................................... 7 4. Puissance de matrice....................................... 8

Enoncé du Théorème Théorème (Décomposition de Dunford). Soient K un corps commutatif, E un espace vectoriel sur K de dimension finie et u L(E) dont le polynôme minimal est scindé. Alors il existe un unique couple (d, n) L(E) tel que : u = d + n d est diagonalisable n est nilpotent n et d commutent : n d = d n De plus n et d sont des polynômes en u. Démonstration Usuelle. Lemmes Lemme.. (Lemme des noyaux). Soient K un corps commutatif, E un espace vectoriel sur K et u L(E). Soient P,..., P m K[X] deux à deux premiers entres eux. On pose P = m i= P i K[X], alors : Ker (P (u)) = m i= Ker(P i(u)). Pour tout i, m le projecteur de Ker(P (u)) sur Ker(P i (u)) Ker(P (u)) est un polynôme en u. Démonstration. On procède par récurrence sur m. Initialisation au rang m = : PGCD(P, P ) = (A, A ) K[X] tel que A P + A P = (Bézout). Soit x Ker(P (u)) Ker(P (u)) alors d après la relation précédente Donc Ker(P (u)) Ker(P (u)) = {0}. x = [(A P )(u)](x) + [(A P )(u)](x) = 0 Soit x Ker(P (u)) Ker(P (u)) alors! (x, x ) Ker(P (u)) Ker(P (u)) tel que x = x + x et : (P (u))(x) = [P P (u)](x) = [P P (u)](x ) + [P P (u)](x ) = [P (u) P (u)](x ) + [P (u) P (u)](x ) (Car les polynômes en u commutent) = 0. Donc Ker(P (u)) Ker(P (u)) Ker(P (u)). Soit x Ker(P (u)) alors d après la relation de Bézout : Posons : x = [(A P )(u)](x) + [(A P )(u)] { x = [(A P )(u)](x) x = [(A P )(u)](x) Il vient alors : (P (u))(x ) = [(P A P )(u)](x) = 0. x Ker(P (u)). = [(A P P )(u)](x) (Car les polynômes en u commutent) = [A (u) P (u)](x)

(P (u))(x ) = [(P A P )(u)](x) = [(A P P )(u)](x) (Car les polynômes en u commutent) = [A (u) P (u)](x) = 0. x Ker(P (u)). Donc x = x + x = x + x Ker(P (u)) Ker(P (u)). Donc Ker(P (u)) Ker(P (u)) Ker(P (u)). On a ainsi montré que Ker(P (u)) = Ker(P (u)) Ker(P (u)) et que le projecteur de Ker(P (u)) sur Ker(P (u)) est (A P )(u) et que celui de Ker(P (u)) sur Ker(P (u)) est (A P )(u). Il s agit bien de polynômes en u. Hérédité : Supposons la propriété vraie pour un certain m N. Soient P,..., P m+ K[X] deux à deux premiers entres eux. Posons P = m+ i= P i = ( m i= P i)p m+, comme m i= P i et P m+ sont deux polynômes premiers entres eux d après le cas m = : Ker(P (u)) = Ker((P... P m )(u)) Ker(P m+ (u)) et les projecteurs π m+ de Ker(P (u)) sur Ker(P m+ (u)) et π de Ker(P (u)) sur Ker((P... P m )(u)) sont des polynômes en u. On a ainsi que Ker(P (u)) = m+ i= Ker(P i (u)). Puis le projecteur de Ker(P (u)) sur Ker(P m+ (u)) est π m+ qui est un polynôme en u et pour tout i, m le projecteur de Ker(P (u)) sur Ker(P i (u)) est π i π qui est bien un polynôme en u. Ce qui clôt la récurrence. Lemme.. (Lemme de Stabilité). Soient (f, g) L(E). (i) Si f et g commutent alors pour toute valeur propre λ de f, le sous-espace propre de f associé à λ est stable par g. (ii) Si f est diagonalisable alors l endomorphisme induit par f sur un sous-espace vectoriel F de E est aussi diagonalisable. Démonstration. Soit x Ker(f λi E ) alors : (f λi E )(g(x)) = f g(x) λg(x) = g(f(x) λx) = g(0) = 0. Ce qui montre le premier point. Pour montrer le second point on va utiliser le fait qu un endomorphisme est diagonalisable si et seulement s il est annulé par un polynôme scindé à racines simples. D après l hypothèse il existe P K[X] scindé à racines simples tel que P (f) = 0. Si on note f = f F alors x F, [P (f )](x) = [P (f)](x) = 0. Donc P annule f et donc f est diagonalisable. Lemme.. (Critère de Codiagonalisation). Soit E un espace vectoriel de dimension finie sur un corps commutatif K. Soient (f, g) L(E) alors les conditions suivantes sont équivalentes : (i) f et g commutent et sont diagonalisables. (ii) f et g sont simultanément diagonalisables. Autrement dit, il existe une base ψ de E telle que f et g soient tout deux diagonaux dans ψ. Démonstration. (i) (ii) : Soient {µ,..., µ r } l ensemble des valeurs propres de g et {λ,..., λ s } l ensemble des valeurs propres de f. Comme f est diagonalisable on sait que E = s i= Ker(f λ ii E ). Puis d après le lemme (..) de stabilité pour tout i, s Ker(f λ i ) est stable par g et g Ker(f λ) est diagonalisable. Ce qui implique que :

Ker(f λ i ) = r j= (Ker(f λ ii E ) Ker(g µ j I E )). On a ainsi : E = s i= Ker(f λ ii E ) = s i= ( r i= (Ker(f λ ii E ) Ker(g µ j I E ))). Si on ne garde que les intersections différentes de {0} on peut écrire E = l k= F k avec l rs. Si on note pour tout k, l, B k une base de F k alors B = l i= B k est une base de E convenant. (ii) (i) : Si f et g commutent dans une base, ils commutent dans toute base. Or par hypothèse il existe une base de E où f et g sont diagonaux. Or deux endomorphismes diagonaux commutent. On a donc exhibé une base où f et g commutent.. Démonstration Preuve. (i) Existence : Soit χ u = (X λ ) m...(x λ r ) mr avec λ i C deux à deux distincts et les entiers m i. D après le lemme (..) de décomposition des noyaux et le théorème de Hamilton-Cayley, E est la somme directe des sous-espaces caractéristiques F i = Ker (u λ i Id) mi : E = r i=f i Soit d l endomorphisme de E dont la restriction à F i est exactement λ i Id Fi : autrement dit, d est diagonalisable et admet chaque sous-espace F i comme espace propre pour la valeur propre λ i. Soit n = u d. Il ne reste plus qu à vérifier que n est nilpotent et commute avec d. Comme chaque sous-espace caractéristique de E est stable par u et par d (donc aussi par n), il suffit de le vérifier pour les restrictions aux F i. Notons avec un indice i les restrictions à F i. On a u i = d i + n i et d i = λ i Id Fi. Or, par définition de F i, (u i λ i Id Fi ) mi = 0. Donc n i est nilpotent et commute clairement avec l homothétie d i. D où le résultat. Le couple (d, n) convient donc. Avant de prouver l unicité, vérifions que d et n sont des polynômes en u. Cela se voit dans la démonstration du lemme (..) de décomposition des noyaux : la projection π i sur F i parallèlement à la somme des autres sous-espaces caractéristiques est un polynôme en u. Or, par construction, on a simplement pris d = r λ i π i C[u] i= Bien entendu n = u d est alors aussi dans C[u]. (ii) Unicité : l existence d un autre couple (d, n ) répondant au problème. On a alors d d = n n. Comme d commute avec n, il commute aussi avec u, donc avec tout polynôme en u. En particulier d commute avec d. Ainsi d et d sont codiagonalisable et donc d d est diagonalisable (cf lemme (..)). De même n commute avec n. Il en découle que n n est nilpotent. Le seul endomorphisme diagonalisable et nilpotent étant 0 on a d = d et n = n. Démonstration Effective. Lemmes Lemme.. (Lemme Inversibilité). Soit U une matrice inversible et N une matrice nilpotente qui commutent, alors U N est inversible. Démonstration. Soit k + l ordre de nilpotence de N, alors (U N) k+ = 0 par commutation, donc U N est nilpotente et on a l identité (I U N)(I + U N + + U k N k ) = I. En multipliant à gauche par U et à droite par U, il advient que : (U N)(U + U N + + U k N k ) = I. 4

Lemme... Pour tout polynôme P, il existe un polynôme Q K[X, Y ] tel que P (X + Y ) = P (X) + Y P (X) + Y Q(X, Y ). Démonstration. Par linéarité on se permet de le vérifier seulement sur les monômes, où c est donné par la formule du binôme : m ( ) m (X + Y ) m = X m + Y mx m + Y Y k X m k k k=. Démonstration Preuve. Soit A M n (K) une matrice dont le polynôme caractéristique vaut : χ A = r (X α i ) ni. On pose P = r i= (X α i) scindé en racines simples. Alors la suite A n définie par : { A0 = A A n+ = A n P (A n )P (A n ) i= converge en un certain sens quadratiquement en un nombre fini d étapes vers la partie diagonale D de la décomposition de Dunford de A. De plus D est un polynôme en A, et la suite se calcule sans avoir besoin des valeurs propres de A. Démonstration. Montrons en premier lieu que P, et donc la suite, se calcule sans faire appel aux valeurs propres de A. Il suffit de remarquer que P = χ A χ A : en effet λ χ i est racine de multiplicité n i de A χ A donc du membre de droite. De plus ce membre de droite n a aucune autre racine que les λ i, c est donc bien P. Ainsi on peut calculer P par un simple calcul de pgcd à partir de χ A par exemple avec l algorithme d Euclide. { A0 = A Montrons par récurrence que A n+ = A n P (A n )P (A n ) C est-à-dire que n, A n est un polynôme en A et P (A n ) est inversible. est bien définie. Comme P est scindé en racines simples alors P P = et par le théorème de Bézout : il existe des polynômes U et V tels que UP + V P =. Appliquer à la matrice A on a que U(A)P (A) = I V (A)P (A). V (A)P (A) est nilpotente car ces deux facteurs commutent, P (A) est aussi nilpotente car P (A) r = 0 pour r max(n i ). En considérant donc I la matrice identité, qui est inversible et V (A)P (A) nilpotente. Il advient d après le Lemme (..) d inversibilité que I V (A)P (A) est inversible. On en déduit que U(A)P (A) inversible = P (A) inversible. Cette première étape, permet de prouver l existence d un tel polynôme A tel que P (A) est inversible. Supposons que k n, A k est un polynôme en A et P (A k ) est inversible. Alors A n+ est un polynôme en A par hypothèse de récurrence et parce que l inverse d une matrice est un polynôme en la matrice. Reste seulement à prouver que P (A n+ ) est inversible pour conclure la récurrence. Par la formule de Taylor : P (A n+ ) P (A n ) = (A n+ A n )Q(A n ) pour un certain polynôme Q soit : P (A n+ ) = P (A n ) P (A n )P (A n ) Q(An). Dans le membre de droite, le premier terme est inversible par hypothèse de récurrence. Dans le deuxième terme les trois facteurs sont des polynômes en A car en A n est polynôme en A par 5

hypothèse de récurrence, donc commutent. On aimerait que ce terme soit nilpotent en invoquant P r pour r max(n i ). Mais pour cela il faudrait avoir un P(A). Qu à cela ne tienne, mettons cette récurrence en pause pour le moment! Montrons par une autre récurrence que : n, P (A n ) P (A) n K[A]. C est vrai au rang 0 (P (A) K[A]) et si c est vrai aux rangs n, le lemme.. permet d affirmer que P (A n+ ) = P (A n + Y ) = Y Q(A n, Y ) avec P (A n ) + Y P (A n ) = 0, car Y = P (A n )P (A n ). P (A n+ ) = P (A n ) P (A n ) Q(A n, Y ) = (P (A) n ) S(A) pour un certain polynôme S. Par hypothèse n + de récurrence, soit P (A n+ ) P (A) n+ K[A], ce qui conclut la récurrence. On peut maintenant conclure la première récurrence : P (A n )P (A n ) Q(A n ) est bien nilpotent puisqu il est nul élevé à toute puissance r telle que r n max(n i ). Le lemme (..) d inversibilité montre donc que P (A n+ ) est inversible. n, l hypothèse de récurrence est vrai. On en déduit que n, A n est un polynôme en A et P (A n ) est inversible. { A0 = A Montrons que la suite A n+ = A n P (A n )P (A n ) converge bien vers le D de Dunford. La récurrence précédente permet d affirmer que la suite est stationnaire dès A n avec n tel que n max(n i ). Ainsi la suite converge en un nombre fini d étape vers D, vérifiant P (D)P (D) = 0 = P (D) = 0, donc A n est diagonalisable car P est scindé en racines simples. A cette étape on a vérifier que n, A n existe et est diagonalisable, il reste donc plus qu a prouver que N = A D est nilpotente et que N et D commutent. N = A D = A 0 A n = (A 0 A ) + + (A n A n ) On remarque que N est une somme de nilpotents donc N est nilpotent. De plus c est un polynôme en A car D l est, donc N commute avec D. On conclut par l unicité dans la décomposition de Dunford. Soit (D, N ), on montre que D et D commutent sur les sous-espaces caractéristiques donc commutent, on obtient que N et N commutent et ainsi N N = D D est diagonalisable nilpotente donc nulle. 4 Exemple et Applications 4. Exemple de Décomposition de Dunford 8 5 Soit A =. Déterminons la décomposition de Dunford de A. Pour ce faire il faut 4 triangulariser la matrice A. Ici nous utiliserons la méthode des blocs de Jordan. 8 X 5 Le polynôme caractéristique de A est P A (X) = X 4 X = (X )(X 4). Les valeurs propres de A sont donc λ =, λ = 4. De plus on remarque que : 6 5 4 5 6 0 6 (A I)(A 4I) = = 6 0 6 0 4 4 5 6 0 6 (X )(X 4) n est pas un polynôme annulateur de A. Donc le polynôme minimal de A est m A (X) = (X )(X 4) Le polynôme minimal étant scindé, la matrice A admet donc une décomposition de Dunford. Le polynôme n ayant pas toutes ses racines simples, la matrice A n est pas diagonalisable. Donc la décomposition de Dunford n est pas triviale. 6

Déterminons les sous espaces propres de A : Ker(A I) = {X = (x, y, z) R / (A I)X = 0} =Vect Ker(A 4I) = {X = (x, y, z) R / (A 4I)X = 0} =Vect Soit v = E et v = E 4. = E λ= = E λ=4 On cherche désormais v tel que (A 4I) v = 0 i.e v Ker(A 4I), le plus simple possible. 4 (A 4I) v = 0 4 v = 0 v = 4 0 Ainsi on remarque que (A 4I)v E 4 d où (A 4I)v = γv. 4 4 = = = γv γ =. 4 0 On pose v = γ v =. 0 0 0 Ainsi on obtient la relation A = LJL avec J = 0 4 et L = 0 0 4 0 La décomposition de Dunford est ainsi on ne peut plus simple : Soit D = 0 0 0 4 0 et N = 0 0 0 0 0 alors la décomposition de Dunford de J s écrit 0 0 4 0 0 0 J = D +N où D est diagonale (donc diagonalisable) et N nilpotente. De plus D et N commutent bien. D après la relation précédente, A = LJL A = L(D + N )L = LD L + LN L où D = LD L est bien diagonalisable et N = LN L est bien nilpotente. Enfin, la commutativité de D et N entraine bien la commutativité de D et N. 5 0 Après calcul, nous obtenons D = et N = 0 0 4. Exponentielle de matrice La décomposition de Dunford, permet ainsi de simplifier le calcul de l exponentielle d une matrice. En effet, si A admet une décomposition de Dunford alors e A = e D+N = e D e N. Proposition. Soit A M n (R) une matrice admettant une décomposition de Dunford et i N l indice de nilpotence de la matrice N (i.e i = min{j N, N j = 0}) on a alors la relation suivante : i e A = e D où N et D sont respectivement la matrice nilpotente et la matrice diagonalisable de la décomposition de Dunford. N k k!. 7

Démonstration. Soit A M n (R) une matrice admettant une décomposition de Dunford. Donc!(N, D) M n (R) tels que A = D + N avec D diagonalisable, et N nilpotente. De plus, N et D commutent. + Viens alors que e A = e D e N = e D N k k!. Si on note i l indice de nilpotence de N, il va de soit que k i, N k = 0. D où le résultat. Exemple. Pour A = Ainsi e A = e D 8 5 4 N k k! D =, on a la décomposition de Dunford : 5 et N = = e D (Id + N) car on remarque que N = 0. 0 0 0 Or D = LD L où D est la partie diagonale de la matrice de Jordan. ( + Ainsi e D = e LD L (LD L ) n + L(D ) n L + ) (D ) n = = = L n! n! n! n=0 n=0 n=0 L = Le D L = 0 e 0 0 0 e 4 0 0 0 e 4 0 0 = De plus : Id + N = Ainsi e A = e + e4 + e4 e e4 e e 4 e e4 + e4 e + e4 e e 4 e + e4 e e4 e e +9e 4 e 5e 4 e +7e 4 4 0 0 e e 4 e 4e 4 e +e 4 e + e 4. e e 4 e e 4 4. Puissance de matrice La décomposition de Dunford, permet aussi de simplifier le calcul de puissance de matrice. En effet, si A admet une décomposition de Dunford alors le calcul de A n peut se faire via la formule du binôme. Proposition. Soit A M n (R) une matrice admettant une décomposition de Dunford et i N l indice de nilpotence de la matrice N on a alors la relation suivante : A n = min{i,n} ( ) n N k D n k k où N et D sont respectivement la matrice nilpotente et la matrice diagonalisable de la décomposition de Dunford. 8

Démonstration. Soit A M n (R) une matrice admettant une décomposition de Dunford. Donc!(N, D) M n (R) tels que A = D + N avec D diagonalisable, et N nilpotente. De plus, N et D commutent. n ( ) n Viens alors que A n = (N + D) n = N k D n k, car N et D commutent. k Si on note i l indice de nilpotence de N, il va de soit que k i, N k = 0. D où le résultat. Exemple. Pour A = 8 5 4 Ainsi A n = (D + N) n = D = Ainsi D n = LD n L =, on a la décomposition de Dunford : 5 et N = 0 0 0 ( ) n N k D n k = D n + nnd n car on remarque que N = 0. k Or D = LD L où D est la partie diagonale de la matrice de Jordan. = 0 De la même manière on trouve : nnd n = Ainsi A n = n 0 0 0 4 n 0 0 0 4 n 0 0 n + 4 n + 4 n n 4 n n 4 n n 4 n + 4 n n + 4 n n 4 n n + 4 n n 4 n n n 4 n 0 n 4 n n 4n 0 n 4 n n 4 n 0 n 4 n n + 4 n (n + ) + 4 n n 4 n n 4 n n 4 n n 4 n (n + ) + 4 n n + 4 n n 4 n + n 4 n n + 4 n (n + ) n 4 n n n 4 n. 9