Chapitre 1 : Matrices

Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Chapitre 2. Matrices

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

NOTATIONS PRÉLIMINAIRES

Cours 02 : Problème général de la programmation linéaire

Résolution de systèmes linéaires par des méthodes directes

Intégration et probabilités TD1 Espaces mesurés Corrigé

Structures algébriques

Correction de l examen de la première session

Intégration et probabilités TD1 Espaces mesurés

Probabilités sur un univers fini

Exercices - Polynômes : corrigé. Opérations sur les polynômes

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Limites finies en un point

Simulation de variables aléatoires

Théorème du point fixe - Théorème de l inversion locale

2. RAPPEL DES TECHNIQUES DE CALCUL DANS R

Cours d Analyse. Fonctions de plusieurs variables

3 Approximation de solutions d équations

Résolution d équations non linéaires

Géométrie dans l espace Produit scalaire et équations

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Exercices Corrigés Premières notions sur les espaces vectoriels

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Angles orientés et trigonométrie

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

NOMBRES COMPLEXES. Exercice 1 :

Le théorème de Thalès et sa réciproque

Calcul différentiel sur R n Première partie

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Pour l épreuve d algèbre, les calculatrices sont interdites.

D'UN THÉORÈME NOUVEAU

Polynômes à plusieurs variables. Résultant

Cours d analyse numérique SMI-S4

Couples de variables aléatoires discrètes

Corrigé du baccalauréat S Asie 21 juin 2010

IV- Equations, inéquations dans R, Systèmes d équations

Introduction à l étude des Corps Finis

Fonctions de plusieurs variables

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

[ édité le 30 avril 2015 Enoncés 1

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

Représentation géométrique d un nombre complexe

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Programmes des classes préparatoires aux Grandes Ecoles

Triangle de Pascal dans Z/pZ avec p premier

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

3. Conditionnement P (B)

Capes Première épreuve

Programmation linéaire et Optimisation. Didier Smets

Chapitre 1 Régime transitoire dans les systèmes physiques

Construction de l'intégrale de Lebesgue

Raisonnement par récurrence Suites numériques

4. NOMBRES COMPLEXES ET TRIGONOMÉTRIE

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Mathématiques Algèbre et géométrie

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Comment démontrer des formules sans effort? exposé de maîtrise

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Eteindre. les. lumières MATH EN JEAN Mme BACHOC. Elèves de seconde, première et terminale scientifiques :

Taux d évolution moyen.

CHAPITRE VIII : Les circuits avec résistances ohmiques

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction

Probabilités sur un univers fini

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Chapitre 1 : Évolution COURS

Dérivation CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES

Image d un intervalle par une fonction continue

Mathématiques appliquées à l'économie et à la Gestion

Les indices à surplus constant

Amphi 3: Espaces complets - Applications linéaires continues

Problème 1 : applications du plan affine

Commun à tous les candidats

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

CNAM UE MVA 210 Ph. Durand Algèbre et analyse tensorielle Cours 4: Calcul dierentiel 2

Chapitre 2 Le problème de l unicité des solutions

6. Les différents types de démonstrations

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

DOCM Solutions officielles = n 2 10.

Le produit semi-direct

Cours de mathématiques

Correction du baccalauréat S Liban juin 2007

Équations non linéaires

Calcul fonctionnel holomorphe dans les algèbres de Banach

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Fonctions de plusieurs variables

Continuité et dérivabilité d une fonction

Chapitre 2 : Vecteurs

Dérivées d ordres supérieurs. Application à l étude d extrema.

Système binaire. Algèbre booléenne

Comparaison de fonctions Développements limités. Chapitre 10

Du Premier au Second Degré

Carl-Louis-Ferdinand von Lindemann ( )

C f tracée ci- contre est la représentation graphique d une

Transcription:

Mr Dunstetter - ENC-Bessières 24\25 Chapitre : I inversibles Dénition : Matrice inversible et matrice inverse Une matrice carrée A M n (R) est dite inversible s'il existe une matrice B M n (R) telle que : AB = BA = I. On dit alors que B est l'inverse de A, et on note : B = A. Tout au long de ce chapitre, nous verrons plusieurs méthodes pour obtenir l'inversibilité ou la non inversibilité d'une matrice, ainsi que son inverse. Méthode n o : Utilisation de la dénition Lorsque l'inverse A de A à obtenir est donné par l'énoncé, pour obtenir que A est inversible et que A est cette matrice, il sut de calculer leur produit et d'obtenir I. On a parfois des petites variations : on calcule le produit P Q = 3I, il faut alors penser à écrire que : ( ) P 3 Q = I donc P est inversible et P = 3 Q. Dans l'autre sens, si on a obtenu que AB = avec A et B, on doit savoir en déduire avec la dénition que A et B ne peuvent être inversibles. En eet si A était inversible on aurait : A (AB) = A () donc B = qui est absurde, donc A n'est pas inversible. De même en multipliant à droite par B on prouve par l'absurde que B n'est pas inversible. Méthode n o 2 : inversibilité et non inversibilité à vue. Une matrice triangulaire est inversible si et seulement si tous les coecients de la diagonale sont non nuls. Une matrice admettant une colonne ou une ligne nulle n'est pas inversible. Une matrice admettant deux colonnes ou deux lignes colinéaires n'est pas inversible. Dénition 2 et théorème : On appelle réduite triangulaire d'une matrice A toute matrice triangulaire obtenue en réalisant des pivots valides sur les lignes de la matrice A. On admet qu'il est toujours possible d'obtenir une réduite triangulaire de A. De plus on a le théorème : Si B est une réduite triangulaire de A, A est inversible si et seulement si B est inversible.

Mr Dunstetter - ENC-Bessières 24\25 Méthode n o 3 : inversibilité et inverse par pivots de Gauss en ligne Le théorème précédent permet d'obtenir l'inversibilité ou la on inversibilité de toute matrice (si on n'a pas pu conclure à vue) en obtenant une réduite triangulaire de cette matrice. De plus on a la propriété : Si A est inversible, A peut être transformée par des pivots sur ses lignes uniquement en la matrice identité. Les mêmes pivots appliqués à la matrice identité la transforment alors en la matrice A. Exemple fondamental : Déterminer les valeurs de λ R pour lesquelles la matrice A λi n'est pas inversible, où A =. 2 2 Pour mener à bien ce type de question, il faut systématiquement suivre les règles suivantes : Les coecients à éliminer sont, toujours et dans l'ordre : les coecients (L2,C) et (L3,C) à l'aide du pivot (L,C) (ligne ), puis le coecient (L3,C2) à l'aide du pivot (L2,C2) (Ligne 2) ; les pivots doivent toujours être situés sur la diagonale de la matrice. Les seuls pivots utilisés doivent toujours être non nuls et ne pas dépendre de λ. Si le coecient qui se trouve sur la diagonale n'est pas utilisable (nul ou dépendant de λ), on échange la ligne avec une des lignes du dessous pour faire venir un coecient correct. Si les coecients en dessous ne sont pas meilleurs (cas où les deux coecients disponibles dépendent de λ), on se sert de la ligne 3 pour éliminer les λ de la ligne 2 et faire apparaître un coecient constant : soit nul (on échange les lignes et c'est terminé), soit non nul (il peut alors servir de pivot). On étudie l'inversibilité de A λi pour λ R : λ A λi = L L 3 λ 2 2 λ L 3 L 3 + 2L 2 L 3 2L 3 + ( λ)l 2 2 λ λ λ 2 2 λ 2 2 λ λ λ 2λ 2 ( λ)( + λ) ( λ)( + λ) On en déduit avec cette réduite triangulaire que A λi n'est pas inversible pour : Dénition 3 : semblables λ = λ = ou ( λ)( + λ) = λ = ou. Deux matrices carrées A et B éléments de M n (R) sont dites semblables s'il existe une matrice P M n (R) inversible telle que : A = P BP ou B = P AP Remarque Cette dénition est symétrique : en eet si A = P DP, en posant Q = P, Q est inversible d'inverse Q = P et on a : A = P BP P AP = P (P BP )P B = P AP B = QAQ. Méthode n o 4 : Inversibilité et inverse avec les matrices semblables Si A et B sont semblables, on prouve que A est inversible si et seulement si B l'est, et de plus : si A = P BP avec A et B inversibles, alors : A = P B A. Cette méthode est très importante : une part importante du travail de l'année en algèbre consistera à apprendre à trouver, pour une matrice A donnée une matrice semblable à A et beaucoup plus simple (diagonale, parfois triangulaire) : on pourra alors ramener presque n'importe quelle question (et en particulier ici l'inversibilité et l'inverse) sur la matrice A à la même question sur sa matrice semblable où la question est élémentaire. 2

Mr Dunstetter - ENC-Bessières 24\25 Preuve Prouvons ce résultat : comme le candidat à être l'inverse est donné, il sut de revenir à la dénition et de calculer : A(P B P ) = (P BP )(P B P ) = P B(P P )B P = P BIB P = P (BB )P = P IP = P P = I donc A est bien inversible et A = P B P. Exemple On suppose qu'on a prouvé que A = P DP, où P et P sont connus et D est la matrice diagonale : D = /2 3 A est semblable à D qui est diagonale sans sur sa diagonale donc inversible, donc A est inversible et de plus : A = P D P = P 2 P /3 Dénition 4 et théorème : Polynôme annulateur. Soit P un polynôme tel que P (A) =. On dit alors que P est un polynôme annulateur de la matrice A. On admet qu'une matrice A M n (R) admet toujours un polynôme annulateur de degré inférieur ou égal à n (on peut de plus toujours prendre le coecient de la plus grande puissance égal à ). Méthode n o 5 : obtenir un polynôme annulateur et l'utiliser pour l'inversibilité et l'inverse. Un polynôme annulateur s'obtient en écrivant une puissance de A en fonction des précédentes (et I, qui est A ). Exemple : Si on a montré que A 4 = 2A 3 A + 2I, alors : A 4 2A 3 + A 2I = A 4 2A 3 + A 2A = donc le polynôme P (x) = x 4 2x 3 + x 2x = x 4 2x 3 + x 2 est annulateur de A. Si on connaît un polynôme annulateur de A faisant apparaître I, cela permet d'obtenir l'inversibilité et l'inverse de A : il faut pour cela isoler I : A 4 2A 3 + A = 2I ( ) 2 (A4 2A 2 + A) = I A 2 [A3 2A + I] = I donc A est inversible et A = 2 (A3 2A + I). II Etude d'une matrice par l'application linéaire canoniquement associée Dénition 5 : Application linéaire canoniquement associée à une matrice. Pour tout matrice A M n (R), on note f A (attention, ce n'est pas une notation générique du programme, il faut la redénir à chaque fois!!) l'application : f A : M 3, (R) M 3, (R) X AX Cette application est linéaire, et on notera par abus de langage ker(a) son noyau et Im(A) son image, ce qui donne : Méthode n o 6 : Inversibilité et inverse de A à l'aide de f A On montre (preuve ci-dessous) que la matrice A est inversible si et seulement si f A est bijective, et dans ce cas : f A = (f A ). 3

Mr Dunstetter - ENC-Bessières 24\25 On peut alors, pour chercher A, déterminer la réciproque de l'application f A : on résout : x = 2y + y 2 + y 3 2y + y 2 + y 3 2 f A (X) = Y... x 2 = y + y 2 y 3 X = y + y 2 y 3 = Y = BY. x 3 = y y 2 + y 3 y y 2 + y 3 On en déduit que :(f A ) (Y ) = BY est l'application linéaire canoniquement associée à la matrice B, donc A est inversible et A = B. Preuve On suppose que A est inversible, alors pour tout X M 3, (R), donc f A est bien bijective et (f A ) = f A. f A (X) = Y AX = Y A AX = X = A Y = f A (Y ) Supposons réciproquement que f A est bijective. D'après le cours sur les applications linéaires, sa réciproque (f A ) est également linéaire de M 3, (R) dans lui même, elle s'écrit donc forcément : (f A ) x ax + by + cz y = dx + ey + fz = a b c d e f x y. z gx + hy + iz g h i z donc il existe une matrice B telle que (f A ) (X) = BX. On remarque alors que pour tout vecteur X, on a : X = (f A ) (f A (X)) = (f A ) (AX) = B(AX) = (BA)X. En appliquant ce résultat en particulier sur la base canonique de M 3, (R), cela permet de calculer successivement les colonnes de la matrice (BA), qui sont ces mêmes vecteurs de la base canonique, et enn on obtient BA = I : A est donc inversible et B = A, donc (f A ) = f A. Dénition 6 : Image d'une matrice. Soit A M n (R), on appelle Im A l'image de l'application linéaire canoniquement associée à A, c'està-dire : Im A = {f A (X) = AX tel que X M 3, (R)}. Remarque On remarquera que pour toute matrice A, son image est l'espace vectoriel engendré par ses colonnes. Exemple : si A = 2, alors on a : Im A = x x + z A y tq x, y, z R = 2x y + z = x 2 + y + z tq x, y, z R z x z = C 3 C 3 C C 3 C 3 C 2 Vect 2 ; ; = Vect 2 ; 2 ; = Vect 2 ; Dénition 7 : Noyau d'une matrice. Soit A M n (R), on appelle Ker A l'image de l'application linéaire canoniquement associée à A, c'est-à-dire : Ker A = {X M 3, (R) tel que AX = }. Dénition 8 et théorème : Rang d'une matrice. On appelle rang de la matrice A, et on note rg(a), la dimension de Im A. On a alors le théorème du rang : pour toute matrice A M n (R), dim(ker A) + dim(im A) = n ou encore dim(ker A) + rg(a) = n. 4

Mr Dunstetter - ENC-Bessières 24\25 Exemple Cherchons le noyau de la matrice A ci-dessus : x x Ker(A) = X = y tq A y =. z z Résolvons cette équation : x A y = z et on obtient nalement que : x + z x + z = 2x y + z = 2x y + z = x z x z = x = z z y = z X = z = z z = z z Ker A = z tq z R = Vect. x + z = y z = = Remarque On obtient alors assez facilement que Ker A est de dimension (on en a une famille génératrice dont la liberté est immédiate, c'est donc une base de cardinal ), et Im A est de dimension 2 : on en a une famille génératrice échelonnée donc libre, c'en est une base de cardinal 2. On peut donc voir que le théorème du rang est bien vérié sur ce cas particulier puisque dim(ker A) + dim(im A) = 3 (c'est bien entendu toujours le cas). D'après le cours sur la dimension nie, l'application linéaire f A est bijective si et seulement si son noyau est réduit à {} (elle est alors injective) ou si et seulement si son image est de dimension maximale (elle est alors surjective). Or on vient de voir que A est inversible si et seulement si f A est bijective, on obtient donc : Théorème : Lien entre Ker A, Im A et l'inversibilité de A. Soit A une matrice de M n (R), les trois propriétés suivantes sont équivalentes : A est inversible Ker A = {} dim(im A) = rg(a) = n. III Puissances de matrices Puissances d'une matrice diagonale Propriété 2 λ Soit P = une matrice diagonale. λ n Alors pour tout k N, λ k P k = λ k n De plus si P est inversible, c'est-à-dire si λ i pour tout i, alors : P λ = λ n Preuve Récurrence. 5

Mr Dunstetter - ENC-Bessières 24\25 2 nilpotentes Dénition 9 Une matrice est dite nilpotente lorsqu'il existe k N tel que P k =, et P. Remarques. Attention, les matrices nilpotentes ne sont pas toujours triangulaires! (même si la plupart des matrices nilpotentes qu'on rencontrera le seront) 2. Ces matrices sont particulièrement pratiques pour utiliser le binôme de Newton, car toutes les puissances à partir de la k-ième sont nulles. 3. Une matrice nilpotente ne peut pas être inversible : Sinon en multipliant k fois par M la relation M k =, on obtient M =, ce qui est absurde. On verra que cela signie que est valeur propre de la matrice. 4. La relation M k = donne un polynôme annulateur de la matrice M : P (x) = x k. On verra que lorsqu'on dispose d'un polynôme annulateur, les seules valeurs propres possibles de la matrice sont les racines de ce polynôme : ici la seule possible est donc. 5. On obtiendra donc Sp M = {} pour toute matrice nilpotente. 3 Formule du binôme de Newton Propriété 3 Soient A et B deux matrices qui commutent, c'est-à-dire qui vérient AB = BA. Alors pour tous polynômes P et Q, P (A) et Q(B) commutent et on a, pour tout n N : (A + B) n = n A k B n k k= (A + B) n = n B k A n k k= Exemple 2 2 2 2 On pose M = 2 3 = 2 + 3 = A + B. 2 2 On a AB = BA = 2B donc A et B commutent. D'où pour tout n N, M n = (A + B) n = n k= B k A n k. 6 Mais la matrice B est nilpotente : on obtient B 2 = puis B 3 =, donc B k = pour tout k 3, et : pour tout n 2, M n = ( ) n A n + ( ) n BA n + ( n 2) B 2 A n 2. 2 n Enn A est diagonale donc on connait A n = A n = 2 n = 2 n I, et enn : 2 n 2 n n2 n n(3n )2 n 2 M n = 2 n I + n2 n B + n(n ) 2 n 2 B 2 = 2 n 3n2 n 2. 2 n 6

Mr Dunstetter - ENC-Bessières 24\25 4 Puissances de matrices semblables Propriété 4 Soit M et N deux matrices semblables, vériant M = P NP (et donc N = P MP ). Il faut savoir prouver par récurrence que pour tout n N on a : (et donc N n = P M n P ). De plus si M est inversible, N l'est aussi et : (et donc N = P NP ). M n = P N n P M = P N P Exemples fondamentaux On trouve une matrice diagonale D telle que M = P DP. Alors : λ M = P P. λ n λ k donc pour tout k N, M k = P N k P = P P. λ k n On trouve une matrice T triangulaire supérieure, avec toujours le même coecient sur la diagonale, telle que M = P DP. Alors :est. 2 2 Exemple : T = 2 3. 2 On a vu au paragraphe précédent qu'on est capable de trouver les puissances de la matrice T. Ensuite on peut écrire M k = P T k P pour tout k N. IV Transposée d'une matrice Dénition Soit A M n,p (R). On appelle transposée de A et on note A t ou t A la matrice de M p,n (R) dont les lignes sont les colonnes de A et les colonnes sont les lignes de A. Propriété 5 : Calculs avec la transposée. Soit A une matrice de M n,p (R), on a : (A t ) t = A. Soient A et B deux matrices de M n,p (R) et λet µ des réels : (λa + µb) t = λa t + µb t (Cela signie que la transposée est une application linéaire.) Soient A et B deux matrices de M n,p (R) et M p,k (R), on a : (AB) t = B t A t. 7

Mr Dunstetter - ENC-Bessières 24\25 Propriété 6 Inversibilité et inverse d'une transposée. soit A M n (R), et donc A t M n (R). Alors A est inversible si et seulement si A t l'est, et on a : (A t ) = (A ) t c'est-à-dire que l'inverse de la transposée de A est la transposée de l'inverse de A. Preuve Supposons que A est inversible, il admet un inverse A et on a (I est symétrique donc I t = I : donc A t est inversible et son inverse est bien (A ) t. AA = I donc (AA ) t = I t donc (A ) t A t = I Supposons réciproquement que A t est inversible : on peut lui appliquer le sens direct de la propriété, on en déduit que sa transposée (qui est A) est inversible. Propriété 7 : Rang d'une transposée On admet que pour tout matrice A, le rang de A et de A t sont égaux, c'est-à-dire : rg(a t ) = rg(a). V Résolution d'équations matricielles Exemples ( ) 3 Soit A =, l'équation AM = 2MA, d'inconnue M M 2 2(R), se résout en prenant M quelconque : ( ) a b pour M =, c d a + 3c AM = 2MA a + 2c b + 2d b + 3d ( ) a + b 3a + 2b = 2 c + d 3c + 2d { a 2b + 3c = 3a b + 3d = a + c d = b 3c = Ce système se résout sans problème par pivots, en remettant les équations les unes en dessous des autres, puis en remplissant la matrice M solution avec les solutions du système. Cet exemple fonctionne, malgré la complexité de la matrice A, car on sait encore résoudre en un temps raisonnable les systèmes à 4 équations. Soit A = 2 3 l'équation AM =, d'inconnue M M3(R), se résout en prenant M quelconque : a b c pour M = d e f, g h i a + d + g b + e + h c + f + i AM = a + 2d + 3g b + 2e + 3h c + 2f + 3i = a + g b + h c + i qui donne 9 équations à 9 inconnues, ce qui probablement insoluble en un temps raisonnable. De manière générale, les équations matricielles dans M 3(R) donnent 9 équations : si les matrices connues de l'équation sont "compliquées" (autre que diagonale ou, au pire, triangulaire), on ne pourra pas les résoudre. 2 Soit D =, l'équation DM = 2MD donne : 4 2a 2b 2c 2a b 4c DM = 2MD d e f = 2d e 4f 4g 4h 4i 2g h 4i On a à nouveau 9 équations, mais cette fois-ci elles sont indépendantes les unes des autres, chaque équation a une solution immédiate simple. On peut donc résoudre le système. 8

Mr Dunstetter - ENC-Bessières 24\25 On remarque que lorsque les matrices "connues" qui dénissent l'équation sont complexes, dès qu'on se retrouve dans M 3 (R) (et même dans M 2 (R) dans certains cas), les systèmes deviennent trop compliqués pour les résoudre à la main en temps raisonnable. Comme pour les puissances, on va alors s'appuyer sur l'écriture de ces matrices à l'aide d'une matrice semblable plus simple. Exemple On suppose qu'on a prouvé que A = P DP, avec D = et on veut résoudre l'équation AM = MA 2 d'inconnue M M 3(R). On commence par se ramener à une équation similaire avec la matrice D : comme P et P sont inversibles, AM = MA P DP M = MP DP P (P DP M)P = P (MP DP )P D(P MP ) = (P MP )D. On remarque qu'en posant une nouvelle variable N = P MP M = P NP (donc si on trouve N, on en déduira facilement N!), cette équation se réécrit : AM = MA DN = ND. On résout alors cette équation avec N quelconque : a b c a b c D d e f = d e f D g h i g h i b 2c d e f = e 2f 2g 2h 2i h 2i = = b = 2c d = e = e f = 2f 2g = 2h = h 2i = 2i a = a b = c = d = e = e f = g = h = i = i a N = e i Enn on conclut quant à la matrice M : on obtient que : a a AM = MA N = P MP = e M = P NP = P e P. i i qu'il ne reste plus qu'à calculer! Remarque : on peut même, sans connaître P, aller plus loin : on reconnaît une forme explicite et on peut écrire : S = ap P + ep P + ip P = am + em 2 + im 3 tq a, e, i R = Vect[M, M2, M3] et on peut même prouver que cette famille est libre sans expliciter P et P : en factorisant à gauche par P et à droite par P on résout : a a a am +bm 2+cM 3 = P P = P P P P = b c b c b c La famille [M, M 2, M 3] est donc génératrice de S et libre, c'est une base de l'ensemble des solutions qui est donc un espace vectoriel de dimension 3. = a = b = c =. 9