i e ligne et la j e colonne de M. x n p (A) i,k (B) k,j.

Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Chapitre 2. Matrices

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Cours d analyse numérique SMI-S4

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Résolution de systèmes linéaires par des méthodes directes

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Exercices Corrigés Premières notions sur les espaces vectoriels

3 Approximation de solutions d équations

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Introduction à l étude des Corps Finis

Cours 02 : Problème général de la programmation linéaire

[ édité le 30 avril 2015 Enoncés 1

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

IV- Equations, inéquations dans R, Systèmes d équations

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Probabilités sur un univers fini

Correction de l examen de la première session

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

Limites finies en un point

Fonctions de plusieurs variables

Programmes des classes préparatoires aux Grandes Ecoles

Calcul différentiel sur R n Première partie

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Cours d Analyse. Fonctions de plusieurs variables

Développement décimal d un réel

Capes Première épreuve

Probabilités sur un univers fini

Résolution d équations non linéaires

Pour l épreuve d algèbre, les calculatrices sont interdites.

Simulation de variables aléatoires

Commun à tous les candidats

Le produit semi-direct

Les indices à surplus constant

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Cours de mathématiques

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

3. Conditionnement P (B)

Triangle de Pascal dans Z/pZ avec p premier

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Intégration et probabilités TD1 Espaces mesurés Corrigé

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Chapitre 1 : Évolution COURS

Extrait du poly de Stage de Grésillon 1, août 2010

NOTATIONS PRÉLIMINAIRES

Théorème du point fixe - Théorème de l inversion locale

Problème 1 : applications du plan affine

Polynômes à plusieurs variables. Résultant

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Chapitre 2 Le problème de l unicité des solutions

Programmation linéaire et Optimisation. Didier Smets

III- Raisonnement par récurrence

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

Différentiabilité ; Fonctions de plusieurs variables réelles

Amphi 3: Espaces complets - Applications linéaires continues

Comment démontrer des formules sans effort? exposé de maîtrise

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Intégration et probabilités TD1 Espaces mesurés

Mathématiques appliquées à l'économie et à la Gestion

Calcul différentiel. Chapitre Différentiabilité

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Correction du Baccalauréat S Amérique du Nord mai 2007

Calcul fonctionnel holomorphe dans les algèbres de Banach

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction

I. Polynômes de Tchebychev

Partie 1 - Séquence 3 Original d une fonction

Dérivées d ordres supérieurs. Application à l étude d extrema.

Analyse en Composantes Principales

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

VI. COMPLÉMENTS SUR LES MODULES, THÉORÈME CHINOIS, FACTEURS INVARIANTS SÉANCES DU 15, 16 ET 22 OCTOBRE

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

CCP PSI Mathématiques 1 : un corrigé

Corrigé du baccalauréat S Asie 21 juin 2010

Structures algébriques

Quelques tests de primalité


Programmation linéaire

Une forme générale de la conjecture abc

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Moments des variables aléatoires réelles

Chapitre VI - Méthodes de factorisation

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

1 Définition et premières propriétés des congruences

Eteindre. les. lumières MATH EN JEAN Mme BACHOC. Elèves de seconde, première et terminale scientifiques :

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Continuité en un point

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 3. Les distributions à deux variables

Comparaison de fonctions Développements limités. Chapitre 10

Cours Fonctions de deux variables

Couples de variables aléatoires discrètes

UNIVERSITE IBN ZOHR Faculté des sciences Agadir. Filière SMA & SMI. Semestre 1. Module : Algèbre 1

Baccalauréat L spécialité, Métropole et Réunion, 19 juin 2009 Corrigé.

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Transcription:

Dans tout ce chapitre désignera ou, n et p deux entiers de On conviendra dans toute la suite, pour toute matrice M de M n,p () et tout couple (i, j) de 1, n 1, p, de noter (M) i,j le terme général de la matrice M, autrement dit le terme situé sur la i e ligne et la j e colonne de M On utilisera la notation abusive x1 x n pour un vecteur (x 1,, x n ) de n On appelle produit de A M n,p () par M p,q () la matrice A de M n,q () de terme général (A) i,j = p (A) i,k () k,j k=1 (1) La j ème colonne de A est la combinaison linéaire des colonnes de A avec les coefficients de la j ème colonne de (2) La i ème ligne de A est la combinaison linéaire des lignes de avec les coefficients de la i ème ligne de A (3) Deux matrices non nulles peuvent avoir un produit nul : 1 1 1 1 11 = 00 (4) E i, j E k,l = δ jk E il (5) Le produit matriciel n est pas commutatif : 1 1 1 1 1 1 1 1 = 0 0 0 0 1 1 1 1 1 1 1 1 = 2 2 2 2

(1) Montrer que T + n () et Tn () sont stables par le produit Préciser les termes diagonaux d un produit de matrices triangulaires supérieures (2) Soit A T + n () Montrer que A AT = A T A si, et seulement si, A est diagonale Avec les notations adéquates, Mat(f (u)) = Mat(f ) Mat(u) F E, F E Montrer que A M n,p (), [ X p, AX = 0] A = 0 Dans les conditions adéquates, Mat E, G (g f ) = Mat F, G (g) Mat E, F (f ) (1) Le produit matriciel est associatif, et l application (A, ) A est bilinéaire, autrement dit pour toutes matrices A 1, A 2, 1, 2 et tous scalaires λ 1, λ 2, µ 1, µ 2 (λ 1 A 1 + λa 2 ) (µ 1 1 + µ 2 2 ) = λ 1 µ 1 A 1 1 + λ 1 µ 2 A 1 2 + λ 2 µ 1 A 2 1 + λ 2 µ 2 A 2 2 (2) La matrice unité est l élément neutre du produit, la matrice nulle en est l élément absorbant (3) Pour toutes matrices A M n,p () et M p,q (), (A ) T = T A T A = A

Soit A M n (), on définit les puissances de A par A 0 = I n, et pour tout n, A n+1 = A A n = A n A p Pour tout polynôme P = a k X k [X], p k=0 P(A) = a k A k = a 0 I n + a 1 A + + a p A p k=0 Si P [X] et A T + n (), les termes diagonaux de P(A) sont (P(A)) i,i = P (A) i,i Donner un polynôme annulateur d une matrice diagonale si A M n (), et si P [X] verifie P(A) = 0 n, alors pour tout k, on a X k = R(A) en notant R le reste de la division euclidienne de X k par P Soient p, et A, M n () telles que A = A, alors on a p le binôme de Newton (A + ) p p = k A k p k, k=0 p l identité géométrique A p+1 p+1 = (A ) A k p k La matrice A M n () est dite inversible lorsqu il existe M n () qui vérifie A = A = I n Cette matrice est alors unique, on l appelle inverse de A et on la note A 1 L ensemble des matrices inversibles de M n (), noté Gl n (), muni de la multiplication des matrices, est un groupe, appelé groupe linéaire d'ordre n k=0

Si A = 0, et si est une matrice non nulle, alors A n est pas inversible À quelle condition une matrice diagonale est-elle inversible? Quel est son inverse dans ce cas? Soit A M n () Les affirmations suivantes sont équivalentes : (i) A est inversible, (ii) Ker(A) = {0}, (iii) Im(A) = n, (iv) les colonnes de A forment une base de n, (v) A est un automorphisme de n, (vi) une application linéaire de matrice A dans des bases quelconques est bijective, (vii) toute application linéaire ayant pour matrice A dans des bases quelconques est bijective Soient A et deux matrices de M n () (1) Si A est inversible, alors A 1 l est aussi et A 1 1 = A (2) Si A et sont inversibles, alors A est inversible et (A) 1 = 1 A 1 (3) Si A est inversible, alors A T l est aussi et A T 1 = A 1 T (4) Si A = I n alors A et sont inversibles, et = A 1, (il n est pas nécessaire de vérifier que A = I n ) Si M n () est nilpotente, alors I n + et I n sont inversibles

q si P = a k X k est un polynôme annulateur de A M n (), et k=0 si a 0 0, alors P(A) = 0 n donne A q ( a k )A k 1 = I a n, donc A est inversible 0 k=1 Soit AX = un système de n équations linéaires à n inconnues (A M n ()), alors les affirmations suivantes sont équivalentes : (i) le système admet une solution unique ; (ii) le système homogène AX = 0 a pour unique solution la solution nulle ; (iii) A est une matrice inversible On dit alors que c est un système de Cramer Soit E un espace vectoriel de dimension n, où n, et une base de E Pour toute famille de vecteurs de E, est une base de E si, et seulement si, la matrice Mat ( ) est inversible 1 Dans ce cas, son inverse est Mat ( ) = Mat() Si est une base de E, la matrice Mat ( ) de la famille dans la base est appelée matrice de passage de la base à la base C est une matrice inversible de M n ()

Toute matrice inversible peut être interprétée comme une matrice de passage Changement de coordonnées pour un vecteur : pour tout u E, Mat(u) = Mat ( ) Mat(u), autrement dit si on note X = Mat (u), et X = Mat(u) les colonnes de coordonnées de u dans les deux bases, et P la matrice de passage de à, X = P X Changement de matrice pour une application linéaire : si F est un -espace vectoriel muni de deux bases C et C, Q la matrice de passage de C à C, et si φ est une application linéaire de E dans F, Mat(φ) = Mat(C) Mat(φ) Mat C C C c est-à-dire Mat (φ) = Q 1 Mat (φ) P C C ( ) Cas d'un endomorphisme pour tout endomorphisme φ de E, Mat(φ) = Mat() Mat(φ) Mat ( ) = P 1 Mat (φ) P

Le rang d une matrice est le rang de la famille de ses vecteurs colonnes dans M n,p (), la matrice canonique de rang r est la matrice r Ir 0 J r = E ii = r,p r 0 n r,r 0 n r,p r i=1 Une matrice A de M n,p () est de rang r si, et seulement si, elle est équivalente par les lignes et les colonnes à une matrice canonique de rang r, autrement dit si, et seulement si, il existe des matrices carrées inversibles P Gl n () et Q Gl p () qui vérifient : A = PJ r Q Le rang d une matrice ne change pas quand on la multiplie par une matrice inversible Une matrice carrée de M n () est inversible si, et seulement si, son rang est n Le rang d une matrice est égal au rang de sa transposée Autrement dit, le rang d une matrice est aussi le rang de la famille de ses vecteurs lignes

On suppose que n, n 1, n 2, p, p 1, p 2, q, q 1, q 2 sont des entiers strictement positifs vérifiant n = n 1 + n 2, p = p 1 + p 2 et q = q 1 + q 2 Soient A M n,p () et M p,q (), on peut écrire A et sous forme de blocs : A11 A A = 12 11 et = 12 A 21 A 22 21 22 où A 11, A 12, A 21, A 22 sont respectivement dans M n1,p 1 (), M n1,p 2 (), M n2,p 1 (), M n2,p 2 (), et 11, 12, 21, 22 sont respectivement dans M p1,q 1 (), M p1,q 2 (), M p2,q 1 (), M p2,q 2 () Alors A = A11 11 + A 12 21 A 11 12 + A 12 22 A 21 11 + A 22 21 A 21 12 + A 22 22 Si (A, ) M n () 2, alors In A I n In A O n I n = In 0 n I n + A Ce principe de calcul se généralise à un nombre quelconque de blocs, du moment que la partition des colonnes de A coïncide avec celle des lignes de

Soit F un sous-espace vectoriel d un -espace vectoriel E, et u L(E) On dit que F est stable par u lorsque u(f) F Dans ce cas, on appelle endomorphisme de F induit par u l application de F dans F, x u(x) Pour qu un sous-espace vectoriel F soit stable par u, il suffit que pour une base (e 1,, e p ) de F, on ait, pour tout i 1, p, u(e i ) F C est aussi une condition nécessaire, évidemment Soit n, supposons que dim(e) = n, que F est un sous-espace vectoriel de dimension p, et que = (e 1,, e p, e p+1,, e n ) est une base de E adaptée à F Alors F est stable par u L(E) si, et seulement si, la matrice de u dans la base est de la forme Mat (u) = A 0 n p,p D où A M p (), M p,n p (), et D M n p () Dans ce cas A est la matrice de l endomorphisme de F induit par u dans la base (e 1,, e p ) de F

Soient r un entier supérieur ou égal à 2, et F 1,, F r des sous-espaces vectoriels de bases respectives 1,, r et de dimension respectives n 1,, n r de l espace vectoriel de dimension finie E r On suppose que E = F i et on note la base obtenue par réunion i=1 des bases i Les sous-espaces vectoriels F i sont stables par f si, et seulement si, la matrice de f dans la base est diagonale par blocs, c est-à-dire de la forme A 1 (0) (0) (0) A 2 (0) (0) (0) A r où pour tout i 1, r, A i est une matrice de M ni (), c est la matrice dans la base i de l endomorphisme de F i induit par f Si u et v sont deux endomorphismes qui commutent entre eux, alors Ker(u) et Im(u) sont stables par v Un endomorphisme u d un espace vectoriel E de dimension finie est une homothétie si, et seulement si, toute droite vectorielle de E est stable par u

Il existe une unique application de M n () dans, notée det, et appelée déterminant, vérifiant les trois propriétés suivantes : det est linéaire par rapport à chacune des colonnes de sa variable ; det est anti-symétrique par rapport aux colonnes de sa variable ; det(i n ) = 1 Soit E un -espace vectoriel de dimension n, dont est une base, et (x 1,, x n ) une famille de vecteurs de E On appelle déterminant de la famille de vecteurs (x 1,, x n ) dans la base le réel noté det (x 1,, x n ) défini par det (x 1,, x n ) = det Mat (x 1,, x n ) (1) Le déterminant d une matrice dont deux colonnes sont égales est nul ; (2) pour tout (λ, A) M n (), det(λa) = λ n det(a) ; (3) pour toutes matrices A et, det(a ) = det(a) det() ; (4) une matrice A est inversible si, et seulement si, det(a) 0, et dans ce cas det(a 1 ) = det(a) 1 ; (5) pour toute matrice A, det(a T ) = det(a)

La famille (x 1,, x n ) est libre si, et seulement si, son déterminant dans n importe quelle base est non nul Si x et y forment une famille libre de 3, alors z Vect(x, y) si, et seulement si, det(x, y, z) = 0 C Si i j, les opérations élémentaires L i L i +λl j et C i C i +λc j conservent le déterminant, les opérations L i L j et C i C j changent le signe du déterminant, L i αl i et C i αc i multiplient le déterminant par α Soit A M n () Pour tout (i, j) 1, n 2, on note i,j, le déterminant de la matrice obtenue en supprimant la i-ème ligne et la j-ème colonne de A (1) Le développement suivant la j-ème colonne donne : det(a) = ( 1) i+j i, j a i,j (2) Le développement suivant la i-ème ligne donne : det(a) = ( 1) i+j i, j a i,j i=1 j=1

(1) Le déterminant d une matrice triangulaire est égal au produit des éléments de sa diagonale A (2) Si A M n (), M n,p (), et D M p (), alors det = 0 D det(a) det(d) A 0 (3) De même, par la transposition, det = det(a) det(d) C D (4) Plus généralement, le déterminant d une matrice triangulaire par blocs est égal au produit des déterminants de ses blocs diagonaux Soient (A, ) M n () 2 et M = Montrer que det(m) = det(i n + A) In A I n Soit n et (x 1,, x n ) n, alors on appelle déterminant de Vandermonde le déterminant suivant 1 x 1 x 2 x n 2 x n 1 1 1 1 1 x V n (x 1,, x n ) = 2 x 2 x n 2 x n 1 2 2 2 1 x n x 2 x n 2 x n 1 n dont la valeur est V n (x 1,, x n ) = 1 i<j n n (x j x i ) n Montrer que par n + 1 points distincts du plan passe la courbe d un unique polynôme de degré inférieur à n

Deux matrices carrées A et de M n () sont dites semblables lorsqu il existe une matrice inversible P Gl n () qui vérifie = P 1 AP Deux matrices semblables ont même déterminant La réciproque est fausse, en effet la matrice nulle 0 2 et la matrice J dont tous les termes valent 1 ne sont pas semblables, mais elles ont pour déterminant 0 Deux matrices sont semblables si et seulement si elles représentent, relativement à deux bases différentes (ou pas), un même endomorphisme Par conséquent, toutes les matrices d un même endomorphisme ont le même déterminant, que l on nomme déterminant de l'endomorphisme Soient A et de M n (), pour montrer que deux matrices sont semblables, on peut chercher une base de n dans laquelle l endomorphisme X AX (l endomorphisme de n canoniquement associé à A) est représenté par la matrice

(1) Montrer que la seule matrice de M n () semblable à la matrice d homothétie λi n est λi n elle-même 0 1 0 1 0 0 (2) Montrer que les matrices A = 4 4 0 et N = 2 1 1 0 sont semblables, et préciser la matrice inversible P qui vérifie N = P 1 AP 2 1 2 1 0 1 (3) Donner une matrice non nulle de M 2 () semblable à son double On appelle trace de la matrice carrée A = (a i, j ) M n () la somme de ses termes diagonaux, autrement dit le scalaire noté Tr(A) défini par Tr(A) = a i,i i=1 Pour toutes matrices A = (a i, j ) et = (b i,j ) de M n (), montrer que Tr A T = a i, j b i, j 1 i, j n En particulier, montrer que si Tr(A T A) = 0, alors A est la matrice nulle (1) L application trace est une forme linéaire sur M n () (2) La trace d une matrice est égale à la trace de sa transposée (3) Pour toutes matrices A et de M n (), Tr(A) = Tr(A) (4) En particulier, deux matrices semblables ont la même trace en général Tr(A) Tr(A)Tr()

La trace, comme toute forme linéaire, a son image dans, donc a un rang inférieur ou égal à 1 Et comme la trace n est pas la forme linéaire nulle, son rang n est pas 0 Par conséquent rg(tr) = 1 Puis par le théorème du rang, dim(ker(tr)) = dim(m n ()) 1 = n 2 1 Le sous-espace vectoriel Ker(Tr), l ensemble des matrices de trace nulle a pour base Ei, j 1 i j n, E i,i E n,n 1 i n Montrer qu aucune matrice de M n () ne vérifie A A = I n Soit φ un endomorphisme d un espace vectoriel E de dimension finie Toutes les matrices Mat(φ) représentant φ relativement à une base de E ont la même trace On appelle ce nombre trace de φ, on le note Tr(φ) Montrer que la trace d un projecteur est égale à son rang Quelle est la trace d une symétrie?

(1) Soient A et deux matrices de T + n (), alors (A) i,j = () i,j = 0 pour tout couple d entiers (i, j) tel que 1 j < i n Par conséquent, pour tout couple (i, j) 1, n 2, (A ) i,j = (A) i,k () k, j k=1 j = (A) i,k () k, j (car est triangulaire supérieure) k=1 j = (A) i,k () k,j (car A est triangulaire supérieure) k=i = 0 (dès que j < i) donc A est encore dans T + n () (2) Soit A T + n () (i) D une part, si A est diagonale, alors A T = A, donc A A T = A T A = A 2 ; (ii) Supposons que A A T = A T A, et montrons que A est diagonale, autrement dit que (A) i,j = 0 dès que i j Comme A est déjà triangulaire supérieure, on sait que (A) i, j = 0 pour j < i, il ne reste plus qu à prouver que (A) i,j = 0 dès que i < j On a supposé que A A T = A T A, donc en particulier, (A A T ) 1,1 = (A T A) 1,1 Or et (A A T ) 1,1 = (A T A) 1,1 = k=1 = (A) 1,k (A T ) k,1 k=1 k=1 = (A) 2 1,k (par définition de AT ) (A T ) 1,k (A) k,1 k=1 Ainsi (A A T ) 1,1 = (A T A) 1,1 donne (A) 2 k,1 (par définition de AT ) = (A) 2 1,1 (car A est triangulaire supérieure) (A) 2 1,k = (A)2 1,1 k=1

soit (A) 2 1,k = 0 k=2 Enfin, comme les coefficients sont des réels, on a ici une somme nulle de réels positifs, donc tous ces réels sont nuls, ce qui donne (A) 1,2 = = (A) 1,n = 0 donc la première ligne de A est nulle à droite de la diagonale Supposons qu au rang p 2, n, tous les termes de A hors de la diagonale sont nuls sur les lignes de 1 à p 1, et montrons qu alors les termes de la p e ligne sont nuls à droite de la diagonale Comme dans l initialisation, on utilise (A A T ) p,p = (A T A) p,p, qui donne finalement, sachant que A est triangulaire supérieure, et grâce à l hypothèse de récurrence, On en déduit la conclusion voulue Soit A M n () (A) 2 p,k = 0 k=p+1 Première méthode : si pour tout X p, AX = 0, alors l application linéaire représentée par A dans la base canonique est nulle, or seule la matrice nulle représente l application nulle, dans la base canonique comme dans n importe quelle base, donc A = 0 n,p Deuxième méthode : si pour tout X p, AX = 0, alors en particulier pour pour les vecteurs E i = δ k,i de la base canonique de p, A E i = 0 Or A E i est la i e colonne de A Donc toutes les colonnes de A sont nulles, ce qui prouve que A = 0 n,p k 1 ; p (1) Soit D D n () de diagonale (d 1,, d n ) Alors pour tout polynôme P [X], on sait grâce aux propriétés des matrices diagonales que P(D) est la matrice diagonale de diagonale (P(d 1 ),, P(d n )) Donc P est un polynôme annulateur de D si, et seulement si, P(d 1 ) = = P(d n ) = 0, ce pourquoi il suffit de prendre P = (X d 1 ) (X d n ) Soit D = Diag(d 1,, d n ) M n () Si un de ses termes diagonaux est nul, disons d k = 0, alors D E k = 0, où E k est le k e vecteur de la base canonique de n Or E k n est pas nul, donc D ne peut pas être inversible (voir la remarque ci-dessus) Si tous ses termes diagonaux sont non nuls, alors pour la matrice diagonale = Diag 1,, 1, on obtient d 1 d n D = D = I n,

donc D est inversible, et D 1 = Si M n () est nilpotente, alors il existe un entier p tel que p+1 = 0 n, et grâce à l identité géométrique, comme I n = I n =, p p (I n ) k = k (I n ) = I p+1 n p+1 = I n k=0 k=0 p p (I n + ) ( ) k = ( ) k (I n + ) = I p+1 n ( ) p+1 = I n ( 1) p+1 p+1 = I n k=0 k=0 (1) Supposons que le système AX = admet une unique solution que l on note X 0, et montrons que le système homogène AX = 0 a pour unique solution la solution nulle Soit X 1 une solution du système homogène AX = 0, alors A(X 0 + X 1 ) = AX 0 + AX 1 = + 0 =, donc X 0 + X 1 est aussi solution du système AX = Par unicité, on en déduit que X 0 + X 1 = X 0, donc que X 1 = 0 (2) Supposons que le système homogène AX = 0 a pour unique solution la solution nulle Si X Ker(A), alors AX = 0, et donc par hypothèse X = 0 Ainsi Ker(A) = {0}, et par conséquent A est inversible (3) Si A est inversible, alors AX = équivaut à X = A 1, qui est alors l unique solution du système AX = La matrice Mat ( ) est en fait Mat(id E ), tandis que Mat() = Mat,, (id E) Ainsi par la proposition 92 : Mat() Mat ( ) = Mat, (id E) Mat(id E ), = Mat, (id E id E ) = Mat (id E ) = I n (1) Pour tout vecteur u E, Mat(u) = Mat (id E(u)) = Mat(id E ) Mat(u) = Mat, ( ) Mat(u) (2) Par le même outil, pour tout endomorphisme φ de E, Mat(φ) = Mat (id E φ id E ) = Mat (id E) Mat(φ) Mat (id E) C C,C C, = Mat() Mat(φ) Mat (C) C

On sait que (e 1,, e p ) est une base de F, donc le sous-espace vectoriel F est stable par u, si, et seulement si, pour tout i 1, p, u(e i ) F, autrement dit u(e i ) est combinaison linéaire de (e 1,, e p ) et a pour coordonnée 0 sur (e p+1,, e n ), ce qui donne des 0 sur les dernières lignes des p premières colonnes de la matrice Mat(u), qui est alors de la forme proposée Rappel : une homothétie de E est une application de E dans E telle qu il existe un scalaire λ pour lequel l image de tout vecteur x de E est λx Soit E un espace vectoriel de dimension finie, et u un endomorphisme de E Supposons que f est une homothétie, alors pour toute droite vectorielle D, il existe x E non nul tel que D = Vect(x) Ainsi f (D) = Vect(f (x)) Or il existe un réel λ tel que f (x) = λx, donc f (x) D, ce qui entraîne que f (D) D Ici, une fois n est pas coutume, on est parti de P pour arriver à Q, mais ce cas est en général réservé aux raisonnements les plus simples Supposons que toute droite vectorielle D est stable par f L espace vectoriel E est de dimension finie, prenons une base (e 1,, e n ) de E (avec n ) D après ce qui précède, pour tout i 1, n, f (e i ) Vect(e i ), donc il existe un réel λ i tel que f (e i ) = λ i e i Mais aussi pour le vecteur x = e i, f (x) Vect(x), donc il existe λ x tel que f (x) = λ x x, autrement dit i=1 f (x) = λ x e i = λ x e i i=1 i=1 Or par linéarité de f, on sait que f (x) = f e i = f (e i ) = λ i e i i=1 i=1 i=1 On en déduit l égalité qui équivaut à λ x e i = λ i e i i=1 i=1 (λ x λ i )e i = 0 E Or la famille (e 1,, e) est une base, donc une famille libre, et par conséquent i=1 donc tous les λ i sont égaux On a donc établi qu il existe un réel λ tel que i 1, n, λ x = λ i i 1, n, f (e i ) = λe i autrement dit, f est égal à une homothétie sur une base de E Ainsi, par la «caractérisation d une application linéaire sur une base» (proposition 115), on peut conclure que f est une homothétie

Il suffit d utiliser l exemple 92 Première méthode : on effectue les opérations C j C j x 1 C j 1, mais pour j qui décroît de n à 2 On obtient alors : 1 0 0 0 0 1 x 2 x 1 x2 2 x 1 x 2 x n 2 2 x 1 x n 3 2 x n 1 2 x 1 x n 2 2 V n (x 1,, x n ) = 1 x n x 1 xn 2 x 1 x n xn n 2 x 1 xn n 3 xn n 1 x 1 xn n 2 x 2 x 1 x2 x 1 x2 x2 x 1 x n 3 2 x2 x 1 x n 2 2 = x n x 1 xn x 1 xn xn x 1 x n 3 n xn x 1 x n 2 n et on finit par récurrence Deuxième méthode : (en développant suivant la première ligne) 1 x 2 x n 3 = (x 2 x 1 ) (x n x 1 ) 1 x n x n 3 (en factorisant chaque ligne L i par x i x 1 ) = (x 2 x 1 ) (x n x 1 ) V n 1 (x 2,, x n ) 2 x n 2 2 n xn n 2 (1) Si les x i ne sont pas 2 à 2 distincts alors V n (x 1,, x n ) est nul car au moins deux lignes seront égales (2) On suppose alors que les x i sont 2 à 2 distincts, et on pose pour tout x, P(x) = V n+1 (x 1,, x n, x) En développant par rapport à la dernière ligne, on obtient P(x) sous la forme d un polynôme de degré inférieur ou égal à n, et son coefficient dominant est le coefficient de x n, à savoir 1 x 1 x1 2 x n 2 1 x n 1 1 1 x ( 1) n+1+n+1 2 x2 2 x n 2 2 x n 1 2 = V n (x 1,, x n ) 1 x n xn 2 xn n 2 xn n 1 Mais comme P(x 1 ) = P(x 2 ) = = P(x n ) = 0, car ce sont des déterminants dont deux lignes sont égales, on en déduit que les racines de P sont x 1,, x n, donc que la forme factorisée de P(x) est P(x) = V n (x 1,, x n ) (x x 1 ) (x x n ) Puis on constate que cette égalité reste vraie si les x i ne sont pas deux à deux distincts, car elle donne alors 0 = 0, ce qui est vrai (3) On vérifie aisément que pour tout x 1, V 1 (x 1 ) = 1 = 1

Si au rang n, on suppose que (x 1,, x n ) n, V n (x 1,, x n ) = (x j x i ), 1 i<j n alors au rang suivant, pour tout (x 1,, x n, x n+1 ) n+1, V n+1 (x 1,, x n, x n+1 ) = P(x n+1 ) (x j x i ) 1 i<j n (où P est le polynôme du point précédent) = V n (x 1,, x n ) (x n+1 x 1 ) (x n+1 x n ) (d après le point précédent) = (x j x i ) (x n+1 x 1 ) (x n+1 x n ) 1 i< j n = 1 i< j n+1 (x j x i ) cqfd Soient (x i, y i ) 2 pour i 0 ; n, avec x 0 < x 1 < < x n, qui définissent n + 1 points du plan deux à deux distincts Cherchons P = a k x k n [X] tel que pour tout i 1 ; n, P(x i ) = y i, c est-à-dire a k x k i = y i k=0 Cela revient donc à chercher (a 0,, a n ) n tel que ce qui équivaut à a 0 + a 1 x 0 + a 2 x0 2 + + a n x0 n = y 0 a 0 + a 1 x 1 + a 2 x1 2 + + a n x1 n = y 1 a 0 + a 1 x n + a 2 xn 2 + + a n xn n = y n 1 x 0 x0 2 x n 1 0 x n 0 a 0 y 0 1 x 1 x1 2 x n 1 1 x1 n a 1 y 1 1 x 2 x2 2 x n 1 2 x2 n a 2 = y 2 1 x n xn 2 xn n 1 xn n a n y n Or le déterminant de la matrice de ce système est justement le déterminant de Vandermonde V n+1 (x 0,, x n ), qui est non nul car les x i sont deux à deux distincts Par conséquent, la matrice du système est inversible, donc le système a une unique solution (a 0,, a n ), ce qui donne un unique polynôme dont la courbe passe par les n + 1 points de départ k=0

En effet, si P Gl n () et A M n (), det(p 1 AP) = det(p 1 ) det(a) det(p) = 1 det(a) det(p) = det(a) det(p) D une part si A et représentent le même endomorphisme dans deux bases, alors la formule de changement de base est de la forme = P 1 AP, où P est la matrice de passage D autre part, si A et sont semblables, avec = P 1 AP, il suffit de considérer la matrice inversible P comme une matrice de passage de la base canonique C de n à une autre base, alors par la formule de changement de base, est la matrice dans la base de l endomorphisme canoniquement associé à A (1) Soit M M n (), M est semblable à λi n si, et seulement si, il existe P Gl n () tel que M = P 1 (λi n )P = λp 1 I n P = λi n (2) Soit f l endomorphisme canoniquement associé à A Pour montrer que N est semblable à A, il suffit de trouver une base = (e 1, e 2, e 3 ) de 3 dans laquelle f a pour matrice N Or Mat (f ) = N équivaut à f (e 1 ) = 2e 1 2e 2 2e 3 f (e 2 ) = 2e 2 f (e 3 ) = 2e 3 Pour e 2 et e 3 cherchons u = (x, y, z) 3 qui vérifie f (u) = 2u f (u) = 2u (f 2 id)(u) = 0 x (A 2I 3 ) y = 0 z 2 1 0 x 4 2 0 y = 0 2 1 0 z y = 2x On choisit donc e 2 = (1, 2, 0) et e 3 = (0, 0, 1) Cherchons à présent e 1 = (x, y, z) : u = (x, 2x, z) = x(1, 2, 0) + z(0, 0, 1) f (e 1 ) = 2e 1 2e 2 2e 3 (f 2 id)(e 1 ) = 2e 2 2e 3 x 2 (A 2I 3 ) y = 4 z 2 y = 2x 2,

donc on choisit e 1 = (0, 2, 0) 0 1 0 Enfin Mat C (e 1, e 2, e 3 ) = 2 2 2 0, est de rang 3 (il suffit d échanger C 1 et C 2 ), donc (e 1, e 2, e 3 ) 0 0 1 est une base de 3 Cette matrice est la matrice P de passage de C à = (e 1, e 2, e 3 ), et, grâce à la formule de changement de bases, elle vérifie bien N = P 1 AP (3) L endomorphisme canoniquement associé à A = 0 1 a pour matrice 2A = 0 0 0 2 dans la base (i, 2j) 0 0 (1) Tr A T = A T i,i i=1 = A T i,k k,i i=1 k=1 = a k,i b k,i i=1 k=1 = a i, j b i,j j=1 i=1 = a i,j b i, j 1 i, j n (2) En particulier, Tr A T A = 1 i, j n a i,j a i,j = 1 i,j n ai,j 2 donc Tr A T A = 0 si, et seulement si, ai, j 2 = 0 pour tout (i, j) 1 ; n 2, ce qui équivaut à A = 0 n Si A A = I n, alors tr(a A) = tr(i n ) = n, or la trace est linéaire, et tr(a) = tr(a), donc tr(a A) = 0, d où n = 0, ce qui est faux car n 1, vu que personne ne sait ce qu est M 0 ()