1 Rappels Espace vectoriel M p,n (K) : Addition : dénition et propriétés élémentaires : commutativité, associativité, existence d'un neutre, toute matrice admet un(e) opposé(e) pour + Multiplication par un scalaire : dénition et propriétés élementaires (règles de calcul) Structure d'espace vectoriel : (M p,n (K), +, ) est un K-espace vectoriel. Dimension de M p,n (K) Base canonique de M p,n (K) : (E i,j ) i p,j n. D'où dim (M p,n (K)) = np. Produit matriciel : Produit d'une matrice A M p,n (K) par une matrice colonne X M n,1 (K). Dénition de AB où A M p,n (K), B M n,q (K) : c'est la matrice C M p,q (K) dont la j-ème n colonne est A B j où B j =j-ème colonne de B. On a alors c i,j = a i,k b k,j. Règles de calcul (associativité, distributivité à droite et à gauche par rapport à +...). NB : AB = 0 A = 0 ou B = 0!!! k=1 Matrices carrées : (M n (K), +, ) est un K-espace vectoriel de dimension n 2. La multiplication est une loi de composition interne non commutative dans M n (K). Règles de calcul (associativité, commutativité, distributivité à gauche et à droite par rapport à +...), matrice I n élément neutre. Le produit de deux matrices triangulaires supérieures est une matrice triangulaire supérieure. Transposée de AB : Matrices symétriques et antisymétriques. On a : S n (K) A n (K) = M n (K). Puissances n-ièmes : Exemples de matrices vériant A k = 0. Multiplication de matrices diagonales, puissances n-ièmes d'une matrice diagonale. n 1 Si AB = BA formule du binôme de Newton et identité remarquable A n B n = (A B) A k B n 1 k. Utilisation de la formule du binôme notamment pour calculer A n quand A = λi n + B k=0 2 Diverses interprétations des matrices a) Matrice d'un système linéaire (ou matrice des coecients d'un système linéaire). Ecriture matricielle d'un système linéaire. b) Matrice (colonne) d'un vecteur par rapport à une base donnée. Matrice colonne canoniquement associé à un vecteur de R n. c) Matrice d'une famille nie de vecteurs dans (ou par rapport à) une base. d) Matrice d'une application linéaire f L(E, F ) dans des bases données de E et F. Si X = M B ( x ), Y = M B ( y ) et A = M B,B (f) alors : f( x ) = y Y = AX. Application linéaire f L(K n, K p ) canoniquement associée à une matrice A M p,n (K). Cas particulier : Matrices lignes et formes linéaires. 1/5
3 Calcul matriciel et calcul dans L(E, F ) Structure d'espace vectoriel : a) Si (f, g) L(E n, F p ), avec B (resp. B ) base de E n (resp. F p ), alors pour tout (α, β) K 2, M B,B (α f + β g) = α M B,B (f) + β M B,B (g) b) Par conséquent : si B est une base de E n et B est une base de F p, alors l'application { L(E n, F p ) M p,n (K) Φ : f M B,B (f) est un isomorphisme de K-espaces vectoriels. c) En particulier, M p,n (K) est isomorphe à L(K n, K p ) (isomorphisme canonique en prenant les bases canoniques de K n et K p ) d) Par ailleurs, on en déduit : dim(l(e n, F p )) = np. Produit matriciel : Rappel : Si X = M B ( x ), Y = M B ( y ) et A = M B,B (f) alors : f( x ) = y Y = AX. Th : Soit f L(E n, F p ), avec B (resp. B ) base de E n (resp. F p ), et g L(F p, G q ) et B base de G q. f g E n F p G q B B B Alors M B,B (g f) = M B,B (g) M B,B (f). Remarque 1 : Comment interpréter l'égalite AB = 0? Comment interpréter le fait que la multiplication matricielle des matrices carrées n'est pas commutative? Remarque 2 : si X M n,1 (R), AX = BX, alors A = B. 2/5
Rang d'une matrice. Dénition des colonnes et vecteurs colonnes d'une matrice. Dénition : rang d'une matrice A M p,n (K) : c'est le rang de l'espace vectoriel engendré par les colonnes de A. Si on note (A) 1,, (A) n les colonnes de A (ou vecteurs colonnes de A, ce sont donc des éléments de M p,1 (K)), alors : rang de A=rg(A)=dim(vect((A) 1, (A) n ). Remarque : Si A M p,n (K) alors rg(a) min(n, p) car c'est la dimension d'un espace engendré par n vecteurs (donc dim n) dans un espace de dimension p à savoir M p,1 (K) (donc dim p). Rappel : si f L(E n, F p ), on note rg(f)= Théorème : Soit f L(E n, F p ), avec B (resp. B ) base de E n (resp. F p ). Si A = M B,B (f) alors rg(a) =rg(f). Recherche du rang de A : soit en étudiant la dimension de l'espace engendré par les colonnes de A, soit en étudiant la dimension de Ker(f 0 ) où f 0 est l'application linéaire canoniquement associée à A. Puis on utilise la formule du rang : rg(a) =rg(f 0 ) = n dim(ker(f 0 ). Rappel : pour trouver la dimension de Ker(f 0 ), on résout le système AX = 0 qui traduit l'égalité f 0 ( x ) = 0. A l'aide de la méthode du pivot, on se ramène à un système échelonné. La dimension de Ker(f 0 ) est le nombre d'inconnues paramétriques. Propriété : Si le produit matriciel AB est déni, alors rg(ab) min(rg(a),rg(b)) Preuve : Soit f (resp. g) l'application linéaire canoniquement associée à A (resp. B). On sait que rg(ab) =rg(f g) min((rg(f),rg(g))= min(rg(a),rg(b)). 3/5
4 Matrices carrées Soit E n un K-espace vectoriel de dimension n et soit B une base de E n. Si f L(E n ), on note M B (f) la matrice de f par rapport à la base B. En particulier : M B (Id En ) = Matrices inversibles Dénition : A est inversible si il existe B telle que AB = BA = I n. Prop : On a unicité de B sous réserve d'existence. Déf. : Si il existe B telle que AB = BA = I n, la matrice B est appelée inverse de A. L'ensemble des matrices carrées inversibles de taille n à coecients dans K est appelé groupe linéaire et noté Gl n (K). Exemples : dire si les matrices suivantes sont inversibles et, le cas échéant, préciser leurs inverses. I n, 0 Mn (R) D=Diag(a 1,, a n ) où i, a i 0 ( ) 0 0 1 0 1 M 1 =, M 2 = 1 0 0 1 0 0 1 0 Propriétés : Soit (A, B) (M n (K)) 2. Soit E un espace de dimension n rapporté à une base B. 1. Si A est inversible, alors A 1 l'est aussi et (A 1 ) 1 = 2. Si A est inversible, alors sa transposée l'est aussi et ( t A) 1 = 3. Si A et B sont inversibles, alors AB l'est aussi et (AB) 1 = et (A p ) 1 = 4. Si A = M B (f) alors A est inversible si et seulement si f est bijective. On a alors A 1 = M B (f 1 ). 5. A est inversible si et seulement si elle est de rang n. 6. Si A = M B (F) où F est une famille de n vecteurs de E alors A est inversible si et seulement si F est une base de E. 7. Si AB = I n, alors A est inversible et B = A 1. Même conclusion si l'on suppose que BA = I n. (Attention : quand on utilise cette propriété, il faudra bien dire : on a AB = I n et A, B sont carrées de taille n, donc A est inversible et B = A 1.) 8. On a invariance du rang par multiplication par une matrice inversible. Plus précisément : si A M n (K) est inversible et si B M n, p(k), alors rg(ab)=rg(b). si A M n (K) est inversible et si C M q, n(k), alors rg(ca)=rg(c). Questions : 1) Si A est inversible, a-t-on λa inversible pour tout λ K? 2) Si A et B sont inversibles, A + B est-elle aussi inversible? Théorème : Soit A M ( K). Les propositions suivantes sont équivalentes : A est inversible. Pour tout Y M n,1 (K), le système AX = Y d'inconnue X M n,1 (K) est de Cramer. Le système AX = 0 d'inconnue X M n,1 (K) est de Cramer. 0 n,1 (K) est l'unique solution du système AX = 0 d'inconnue X M n,1 (K). Prop : une matrice triangulaire est inversible si et seulement si elle n'a aucun zéro sur la diagonale. 4/5
Calcul pratique de l'inverse d'une matrice carrée On se donne A M n (K). On cherche si A est inversible et le cas échéant à calculer son inverse. Soit f l'application linéaire canoniquement associée à A. On a vu que A est inversible si et seulement si f est bijective. De plus, dans ce cas : A 1 = M B (f 1 ) où B est la base canonique de K n. Calculer A 1 revient donc à calculer f 1. Enn, si f 1 existe, on a : x K n, y K n : y = f( x ) x = f 1 ( y ). Donc : chercher f 1, c'est trouver x en fonction de y en prenant x et y quelconques et vériant y = f( x ). Autrement dit : on écrit Y = AX et on cherche à exprimer X en fonction de Y (en résolvant le système linéaire). Si on ne trouve pas un unique X pour Y quelconque, la matrice A n'est pas inversible. Si, pour tout Y, on a un système de Cramer, en résolvant le système on trouvera X = BY et l'on aura B = A 1. Reprenons... On écrit le système Y = AX d'inconnue X = x 1. x n avec Y = y 1. y n. On applique la méthode du pivot (pour trouver X en fonction de Y ). On arrive à un système échelonné, équivalent au système de départ. On sait qu'un système échelonné à n équations et n inconnues est de Cramer si et seulement si il est triangulaire, sans aucun zéro sur la diagonale. Si le système échelonné obtenu est bien de Cramer, on termine la résolution du système ou bien on applique la méthode du pivot en remontant (méthode de Gauss-Jordan). On obtient nalement X = A 1 Y. Cas particulier intéressant : si A n + a n 1 A n 1 + a 1 A + a 0 I n = 0 avec a 0 0, alors A est inversible et le calcul de A se fait aisément. Exemple : A 3 2A + I n = 0 Cas particulier où n = 2 : formules... 5/5