Opérations sur les matrices, groupe symétrique et déterminants (Taisez-vous! Le maître parle) 2008
1 Opérations élémentaires sur les matrices 1 Opérations élémentaires sur les matrices 1 Opérations élémentaires sur les matrices 1 Opérations élémentaires sur les matrices 1 Rang d une matrice 1 Systèmes d équations linéaires 1 Systèmes d équations linéaires 1 Déterminants Groupe symétrique Applications multilinéaires alterenées Déterminants
Opérations sur les matrices Soit M = (a j,k ) une matrice. Notons C k la k-ième colonne. Appellons opération élémentaire sur les colonnes de M les opérations de la forme :
Opérations sur les matrices Soit M = (a j,k ) une matrice. Notons C k la k-ième colonne. Appellons opération élémentaire sur les colonnes de M les opérations de la forme : addition d une colonne à une autre, codage : C k C k + αc m où m = k
Opérations sur les matrices Soit M = (a j,k ) une matrice. Notons C k la k-ième colonne. Appellons opération élémentaire sur les colonnes de M les opérations de la forme : addition d une colonne à une autre, codage : C k C k + αc m où m = k multiplication d une colonne par un scalaire α non nul, codage : C k αc k
Opérations sur les matrices Soit M = (a j,k ) une matrice. Notons C k la k-ième colonne. Appellons opération élémentaire sur les colonnes de M les opérations de la forme : addition d une colonne à une autre, codage : C k C k + αc m où m = k multiplication d une colonne par un scalaire α non nul, codage : C k αc k échange de deux colonnes, codage : C k C j
Encore ( ) ( ) a1 b 1 a1 a 1 + b 1 a 2 b 2 a 2 a 2 + b 2 Addition d une colonne à une autre
Encore ( ) ( ) a1 b 1 a1 λb 1 a 2 b 2 a 2 λb 2 Multiplication d une colonne par un scalaire
Encore ( ) ( ) a1 b 1 b1 a 1 a 2 b 2 b 2 a 2 Échange de deux colonnes
Encore ( ) ( ) a1 b 1 a1 λa 1 + b 1 a 2 b 2 a 2 λa 2 + b 2 En combinant un nombre quelconque d opérations élémentaires nous obtiendrons des transformations plus complexes. Par exemple, avec les deux premières opérations : addition d un multiple d une colonne à une autre.
Lignes et colonnes Les opérations sur les lignes se font de la même façon que les opérations sur les colonnes.
Lignes et colonnes Une opération élémentaire sur les colonnes d une matrice s effectue par multiplication à droite par une matrice : ( ) ( ) ( ) a1 λa 1 + b 1 a1 b = 1 1 λ a 2 λa 2 + b 2 a 2 b 2 0 1
Lignes et colonnes Une opération élémentaire sur les lignes d une matrice s effectue par multiplication à gauche par une matrice : ( ) ( ) ( ) a1 b 1 1 O a1 b = 1 λa 1 + a 2 λb 1 + b 2 λ 1 a 2 b 2
Changements de bases Il est donc clair que si M est la matrice d un homomorphisme u : source (e1,e 2 ) but (e 1,e 2 ) des opérations élémentaires sur les colonnes correspondent à un changement de base à la source u(e ( 1 ) u(e ) 2 ) u(e ( 1 ) u(λe 1 + ) e 2 ) a1 b 1 a1 λa 1 + b 1 a 2 b 2 a 2 λa 2 + b 2
Changements de bases Il est donc clair que si M est la matrice d un homomorphisme u : source (e1,e 2 ) but (e 1,e 2 ) des opérations élémentaires sur les lignes correspondent à un changement de base au but ( a1 b 1 a 2 b 2 ) e 1 e 2 ( a1 b 1 λa 1 + a 2 λb 1 + b 2 ) e 1 + λe 2 e 2
Explication Avec la notation : ( u(e 1 ) u(e 2 ) ) = ( e 1 e 2 ) ( ) a 1 b 1 nous a 2 b 2 écrivons : ( u(e1 ) u(e 2 ) ) = ( e 1 e 2) ( ) ( ) ( ) 1 O 1 O a1 b 1 λ 1 λ 1 a 2 b 2 = ( e 1 e 1 ) ( ) a 1 λa 1 + b 1 λe 2 a 2 λa 2 + b 2 La base du but est maintenant (e 1, e 1 λe 2 ).
Rang d une matrice Definition Le rang d une matrice A est le rang de l application linéaire associée. Soit u un homomorphisme de E, muni de la base (e), à valeurs dans F, muni de la base (f ). Alors rang (u) = rang M (e),(f ) (u)
Décomposition L homomorphisme u de E dans F, muni de leurs bases respectives (e) et (f ), a pour matrice M e,f. Nous savons qu il existe des bases (e ) de E et (f ) de F telles que M e,f soit diagonale avec des 1 sur la diagonale. Soit r le rang de u, c est aussi le rang des matrices M e,f et M e,f : ( ) M e,f = Ir 0 0 0 Nous appellerons cette matrice J r.
Décomposition L homomorphisme u de E dans F, muni de leurs bases respectives (e) et (f ), a pour matrice M e,f. Nous savons qu il existe des bases (e ) de E et (f ) de F telles que M e,f soit diagonale avec des 1 sur la diagonale. Soit r le rang de u, c est aussi le rang des matrices M e,f et M e,f : ( ) M e,f = Ir 0 0 0 Nous appellerons cette matrice J r. Soient V = M f,f (id F ) et U = M e,e (id E ), alors : M e,f = VJ r U
Rang de la transposée Puisque M e,f = VJ r U, nous avons aussi t M e,f =
Rang de la transposée Puisque M e,f = VJ r U, nous avons aussi t M e,f = t UJ r t V. Par conséquent une matrice et sa transposée ont le même rang.
Rang de la transposée Puisque M e,f = VJ r U, nous avons aussi t M e,f = t UJ r t V. Par conséquent une matrice et sa transposée ont le même rang. Nous en déduisons que nous pouvons calculer le rang d une matrice en effectuant des opérations sur ses colonnes et ses lignes.
Systèmes d équations linéaires Soient E et F deux K-espaces vectoriels, u une application linéaire de E dans F, b un vecteur de F, l équation : u(x) = b est dite équation linéaire associée à (u, b). Lorsque b = 0, on parle d équation homogène.
Systèmes d équations linéaires Soient E et F deux K-espaces vectoriels, u une application linéaire de E dans F, b un vecteur de F, l équation : u(x) = b est dite équation linéaire associée à (u, b). Lorsque b = 0, on parle d équation homogène. L ensemble des solutions de u(x) = 0 est le noyau de u, il contient au moins le vecteur nul, appelé solution triviale. Si b = 0 et s il existe une solution particulière a, l ensemble des solutions de u(x) = b est S = a + ker(u). Nous disons que S est un espace affine de direction ker(u).
Équations linéaires Cas des espaces K m : c est le cas où l on utilise des bases pour résoudre un système. Soient E = K m et F = K n munis de leurs bases canoniques. Soit u j l application qui à x associe la j-ième coordonnées de u(x). Alors : u 1 (x) = b 1 u(x) = b. u n (x) = b n Si u j = 0, l ensemble S j des solutions de u j (x) = b j est un hyperplan affine, S apparaît comme étant l intersection d un nombre fini d hyperplans affines.
Équations linéaires Le rang d un système linéaire u(x) = b est le rang de u. Le théorème du rang montre que si S = {x E /u(x) = b} n est pas vide, le rang r du sytème u(x) = 0 et la dimension d de l espace S des solutions vérifient : r + d = dim E. Le système u(x) = b est appelé système de Cramer si n = m = r. Theorem u(x) = b est un système de Cramer si et seulement si u est un isomorphisme. Un système de Cramer admet une unique solution.
Permutation et groupe symétrique Definition Soit n un entier supérieur à 1. Le groupe des permutations de 1, n est noté : S n. Un élément σ de S n est noté : ( ) 1... n σ(1)... σ(n) Example Exemple Par exemple, pour n = 3 et σ 1 (1) = 2, σ 1 (2) = 3 et σ 1 (3) = 1 : ( ) 1 2 3 σ 1 = 2 3 1
Definition Soient σ S n et k 1, n. L orbite de k est : {σ j (k)/j 0}. Example σ 2 = ( 1 2 3 ) 4 2 3 1 4 L orbite de 1 est {1, 2, 3}, qui est aussi l orbite de 2 et 3. L orbite de 4 est {4}.
Theorem Soit σ S n. Deux orbites sont disjointes ou égales. k 1, n est la réunion disjointe des orbites de σ. Definition Un cycle est une permutation qui n a qu une seule orbite ayant 2 éléments ou plus, le nombre d éléments de cette orbite est la longueur du cycle. Un cycle de longueur 2 est une transposition. Un cycle de longueur m est noté ( k σ(k)... σ m 1 (k) ).
Example Exemple σ 1 et σ 2 sont des cycles. Le cycle (2 4) est une transposition. Definition Appelons support d une permutation σ, l ensemble supp σ = {k 1, n /σ(k) = k}. Exercice Deux permutations de supports disjoints commutent.
Theorem Le groupe S n est engendré par les transpositions.
Theorem Le groupe S n est engendré par les transpositions. Preuve. Raisonnons par récurrence sur le cardinal du support. Le support d une permutation distincte de l identité contient au moins deux éléments. Posons m = card(supp σ). Si m < 2, σ est l identité qui est produit de zéro transposition. Supposons m 2. Soit i dans supp σ, ainsi σ(i) = i. Posons j = σ 1 (i) Nous avons aussi σ(j) = j car le support est stable par σ. Le complémentaire du support est l ensemble des points fixes.
Theorem Le groupe S n est engendré par les transpositions. Preuve. Soit τ = (i j) et σ = τσ. Si l est point fixe de σ, il est différent de i et j donc : σ (l) = l. De plus σ (i) = i. Donc le support de σ est strictement plus petit que le support de σ, d après l hypothèse de récurrence σ est un produit de transpositions, il suit que σ = τσ est aussi égal à un produit de transpositions, ce qui achève la démonstration.
Definition La signature d une permutation σ est le nombre ε(σ) défini par : σ(j) σ(k) ε(σ) = j k j<k La permutation σ induit une permutation de l ensemble des couples C = {{j, k}/(j, k) 1, n 2 (j < k)} (C = P 2 ( 1, n ) est l ensemble des parties à deux éléments de 1, n ), donc : ε(σ) = ±1 et, plus précisément, ε(σ) = ( 1) m où m est le nombre d inversions de σ, c est-à-dire le nombre de couples (j, k) tels que j < k et σ(j) > σ(k).
( ) 1 2 3 4 5 6 7 8 9 Calcul pratique : soit σ =. On 6 2 5 1 9 7 3 8 4 dresse un tableau où la première ligne contient 1,..., 9 et la deuxième ligne contient, sous chaque j, le nombre d entiers placés avant j et plus grands que j dans la seconde ligne de l expression de σ sous forme matricielle : 1 2 3 4 5 6 7 8 9 3 1 4 5 1 0 1 1 0 Le nombre d inversions est la somme des nombres de la seconde ligne, soit 15, donc ε(σ) = ( 1) 16 = 1.
Theorem La signature ε définit un homomorphisme du groupe S n sur le groupe multiplicatif { 1, 1}. Preuve. Soient deux permutations σ et σ : ε(σ σ) = σ (σ(j)) σ (σ(k)) σ = j k (σ(j)) σ (σ(k)) σ(j) σ(k) {j,k} C {j,k} C {j, Mais σ(c) = C donc : σ (σ(j)) σ (σ(k)) σ = σ(j) σ(k) (σ(j)) σ (σ(k)) σ(j) σ(k) {j,k} C {σ(j),σ(k)} σ(c)
(suite). d où : σ (σ(j)) σ (σ(k)) σ = σ(j) σ(k) (j) σ (k) j k {σ(j),σ(k)} σ(c) {j,k} C Finalement : ε(σ σ) = ε(σ )ε(σ)
Definition Le noyau de ε, A n = {σ S n /ε(σ) = 1} est appelé groupe alterné.
Applications partielles Definition Soit ϕ une application définie sur un produit de p ensembles, E 1 E p, supposons que p 1 constantes a 2,..., a p aient été affectées à p 1 variables x 2,..., x p. L application x ϕ(x, a 2,..., a p ) est appelée application partielle. De même, pour toute permutation des indices. Il y a p telles applications partielles.
Applications multilinéaires alternées Definition Soient E 1,..., E p, p K-espaces vectoriels, une application ϕ de E 1 E p dans K. 1 ϕ est dite p-linéaire si ses p applications partielles sont linéaires. On dit linéaire si p = 1, bilinéaire si p = 2 et trilinéaire si p = 3. 2 ϕ est dite alternée si : (j = k) (x j = x k ) ϕ(x 1,..., x p ) = 0 On parle de forme p-linéaire et de forme alternée lorsque les valeurs de ϕ sont scalaires.
Applications multilinéaires : exemples Example Soient x, y, z dans K. 1 (x, y, z) x + y + 2z est
Applications multilinéaires : exemples Example Soient x, y, z dans K. 1 (x, y, z) x + y + 2z est linéaire (ou 1-linéaire) sur R 3. 2 ((x, y, z), (x, y, z )) zx + xy + 2yz est
Applications multilinéaires : exemples Example Soient x, y, z dans K. 1 (x, y, z) x + y + 2z est linéaire (ou 1-linéaire) sur R 3. 2 ((x, y, z), (x, y, z )) zx + xy + 2yz est bilinéaire sur R 3. 3 (x, y, z) 2xyz est
Applications multilinéaires : exemples Example Soient x, y, z dans K. 1 (x, y, z) x + y + 2z est linéaire (ou 1-linéaire) sur R 3. 2 ((x, y, z), (x, y, z )) zx + xy + 2yz est bilinéaire sur R 3. 3 (x, y, z) 2xyz est trilinéaire sur R.
p-linéaire alternée sur K p Theorem L ensemble des formes p-linéaires alternées sur K p est un espace vectoriel de dimension 1.
p-linéaire alternée sur K p Preuve. On vérifie facilement que l ensemble des formes p-linéaires alternées sur K p est un sous espace vectoriel de l espace F (K p, K). Soient f une forme p-linéaire alternée sur K p, muni de sa base canonique (e) = (e 1,..., e p ) et (x 1,..., x p ), p vecteurs de K p : Alors : k 1, p : x k = f (x 1,..., x p ) = f ( 1 j 1 p x j,k e j 1 j p x j1,1e j1,..., 1 j n p x jp,pe jp )
p-linéaire alternée sur K p (suite). d où : f (x 1,..., x p ) = 1 j 1 p. 1 j n p x j1,1... x jp,pf (e j1,..., e jp ) Toute application (1,..., p) (j 1,..., j p ) définit une permutation σ d où : f (x 1,..., x p ) = σ G p x σ(1),1... x σ(p),p f (e σ(1),..., e σ(p) )
p-linéaire alternée sur K p (suite). f étant alternée : f (e σ(1),..., e σ(p) ) = ε(σ)f (e 1,..., e p ), donc : f (x 1,..., x p ) = σ G p x σ(1),1... x σ(p),p ε(σ)f (e 1,..., e p ) Donc f est colinéaire à la forme p-linéaire alternée : (x 1,..., x p ) σ G p ε(σ)x σ(1),1... x σ(p),p
Déterminants Definition Soit E, muni d une base ordonnée B. On appelle déterminant sur E, l unique forme m-linéaire alternée égale à 1 sur la base B. Le déterminant des vecteurs (x 1,..., x m ) de E dans la base B est noté : det B (x 1,..., x m ) ou det(x 1,..., x m ) s il n y a pas risque de confusion.
Theorem Soient (e) et (f ) deux bases de E. Alors pour tout m-uplet x de vecteurs de E : det(x) = det(x) det (f ) (e) (f ) (e) Démonstration. Par définition, il existe un scalaire λ tel que, pour tout m-uplet x de vecteurs : det (e) (x) = λ det (f ) (x). On obtient la valeur de λ avec x = f car alors : λ = det (e) (f ).
Déterminants et opérations élémentaires Theorem Soit ϕ(x), le m-uplet transformé de x par opération élémentaire. x j x j + x k, j = k : det(ϕ(x)) = det(x). τ : x j x k (transposition τ) : det(ϕ(x)) = ε(τ) det(x). x j αx j, α = 0 : det(ϕ(x)) = α det(x). (voir le cas général d une application linéaire plus loin)
Notations Soient (x 1,..., x m ) tels que, dans B = (e), pour tout k : x k = x j,k e j 1 j m Alors x 1,1 x 1,m det(x 1,..., x m ) =..... x m,1 x m,m
Indépendance et déterminants Theorem Soient (e) = (e 1,..., e m ) une base (ordonnée) de l espace vectoriel E et (f ) = (f 1,..., f m ) un m-uplet de vecteurs de E. Alors (f ) est une base de E si et seulement si det (e) (f 1,..., f m ) = 0.
Indépendance et déterminants Démonstration. Si (f 1,..., f m ) est une base (f ), det (f ) est colinéaire à det (e), donc det (f ) (f 1,..., f m ), qui est égal à 1, est un multiple de det (e) (f 1,..., f m ), qui est donc non nul. Si (f 1,..., f m ) est liée, par opérations élémentaires on peut se ramener à une famille de la forme (0,..., f m). Or det (f ) (f 1,..., f m ) est nul si et seulement si det (f ) (0,..., f m) est nul, donc : det (f ) (f 1,..., f m ) = 0.
Déterminants d homomorphismes Definition Soient E et F deux espaces vectoriels de même dimension m, munis respectivement des bases (e) et (f ). Posons, pour u dans L (E, F ) : det (u) = det (u(e 1),..., u(e m )) (e),(f ) (f ) Theorem u dans L (E, F ) est un isomorphisme si et seulement si det (e),(f ) (u) = 0.
Déterminant d une composée Theorem Considèrons trois espaces vectoriels E, F et G, respectivement munis des bases (e), (f ) et (g). Soient u dans L (E, F ) et v dans L (E, F ) : det (v u) = det (v) det (u) (e),(g) (f ),(g) (e),(f ) Corollary Soient u et v deux endomorphismes de E, muni de la bases (e) : det(v u) = det(v) det(v)
Déterminant d une composée Preuve du théorème. Soit x un m-uplet de vecteurs, par définition : det (v u)(x) = det (v) det (u)(x) (e),(g) (f ),(g) (e),(f ) d où : det (v u) det (x) = det (v) det (u) det (x) (e),(g) (e) (f ),(g) (e),(f ) (e)
Invariance du déterminant Theorem Soient u dans L K (E ) et (e) une base (ordonnée) de E. Le nombre det (e) ( u(e1 ),..., u(e m ) ) ne dépend pas de la base (e), il est noté det(u). Definition det(u) est appelé déterminant de u. Corollary L endomorphisme u de E est un automorphisme si et seulement si det(u) = 0.
Invariance du déterminant Preuve Soient B = (e 1,..., e n ) et B = (e 1,..., e n) deux bases de E. L unicité du déterminant relativement à une base implique l existence d une constante non nulle λ telle que, pour tous vecteurs x 1,..., x n : det B (x 1,..., x n ) = λ det B (x 1,..., x n ) donc λ = det B (e 1,..., e n ). On obtient donc : det B (u(x 1),..., u(x n )) = det B (e 1,..., e n ) det B (u(x 1 ),..., u(x n ))
Invariance du déterminant (suite). d où : det(u) det (x 1,..., x n ) = det (e 1,..., e n ) det(u) det(x 1,..., x n ) B B B B B En remplaçant (x 1,..., x n ) par (e 1,..., e n ) on trouve : det(u) = det(u) B B
Déterminants de matrices Definition Le déterminant d une matrice carrée m m est le déterminant de ses vecteurs colonnes, comme éléments de K m muni de la base canonique. Theorem Soient A et B des matrices carrées m m, on a : 1 det( t A) = det(a) ; 2 det(ab) = det(a) det(b). A est inversible si et seulement si det(a) = 0.
Déterminants de matrices Preuve Soit A = (a j,k ) 1 j m, alors : 1 k m det(a) = σ G m ε(σ)x σ(1),1... a σ(m),m Comme σ définit une bijection sur l ensemble des couples (j, k), on a : det(a) = σ G m ε(σ)x σ(1),σ(σ 1 (1))... a σ(m),σ(σ 1 (m)) det(a) = σ G m ε(σ)x 1,σ 1 (1)... a m,σ 1 (m)
Déterminants de matrices (suite) Enfin σ σ 1 est une permutation de G m et ε(σ) = ε(σ 1 ), donc : det(a) = d où : det( t A) = det(a). σ 1 G m ε(σ 1 )x σ(1),σ(σ 1 (1))... a σ(m),σ(σ 1 (m)) det(a) = σ G m ε(σ)x 1,σ(1)... a m,σ(m)
Déterminants de matrices (suite). Considérant A et B comme les matrices d endomorphismes u et v : det(ab) = det(u v) = det(u) det(v) = det(a) det(b). Enfin A est la matrice d un endomorphisme si et seulement si det(a) = det(u) = 0. La relation précédente montre que : det(a 1 ) = det(a) 1.
Comatrice Definition Soit A une matrice m m de vecteurs-colonnes (a 1,..., a m ). On considère l endomorphisme κ de K m qui à tout vecteur x de K m associe : ( det(x, a2,..., a m ) det(a 1, x,..., a m ) det(a 1, a 2,..., x) ) La transposée de la matrice de cet endomorphisme est appelée comatrice de A et est notée : comat(a).
Comatrices et inverses Theorem A étant une matrice carrée : t comat(a)a = det(a)i m. Corollary Si A est inversible : A 1 = (det(a) 1 t comat(a).
Comatrices et inverses En effet, on vérifie que la matrice K de l endomorphisme κ vérifie KA = det(a)i m car κ(a k ) = (0,..., det(a 1,..., a m ),..., 0), toutes les coordonnées sont nulles sauf la k e qui vaut det(a) ; autrement dit : la j e ligne de KA = t comat(a)a k est : 0 si j = k et det(a) si j = k.
Mineurs et comatrice Expression de la comatrice. Soit (e 1,..., e m ) la base canonique et calculons le coefficient κ j (e k ) : κ j (e k ) = det(a 1,..., e k,..., a m ). où e k est à la j e position : a 1,1 a 1,j 1 0 a 1,j+1 a 1,m....... a k 1,1 a k 1,j 1 0 a k 1,j+1 a k 1,m κ j (e k ) = a k,1 a k,j 1 1 a k,j+1 a k,m a k+1,1 a k+1,j 1 0 a k+1,j+1 a k+1,m....... a m,1 a m,j 1 0 a m,j+1 a m,m
Mineurs et comatrice Effectuons les opérations suivantes : Plaçons e k en première position (j 1 inversions). Pour tout q, q = j : L q L q a k,q L j. Le déterminant est inchangé. Plaçons la k e colonne en première position (k 1 inversions).
Mineurs et comatrice 1 0 0 0 0 0 a 1,1 a 1,j 1 a 1,j+1 a 1,m κ j (e k ) = ( 1) j+k....... 0 a k 1,1 a k 1,j 1 a k 1,j+1 a k 1,m 0 a k+1,1 a k+1,j 1 a k+1,j+1 a k+1,m 0...... 0 a m,1 a m,j 1 a m,j+1 a m,m
Mineurs et comatrice On appelle mineur de a k,j le déterminant obtenu en supprimant la k e ligne et la j e colonne de A, il est noté : M k,j. Alors a 1,1 a 1,j 1 a 1,j+1 a 1,m...... κ j (e k ) = ( 1) j+k a k 1,1 a k 1,j 1 a k 1,j+1 a k 1,m a k+1,1 a k+1,j 1 a k+1,j+1 a k+1,m = (...... a m,1 a m,j 1 a m,j+1 a m,m
Mineurs et comatrice Le cofacteur de a k,j est : A k,j = ( 1) j+k M k,j, de sorte que la comatrice de A est : comat(a) = (A j,k ) 1 j m 1 k m L égalité : ( t comat(a)a) j,j = 1 k m A j,k a j,k = det(a) (et l égalité analogue avec t A) justifie la définition suivante. Definition Le développement de det(a) suivant la j e ligne est : det(a) = A j,k a j,k 1 k m (respectivement k e colonne et det(a) = 1 j m A j,k a j,k.
Déterminants par blocks Theorem Soient A 1, A 2, B 1 et B 2 des matrices : ( ) ( ) A1 B det 1 A1 0 = det = det(a 0 A 2 B 2 A 1 ) det(a 2 ) 2
Formules de Cramer Soit AX = B un système de Cramer, i.e. la matrice A est inversible de type n n, X est la matrice colonne de (x 1,..., x n ) et B la matrice de (b 1,..., b n ). Alors x j est égal à la fraction dont le dénominateur est le déterminant de A et le numérateur est le déterminant de la matrice obtenue en remplaçant dans A la j e colonne par B. En effet : AX = B t comat(a)ax = det(a)x = t comat(a)b d où : X = 1 t comat(a)b det(a)