UE MAT234. Notes de cours sur l algèbre linéaire

Documents pareils
Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Cours d analyse numérique SMI-S4

Chapitre 2. Matrices

Résolution de systèmes linéaires par des méthodes directes

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Cours 02 : Problème général de la programmation linéaire

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Structures algébriques

[ édité le 30 avril 2015 Enoncés 1

Résolution d équations non linéaires

Fonctions de plusieurs variables

Programmation linéaire

Simulation de variables aléatoires

Programmes des classes préparatoires aux Grandes Ecoles

Correction de l examen de la première session

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Introduction à l étude des Corps Finis

Polynômes à plusieurs variables. Résultant

Exercices Corrigés Premières notions sur les espaces vectoriels

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Calcul différentiel sur R n Première partie

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

3 Approximation de solutions d équations

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Cours d Analyse. Fonctions de plusieurs variables

Le produit semi-direct

Programmation linéaire et Optimisation. Didier Smets

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Moments des variables aléatoires réelles

Limites finies en un point

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

aux différences est appelé équation aux différences d ordre n en forme normale.

Comment démontrer des formules sans effort? exposé de maîtrise

Mathématiques appliquées à l'économie et à la Gestion

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Capes Première épreuve

NOTATIONS PRÉLIMINAIRES

I. Ensemble de définition d'une fonction

Cours de mathématiques

Géométrie dans l espace Produit scalaire et équations

Probabilités sur un univers fini

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

Développement décimal d un réel

Équations d amorçage d intégrales premières formelles

3. Conditionnement P (B)

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

I. Polynômes de Tchebychev

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

DOCM Solutions officielles = n 2 10.

Théorème du point fixe - Théorème de l inversion locale

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Construction d un cercle tangent à deux cercles donnés.

Premiers exercices d Algèbre. Anne-Marie Simon

Programmation linéaire

Différentiabilité ; Fonctions de plusieurs variables réelles

Continuité en un point

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Pour l épreuve d algèbre, les calculatrices sont interdites.

Optimisation des fonctions de plusieurs variables

Cryptographie et fonctions à sens unique

Chapitre 2 Le problème de l unicité des solutions

Extrait du poly de Stage de Grésillon 1, août 2010

Une forme générale de la conjecture abc

Partie 1 - Séquence 3 Original d une fonction

Chapitre 11. Séries de Fourier. Nous supposons connues les formules donnant les coefficients de Fourier d une fonction 2 - périodique :

Coefficients binomiaux

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Optimisation Discrète

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Chp. 4. Minimisation d une fonction d une variable

Représentation géométrique d un nombre complexe

CCP PSI Mathématiques 1 : un corrigé

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Probabilités sur un univers fini

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

Quelques contrôle de Première S

M2 IAD UE MODE Notes de cours (3)

VI. COMPLÉMENTS SUR LES MODULES, THÉORÈME CHINOIS, FACTEURS INVARIANTS SÉANCES DU 15, 16 ET 22 OCTOBRE

Chapitre VI - Méthodes de factorisation

Intégration et probabilités TD1 Espaces mesurés Corrigé

Quelques tests de primalité

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Corrigé du baccalauréat S Asie 21 juin 2010

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Fonctions homographiques

UNIVERSITE IBN ZOHR Faculté des sciences Agadir. Filière SMA & SMI. Semestre 1. Module : Algèbre 1

Dérivées d ordres supérieurs. Application à l étude d extrema.

Durée de L épreuve : 2 heures. Barème : Exercice n 4 : 1 ) 1 point 2 ) 2 points 3 ) 1 point

Algèbre binaire et Circuits logiques ( )

avec des nombres entiers

Transcription:

UE MAT234 Notes de cours sur l algèbre linéaire Matrices - Systèmes linéaires - Déterminants - Diagonalisation Dans tout ce document, K désigne indifféremment le corps des nombres réels IR, ou celui des nombres complexes C E et F sont des espaces vectoriels, de dimensions respectives n et p 1 Matrices 11 Rappels : espaces vectoriels initions Un ensemble E est un espace vectoriel sur K s il est muni de 2 lois : telles que - une addition interne d éléments de E : E E E, (u, v) u + v - une multiplication externe d éléments de E par des scalaires de K : K E E, (λ, u) λu - (E,+) soit un groupe commutatif : l addition interne d éléments de E est associative, commutative, possède un élément neutre ( e E, u E, u + e = u = e + u), et tout élément de E a un opposé pour l addition ( u E, u E, u + u = u + u = e) - la multiplication externe vérifie : λ(µv) = (λµ)v, λ, µ K, v E, 1v = v, v E, (λ + µ)v = λv + µv, λ, µ K, v E, λ(u + v) = λu + λv, λ K, u, v E L élément neutre e est noté 0 E et l opposé de u est noté u Exemples L espace R n ; L espace des fonctions continues sur R; 1

Combinaison linéaire Famille libre, liée, génératrice La famille (u 1,, u q ) de vecteurs de E est dite libre (ou linéairement indépendante) si aucun de ces vecteurs ne peut s écrire comme combinaison linéaire des autres Plus précisément si Sinon cette famille est dite liée [Rmq : toute famille contenant 0 E est ] La famille (u 1,, u q ) est dite génératrice dans E si Base inition : Dimension finie : Propriétés : si E est de dimension finie n, alors : - toutes les bases de E ont - toute famille libre de n éléments est - toute famille génératrice de n éléments est Sous espace vectoriel Sous espace engendré Somme de sous espaces vectoriels inition : Somme directe : Sous espaces supplémentaires : 2

12 Matrices : définitions On appelle matrice de taille p n un tableau à double entrée, comportant p lignes et n colonnes, et dont chaque élément (encore appelé coefficient) appartient à K L élément a ij appartenant à la i-ème ligne et à la j-ème colonne est appelé élément d indice (i, j) de la matrice A = (a ij ) L ensemble des matrices de taille p n à éléments dans K est noté M p,n (K) L ensemble des matrices de taille n n à éléments dans K, dites matrices carrées, est noté M n (K) a 11 a 1n A appartenant à M p,n (K) est notée A = = (a ij ) 1 i p 1 j n a p1 a pn Prop M p,n (K) est un espace vectoriel sur K, de dimension pn Sa base canonique est {E ij, 1 i p, 1 j n} où E ij est la matrice dont tous les éléments sont nuls, sauf celui d indice (i, j) qui vaut 1 Ainsi toute matrice A de M p,n (K) s écrit de manière unique p n A = a ij E ij j=1 121 Quelques matrices carrées particulières Matrice identité de taille n n : I n = Matrice diagonale : D = d 11 0 0 d nn Matrice triangulaire supérieure : T = 1 0 0 1 (I n (i, j) = 1 si i = j, 0 sinon) (D(i, j) = 0 si i j) t 11 t 1n 0 t nn t 11 0 Matrice triangulaire inférieure : T = t n1 t nn (T (i, j) = 0 si i > j) (T (i, j) = 0 si i < j) Matrice triangulaire inférieure (ou supérieure) stricte : Matrice triangulaire inférieure (ou supérieure) dont la diagonale est nulle Matrice bande de largeur 2m + 1 : A(i, j) = 0 si i j > m Pour m = 1 on parle de matrice tridiagonale 3

122 Transposition Soit A M pn (K) On appelle transposée de A, notée A t, la matrice de M np (K) définie par A t (i, j) = A(j, i) A M n (K) (donc carrée) est symétrique ssi A t = A A M n (K) est antisymétrique ssi A t = A (donc de diagonale nulle) Prop A M n (K) peut être décomposée de façon unique en somme d une matrice symétrique et d une matrice antisymétrique : A = 1 2 (A + At ) + 1 2 (A At ) On en déduit que M n (K) est la somme directe du sous-espace vectoriel des matrices symétriques de taille n et du sous-espace vectoriel des matrices antisymétriques de taille n 123 Produit de matrices Soient A M pn (K) et B M nq (K) On définit alors la matrice AB M pq (K) par n (AB)(i, j) = A(i, k) B(k, j) Attention : on voit que le produit AB n est défini que si le k=1 nombre de colonnes de A est égal au nombre de lignes de B Rmq Disposition pour les calculs Rmq Action d une matrice sur un vecteur colonne Soit A M pn (K) et x K n représenté par le vecteur colonne La décomposition de la matrice A en colonnes permet d écrire A = (A 1,, A n ) Ainsi, A x = x 1 A 1 + x 2 A 2 + + x n A n est donc une CL des colonnes de A Prop Le produit de matrices est associatif : A(BC) = (AB)C, et distributif par rapport à l addition : A(B + C) = AB + AC Prop Par contre il n est pas commutatif : AB BA en général, même si A, B M n (K) Ainsi (A + B) 2 = A 2 + AB + BA + B 2 A 2 + 2AB + B 2 en général (AB) t = B t A t Prop Le produit de deux matrices triangulaires supérieures (resp inférieures) est une matrice triangulaire supérieure (resp inférieure) x 1 x n 4

Prop Le produit de deux matrices diagonales est une matrice diagonale Soit A M n (K) On appelle matrice inverse de A, notée A 1, la matrice de M n (K) vérifiant AA 1 = A 1 A = I n, si elle existe Prop Si A inversible, son inverse A 1 est unique Prop Pour A et B inversibles, on a : (AB) 1 = B 1 A 1 Prop Pour A inversible, on a : (A 1 ) t = (A t ) 1 Rmq AB = AC ne conduit pas à B = C 124 Manipulation par blocs des matrices On peut, pour simplifier dans certains cas les calculs matriciels, adopter une écriture par blocs Ceci a de l intérêt si certains blocs sont particulièrement simples (par exemple nuls, ou égaux à une matrice identité) Les manipulations sont identiques aux calculs matriciels usuels Il faut simplement s assurer de la compatibilité des tailles de blocs lors des opérations (cf exemples dans les fiches de TD) Attention : la forme réelle des matrices n est pas équivalente à la forme par blocs Par exemple une matrice triangulaire par blocs n est pas nécessairement triangulaire De même l écriture par blocs d une matrice triangulaire n est pas nécessairement triangulaire par blocs Par contre, toute matrice triangulaire peut être écrite sous forme triangulaire par blocs Et de même pour des matrices, diagonales, bandes, etc 13 Représentation matricielle d une application linéaire 131 Rappels : application linéaire Application linéaire de E dans F Prop ϕ linéaire de E dans F (E de dimension finie) est complétement déterminée par la connaissance de l image d une base ϕ : E F linéaire Noyau de ϕ : Kerϕ = Image de ϕ : Imϕ = Rang d une application linéaire (dime finie) : rang(ϕ) = dim(im(ϕ)) Puisque Im(ϕ) est engendré par les vecteurs ϕ(e 1 ),, ϕ(e n ), pour une base (e 1,, e n ) de E, le rang de ϕ est le nombre maximum de vecteurs ϕ(e j ) linéairement indépendants Prop Théorème du rang (E de dimension finie) 5

132 Représentation matricielle Soit ϕ une application linéaire de E vers F Soient B E = {e 1,, e n } une base de E et B F = {f 1,, f p } une base de F Pour chaque e j, ϕ(e j ) F et peut donc être décomposé p de façon unique sur la base {f 1,, f p } : ϕ(e j ) = a ij f i On pose : A = (a ij ) 1 i p 1 j n A est la matrice représentative de l application linéaire ϕ dans les bases B E et B F On remarque que chaque colonne j de A contient les coefficients de ϕ(e j ) n Soit x E Notons y = ϕ(x) On peut décomposer x dans la base B E : x = x j e j et y dans la base B F : y = En posant X = x 1 x n p y i f i Or y = ϕ(x) = et Y = y 1 y p n x j ϕ(e j ) = j=1 n j=1, on a donc Y = AX x j p a ij f i = ( p n ) a ij x j f i Prop y = ϕ(x) est équivalent à l écriture matricielle Y = AX, où X et Y sont les coordonnées de x et y dans les bases B E et B F, et où A est la matrice représentative de ϕ dans les bases B E et B F j=1 j=1 ϕ : E (e1,,e n) F (f1,,f p) (1) X = x 1 x n x ϕ(x) = y (2) AX = Y = y 1 y p (3) Prop Matrice de l identité I d : E E, x I d (x) = x, avec E muni de la base B E = (e 1, e 2,, e n ), au départ et à l arrivée Alors, Mat BE (I d ) = I n Rmq Attention - si les bases au départ et à l arrivée pour l espace vectoriel E sont différentes, alors l identité n est pas représentée par I n 6

Prop Composée d applications linéaires Considérons les applications linéaires suivantes où E, F, G sont de dimension finie ϕ : E F, ψ : F G Alors, Mat BE,B G (ψ ϕ) = Mat BF,B G (ψ) Mat BE,B F (ϕ) Prop Si ϕ est bijective de E dans F (de sorte que dim E=dim F ), alors Mat BE,B F (ϕ) est inversible et ( 1 Mat BE,B F (ϕ)) = MatBE,B (ϕ 1 F ) Rang d une matrice 1) Si A = Mat BE,B F (ϕ), alors, rang(a) := rang(ϕ) = dim(im(ϕ)) 2) Pour une matrice quelconque A M pn (K), on remarque que A définit une application linéaire de K n dans K p : A : K n K p, X AX, de sorte que le rang de A est la dimension du sous-espace vectoriel engendré par les vecteurs colonnes de A Autrement dit, c est le nombre maximum de vecteurs colonnes de A linéairement indépendants les uns des autres Prop rang(a)= = rang(a t ) 14 Changement de base 141 Matrice de passage Soit B E = {e 1,, e n} une autre base de E Chaque e j peut être décomposé dans la base n B E : e j = p ij e i Notons P = (p ij ) 1 i n 1 j n P est la matrice de passage de la base B E à la base B E Pour x E, on note X = On a alors : X = PX x 1 x n et X = x 1 x n ses coordonnées dans B E et B E 7

142 Changement de base pour une application linéaire Soit B F = {f 1,, f p} une autre base de F On note Q la matrice de passage de B F à B F Pour ϕ une application linéaire de E vers F, on note A sa matrice représentative dans B E et B F, et B sa matrice représentativedans B E et B F Soit x E et y = ϕ(x) On note X = x 1 x n, X = x 1 x n, Y = y 1 y p et Y = les coordonnées de x et y dans les différentes bases On a : Y = QY = QBX et Y = AX = AP X, et ceci pour tous x et y D où la relation: B = Q 1 AP y 1 y p Dans le cas particulier où E = F (cad précédente devient B = P 1 AP où ϕ est un endomorphisme), la relation 8

2 Chapitre 2 : Systèmes linéaires En l absence de précisions, l espace vectoriel K m, (m > 0), sera supposé muni de sa base canonique Soit A M pn (K) et b K p On s intéresse à la résolution du système linéaire AX = b, c est à dire à trouver X = x 1 x n K n vérifiant : a 11 x 1 + + a 1n x n = b 1 (S) a p1 x 1 + + a pn x n = b p A définit une application linéaire de K n dans K p : A : K n K p, X AX, ce qui permet de définir le noyau KerA (sous espace vectoriel de K n ) et l image ImA (sous espace vectoriel de K p ) 21 Existence et unicité de solutions Au système (S), on associe le système homogène (S 0 ) : AX = 0 Le vecteur nul est évidemment une solution de (S 0 ) Prop L ensemble S 0 des solutions de (S 0 ) est un sous-espace vectoriel de R p Précisément : S 0 = KerA Prop L ensemble S des solutions de (S) est obtenu en ajoutant à une solution particulière quelconque de (S) l ensemble des solutions de (S 0 ) Précisément : si b / ImA, alors S = si b ImA, alors S = X + S 0, où X est une solution quelconque de (S) Preuve - Si X est une solution quelconque de (S), alors AX A X = A(X X) = b b = 0 K p, de sorte que X X KerA Prop Si rang A = n (nombre de colonnes), (S) admet au plus une solution Preuve - On décompose la matrice A = (A 1,, A n ) en n colonnes Alors Im(A) = Vect(A 1,, A n ) et puisque ranga = n, les vecteurs colonnes de A sont linéairement indépendants et forment donc une base de Im(A) Ensuite : Si b / ImA, alors S = Si b ImA, alors X K n tel que AX = b, c-à-d, tel que (A 1,, A n ) x 1 x n = b, c-à-d, tel que n j=1 x ja j = b Finalement, puisque b Im(A) s écrit de manière unique dans la base des A j, la solution X est unique 9

Prop Si A est de taille n n et si rang A = n, alors (S) admet une et une seule solution Preuve - Théorème du rang A inversible 22 Résolution d un système triangulaire Soit à résoudre AX = b avec A M n (K) triangulaire inférieure (S) s écrit dans ce cas: a 11 x 1 = b 1 a 21 x 1 + a 22 x 2 = b 2 (S T ) a n1 x 1 + a n2 x 2 + + a nn x n = b n Prop A est de rang n ssi a ii 0, i = 1,, n Preuve - A est de rang n A est inversible AX = b admet une unique solution b K n les a ii sont tous non nuls d après la résolution décrite ci-dessous Résolution de (S T ) On suppose que les éléments diagonaux a ii sont tous non-nuls (S T ) admet donc une solution unique, qu on obtient par descente du système et substitution : x 1 = b 1 /a 11 x 2 = (b 2 a 21 x 1 )/a 22 x n = (b n a n1 x 1 a n,n 1 x n 1 )/a nn Le coût de cette résolution, cad le nombre d opérations nécessaires pour cet algorithme, est d environ n 2 /2 additions/soustractions, et n 2 /2 multiplications/divisions (on sépare ainsi ces deux types d opérations, car les multiplications et divisions coûtent en général nettement plus cher en temps de calcul que les additions ou soustractions) La méthode est évidemment identique pour un système triangulaire supérieur, en commençant par la dernière ligne et en remontant le système 23 Méthode de Gauss On considère le système (S) pour une matrice A carrée de rang n Notons L k la k-ème ligne de (S) La méthode d élimination de Gauss consiste à réaliser les étapes suivantes : 1ère étape Si a 11 0, on élimine x 1 dans les lignes 2 à n par la transformation L i L (2) i = L i a i1 L 1 pour i = 2,, n On obtient donc le système : a 11 a (2) 11 x 1 + a (2) 12 x 2 + + a (2) 1n x n = b (2) 1 a (2) 22 x 2 + + a (2) 2n x n = b (2) 2 a (2) n2 x 2 + + a (2) nn x n = b (2) n 10

et on recommence sur le sous-sytème formé des lignes 2 à n Etape k Au début de l étape k, le système est de la forme : 11 x 1 + + 1k x k + + 1n x n = b (k) 1 x k + + kn x n = b (k) k nk x k + + nn x n = b (k) n L (k) i Si L (k+1) i a (k+1) ij = 0, on élimine alors x k dans les lignes k + 1 à n par la transformation = L (k) i ij ij a(k) ik L (k) k pour i = k + 1,, n On fait donc : a(k) ik kj si i k si i > k et b (k+1) i = b (k) i b (k) i b(k) i b (k) k si i k si i > k Après n 1 étapes, on a un système triangulaire supérieur, que l on peut résoudre aisément Remarque : Les, qui sont les diviseurs apparaissant dans cet algorithme, sont appelés les pivots Si l un d eux est nul, on peut alors permuter les lignes k à n jusqu à trouver un pivot non-nul (toujours possible car rang A = n) Par ailleurs, lorsqu un pivot est petit (en valeur absolue), la précision des calculs sur ordinateur peut s en ressentir On a plutôt intérêt à adopter la stratégie du pivot partiel, qui consiste à intervertir deux lignes (L (k) k le maximum (en valeur absolue) de la colonne k et l une des L (k) i pour i > k) de façon à placer en Coût de cet algorithme : environ n 3 /3 additions/soustractions, et n 3 /3 multiplications/divisions 11

24 Décomposition LU La première étape de la méthode de Gauss s écrit matriciellement : 1 0 0 a 11 a 12 a 1n a 11 a 12 a 1n a 21 a 11 1 0 a 21 a 22 a 2n = 0 a (2) 22 a (2) 2n, a n1 a 11 0 1 a n1 a n2 a nn 0 a (2) n2 a (2) nn soit : N 1 A = A (2), où la matrice N 1 est triangulaire inférieure, avec des 1 sur la diagonale, tandis que A (2) est la matrice déduite de A à l issue de la première étape de la méthode de Gauss L étape k s écrit matriciellement de manière analogue : 1 0 0 a 11 a 12 a 1n 0 0 0 a (2) 22 a (2) 2n 1 a(k) k+1,k 1 a (k 1) k 1,k 1 a (k 1) k 1,n 0 kn 0 a(k) n,k 0 1 0 0 nk nn soit : N k A (k) = A (k+1) Après n 1 étapes, on obtient donc : ( Nn 1 N 2 N 1 ) A = A (n) = U = A (k+1) où U est une matrice triangulaire supérieure Les matrices N k sont triangulaires inférieures avec des 1 sur la diagonale, de sorte que la matrice L = ( N n 1 N 2 N 1 ) 1 existe et est triangulaire inférieure Finalement, L 1 A = U A = LU La méthode de Gauss fait donc implicitement la décomposition A = LU, où L est triangulaire inférieure avec des 1 sur la diagonale et U est triangulaire supérieure (U est en fait la matrice triangulaire obtenue en fin d algorithme d élimination) Connaître explicitement cette décomposition peut réduire énormément les coûts de calcul si l on a à résoudre plusieurs systèmes AX = b avec différents seconds membres b En effet, résoudre LUX = b revient simplement à résoudre LY = b puis UX = Y, c est à dire deux systèmes triangulaires Ainsi, si l on connait la décomposition LU, le coût de la résolution passe à seulement 2 n 2 /2 = n 2, au lieu de n 3 /3 pour la méthode de Gauss Prop Lorsqu elle existe, la décomposition LU est unique 12

L obtention de la décomposition LU se fait par exemple par l algorithme de réduction de Crout, qui consiste à écrire formellement l égalité A = LU, et à identifier successivement les élements de la première ligne de A (ce qui donne la première ligne de U), puis ceux de la première colonne de A (ce qui donne la première colonne de L), puis ceux de la deuxième ligne de A (ce qui donne la deuxième ligne de U), etc Coût de cet algorithme : on retrouve, ce qui est logique, le coût de la méthode de Gauss, c est à dire environ n 3 /3 additions/soustractions, et n 3 /3 multiplications/divisions Autrement dit, la décomposition LU ne réduit pas le coût de calcul si l on n a qu une seule résolution de système à effectuer Exemple d utilisation : inversion d une matrice Soit A M n (K) de rang n Si l on note e i le i-ème vecteur de la base canonique (cad le vecteur avec un 1 en i-ème ligne et des 0 ailleurs), et C i la i-ème colonne de A 1, l égalité AA 1 = I n est équivalente à AC i = e i (i = 1,, n) On a donc à résoudre n systèmes linéaires, ayant tous la même matrice A et des seconds membres différents Plutôt que mettre en oeuvre n algorithmes de Gauss (ce qui coûterait n 4 /3), on a intérêt à faire la décomposition LU de A (coût : n 3 /3) puis à résoudre les n systèmes LU C i = e i (coût : n n 2 ), soit un coût total de 4n 3 /3 13

3 Déterminants 31 Formes n-linéaires alternées Soit E un espace vectoriel de dimension n Soit f définie de E n vers K (une fonction à image dans K est appelée une forme) Autrement dit, f associe à n vecteurs v 1,, v n de E un scalaire f(v 1,, v n ) f est dite n-linéaire ssi elle est linéaire par rapport à chaque variable, cad f(v 1,, v i + v i,, v n ) = f(v 1,, v i,, v n ) + f(v 1,, v i,, v n ) f(v 1,, λv i,, v n ) = λ f(v 1,, v i,, v n ) v 1,, v n, λ, i v 1,, v n, i Soit f une forme de E n vers K On dit que f est alternée ssi f(v 1,, v n ) = 0 dès que les v i ne sont pas tous distincts Prop Les formes n-linéaires alternées forment un espace vectoriel de dimension 1 Autrement dit, deux formes n-linéaires alternées sont forcément multiples l une de l autre 32 Déterminant d une matrice carrée Soit A M n (K) On appelle mineur d indice (i, j), notée M ij, la matrice de M n 1 (K) obtenue en enlevant la i-ème ligne et la j-ème colonne de A On appelle déterminant l application qui à toute matrice A M n (K) associe la valeur définie par récurrence de la façon suivante : - si n = 1, deta = a 11 n - si n > 1, deta = ( 1) i+j a ij detm ij (développement par rapport à la j-ème colonne), ou encore deta= n ( 1) i+j a ij detm ij (développement par rapport à la i-ème ligne) j=1 Pour montrer que toutes ces définitions par développement par rapport à une ligne ou à une colonne quelconque sont équivalentes, on montre tout d abord qu on définit ainsi des formes n-linéaires alternées Elles sont donc égales entre elles à un facteur multiplicatif près De plus, elles prennent toutes la même valeur sur la matrice identité I n Donc elles sont égales 33 Quelques propriétés Soit A M n (K) On note L k ses lignes et C k ses colonnes Le fait de remplacer L k par L k + i k valeur du déterminant α i L i, ou C k par C k + i k α i C i ne change pas la 14

Si B est obtenue en permutant deux lignes ou deux colonnes de A, detb=-deta Si B est obtenue en multipliant une ligne ou une colonne de A par λ K, alors detb=λ deta deta t =deta det(λa) = λ n deta En général, det(a + B) deta + detb detab=detadetb A est inversible ssi deta 0 Dans ce cas, deta 1 =1/detA Le système linéaire AX = b a une solution unique ssi deta 0 Si A est triangulaire, deta= n a ii A 11 A 1n 0 A Si A est triangulaire par blocs A = 22 avec chaque bloc A ii 0 A nn n carré, alors deta= deta ii Coût de calcul de deta : environ n! additions et multiplications C est un coût énorme A titre d exemple, 20! opérations prendraient des dizaines d années de calcul sur un ordinateur à plusieurs gigaflops (cad plusieurs milliards d opérations par seconde) On doit donc faire apparaitre un maximum de zéros et/ou de symétries dans le déterminant afin de réduire les calculs 15

4 Réduction des endomorphismes et des matrices carrées On rappelle qu une application linéaire de E dans E est appelée endomorphisme de E A toute matrice A M n (K) correspond un endomorphisme f de E et réciproquement 41 Eléments propres λ K est valeur propre de f ssi ( x E, x 0 / f(x) = λx) λ K est valeur propre de A ssi ( X K n, X 0 / AX = λx) x E est vecteur propre de f ssi (x 0 et λ K / f(x) = λx) X K n est vecteur propre de A ssi (X 0 et λ K / AX = λx) Soient x E, x 0, et λ K tels que f(x) = λx On dit que x est vecteur propre de f associé à la valeur propre λ Soient X K n, X 0, et λ K tels que AX = λx On dit que X est vecteur propre de A associé à la valeur propre λ A) L ensemble des valeurs propres de f (resp de A) est appelé spectre de f (resp de d 11 0 Prop Soit D M n (K) une matrice diagonale : D = 0 d nn valeur propre de D associée au vecteur propre e i (i-ème vecteur de la base canonique) Chaque d ii est Prop L ensemble des vecteurs propres associés à une valeur propre λ forme un sous-espace vectoriel, appelé sous-espace vectoriel propre, noté E λ x E λ ssi f(x) = λx, cad ssi (f λid)(x) = 0 Donc E λ = ker(f λid) Prop Les sous-espaces vectoriels propres d un endomorphisme sont en somme directe 42 Polynôme caractéristique λ est valeur propre de A ssi X 0 / AX = λx, cad ssi X 0 / (A λid)x = 0, cad ssi det(a λid) = 0 det(a λid) est un polynôme de degré n en λ, appelé polynôme caractéristique de A, noté P A (λ) L ensemble des valeurs propres de A est l ensemble des racines de P A (λ) (on voit donc qu il y a au plus n valeurs propres) Prop Deux matrices semblables ont même polynôme caractéristique Autrement dit, P λ est invariant par changement de base On appelle ordre de multiplicité d une valeur propre son ordre de multiplicité en 16

tant que racine de P A (λ) Prop P A (λ) = ( 1) n λ n + ( 1) n 1 tr(a) λ n 1 + + deta Prop La dimension du sev propre E λ est inférieure ou égale à l ordre de multiplicité de λ 43 Diagonalisation On dit que A est diagonalisable ssi il existe une matrice diagonale D telle que A soit semblable à D On a donc alors : D = P 1 AP, où P est une matrice de passage On dit que f est diagonalisable ssi il existe une base B dans laquelle la matrice représentative de f soit diagonale Prop Les propriétés suivantes sont équivalentes : (i) f est diagonalisable (ii) Il existe une base formée de vecteurs propres de f (iii) La somme des sev propres est égale à E (iv) La somme des dimensions des sev propres est égale à n On dit qu un polynôme est scindé ssi il peut être factorisé par des monômes, cad r être mis sous une forme P (X) = (X x i ) m i Sur C, tout polynôme est scindé Prop Condition nécessaire et suffisante de diagonalisation : f est diagonalisable ssi P f r est scindé (P f (λ) = (λ λ i ) m i, où les λ i sont distincts) et chaque sev propre E λi a pour dimension l ordre de multiplicité m i de la valeur propre λ i Prop Condition suffisante de diagonalisation : Si f admet n valeurs propres distinctes, alors f est diagonalisable Prop Toute matrice symétrique réelle est diagonalisable (et ses sous-espaces propres sont orthogonaux entre eux pour le produit scalaire usuel, ce qui signifie que deux vecteurs propres correspondant à des valeurs propres distinctes sont orthogonaux) Bibliographie [1] J Lelong-Ferrand et J-M Arnaudiès: Cours de mathématiques - Tome 1, Dunod 2003 [2] J-M Monier: Algèbre et géométrie MP, Dunod 2004 [3] F Pham et H Dillinger: Algèbre linéaire, Diderot 1996 17