Chap. IV. Applications Linéaires

Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Cours 02 : Problème général de la programmation linéaire

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Chapitre 2. Matrices

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Calcul différentiel sur R n Première partie

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Construction de l'intégrale de Lebesgue

Exercices Corrigés Premières notions sur les espaces vectoriels

Structures algébriques

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Capes Première épreuve

NOTATIONS PRÉLIMINAIRES

Développements limités. Notion de développement limité

Moments des variables aléatoires réelles

Fonctions de plusieurs variables

Couples de variables aléatoires discrètes

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

3. Conditionnement P (B)

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Axiomatique de N, construction de Z

Cours d analyse numérique SMI-S4

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

[ édité le 30 avril 2015 Enoncés 1

Introduction a l'algorithmique des objets partages. Robert Cori. Antoine Petit. Lifac, ENS Cachan, Cachan Cedex. Resume

Probabilités sur un univers fini

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Introduction à l étude des Corps Finis

VI. COMPLÉMENTS SUR LES MODULES, THÉORÈME CHINOIS, FACTEURS INVARIANTS SÉANCES DU 15, 16 ET 22 OCTOBRE

Le produit semi-direct

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Cours de mathématiques

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Problème 1 : applications du plan affine

Image d un intervalle par une fonction continue

Théorème du point fixe - Théorème de l inversion locale

Calcul différentiel. Chapitre Différentiabilité

Planche n o 22. Fonctions de plusieurs variables. Corrigé

3 Approximation de solutions d équations

Intégration et probabilités TD1 Espaces mesurés Corrigé

CNAM UE MVA 210 Ph. Durand Algèbre et analyse tensorielle Cours 4: Calcul dierentiel 2

Comparaison de fonctions Développements limités. Chapitre 10

Résolution d équations non linéaires

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Université Paris-Dauphine DUMI2E 1ère année, Applications

Proposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5.

Limites finies en un point

Cours arithmétique et groupes. Licence première année, premier semestre

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Probabilités sur un univers fini

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

1 Complément sur la projection du nuage des individus

Équations non linéaires

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

Programmes des classes préparatoires aux Grandes Ecoles

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Raisonnement par récurrence Suites numériques

Continuité en un point

Comment démontrer des formules sans effort? exposé de maîtrise

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

La fonction exponentielle

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Simulation de variables aléatoires

Chapitre 11. Séries de Fourier. Nous supposons connues les formules donnant les coefficients de Fourier d une fonction 2 - périodique :

Programmation linéaire

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Correction de l examen de la première session

Dérivées d ordres supérieurs. Application à l étude d extrema.

Différentiabilité ; Fonctions de plusieurs variables réelles

Premiers exercices d Algèbre. Anne-Marie Simon

Théorie de la Mesure et Intégration

Pour l épreuve d algèbre, les calculatrices sont interdites.

Calcul fonctionnel holomorphe dans les algèbres de Banach

Programmation linéaire et Optimisation. Didier Smets

CHAPITRE 10. Jacobien, changement de coordonnées.

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

chapitre 4 Nombres de Catalan

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

I. Polynômes de Tchebychev

Approximations variationelles des EDP Notes du Cours de M2

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Polynômes à plusieurs variables. Résultant

Résolution de systèmes linéaires par des méthodes directes

AOT 13. et Application au Contrôle Géométrique

Fonctions de deux variables. Mai 2011

Mathématiques Algèbre et géométrie

Résumé du cours d algèbre 1, Sandra Rozensztajn. UMPA, ENS de Lyon, sandra.rozensztajn@ens-lyon.fr

Développement décimal d un réel

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Théorèmes du Point Fixe et Applications aux Equations Diérentielles

Fonctions de plusieurs variables. Sébastien Tordeux

Chapitre 5 : Flot maximal dans un graphe

Suites numériques 4. 1 Autres recettes pour calculer les limites

Cinétique et dynamique des systèmes de solides

Chapitre VI - Méthodes de factorisation

Transcription:

Printemps 2010 Chap IV Applications Linéaires 1 Chap IV Applications Linéaires Printemps 2010

Printemps 2010 Chap IV Applications Linéaires 2 1 Applications Linéaires Dénition 11 : Soient E et E' deux espaces vectoriels surk et f une application de E dans E' On dit que f est linéaire, si : 1) f(u + v) = f(u) + f(v) u, v E 2) f(λv) = λf(v) v E, λ K L'ensemble des applications linéaires de E dans E' est noté L(E, E ) Remarque 1 : f(0) = 0 car (homomorphisme de groupes) Dénition 12 : Une application linéaire de E dans E est appelée endomorphisme Exemple 1 : 1) Θ : E E est linéaire dite application nulle 2) v 0

Printemps 2010 Chap IV Applications Linéaires 3 id E : E E est linéaire dite application identique de E v v 3) u E : E E est linéaire dite homothétie de rapport α α K v αv 4) D : R[X] R[X] est linéaire dite dérivation P DP = P 5) Soit E = E 1 E 2 P r1 : E E 1 est linéaire dite projection x = x 1 + x 2 x 1 sur E 1 parallélement à E 2 6) Soit v 0 0 un vecteur de E

Printemps 2010 Chap IV Applications Linéaires 4 τ : E E application non linéaire car τ(0) = v 0 0, v v + v 0 dite translation 2 Image et Noyau Proposition 21 : Soit f L(E, E ) et F un sous-espace vectoriel de E Alors f(f) est un sous-espace vectoriel de E' En particulier f(e) est un sous-espace vectoriel de E' appelé image de f et noté Imf Sa dimension est appelée rang de f Preuve : On sait que f(f) est un sous-groupe de E', il sut donc de vérier la stabilité pour l'opération externe Soit λ K et f(v) f(f), λf(v) = f(λv) f(f) Proposition 22 : Soit f L(E, E ), Kerf = {x E/f(x) = 0} est un sous-espace vectoriel de E, appelé noyau de f

Printemps 2010 Chap IV Applications Linéaires 5 Preuve : Il sut de vérier la stabilité pour l'opération externe Soit λ K et x Kerf, f(λx) = λf(x) = λ0 = 0 λx Kerf Proposition 23 : f est injective Kerf = {0} Exemple 2 : 1) Soit E = E 1 E 2, ImP r1 = E 1, KerP r2 = E 2 2) D : R[X] R[X] P DP = P KerD = R, ImD = R[X] 3) f : R 3 R 2 (x, y, z) (2x + y, y z) Kerf = {(x, y, z)/y = 2x et z = y} = {(x, 2x, 2x)/x R} droite vectorielle engendrée par (1, 2, 2)

Printemps 2010 Chap IV Applications Linéaires 6 Imf = {(x, y )/ x, y, z; x = 2x + y et y = y z} = { (x, y )/y = y + z et x = 1 2 (x y z) } Posons z = 0 donc y = y et x = 1 2 (x y ) D'où (x, y ) R 2 ( 1 2 (x y ), y, 0) R 3 ; f(( 1 2 (x y ), y, 0)) = (x, y ) donc f est surjective, et par suite Imf = R 2 Proposition 24 : Soit f L(E, E ) et {v i } 1 i n une famille de vecteurs de E 1) Si f est injective et la famille {v i } 1 i n est libre dans E, alors la famille {f(v i )} 1 i n est libre dans E' 2) Si f est surjective et la famille {v i } 1 i n est génératrice de E, alors la famille {f(v i )} 1 i n est génératrice de E' En particulier si f est bijective, l'image d'une base de E est une base de E'

Printemps 2010 Chap IV Applications Linéaires 7 Preuve : 1) Comme f est une application linéaire injective, alors on a : i=n λ i f(v i ) = 0 i=n = f( = i=n λ i v i = 0 2) x E, λ i K ; x = λ i v i ) = 0 ( f application linéaire ) = λ i = 0 i = 1,, n {v i } 1 i n libre i=n λ i v i i=n Soit y E, x E ; y = f(x) = f( λ i v i ) ( surj ) d'où

Printemps 2010 Chap IV Applications Linéaires 8 y = i=n λ i f(v i ) Théorème 1 : Deux espaces vectoriels de dimension nie sont isomorphes, si et seulement si, ils ont même dimension Preuve : ) f : E E isomorphisme, d'après la proposition précédente l'image d'une base de E est une base de E', donc E et E' ont même dimension ) Supposons dime = dime, soit {e 1,, e n } une base de E et {e 1,, e n} une base de E' Considérons l'application f : E E Pour x = e k e k i=n i=n λ i e i, on pose f(x) = f( que f est linéaire bijective λ i e i ) = i=n λ i e i, on vérie

Printemps 2010 Chap IV Applications Linéaires 9 Corollaire 21 : E espace vectoriel de dimension nie sur K E est isomorphe à K n dim K E = n Théorème 2 ( Théorème de la dimension ) : Soient E et E' deux espaces vectoriels de dimension nie et f L(E, E ), alors dime = dim(kerf) + dim(imf) Preuve : Supposons dime = n, dim(kerf) = r et montrons que dim(imf) = n r Soit {w 1,, w r } une base de Kerf, complétons la pour obtenir une base de E en l'occurrence {w 1,, w r, v 1,, v n r } Montrons que B = {f(v 1 ),, f(v n r )} est une base de Imf 1) B engendre Imf, en eet : r n r f(x) = f( α i w i + λ i v i ) = b) B est libre : n r λ i f(v i )

Printemps 2010 Chap IV Applications Linéaires 10 n r λ i f(v i ) = 0 n r = f( = = = n r λ i v i ) = 0 λ i v i Kerf n r λ i v i = n r λ i v i r α i w i r α i w i = 0 (f application linéaire) = λ i = 0, i = 1,, n r; α i = 0, i = 0,, r Corollaire 22 : Soit f L(E, E ), E et E' étant deux espaces vectoriels de même dimension nie, alors les propriétés suivantes sont équivalentes :

Printemps 2010 Chap IV Applications Linéaires 11 1) f est injective 2) f est surjective 3) f est bijective Preuve : dime = dim(kerf) + dim(imf) Il sut de montrer 1) 2) f injective Kerf = {0} dime = dim(imf) dime = dim(imf) E = Imf f est surjective Remarque 2 : 1) Ce résultat est faux en dimension innie En eet : D : R[X] R[X] est surjective, non injective P DP = P 2) Une application linéaire f est parfaitement dénie si on connaît l'image des vecteurs d'une base, car d'après la linéarité de f on a

Printemps 2010 Chap IV Applications Linéaires 12 n n f(x) = f( x i e i ) = x i f(e i ), donc si on connaît f(e 1 ),, f(e n ), f est connue en tout x 3 Matrices Associées aux Applications Linéaires Soient E et E' deux espaces vectoriels sur K, de dimension nie n et p respectivement, et f : E E une application linéaire Choisissons {e 1,, e n } une base de E et { e 1,, e p} une base de E' Les images par f des vecteurs {e 1,, e n } se décomposent sur la base { e 1,, e p} :

Printemps 2010 Chap IV Applications Linéaires 13 f(e 1 ) = a 11 e 1 + a 21 e 2 + + a p1 e p f(e 2 ) = a 12 e 1 + a 22 e 2 + + a p2 e p = = f(e n ) = a 1n e 1 + a 2n e 2 + + a pn e p Dénition 31 : On appelle matrice de f dans les bases {e 1,, e n } et { e 1,, e p}, la matrice notée par M(f)ei,e j appartenant à M p,n (K) dont les colonnes sont les composantes des vecteurs f(e 1 ),, f(e n ) dans la base { e 1,, e p} : f(e 1 ) f(e 2 ) f(e n )

Printemps 2010 Chap IV Applications Linéaires 14 M(f) ei,e j = a 11 a 12 a 1n e 1 e 2 e p 1 a p1 a p2 a pn e p Il est clair que la matrice associée à f dépend du choix des bases de E et E' Exemple 3 : 1) Soit E un espace vectoriel de dimension n et id E : E E x x On considère une base {e i } de E

Printemps 2010 Chap IV Applications Linéaires 15 M(id E ) ei = M n (K) 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 1 = I n matrice unité de 2) Soit E = R 2 et P r 1 : R 2 R 2 (x, y) (x, 0) Considérons la base canonique {e 1, e 2 } de R 2 on a P r 1 (e 1 ) = e 1, P r 1 (e 2 ) = 0

Printemps 2010 Chap IV Applications Linéaires 16 M(P r 1 ) ei = 1 0 0 0 3) Soit {e 1, e 2, e 3 } la base canonique de R 3 et {e 1, e 2} la base canonique de R 2 Considérons l'application linéaire : f : R 3 R 2 (x, y, z) (x y, z y) M(f) ei,e = 1 1 0 j 0 1 1 4) On considère la forme linéaire sur R n f : R n R (x 1,, x n ) a 1 x 1 + a 2 x 2 + + a n x n En munissant R n et R de leurs ( bases canoniques ) respectives {e i } et {1} on obtient M(f) ei,1 = a 1 a 2 a n

Printemps 2010 Chap IV Applications Linéaires 17 5) D : R 4 [X] R 3 [X] P DP = P 0 1 0 0 0 0 0 2 0 0 M(D) = par rapport aux bases canoniques de 0 0 0 3 0 0 0 0 0 4 R 4 [X] et R 3 [X]

Printemps 2010 Chap IV Applications Linéaires 18 Proposition 31 : Soient E et E' deux espaces vectoriels sur K de dimension n et p respectivement, {e i } et {e j } des bases de E et E' Alors l'application : M : L(E, E ) M p,n (K) f M(f) ei,e j est un isomorphisme d'espaces vectoriels c'est à dire : M(f + g) = M(f) + M(g), M(λf) = λm(f) et M est bijective, en particulier diml(e, E ) = np

Printemps 2010 Chap IV Applications Linéaires 19 Preuve : (f + g)(e 1 ) (f + g)(e n ) M(f+g) ei,e = j f(e 1 ) f(e n ) g(e 1 ) g(e n ) = +

Printemps 2010 Chap IV Applications Linéaires 20 = M(f) ei,e j + M(g) e i,e j De même (λf)(e 1 ) (λf)(e n ) M(λf) ei,e = j donc M est linéaire = λm(f) ei,e j Soit f KerM = M(f) ei,e j = 0 = f(e 1) = f(e 2 ) = = f(e n ) = 0,

Printemps 2010 Chap IV Applications Linéaires 21 donc si x E x = i=n donc M est injective λ i e i, f(x) = i=n λ i f(e i ) = 0, d'où f = 0, Elle est aussi surjective, car si a 11 a 12 a 1n a 21 a 2n A = M p,n (K) a p1 a pn On considère f en posant : f(e 1 ) = a 11 e 1 + + a p1 e p f(e n ) = a 1n e 1 + + a pn e p

Printemps 2010 Chap IV Applications Linéaires 22 Pour x E ; x = λ 1 e 1 + + λ n e n, on pose f(x) = λ 1 f(e 1 ) + + λ n f(e n ) On vérie que f est linéaire et M(f) ei,e j = A 4 Matrice d'un Vecteur Calcul de l'image d'un Vecteur Dénition 41 : Soit E un espace vectoriel de dimension n, i=n {e 1, e 2,, e n } une base de E et x = x i e i un vecteur de E On appelle matrice de x dans la base {e i } : M(x) ei = x 1 x n

Printemps 2010 Chap IV Applications Linéaires 23 Proposition 41 : Soit f L(E, E ), {e 1, e 2,, e n } et { } e 1, e 2,, e p deux bases de E et E' respectivement, pour tout x E, on a : M(f(x)) e j = M(f) ei,e j M(x) e i Preuve : Soit M(f) ei,e j = a 11 a 12 a 1n a 21 a 2n a p1 a pn d'où f(e j ) = p a kj e k k=1

Printemps 2010 Chap IV Applications Linéaires 24 On a j=n f(x) = f( = j=1 p ( k=1 donc M(f(x)) e j = x j e j ) = j=n j=1 n x j a kj ) e k = j=1 } {{ } y k y 1 y p x j f(e j ) = p y k e k k=1 j=n j=1 x j p a kj e k k=1 D'autre part

Printemps 2010 Chap IV Applications Linéaires 25 M(f) ei,e j M(x) e i = a 11 a 12 a 1n a 21 a 2n a p1 a pn x 1 x n = n j=1 a 1j x j n j=1 a pj x j d'où le résultat Exemple 4 :

Printemps 2010 Chap IV Applications Linéaires 26 Soit le plan rapporté à sa base canonique Déterminer l'image du vecteur x = (3, 2) par rotation de centre O et d'angle Π 6 On a M(f(x)) = M(f)M(x) = = = cos Π 6 sin Π 6 sin Π 6 cos Π 6 3 1 2 2 1 3 2 2 3 3 2 2 2 3+3 2 3 2 3 2

Printemps 2010 Chap IV Applications Linéaires 27 5 Matrice de l'inverse d'une Application Proposition 51 : Soient E, E', E trois espaces vectoriels sur K, {e 1,, e n }, { { } e 1,, e p}, e 1,, e q des bases de E, E' et E respectivement Si g L(E, E ) et f L(E, E ), on a M(fog) ei,e = M(f) k e M(g) j,e k e i,e j Preuve : Soit x E arbitraire En utilisant la proposition du paragraphe 2, on a : M(fog)M(x) = M(f(g(x))) = M(f)M(g(x)) = M(f)M(g)M(x) Puisque x est arbitraire, M(fog) = M(f)M(g) Proposition 52 : f L(E, E ) est bijective si et seulement si M(f) ei,e est inversible j De plus M(f 1 ) e i,e j = M(f) 1 e i,e j Preuve : f 1 of = ide, d'où M(f 1 of) ei,e i = M(idE) = I = M(f 1 )M(f) = I = M(f 1 ) =

Printemps 2010 Chap IV Applications Linéaires 28 M(f) 1 6 Changement de Bases Dénition 61 : On appelle matrice de passage de la base {e i } à la base {e i } du même espace vectoriel E, la matrice P e i e dont les i colonnes sont les composantes des vecteurs e i dans la base {e i} : p 11 p 1n P ei e = i = M(id E) e i,e i p n1 p nn Remarque 3 : Une matrice de passage est toujours inversible et on a (P ei e ) 1 = P i e i e i Proposition 61 : Soient x E, {e i } et {e i } deux bases de E, P = P ei e i et X = M(x) e i, X = M(x) e i, on a X = P 1 X

Printemps 2010 Chap IV Applications Linéaires 29 Preuve : P X = M(idE) e i,e i M(x) e i = M(idE(x)) ei = M(x) ei = X Exemple 5 : Soit R 2 muni de deux bases, la base canonique {e 1, e 2 } et la base {e 1, e 2} dénie par : e 1 = 2e 1 + e 2, e 2 = 3e 1 + 2e 2 Soit x = 2e 1 + 3e 2, calculons les composantes de x dans la base {e 1, e 2} P = 2 3, P 1 = 2 3, 1 2 1 2 X = 2 3 2 = 5 1 2 3 4 x = 5e 1 + 4e 2 Proposition 62 : Soient f L(E, E ), {e 1,, e n }, {ε 1,, ε n }

Printemps 2010 Chap IV Applications Linéaires 30 deux bases de E et { e 1,, e p}, { ε 1,, ε p} deux bases de E' Notons A = M(f) ei,e j, A = M(f) ɛi,ε j, P = P e i ε i, Q = P e j ε j On a alors A = Q 1 AP Preuve : f E (ei ) E (e j ) ide ide E (εi ) f E (ε j ) On a foide = ide'of d'où M(foidE) = M(idE'of), c'est à dire M(f) εi,ε j M(id E) ei,ε i = M(idE') e j,ε j M(f) e i,e j, c'est à dire A P 1 = Q 1 A donc A = Q 1 AP Corollaire 61 : Soient f L(E) et {e 1,, e n }, {e 1,, e n} deux bases de E Notons A = M(f) ei, A = M(f) e i et P = P ei e i

Printemps 2010 Chap IV Applications Linéaires 31 On a alors A = P 1 AP Dénition 62 : Deux matrices A, A M n (K) sont dites semblables s'il existe une matrice P M n (K) inversible telle que : A = P 1 AP Exemple 6 : Soit f un endomorphisme de R 2 qui dans la base canonique {e i } est représenté par la matrice : A = M(f) ei = 3 1 0 2 Déterminons la matrice A qui représente f dans la base e 1 = (0, 1) et e 2 = (1, 1)

Printemps 2010 Chap IV Applications Linéaires 32 On a A = P 1 AP = 1 1 3 1 1 0 0 2 = 3 3 0 1 3 1 1 1 = 3 0 1 2 0 1 1 1 7 Rang d'une Matrice Dénition 71 : Soit {v 1,, v n } une famille de vecteurs, on appelle rang de la famille, la dimension de l'espace engendré par les vecteurs v i

Printemps 2010 Chap IV Applications Linéaires 33 Soit A M p,n (K), A = (c 1,, c n ) où l'on a noté c i les vecteurs colonnes de A (c i K p ) On appelle rang de A le rang de la famille des vecteurs colonnes de A Proposition 71 : Soit f L(E, E') Soient {e 1,, e n } et { } e 1,, e p deux bases quelconques de E et E' respectivement et A = M(f) ei,e j = (a ij) On a alors rangf = ranga Ainsi deux matrices qui représentent la même application linéaire dans des bases diérentes ont même rang ; en particulier deux matrices semblables ont même rang Preuve : On considère le diagramme suivant : K n u h f K p v h = v 1 ofou E (ei ) E' (e j ) u et v sont dénis en associant à chaque vecteur de la base

Printemps 2010 Chap IV Applications Linéaires 34 canonique de K n ( resp K p ) ε i ( resp ε j ) le vecteur e i ( resp e j ), alors l'application h a précisément A comme matrice dans les deux bases canoniques car h(ε i ) = v 1 ofou(ε i ) = v 1 of(e i ) = v 1 ( a ij e j) = a ji ε j j Donc ranga = rangh et d'après le lemme suivant, on déduit que ranga = rangf Lemme 71 : Soient f L(E, F) et g L(G, E), alors 1) Si g est surjective, alors rangf = rang(fog) 2) Si f est injective, alors rangg = rang(fog) Preuve : 1) rangf = dimf(e) = dimf(g(g)) = dim(fog)(e) = rang(fog) 2) Soit {v i } avec v i = g(w i ) une base de Img, alors f(v i ) = (fog)(w i ) Comme f est injective {f(v i )} est libre et engendre Im(fog) car y Im(fog) = x ;

Printemps 2010 Chap IV Applications Linéaires 35 y = f(g(x) ) = f( α i v i ) = α i f(v i ) donc {f(v i )} est une base }{{} Img de Im(fog), d'où rangg = rang(fog) On en déduit qu'en composant à gauche ou à droite par une application linéaire bijective, le rang ne change pas 8 Matrices Remarquables a) Matrice Diagonale (a ij ) M n (K) ; a ij = 0 pour i j b) Matrice Triangulaire Supérieure (a ij ) M n (K) ; a ij = 0 pour i > j c) Transposée d'une Matrice A = (a ij ) M n,m (K) ; c'est t A = (a ji ) M m,n (K) Elle vérie t ( t A) = A, t (A + B) = t A + t B, t (λa) = λ t A A, B M m,n (K) et λ K ; c'est à dire que l'application :

Printemps 2010 Chap IV Applications Linéaires 36 Ψ : M m,n (K) M n,m (K) est un isomorphisme A t A d'espaces vectoriels On a aussi t (AB) = t B t A A M n,p (K) et B M p,n (K) Dénition 81 : A, B M n,p (K) sont équivalentes s'il existe P Gl p (K) et Q Gl n (K) telles que B = Q 1 AP C'est en fait une relation d'équivalence sur M n,p (K), notée Théorème 3 : A, B M n,p (K) sont équivalentes si et seulement si ranga = rangb Démontrons d'abord le lemme suivant : Lemme 81 : A M n,p (K) ;

Printemps 2010 Chap IV Applications Linéaires 37 ranga = r A M r,r (K) 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 Cette dernière est notée J r Preuve : ) trivial ) A M n,p (K) dénit une application linéaire Φ : K p (e i ) K n (e j ) On munit Kp et K n des bases canoniques (e i ) et (e j ) respectivement Soit r le nombre de vecteurs linéairement indépendants parmi les images des vecteurs de la base (e i ) ; càd Ae 1,,Ae p, qu'on peut

Printemps 2010 Chap IV Applications Linéaires 38 supposer être Ae 1,,Ae r, les autres vecteurs Ae r+1,,ae p peuvent s'exprimer en fonction de ces derniers : r Ae k = c kj Ae j pour k = r + 1,, p j=1 On dénit une nouvelle base f 1,, f p dans K p ; comme suit e k, pour k=1,,r ; f k = r e k c kj e j, pour k=r+1,,p j=1 On a alors Af k = 0 pour k = r + 1,, p Posons alors Af j = t j pour j = 1,, r Les t j sont par hypothèse linéairement indépendants Complétons les pour obtenir une base de K n, disons t r+1,, t n Considérons alors la matrice de l'application linéaire Φ dans les nouvelles bases f 1,, f p et t 1,, t n, on a alors :

Printemps 2010 Chap IV Applications Linéaires 39 M(Φ) fi,t j = 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 = J r A et M(Φ) fi,t j représentent la même application linéaire, et sont donc équivalentes Preuve du théorème : ) trivial ) ranga = rangb = r entraînent A J r, B J r, d'où A B Théorème 4 : Soit A M n,p (K), alors ranga = rang t A c'est à dire que le rang d'une matrice ; est aussi le rang de la famille des vecteurs lignes Preuve : ranga = r = A J r = P Gl p (K) et Q Gl n (K),

Printemps 2010 Chap IV Applications Linéaires 40 A = Q 1 J r P = t A = t P t J r t Q 1 = ( t P 1 ) 1 t J r ( t Q 1 ) = t (P 1 ) 1 J r ( t Q 1 ) car t J r = J r d'où t A J r = rang t A = r = ranga Exemple 7 : Déterminer le rang de la matrice 1 2 0 1 2 6 3 3 3 10 6 5 On utilise les opérations élémentaires sur les lignes 1 2 0 1 L 1 rg 2 6 3 3 L 2 = 3 10 6 5 L 3

Printemps 2010 Chap IV Applications Linéaires 41 rg 1 2 0 1 0 2 3 1 0 4 6 2 1 2 0 1 = rg 0 2 3 1 0 0 0 0 L 1 L 2 2L 1 L 3 3L 1 L 1 L 2 2L 1 = 2 L 3 + L 1 2L 2 Car les deux vecteurs lignes sont linéairement indépendants

Printemps 2010 Chap IV Applications Linéaires 42 9 Application des Déterminants à la Théorie du Rang 91 Caractérisation des Bases Théorème 5 : Soit E un espace vectoriel de dimension n Les vecteurs v 1,, v n de E forment une base de E si et seulement si (ei (ei det v 1,, v n 0 où v 1,, v n désigne la matrice dont ) ) les colonnes sont les composantes des vecteurs v 1,, v n dans la base (e i ) de E Preuve : Il sut de montrer que {v 1,, v n } est libre si et seulement si (ei det v 1,, v n 0 )

Printemps 2010 Chap IV Applications Linéaires 43 =) i=n i=n k=n k=1 α i v i = 0, posons v i = α i ( a ki e k ) = 0 d'où n α i a 2i = 0,, k=n k=1 a ki e k, alors on a n α i a ki e k = 0 = i,k n α i a ni = 0 = a 11 a 12 a 1n a 21 a 22 a 2n a n1 a n2 a nn α 1 α 2 α n n α i a 1i = 0, = 0 0 0 (1) d'où α i = 0 i = 1,, n (ei = ) Si det v 1,, v n = 0 = le système homogène )

Printemps 2010 Chap IV Applications Linéaires 44 ( 1) admet une innité de solutions, d'où {v 1,, v n } est liée 92 Comment reconnaître si une famille de vecteurs est libre On appelle mineur d'une matrice A, tout déterminant d'une matrice carrée extraite de A Théorème 6 : Soient {v 1,, v r } r vecteurs d'un espace vectoriel E de dimension n ( r n ) et A = v 1,, v r, ( A M n,r (K) ) La famille {v 1,, v r } est libre si et seulement si on peut extraire de A un mineur d'ordre r non nul Preuve : Similaire à celle du théorème précédent, en complétant les vecteurs an de former une base de E

Printemps 2010 Chap IV Applications Linéaires 45 93 Comment reconnaître si un vecteur appartient à l'espace engendré par d'autres vecteurs Soit A une matrice et δ un mineur d'ordre r extrait de A On appelle bordant de δ tout mineur d'ordre r + 1 extrait de A, dont δ est un déterminant extrait Si A M p,n (K) et δ un mineur d'ordre r, il ya exactement (p r)(n r) bordants de δ dans A Théorème 7 : Soient {v 1,, v r } r vecteurs linéairement indépendants et δ un mineur d'ordre r non nul extrait de A, où A = v 1,, v r Pour qu'un vecteur w v 1,, v r il faut et il sut que tous les bordants de δ dans la matrice B = v 1,, v r, w soient nuls Preuve : = ) Si l'un des bordants est non nul, la famille

Printemps 2010 Chap IV Applications Linéaires 46 {v 1,, v r, w} serait libre =) On considère la matrice B = a 11 a 1r a r1 a rr b 1 b r a r+1,1 a r+1,r b r+1 a n1 a nr b n Quitte a changer l'ordre des lignes et des colonnes, on peut supposer que le mineur δ non nul est le mineur encadré Les r premiers vecteurs lignes de B sont indépendants, et chacun des autres est lié à ces derniers Ainsi rangb = r, donc les vecteurs colonnes de B {v 1,, v r, w} forment une famille de rang r et comme {v 1,, v r } est libre, w v 1,, v r Exemple 8 : Pour quelles valeurs de α, β R le vecteur

Printemps 2010 Chap IV Applications Linéaires 47 w = α 2 1 β appartient-il au sous-espace de R 4 engendré par les vecteurs v 1 = 1 0 1 0 et v 2 = 0 1 0 1? On a A = 1 0 0 1 1 0 0 1 δ = 1 0 0 1 = 1 0 et

Printemps 2010 Chap IV Applications Linéaires 48 1 0 α 0 1 2 B = 1 0 1 0 1 β 1 0 α 1 α Les bordants de δ sont 1 = 0 1 2 = 1 1 = 1 α et 1 0 1 1 0 α β 2 2 = 0 1 2 = 1 1 = β 2 Donc w v 1, v 2 si et 0 1 β seulement si α = 1 et β = 2

Printemps 2010 Chap IV Applications Linéaires 49 94 Détermination du rang Théorème 8 : Soit A M p,n (K) Le rang de A est r si et seulement si on peut extraire de A un mineur δ d'ordre r non nul et tous les bordants de δ dans A sont nuls Preuve : =) A = v 1,, v n = a 11 a 1r a r1 a rr a 1n a rn a r+1,1 a r+1,r a r+1,n a p1 a pr a pn Soit δ le mineur encadré Les vecteurs {v 1,, v r } sont alors indépendants et chaque vecteurs v s ( s r + 1 ) appartient à

Printemps 2010 Chap IV Applications Linéaires 50 l'espace v 1,, v r Donc les vecteurs colonnes engendrent un espace de dimension r, d'où ranga = r = ) Quitte à changer l'ordre des colonnes de A, on peut supposer que {v 1,, v r } est libre On peut alors extraire de la matrice formée par les r premières colonnes de A un mineur δ d'ordre r non nul Quitte à changer la numérotation des coordonnées, on peut supposer que δ soit le mineur formé par les r premières colonnes de A Or ranga = r, d'où v s v 1,, v r pour s r + 1 ; d'après le théorème 7 tous les bordants de δ dans sont nuls Théorème 9 : Le rang d'une matrice A est l'ordre maximal des mineurs non nuls extraits de A, c'est à dire : 1) Il existe un mineur d'ordre r non nul ranga = r 2) Tous les mineurs d'ordre s > r sont nuls Preuve : = ) S'il existait un mineur d'ordre s > r non nul, on pourrait extraire des colonnes de A une famille libre formée de

Printemps 2010 Chap IV Applications Linéaires 51 s > r vecteurs, or ceci est impossible car les vecteurs colonnes de A engendrent un espace de dimension r =) Découle du théorème 8