Algèbre linéaire de PCSI



Documents pareils
Structures algébriques

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Le produit semi-direct

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Exercices Corrigés Premières notions sur les espaces vectoriels

Problème 1 : applications du plan affine

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Chapitre 2. Matrices

NOTATIONS PRÉLIMINAIRES

Groupe symétrique. Chapitre II. 1 Définitions et généralités

Théorème du point fixe - Théorème de l inversion locale

Programmes des classes préparatoires aux Grandes Ecoles

Programme de la classe de première année MPSI

Cours d analyse numérique SMI-S4

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Capes Première épreuve

Cours de mathématiques

Cours d Analyse. Fonctions de plusieurs variables

Théorie et codage de l information

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

Calcul différentiel. Chapitre Différentiabilité


VI. COMPLÉMENTS SUR LES MODULES, THÉORÈME CHINOIS, FACTEURS INVARIANTS SÉANCES DU 15, 16 ET 22 OCTOBRE

Résolution de systèmes linéaires par des méthodes directes

Calcul différentiel sur R n Première partie

Premiers exercices d Algèbre. Anne-Marie Simon

Proposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5.

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

Axiomatique de N, construction de Z

Résumé du cours d algèbre 1, Sandra Rozensztajn. UMPA, ENS de Lyon, sandra.rozensztajn@ens-lyon.fr

Université Paris-Dauphine DUMI2E 1ère année, Applications

[ édité le 30 avril 2015 Enoncés 1

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Mathématiques appliquées à l'économie et à la Gestion

Cours 02 : Problème général de la programmation linéaire

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Programmation linéaire et Optimisation. Didier Smets

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Approximations variationelles des EDP Notes du Cours de M2

Simulation de variables aléatoires

Intégration et probabilités TD1 Espaces mesurés Corrigé

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Fonctions de plusieurs variables

Développement décimal d un réel

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

CHAPITRE IV. L axiome du choix

Programmation linéaire

Chapitre 5 : Flot maximal dans un graphe

Relation d ordre. Manipulation des relations d ordre. Lycée Pierre de Fermat 2012/2013 Feuille d exercices

MATHÉMATIQUES DISCRÈTES (4) CRYPTOGRAPHIE CLASSIQUE

Résolution d équations non linéaires

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Correction de l examen de la première session

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Polynômes à plusieurs variables. Résultant

Fonctions de plusieurs variables

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Produit semi-direct. Table des matières. 1 Produit de sous-groupes 2. 2 Produit semi-direct de sous-groupes 3. 3 Produit semi-direct de groupes 4

Différentiabilité ; Fonctions de plusieurs variables réelles

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Pour l épreuve d algèbre, les calculatrices sont interdites.

3. Conditionnement P (B)

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Dérivées d ordres supérieurs. Application à l étude d extrema.

Continuité et dérivabilité d une fonction

RAPHAËL ROUQUIER. 1. Introduction

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

3 Approximation de solutions d équations

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

1 Complément sur la projection du nuage des individus

Limites finies en un point

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

par Denis-Charles Cisinski & Georges Maltsiniotis

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Intégration et probabilités TD1 Espaces mesurés

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Probabilités sur un univers fini

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Comment démontrer des formules sans effort? exposé de maîtrise

Chapitre VI Fonctions de plusieurs variables

Cours de Probabilités et de Statistique

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Dérivation : cours. Dérivation dans R

Chapitre VI - Méthodes de factorisation

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

Équations d amorçage d intégrales premières formelles

Fonctions de plusieurs variables et applications pour l ingénieur

Licence Sciences de l Ingénieur et Licence Informatique. Niveau L2 (= 2ème année)

L isomorphisme entre les tours de Lubin-Tate et de Drinfeld et applications cohomologiques par Laurent Fargues

Programmation linéaire

C algèbre d un certain groupe de Lie nilpotent.

Image d un intervalle par une fonction continue

Marc HINDRY. Introduction et présentation. page 2. 1 Le langage mathématique page 4. 2 Ensembles et applications page 8

Transcription:

Algèbre linéaire de PCSI I- Structure d espace vectoriel K désignerouc. 1) Définition On appellek-espace vectoriel tout triplet(e,+,.) où : 1) E est un ensemble dont les éléments sont appelés vecteurs. 2) + est une loi de composition interne sur E telle que(e,+) soit un groupe abélien. L élément neutre 0 est appelé vecteur nul. 3).: K E E (λ,x) λ.x est une loi de composition externe vérifiant : (λ,µ) K 2 x E (λ+µ).x=λ.x+µ.x ; λ K (x,y) E λ.(x+y)=λ.x+λ.y ; (λ,µ) K 2 x E λ.(µ.x)=(λµ).x ; x E 1.x=x. Exemples: 1)(K,+,.) où. est la multiplication dansk. 2)L ensemble E D desapplications d unensemble D dansunespacevectoriele (lesopérationsdanse D étantdéfiniesgrâceàcellesdee : f+g: x f(x)+g(x);λ.f : x λ.f(x)). 2) Propriétés élémentaires x E 0.x=0. λ K λ.0=0. (λ,x) K E λ.x=0 (λ=0 ou x=0). (λ,x) K E ( λ).x= (λ.x)=λ.( x). 3) Espace vectoriel produit Soit (E k,+,.) une famille dek-espaces vectoriels. 1 k n L ensemble E 1 E n muni des lois+et. définies par : (x 1,...,x n )+(y 1,...,y n )=(x 1 +y 1,...,x n +y n ) λ.(x 1,...,x n )=(λ.x 1,...,λ.x n ) est unk-espace vectoriel, appelé espace vectoriel produit de E 1,...,E n. Exemples: 1) L exemple canonique estk n. 2)Cs identifie àr 2 en tant quer-espace vectoriel. II- Sous-espaces vectoriels E désigne un K-espace vectoriel. 1) Définition Soit F une partie de E. On dit que F est un sous-espace vectoriel de E si et seulement si la restriction de la loi + à F F et la restriction de la loi. à K F induisent sur F une structure de K-espace vectoriel.

Algèbre linéaire de PCSI Page 2 2) Caractérisations Une partie F de E est un sous-espace vectoriel de E si et seulement si 0 F et (x,y) F 2 x+y F et (λ,x) K F λ.x F ; ou bien 0 F et λ K (x,y) F 2 λ.x+y F. 3) Intersection de sous-espaces vectoriels Théorème : l intersection d une famille quelconque de sous-espaces vectoriels de E est un sous-espace vectoriel de E. Attention! En général, l union de deux sous-espaces vectoriels de E n est pas un sous-espace vectoriel de E (c en est un si et seulement si l un des deux sous-espaces considérés est inclus dans l autre...). 4) Sous-espace engendré par une partie ou une famille Soit A une partie de E. On appelle sous-espace vectoriel engendré par A l intersection de tous les sous-espaces vectoriels de E contenant A, notée Vect A. VectA est le plus petit (au sens de l inclusion) des sous-espaces de E contenant A. p VectA est l ensemble formé du vecteur nul et des vecteurs de la forme λ k.a k, où les λ k sont des scalaires et les a k des vecteurs de A (Vect ={0}). Si(x i ) i I est une famille de vecteurs de E, on notevect(x i ) i I les sous-espace engendré par la partie {x i, i I}. 5) Somme de deux sous-espaces vectoriels Définition :soient F et G deux sous-espaces vectoriels de E, on appelle somme de F et G la partie de E notée F+G définie par : F+G={x E / (y,z) F G x=y+z}. Théorème :F +G est un sous-espace vectoriel de E. C est le plus petit sous-espace vectoriel de E contenant F et G (autrement dit F+G=Vect(F G)). 6) Sous-espaces vectoriels supplémentaires Définition :deuxsous-espaces vectorielsf et Gde E sontdits supplémentaires dans E sietseulement si tout vecteur de E se décompose de façon unique comme somme d un vecteur de F et d un vecteur de G, c est-à-dire si et seulement si : x E!(y,z) F G x=y+z. Théorème : les assertions suivantes sont équivalentes : a)f et G sont supplémentaires dans E. b)e F+G et F G={0}. Attention! Ne pas confondreun supplémentaire etle complémentaire. Si x est un vecteur de E qui n appartient pas à F, x n est pas pour autant nécessairement dans G! On peut seulement affirmer a priori que x s écrit y+z, avec(y,z) F G et z=0... k=1

Algèbre linéaire de PCSI Page 3 III- Translations, sous-espaces affines(hors programme en PCSI) Soit E un K-espace vectoriel. 1) Translations Définition :pour tout vecteur a de E, on appelle translation de vecteur a l application τ a : v a+v, de E dans E. Propriétés: 1) τ 0 =Id E et (a,b) E 2 τ a τ b = τ a+b. 2) Pour tout a de E, τ a est bijective et τ 1 a =τ a. 2) Sous-espaces affines Définition :on appelle sous-espace affine de E toute partie W de E de la forme a+f, où F est un sous-espace vectoriel de E et où l on note : a+f = τ a (F)={a+v, v F} Exemples: 1) Pour tout a de E, a+{0}={a}. 2) Pour v vecteur non nul de E, et a E, a+vectv est la droite affine passant par a dirigée par v. Théorème et définition:soit W = a+f un sous-espace affine de E ; alors pour tout b de W, on a W = b+f ; par contre, le sous-espace vectoriel F est unique, on l appelle la direction de W. NB : dans un contexte géométrique, les éléments de E sont aussi appelés points. A et B étant deux points de E, AB= B A est appelé vecteur d origine A et d extrémité B. Ainsi, v étant un vecteur de E, B= A+v= τ v (A) équivaut à AB= v. IV- Applications linéaires 1) Définition Soient E et F deuxk-espaces vectoriels et u une application de E dans F. On dit que u est linéaire (ou encore un morphisme d espaces vectoriels) si et seulement si : (x,y) E 2 u(x+y)=u(x)+u(y) λ K x E u(λ.x)=λ.u(x) Si, de plus : (ou bien : λ K (x,y) E 2 u(λ.x+y)=λ.u(x)+u(y)) u est bijective, on dit que u est un isomorphisme (E et F sont dits isomorphes) ; E=F, on dit que u est un endomorphisme de E ; E=F et u bijective, on dit que u est un automorphisme de E ; F =K, on dit que u est une forme linéaire sur E. Notations: on désigne par L(E,F) l ensemble des applications linéaires de E dans F ; L(E) l ensemble des endomorphismes de E (Id E L(E)). Propriétés: soit u L(E,F). 1) u(0 E )=0 F. 2) Si E est un sous-espace vectoriel de E, alors u(e ) est un sous-espace vectoriel de F. 3) Si F est un sous-espace vectoriel de F, alors u 1 (F ) est un sous-espace vectoriel de E.

Algèbre linéaire de PCSI Page 4 2) Image Définition :soit u L(E,F). On appelle image de u le sous-espace u(e) de F notéimu : Imu={y F / x E u(x)=y}={u(x), x E}. Propriété : u est surjective si et seulement siimu=f. 3) Noyau Définition :soit u L(E,F). On appelle noyau de u le sous-espace u 1 ({0 F }) de E notékeru : Keru={x E / u(x)=0 F }. Propriété : u est injective si et seulement sikeru={0 E } (ou encore si et seulement si : x E u(x)=0 F x=0 E ). 4) Équations linéaires Étant donnés u dansl(e,f) et b dans F, la résolution de l équation linéaire u(x)=b est la recherche de l ensembles des vecteurs x de E tels que u(x)=b. S est vide si et seulement si b n appartient pas àimu. Lorsque b est dansimu,s est non vide et pour tout x 0 danss,s est l ensemble des vecteurs de E de la forme x 0 +z, z décrivantkeru : S= x 0 +Keru={x 0 +z, z Keru}. 5) Exemples fondamentaux d isomorphismes Tous les supplémentaires dans E d un même sous-espace vectoriel de E sont isomorphes. Soit u L(E,F). Tout supplémentaire dekeru dans E est isomorphe àimu. Soient F et G deux sous-espaces vectoriels de E. L application ϕ : F G F+G (y,z) y+z linéaire surjective. C est un isomorphisme si et seulement si F G={0}. est 6) Opérations sur les applications linéaires a) Structure de L(E,F) Si E et F sont deuxk-espaces vectoriels, alors(l(e,f),+,.) est unk-espace vectoriel. b) Composition des applications linéaires Si E,F,G sont desk-espaces vectoriels et si u L(E,F), v L(F,G), alors v u L(E,G). Pour φ fixé dansl(e,f), l application v v φ est une application linéaire del(f,g) dansl(e,g). Pour ψ fixédansl(f,g), l application u ψ u estuneapplication linéairedel(e,f) dansl(e,g). Théorème :si u est un isomorphisme de E dans F, alors u 1 est linéaire (donc un isomorphisme) de F dans E. c) Structure de L(E) Si E est unk-espace vectoriel, alors(l(e),+,., ) est unek-algèbre. Théorème et définition: soit GL(E) l ensemble des automorphismes de E. (GL(E), ) est un groupe (non abélien en général), appelé groupe linéaire de E.

Algèbre linéaire de PCSI Page 5 V- Projecteurs et symétries 1) Projecteurs Définition :soient F et G deux sous-espaces supplémentaires de E ; l application p de E dans E qui à tout vecteur x de E associe le vecteur y de F tel que x=y+z avec(y,z) F G est appelée projecteur (ou projection vectorielle) de E sur F parallèlement à G. Propriétés: soit p le projecteur de E sur F parallèlement à G. a)p est un endomorphisme de E. b)kerp=g etimp=f ; F est l ensemble des vecteurs invariants par p. c)id E p est le projecteur de E sur G parallèlement à F. Caractérisation : soit p L(E). p est un projecteur si et seulement si p p=p. Dans ce cas, p est le projecteur de E surimp parallèlement àkerp. 2) Symétries vectorielles Définition :soient F et G deux sous-espaces supplémentaires de E ; l application s de E dans E qui à tout vecteur x de E associe le vecteur y z de E où(y,z) est le couple de F G tel que x=y+z est appelée symétrie vectorielle par rapport à F parallèlement à G. Propriétés: soit s la symétrie vectorielle par rapport à F parallèlement à G. a)s est un automorphisme involutif de E. b) L ensemble des vecteurs invariants par s est F ; l ensemble des vecteurs transformés en leur opposé est G. c) s est la symétrie vectorielle par rapport à G parallèlement à F. d)si p est le projecteur de E sur F parallèlement à G, on a les relations : s=2p Id E, p= 1 2 (Id E+s). Caractérisation : soit s L(E). s est une symétrie vectorielle si et seulement si s s=id E. Alors s est la symétrie par rapport à F = {x E / s(x) = x} = Ker(s Id E ) parallèlement à G={x E / s(x)= x}=ker(s+id E ). VI- Familles libres, génératrices; bases 1) Familles génératrices Définition :soit F = (x i ) i I une famille finie de vecteurs de E. On dit qu un vecteur x de E est combinaison linéaire des vecteurs def si et seulement s il existe une famille(λ i ) i I K I telle que x= λ i.x i. i I Définition :soit F une famille finie de vecteurs de E. On dit que F est une famille génératrice de E si et seulement si tout vecteur de E est combinaison linéaire des vecteurs de F (i.e. VectF= E). Propriétés: 1) Toute sur-famille d une famille génératrice est génératrice. 2) Soit(x i ) i I une famille finie, génératrice de E et J une partie de I. (x i ) i J est aussi une famille génératrice de E si et seulement si, pour tout k de I\J, x k est combinaison linéaire des vecteurs de(x i ) i J.

Algèbre linéaire de PCSI Page 6 2) Familles libres Définition :soit F = (x 1,...,x p ) une famille finie de vecteurs de E. On dit que F est libre si et seulement si la seule combinaison linéaire nulle des vecteurs def est celle dont tous les coefficients sont nuls : (λ 1,...,λ p ) K p p k=1λ k.x k =0= k N p λ k =0 Une famille quelconque(x i ) i I de vecteurs de E est dite libre si et seulement si toutes ses sous-familles finies sont libres. Une partie A de E est dite libre si et seulement si la famille(x) x A est libre. Par convention, est libre. Propriétés: 1) Soit x E. La famille(x) formée du seul vecteur x est libre si et seulement si x est non nul. 2) Toute sous-famille d une famille libre est libre. 3) Une famille(x i ) i I est libre si et seulement si, pour toute famille de scalaires(λ i ) i I à support fini, λ i.x i =0 i I λ i =0. i I 4) Si une partie A de E est libre et si x est un vecteur de E, A {x} est libre si et seulement si x n est pas combinaison linéaire des vecteurs de A (i.e. x / VectA). 3) Familles liées Définition :une famille F de vecteurs de E (resp. une partie A de E) est dite liée si et seulement si elle n est pas libre. On dit alors que les vecteurs def (resp. de A) sont linéairement dépendants. Deux vecteurs sont dits colinéaires si et seulement s ils sont linéairement dépendants. Caractérisation : 1) Une famille F de vecteurs de E est liée si et seulement s il existe des vecteurs x 1,...,x p def et une famille(λ 1,...,λ p ) de scalaires non tous nuls telle que p λ k.x k =0 (relation de dépendance linéaire). k=1 2) Une famille d au moins deux vecteurs est liée si et seulement si l un au moins de ses vecteurs est combinaison linéaire des autres. 3)Deuxvecteursx,y sontcolinéairessi etseulementsi: x=0ou λ K y= λ.x. Propriétés: 1) Toute sur-famille d une famille liée est liée ; toute famille contenant le vecteur nul est liée. 2)Siunepartie Ade E estlibreetsixestunvecteurdee, A {x}estliéesietseulement si x est combinaison linéaire des vecteurs de A(i.e. x VectA). 4) Bases Définition :soitf une famille finie de vecteurs de E. On dit quef est une base de E si et seulement sif est libre et génératrice. Une familleb=(e i ) i I de vecteurs de E est une base de E si et seulement si tout vecteur de E s écrit de manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x = i I λ i.e i, la famille(λ i ) i I est appelée la famille des coordonnées de x dans la base B..

Algèbre linéaire de PCSI Page 7 5) Caractérisation des familles libres et génératrices, des bases Soit(x 1,...,x p ) une famille de vecteurs de E. On lui associe l application linéaire φ dek p dans E qui, p à(λ 1,...,λ p ) associe la combinaison linéaire λ k x k. Propriétés: 1)(x 1,...,x p ) est libre si et seulement si φ est injective ; 2)Imφ=Vect(x 1,...,x p ) ; (x 1,...,x p ) est génératrice si et seulement si φ est surjective ; 3)(x 1,...,x p ) est une base de E si et seulement si φ est un isomorphisme. k=1 6) Image d une famille de vecteurs par une application linéaire E et F sont deux K-espaces vectoriels. Théorème :soient u L(E,F),F=(x i ) i I une famille finie de vecteurs de E et u(f)=(u(x i )) i I. a)sif est une famille génératrice de E, alors u(f) est une famille génératrice deimu. b)sif est liée, alors u(f) est liée. c)sif est libre et u injective, alors u(f) est libre. Théorème :soit u L(E,F) etbune base de E. a)u est surjective si et seulement si u(b) est une famille génératrice de F. b)u est injective si et seulement si u(b) est libre. c)u est bijective si et seulement si u(b) est une base de F. 7) Caractérisation d une application linéaire par l image d une base Théorème :soient E et F deuxk-espaces vectoriels,b=(e i ) i I une base de E et(y i ) i I une famille de vecteurs de F (indexées par le même ensemble I). Il existe une unique application linéaire u de E dans F telle que : En outre : i I u(e i )=y i. u est injective si et seulement si la famille(y i ) i I est libre. u est surjective si et seulement si la famille(y i ) i I est génératrice de F. u est bijective si et seulement si la famille(y i ) i I est une base de F. VII- Notion de dimension Définition : on dit qu un K-espace vectoriel est de dimension finie si, et seulement si, il admet une famille génératrice finie. Lemme de Steinitz Si E est un K-espace vectoriel admettant une famille génératrice à p éléments (p N ), alors toute famille d au moins p+1 éléments est liée. Existence d une base Tout espace vectoriel de dimension finie non réduit à{0} admet au moins une base. Théorème et définition:soit E unk-espace vectoriel de dimension finie, non réduit à{0}. 1) E admet au moins une base finieb. 2) Toutes les bases de E ont le même cardinal n. Cet entier est appelé dimension de E et est notédime oudim K E. On convient que{0} est de dimension nulle. Caractérisation des bases : Soit E unk-espace vectoriel de dimension n etf une famille de p vecteurs de E. SiF est libre, alors p n avec égalité si et seulement sif est une base de E. SiF est génératrice, alors p n avec égalité si et seulement sif est une base de E.

Algèbre linéaire de PCSI Page 8 VIII- Théorème de la base incomplète Soit E un K-espace vectoriel de dimension finie. Pour toute famille librelde E et toute famille génératriceg de E, il existe au moins une basebde E obtenue en complétantlàl aide de vecteurs deg. Enparticulier,pourtoutefamillelibreLdeE, ilexisteaumoinsunebaseb dee obtenueencomplétant L à l aide de vecteurs de E. IX- Sous-espaces d un espace vectoriel de dimension finie 1) Dimension d un sous-espace Théorème :soit E unk-espace vectoriel de dimension finie et F un sous-espace vectoriel de E. F est de dimension finie etdimf dime. De plus, F = E si et seulement sidimf =dime. Définition : on appelle rang d une famille de vecteurs de E la dimension du sous-espace vectoriel de E engendré par cette famille. 2) Sous-espaces vectoriels supplémentaires Caractérisation : soient F et G deux sous-espaces vectoriels non réduits à{0} d un espace vectoriel E de dimension finie. F et G sont supplémentaires dans E si et seulement s ils admettent pour bases respectives deux parties complémentaires d une base de E. Conséquence : si E= F G, alorsdime=dimf+dimg. Théorème : tout sous-espace vectoriel d un espace vectoriel E de dimension finie admet au moins un supplémentaire dans E. Théorème : soient F et G deux sous-espaces vectoriels d un espace vectoriel E de dimension finie. E= F G (F G={0} et dimf+dimg=dime). 3) Dimension d une somme quelconque de sous-espaces Théorème : soient F et G deux sous-espaces vectoriels d un espace vectoriel E de dimension finie dim(f+g)=dimf+dimg dim(f G) (formule de Grassmann). Conséquence : soient F et G deux sous-espaces vectoriels d un espace vectoriel E de dimension finie X-Théorèmedurang E= F G (F+G=E et dimf+dimg=dime). 1) Théorème d isomorphisme Théorème :deux espaces vectoriels E et F de dimension finie sont isomorphes si et seulement s ils ont la même dimension. 2) Rang d une application linéaire Théorème du rang Soit u L(E,F). Si E est de dimension finie, alorsimu est de dimension finie et dime=dimimu+dimkeru. Définition :soit u L(E,F) avec E de dimension finie. On appelle rang de u la dimension deimu, notéergu. Propriété : si E et F sont de dimension finie et si u L(E,F), alors : u injective dime dimf ; u surjective dime dimf ;

Algèbre linéaire de PCSI Page 9 Caractérisation des isomorphismes Si E et F sont de même dimension finie (dime=dimf = n) et si u L(E,F), alors les propositions suivantes sont équivalentes : u est bijective ; u est injective (i.e. Keru={0}) ; u est surjective (i.e. rgu=n) ; u est inversible à droite ; u est inversible à gauche. Propriété : le rang d une application linéaire est invariant par composition avec un isomorphisme. XI- Opérations sur les dimensions Théorème : soient E et F deux K-espaces vectoriels de dimension finie. a)e F est de dimension finie et : dime F =dime+dimf. b)l(e,f) est de dimension finie et : diml(e,f)=dime dimf. Dém : on considère(e j ) 1 j p une base de E et(f i ) 1 i n une base de F. 1) En posant v 1 =(e 1,0 F ),,v p =(e p,0 F ) ; v p+1 =(0 E,f 1 ),,v p+n =(0 E, f n ), on vérifie que (v i ) 1 i p+n est une base de E F. 2) Pour tout élément(i,j) den n N p, on désigne par u i,j l unique application linéaire de E vers F telle que (δ j,k désignant le symbole de Kronecker) : k N p u i,j (e k )=δ j,k.f i On vérifie que(u i,j ) 1 i n est une base del(e,f). 1 j p XII- Matrices Généralités 1) Définition- notations Soient n et p deux entiers naturels non nuls. Onappelle matrice de type(n,p)àcoefficientsdansktouttableaum constituédenlignesetpcolonnes d éléments dek. On écrit M=(a i,j ) 1 i n, a i,j étant le terme situé à l intersection de la i e ligne et de 1 j p la j e colonne de M. M n,p (K) désigne l ensemble des matrices de type(n,p) à coefficients dansk. M n (K) désigne l ensemblem n,n (K) des matrices carrées d ordre n à coefficients dansk. 2) Matrice d une application linéaire Soient E et F deuxk-espaces vectoriels de bases respectivesb=(e 1,...,e p ) etc=(f 1,...,f n ). Pour u L(E,F), on appelle matrice de u dans les bases B et C la matrice M B,C (u) dem n,p (K) dont les colonnes contiennent les coordonnées des vecteurs u(e 1 ),...,u(e p ) dans la basec de F : M B,C (u)=(a i,j ) 1 i n avec j N p u(e j )= 1 j p NB : le nombre de lignes n est la dimension de l espace d arrivée ; le nombre de colonnes p est la dimension de l espace de départ. n a i,j.f i. Pour u L(E), on appelle matrice de u dans la base B la matrice carrée M B (u) dem p (K) dont les colonnes contiennent les coordonnées des vecteurs u(e 1 ),...,u(e p ) dans la même basebde E. i=1

Algèbre linéaire de PCSI Page 10 XIII- Opérations sur les matrices 1) Structurede M n,p (K) Soient A=(a i,j ) 1 i n, B=(b i,j ) 1 i n, et λ K. On pose, par définition : 1 j p 1 j p A+B=(a i,j +b i,j ) 1 i n et λ.a=(λa i,j ) 1 i n. 1 j p 1 j p Théorème :(M n,p (K),+,.) est unk-espace vectoriel de dimension np. La base canonique dem n,p (K) est(e i,j ) 1 i n où E i,j est la matrice élémentaire dont tous les termes 1 j p. sontnuls,saufceluisituéàl intersectiondelai e ligneetdelaj e colonne,valant1: E ij =(δ k,i δ l,j ) 1 k n 1 l p Aveclesnotationsprécédentes,l applicationu M B,C (u)estunisomorphismedel(e,f)surm n,p (K). Inversement, étant donnée A M n,p (K), on note souventcana l application linéaire dek p dansk n de matrice A dans les bases canoniques. 2) Produit matriciel Définition :soient A=(a i,j ) 1 i m 1 j n A B=(c i,k ) 1 i m 1 k p et B=(b j,k ) 1 j n. A B est la matrice dem m,p (K)définie par : 1 k p n où (i,k) N m N p c i,k = j=1 a i,j b j,k. Propriété : si u L(E,F) a pour matrice A dans les bases B et C, si X est la matrice colonne des coordonnéesd unvecteurxdee danslabaseb, alorsleproduitax estlamatricecolonne des coordonnées de u(x) dans la basec. Produit de matrices élémentaires : si E i,j et E k,l sont des matrices élémentaires de tailles convenables pour que le produit soit défini, on a E i,j E k,l = δ j,k.e i,l. (où E i,l a bien sûr le nombre de lignes de E i,j et le nombre de colonnes de E k,l ). 3) Structurede M n (K) (M n (K),+,., ) est une K-algèbre (non commutative pour n 2). Avec les notations précédentes, l application u M B (u) est un isomorphisme d algèbres del(e) surm n (K). L élément neutre de la multiplication est la matrice identité d ordre n : I n =(δ i,j ) 1 i,j n. Définition :soit A M n (K). On dit que : a 1,1,...,a n,n constituent la diagonale principale de A ; A est une matrice scalaire si et seulement si A est de la forme λ.i n, λ K ; A est une matrice diagonale si et seulement si i= j a i,j =0 ; dans ce cas on note A=diag(a 1,1,...a n,n ) ; A est une matrice triangulaire supérieure si et seulement si i > j a i,j =0 ; A est une matrice triangulaire inférieure si et seulement si i < j a i,j =0. Propriétés: les matrices scalaires forment un corps isomorphe à K. Les matrices diagonales forment une sous-algèbre commutative de(m n (K),+,., ). Les matrices triangulaires supérieures (resp. inférieures) forment une sous-algèbre de (M n (K),+,., ). 4) Matrices carrées inversibles Soit A M n (K) ; A est inversible si et seulement si A M n (K) A A = A A=I n Soit GL n (K) l ensemble des matrices carrées d ordre n inversibles. (GL n (K), ) est un groupe (non commutatif en général), isomorphe au groupe linéaire (GL(E), ) si E est un K-espace vectoriel de dimension n.

Algèbre linéaire de PCSI Page 11 Théorème :soit A M n (K). Les assertions suivantes sont équivalentes : a) A est inversible. b) B M n (K) A B= I n (dans ce cas A 1 = B ). c) C M n (K) C A=I n (dans ce cas A 1 = C ). Propriété : une matrice triangulaire est inversible si et seulement si les éléments de sa diagonale principale sont tous non nuls. 5) Transposition Définition :soit A = (a i,j ) 1 i n M n,p (K). On appelle transposée de A la matrice de M p,n (K), 1 j p notée t A (ou A T ), définie par Propriétés: t A=(a i,j) 1 i p 1 j n où (i,j) N p N n a i,j= a j,i. 1) L application M n,p (K) M p,n (K) A t A est un isomorphisme de K-espaces vectoriels. 2) (A,B) M m,n (K) M n,p (K) t (AB)= t B t A. 3) Soit A M n (K). A est inversible si et seulement si t A est inversible, auquel cas( t A) 1 = t (A 1 ). Définition :soit A M n (K). On dit que : A est symétrique si et seulement si t A=A ( (i,j) N 2 n a i,j = a j,i ) ; A est antisymétrique si et seulement si t A= A ( (i,j) N 2 n a i,j = a j,i ; en particulier i N n a i,i =0 ). Propriété : les matrices symétriques d une part, antisymétriques d autre part, forment deux sousespaces supplémentaires dem n (K), de dimensions respectives n(n+1) et n(n 1). 2 2 XIV- Changements de bases 1) Matrice d un système de vecteurs dans une base SoitBunebase d unk-espacevectoriel E de dimension netf=(x 1,...,x p )unefamilledevecteursde E. On appelle matrice de F dans la base B la matrice M de type(n,p) dont la j e colonne (1 j p) contient les coordonnées du vecteur x j dans la baseb. 2) Matrice de passage SoientBetB deux bases d unk-espace vectoriel E de dimension n. On appelle matrice de passage de B à B la matrice de la familleb dans la baseb, notée P B,B. NB : P B,B est la matrice dans la basebde l endomorphisme de E qui transformeb enb ; c est aussi la matrice de Id E dans les bases B (dans E considéré comme espace de départ) et B (dans E considéré comme espace d arrivée). Propriétés: soientbetb deux bases de E. a)si X et X sont les matrices colonnes des coordonnées d un vecteur u de E dans les basesbetb respectivement, on a : X= P B,B X. b)p B,B est inversible et son inverse est la matrice de passage deb àb. c)sib est une troisième base de E, on a : P B,B =P B,B P B,B.

Algèbre linéaire de PCSI Page 12 3) Changement de bases pour une application linéaire Théorème :soient B et B deux bases de E, P = P B,B, C et C deux bases de F, Q = P C,C et f L(E,F). Si A est la matrice de u dans les basesb,c et A la matrice de u dans les basesb,c, alors A = Q 1 AP. 4) Changement de base pour un endomorphisme Théorème :soientbetb deux bases de E, P = P B,B et u L(E,F). Si A est la matrice de u dans la basebet A la matrice de u dans la baseb, alors A = P 1 AP. Définition :deux matrices carrées A et B d ordre n sont semblables si et seulement si : P GL n (K) B= P 1 AP. i.e. si et seulement si A et B représentent un même endomorphisme dans deux bases. XV-Rangd unematrice Définition :soit A M n,p (K). On appelle rang de A le rang du système de ses p vecteurs colonnes dansk n, notérga. Théorème : soient E et F deux K-espaces vectoriels de dimensions respectives p et n, rapportés aux basesbetc. Si u est une application linéaire de E dans F, de matrice A dans les bases B etc, alorsrgu=rga. Conséquences : 1) Soit A M n,p (K). rga=r si et seulement si A est de la forme UJ r V, où U,V sont deux matrices carrées inversibles et J r =(α i,j ) est définie par : α i,j =1 si i=j r, α i,j =0 sinon. 2) rg t A=rgA (le rang d une matrice est aussi le rang du système de ses vecteurs lignes). 3) Le rang d une matrice est inchangé lorsqu on la multiplie par une matrice carrée inversible. 4) Une matrice carrée d ordre n est inversible si et seulement si son rang est égal à n. XVI- Opérations élémentaires sur les matrices 1) Définitions On appelle opération élémentaire sur une matrice A dem n,p (K) : 1) l échange de deux lignes (resp. colonnes) de A (codage L i L j (resp. C i C j )) ; 2) la multiplication d une ligne (resp. colonne) de A par un scalaire non nul (codage L i λ.l i (resp. C i λ.c i ) avec λ=0) ; 3) l ajout à une ligne (resp. colonne) le produit d une autre ligne (resp. colonne) de A par un scalaire (codage L i L i +λ.l j (resp. C i C i +λ.c j ) avec j= i). Deux matrices A et A sont dites équivalentes par lignes (resp. colonnes) si et seulement si elles se déduisent l une de l autre par une suite finie d opérations élémentaires sur les lignes (resp. colonnes), ce que l on note A L A (resp. A C A ).

Algèbre linéaire de PCSI Page 13 2) Interprétation en termes de produit matriciel Si A M n,p (K) et si E i,j est une matrice élémentaire dem n (K), alors le produit E i,j Aest la matrice de M n,p (K) dont la i e ligne est constituée par la j e ligne de A et dont toutes les autres lignes sont nulles. Il en résulte les correspondances suivantes : Opération Interprétation matricielle Dénomination L i L i +λ.l j A (I n +λ.e i,j )A transvection L i λ.l i A (I n +(λ 1).E i,i )A dilatation L i L j A (I n E i,i E j,j +E i,j +E j,i )A transposition Les opérations sur les colonnes de A s obtiennent par multiplication à droite par des matrices carrées d ordre p inversibles analogues. Théorème :deux matrices équivalentes par lignes ou par colonnes ont le même rang (on vérifie que les matrices I n +λ.e i,j (j= i), I n +(λ 1).E i,i (λ=0) et I n E i,i E j,j +E i,j +E j,i sont inversibles). 3) Applications a) Calcul du rang d une matrice La phase de descente de l algorithme du pivot de Gauss-Jordan permet, en utilisant exclusivement des opérations élémentaires sur les lignes, de transformer toute matrice A de M n,p (K) en une matrice échelonnée par lignes, c est-à-dire vérifiant les deux propriétés suivantes : si une ligne est nulle, toutes les lignes suivantes le sont aussi à partir de la 2 e ligne, dans chaque ligne non nulle, le 1 er coefficient non nul à partir de la gauche est situé à droite du premier coefficient non nul de la ligne précédente autrement dit de la forme suivante (en anglais row echelon form, voir la fonction ref de certaines calculatrices) : piv 1 * * * * * * * * 0 0 0 piv 2 * * * * *. 0 0 0 0 0.. * * * *. A ref =....... * * * * 0 0 0 0 0 0 piv r * * 0 0 0 0 0 0 0 0 0......... 0 0 0 0 0 0 0 0 0 où piv 1,..., piv r sont des scalaires non nuls, les pivots. Le nombre r desdits pivots n est autre que le rang de la matrice A (puisqu elle a même rang que A ref ). b) Calcul de l inverse d une matrice carrée La phase de remontée de l algorithme du pivot de Gauss-Jordan permet, toujours par des opérations élémentaires sur les lignes, de transformer la matrice A ref précédente en une matrice échelonnée réduite par lignes, c est-à-dire nulle ou échelonnée par lignes avec tous ses pivots égaux à 1 et seuls éléments non nuls de leur colonne, autrement dit de la forme suivante (en anglais reduced row echelon form, fonction rref) : A rref = 1 * * 0 * * 0 * * 0 0 0 1 * * 0 * *. 0 0 0 0 0.. * 0 * *........ * 0 * * 0 0 0 0 0 0 1 * * 0 0 0 0 0 0 0 0 0......... 0 0 0 0 0 0 0 0 0.

Algèbre linéaire de PCSI Page 14 (on a divisé la ligne de chaque pivot par ledit pivot et fait ensuite apparaître des 0 au dessus dudit pivot, le tout en remontant ). Théorème : toute matrice est équivalente par lignes à une unique matrice échelonnée réduite par lignes. La matrice initiale A est inversible si et seulement si n=p=r, c est-à-dire si et seulement si A L I n, auquel cas A rref n est autre que I n, ce qui fournit une méthode pratique de calcul de l inverse de A lorsqu elle existe : en effet, si je noteω 1,...,Ω k les matrices associées aux opérations élémentaires sur les lignes utilisées pour transformer A en A rref = I n, j ai Ω k...ω 1 A=I n d où A 1 =Ω k...ω 1 =Ω k...ω 1 I n (!!) Il en résulte que A 1 s obtient en faisant subir à la matrice I n, successivement et dans le même ordre, les opérations élémentaires sur les lignes qui permettent de transformer A en I n. c) Résolution d un système linéaire Par des opérations élémentaires sur les lignes, on transforme tout système linéaire AX = B en un système équivalent ayant une matrice de la forme A rref ci-dessus. Les n r dernières lignes sont de la forme: 0=β j (β j étantl expressionausecondmembrerésultantdesopérationssurleslignes,expression constante, indépendante des inconnues du système, pouvant par contre dépendre de paramètres initialement présents dans les coefficients du système...). Ces n r dernières lignes sont les conditions de compatibilité du système. En effet, l ensemble S des solutions est non vide si et seulement si les β j, j [r+1,n], sont tous nuls. Lorsque lesdites conditions de compatibilité sont satisfaites, on achève la résolution en renvoyant au second membres les p r inconnues ne correspondant pas aux colonnes des pivots (inconnues auxiliaires ou paramètres) et l on exprime les r inconnues correspondant aux colonnes des pivots (inconnues principales) en fonction des coefficients du système et des inconnues auxiliaires, qui peuvent être choisies arbitrairement. Cela fournit une représentation paramétrique de l ensemble des solutions. Noter la présence de p r paramètres, alors que l on savait ques (ici non vide!) était un sous-espace affine de K p de directionkercana, justement de dimension p r (cf. le théorème du rang!!). On en déduit une solution particulière a et une base dekercana, en faisant apparaître la solution générale commeélémentd unsous-espaceaffinedelaformew = a+vect(v 1,...,v p r )(lescoefficients des vecteurs v 1,...,v p r étant les inconnues auxiliaires). On a ainsis W, avecs de dimension p r et W de dimension au plus p r : par conséquent S = W, KerCanA=Vect(v 1,...,v p r ) et donc (v 1,...,v p r ) est une base dekercana. XVII- Déterminants Dans cette section, n est un entier supérieur ou égal à 2 et E unk-espace vectoriel de dimension n. 1) Déterminant d une matrice carrée Il existe une unique application f:m n (K) K vérifiant les trois propriétés suivantes : 1) f est linéaire par rapport à chacune des colonnes de sa variable ; 2) f est antisymétrique par rapport aux colonnes de sa variable, c est-à-dire que si A se déduit de A par transposition de deux colonnes, f(a )= f(a) ; 3) f(i n )=1. On notedet(a) le nombre f(a) pour toute matrice A dem n (K). 2) Propriétés du déterminant 1) (λ,a) K M n (K) det(λa)=λ n det(a). 2) Le déterminant d une matrice ayant deux colonnes identiques est nul. 3) On peut ajouter à une colonne une combinaison linéaire des autres sans modifier le déterminant.

Algèbre linéaire de PCSI Page 15 4) Le déterminant d une matrice triangulaire est le produit des coefficients de la diagonale. 5) Le déterminant d un produit de matrices carrées est le produit de leurs déterminants. 6) UnematricecarréeAestinversiblesietseulementsidet(A)=0. Sic estlecas,det A 1 = Par conséquent, pour toute matrice A dem n (K) et toute matrice P de GL n (K), on a det P 1 AP =det(a). 7) Toute matrice carrée a même déterminant que sa transposée. 1 det(a). Par conséquent, le déterminant vérifie les mêmes propriétés vis à vis des lignes que des colonnes. 3) Développement d un déterminant Définition :soit M =(a i,j ) M n (K) ; pour tout couple(i,j) dansn 2 n, le cofacteur de l élément d indice (i, j) dans M est le scalaire A i,j =( 1) i+j detm i,j où M i,j est la matrice dem n 1 (K) obtenue à partir de M en supprimant la ligne i et la colonne j. Théorème :soit M =(a i,j ) M n (K) ; on a : 1) développement par rapport à la colonne j : pour j fixé dansn n, n detm= a i,j A i,j 2) développement par rapport à la ligne i : pour i fixé dansn n, n detm= a i,j A i,j 4) Déterminant d une famille de vecteurs dans une base i=1 j=1 Étant données une basebde E et une familleu=(u 1,...,u n ) de n vecteurs de E (où n=dime), on appelle déterminant de la famille U dans la base B le déterminant de la matrice (carrée!) deu dans B, notédet B U. Théorème :U est une base de E si et seulement sidet B U=0, dans une (toute) basebde E. NB : sib est une autre base de E,det B B est le déterminant de la matrice de passage debàb. 5) Déterminant d un endomorphisme D après la propriété6ci-dessus, pour u L(E), le déterminant de la matrice de u dans une base de E ne dépend pas du choix de ladite base. Ce déterminant commun est appelé déterminant de u, noté det(u). Les propriétés suivantes découlent immédiatement de celles du déterminant des matrices carrées. 1) Pour toute baseb=(e 1,...,e n ) de E, on a : (v 1,...v n ) E n det B u(v1 ),...u(v n ) =det(u).det B v1,...v n et en particulier : det(u)=detm B (u)=det B u(e1 ),...u(e n ). 2) (λ,u) K L(E) det(λu)=λ n det(u). 3) Le déterminant d une composée d endomorphismes est le produit de leurs déterminants. 4) Un endomorphisme u est bijectif si et seulement sidet(u)=0. Si c est le cas,det u 1 = 1 det(u).