Vade-MeCum. Vincent Hugot 22 janvier I Algèbre 3 1

Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Chapitre 2. Matrices

Correction de l examen de la première session

NOTATIONS PRÉLIMINAIRES

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Extrait du poly de Stage de Grésillon 1, août 2010

Calcul fonctionnel holomorphe dans les algèbres de Banach

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Cours d analyse numérique SMI-S4

[ édité le 30 avril 2015 Enoncés 1

3 Approximation de solutions d équations

Résumé du cours d algèbre 1, Sandra Rozensztajn. UMPA, ENS de Lyon, sandra.rozensztajn@ens-lyon.fr

Pour l épreuve d algèbre, les calculatrices sont interdites.

Cours de mathématiques

Polynômes à plusieurs variables. Résultant

Résolution de systèmes linéaires par des méthodes directes

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Cours d Analyse. Fonctions de plusieurs variables

Structures algébriques

Capes Première épreuve

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Calcul différentiel sur R n Première partie

I. Polynômes de Tchebychev

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Simulation de variables aléatoires

Introduction à l étude des Corps Finis

Représentation géométrique d un nombre complexe

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Programmation linéaire

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Programmes des classes préparatoires aux Grandes Ecoles

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

3. Conditionnement P (B)

Fonctions de plusieurs variables


Déterminants. Marc SAGE 9 août Inverses et polynômes 3

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Le produit semi-direct

Programme de la classe de première année MPSI

Théorème du point fixe - Théorème de l inversion locale

CCP PSI Mathématiques 1 : un corrigé

Mathématiques Algèbre et géométrie

NOMBRES COMPLEXES. Exercice 1 :

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

Continuité d une fonction de plusieurs variables

Résolution d équations non linéaires

Différentiabilité ; Fonctions de plusieurs variables réelles

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Problème 1 : applications du plan affine

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Mathématiques appliquées à l'économie et à la Gestion

Quelques contrôle de Première S

Approximations variationelles des EDP Notes du Cours de M2

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

Comparaison de fonctions Développements limités. Chapitre 10

Logique. Plan du chapitre

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Cours 02 : Problème général de la programmation linéaire

Exercices Corrigés Premières notions sur les espaces vectoriels

Fonctions de plusieurs variables et applications pour l ingénieur

Programmation linéaire et Optimisation. Didier Smets

Chapitre 2 Le problème de l unicité des solutions

Développement décimal d un réel

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Une forme générale de la conjecture abc

Limites finies en un point

Premiers exercices d Algèbre. Anne-Marie Simon

Introduction. Mathématiques Quantiques Discrètes

Corrigé du baccalauréat S Asie 21 juin 2010

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

UNIVERSITE IBN ZOHR Faculté des sciences Agadir. Filière SMA & SMI. Semestre 1. Module : Algèbre 1

Chapitre VI - Méthodes de factorisation

Calcul intégral élémentaire en plusieurs variables

CHAPITRE 10. Jacobien, changement de coordonnées.

1 Complément sur la projection du nuage des individus

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Cours arithmétique et groupes. Licence première année, premier semestre

I. Ensemble de définition d'une fonction

Licence Sciences de l Ingénieur et Licence Informatique. Niveau L2 (= 2ème année)

IV- Equations, inéquations dans R, Systèmes d équations

Équations d amorçage d intégrales premières formelles

1 Définition et premières propriétés des congruences

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Equations différentielles linéaires à coefficients constants

VI. COMPLÉMENTS SUR LES MODULES, THÉORÈME CHINOIS, FACTEURS INVARIANTS SÉANCES DU 15, 16 ET 22 OCTOBRE

Probabilités sur un univers fini

LE PRODUIT SCALAIRE ( En première S )

1S Modèles de rédaction Enoncés

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Fonctions de plusieurs variables

Correction du Baccalauréat S Amérique du Nord mai 2007

Comment démontrer des formules sans effort? exposé de maîtrise

Calcul différentiel. Chapitre Différentiabilité

Transcription:

Vincent 22 janvier 2005 Table des matières I Algèbre 3 1 1 Les applications linéaires 1 1.1 Généralités, définitions, exemples........................... 1 1.2 Somme directe de sous-espaces............................. 1 1.2.1 Somme directe de deux sous-espaces..................... 1 1.2.2 Somme directe de plusieurs sous-espaces................... 2 1.3 Applications linéaires et matrices........................... 3 1.4 Théorie du rang..................................... 4 1.5 La dualité........................................ 5 2 Les endomorphismes 5 2.1 La structure d algèbre................................. 5 2.2 Propriétés de M n (K).................................. 6 2.3 Endomorphismes remarquables............................ 6 2.3.1 Projecteurs................................... 6 2.3.2 Symétries.................................... 6 2.3.3 Homothéties................................... 7 2.3.4 Rotations.................................... 7 2.3.5 Endomorphismes nilpotents.......................... 7 3 Préliminaire au groupe symétrique 7 3.1 Permutations et transpositions............................. 7 3.2 Signature d une permutation.............................. 8 4 La théorie du déterminant 8 4.1 Déterminant dans le cas général............................ 8 4.1.1 Formes n-linéaires alternées en dimension n................. 8 4.1.2 Définition du déterminant de n vecteurs en dimension n.......... 9 4.1.3 Déterminant et produit............................. 9 4.2 Calculer un déterminant................................ 10 4.2.1 Techniques de base............................... 10 4.2.2 Déterminants triangulaires par blocs..................... 10 4.3 Développement par rapport à une ligne ou à une colonne.............. 10 4.3.1 Formule du développement........................... 10 4.3.2 Application au calcul de l inverse d une matrice............... 11 i

4.3.3 Le déterminant de Vandermonde....................... 11 4.4 Les systèmes linéaires.................................. 11 4.4.1 Définition.................................... 11 4.4.2 Les systèmes de Cramer............................ 12 4.5 Aires et volumes.................................... 12 4.5.1 Aires....................................... 12 4.5.2 Volumes..................................... 13 5 Les polynômes 13 5.1 Généralités....................................... 13 5.1.1 Degré...................................... 13 5.1.2 Polynômes dérivés............................... 13 5.2 Arithmétique des polynômes.............................. 14 5.2.1 Division euclidienne............................... 14 5.2.2 Diviseurs et multiples, idéal.......................... 14 5.2.3 Polynômes premiers entre eux......................... 14 5.3 Substitution de l indéterminée............................. 14 5.3.1 Exemples.................................... 14 5.3.2 Lemme des noyaux............................... 15 5.4 Racines d un polynôme................................. 15 5.4.1 Factorisation et nombre de racines...................... 15 5.4.2 Cas des polynômes à coefficients complexes.................. 16 5.5 Applications....................................... 17 5.5.1 Les polynômes interpolateurs de Lagrange.................. 17 5.5.2 Les suites récurrentes d ordre 2........................ 17 6 Sous-espaces stables d un endomorphisme 17 6.1 Généralités sur les sous-espaces stables........................ 17 6.2 Valeurs propres et vecteurs propres.......................... 17 6.2.1 Cas d un endomorphisme............................ 17 6.2.2 Cas d une matrice................................ 18 6.3 Polynôme caractéristique................................ 18 6.3.1 Polynôme caractéristique d une matrice.................... 18 6.3.2 Polynôme caractéristique d un endomorphisme................ 19 7 Trigonalisation et diagonalisation 19 7.1 Trigonalisation..................................... 19 7.2 Diagonalisation..................................... 20 7.3 Application aux systèmes différentiels......................... 20 7.3.1 Résolution de l équation différentielle x = λx................ 20 7.3.2 Résolution de X = DX............................ 20 7.3.3 Résolution d un système différentiel diagonalisable.............. 21 7.4 Application aux suites récurrentes........................... 21 8 Polynômes d endomorphismes 22 8.1 Polynômes annulateurs d un endomorphisme..................... 22 8.1.1 Généralités................................... 22 8.1.2 Un exemple important : le théorème de Cayley-Hamilton.......... 22 8.2 Polynôme minimal d un endomorphisme....................... 23 8.2.1 Définition du polynôme minimal........................ 23

8.2.2 Propriétés du polynôme minimal....................... 23 8.3 Diagonalisation et polynôme minimal......................... 23 8.4 Sous-espaces caractéristiques.............................. 23 8.4.1 Définition.................................... 23 8.4.2 Décomposition de Jordan-Dunford...................... 24 8.5 Endomorphismes qui commutent........................... 24 8.5.1 Endomorphismes diagonalisables qui commutent............... 24 8.5.2 Endomorphismes nilpotents qui commutent................. 24 II Analyse 3 24 9 Intégrale de Riemann d une fonction continue par morceaux 24 9.1 Intégrale de Riemann d une fonction en escalier................... 24 9.1.1 Définition des fonctions en escalier...................... 24 9.1.2 Intégrale de Riemann d une fonction en escalier............... 25

: définition, Ξ : notation, Ω : théorème, Υ : lemme, corollaire ou résultat utile, Π : proposition Première partie Algèbre 3 1 Les applications linéaires 1.1 Généralités, définitions, exemples : Soit E et F deux K-espaces vectoriels.une application f : E F est dite linéaire si et seulement si ( x,y E),( λ K),f(λx + y) = λf(x) + f(y) : Un isomorphisme est une application linéaire bijective : Un endomorphisme est une application linéaire d un espace vectoriel vers lui-même : Un automorphisme est un endomorphisme bijectif Ξ : L ensemble des applications linéaires de E vers F se note L(E,F). C est un K-espace vectoriel. L(E,E) = L(E). Lorsque E et F sont de dimensions finies on a diml(e,f) = dime dimf Ξ : Espace des suites à valeurs dans K : K N Ξ : Ensemble des matrices n lignes p colonnes à coefficients dans K : M np (K). Soit M M np (K) M = a 11... a 1p..... a n1 a np ou M = (a ij ) Il s agit d un K-espace vectoriel de dimension n p : Soit E et F deux K-espaces vectoriels et soit u : E F une application linéaire. 1. On appelle image de u l ensemble u(e). C est l ensemble des vecteurs de F qui possèdent au moins un antécédent par u. Il s agit d un sous-espace vectoriel de F et nous le notons Imu. 2. On appelle noyau de u l ensemble des vecteurs x de E tels que u(x) = 0. Il s agit d un sous-espace vectoriel de E et nous le notons Keru. Π : Soit u : E F une application linéaire. Les propriétés suivantes sont automatiques : ( ) u(0) = 0 et u est injectif Ker u = {0}. 1.2 Somme directe de sous-espaces 1.2.1 Somme directe de deux sous-espaces Υ : F et G étant des sev de E, F G est un sous espace si et seulement si F G ou G F Ξ : Soit F et G deux sous-espaces d un K-espace vectoriel E. L ensemble F + G = {x F + x G x F F, x G G} est un sous-espace vectoriel de E. En fait, il s agit du plus petit sous-espace vectoriel contenant à la fois F et G, donc F + G = Vect (F G). : Soit F et G deux sous-espaces vectoriels d un K-espace vectoriel E. On dit que F et G sont 22 janvier 2005 Mathématiques Page 1 sur 26

en somme directe lorsque F G = {0}. La somme de F et G se note alors F G à la place de F + G et on parle de la somme directe de F et G. Π : Soit F et G deux sous-espaces vectoriels d un K-espace vectoriel E. Les assertions suivantes sont équivalentes : 1. F et G sont en somme directe. 2. Tout élément de F + G s écrit de manière unique sous la forme x F + x G avec x F F et x G G. Ξ : F et G sont supplémentaires dans E E = F G : { E = F + G E = F G unicité de la décomposition F G = {0} : Soit F et G deux sous-espaces supplémentaires d un K-espace vectoriel E. A chaque x E, on peut associer un et seul x F, ainsi qu un et seul x G vérifiant x = x F + x G. On appelle x F le projeté de x sur F parallèlement à G. On appelle x G le projeté de x sur G parallèlement à F. Les applications { { E F E G π F,G : et π x x G,F : F x x G sont les projecteurs sur F (ou G) parallèlement à G (ou F). Υ : Un projecteur est une application linéaire Ω : Soit E un K-espace vectoriel de dimension finie et F un sous-espace vectoriel de E. Il existe des sous-espaces G tels que F G = E. Υ : Soit F,G deux sous-espaces vectoriels de dimension finie. Nous avons : 1. Si F et G sont en somme directe, alors dim(f G) = dim F + dim G. 2. Dans le cas général, nous avons dim(f + G) = dimf + dimg dim(f G). : Soit E un K-espace vectoriel de dimension n et F un sous-espace. La codimension de F est le nombre n dimf. On la note codim F. C est la dimension commune de tous les supplémentaires de F dans E. Ω : Définition d une application linéaire sur des supplémentaires Soit E un K-espace vectoriel et F,G deux sous-espaces supplémentaires : F G = E. Soit H un autre K-espace vectoriel. Soit f : F H et g : G H deux applications linéaires. Il existe une et une seule application linéaire u : E H «qui recolle f et g», c est-à-dire telle que u F = f et u G = g. Υ : Soit E un K-espace vectoriel de dimension finie et F un sous-espace vectoriel de E. Soit H un autre K-espace vectoriel et f : F H une application linéaire. Il existe au moins une application linéaire u L(E,H) telle que u F = f. 1.2.2 Somme directe de plusieurs sous-espaces : Soit E un K-espace vectoriel et F 1,...,F p des sous-espaces de E. 1. On note p F i l ensemble des vecteurs x E qui s écrivent sous la forme x = p x i avec ( ( i [[1,p]]),x i F i. On a p p F i = Vect F i ). 2. On dit que la somme des F i est directe lorsque tout élément x de p F i se décompose de façon unique sous la forme : x = x 1 + + x p. F 1 22 janvier 2005 Mathématiques Page 2 sur 26 Fp

On écrit alors p F i = F 1 F p à la place de p F i = F 1 + + F p. Π : Soit E un K-espace vectoriel et F 1,...,F p des sous-espaces de E. Les F i sont en somme directe si et seulement si ( i [[1,p]]),F i F j = {0} j i Ω : Soit. Soit un K-espace vectoriel E de dimension finie, et des sous-espaces F 1,...,F p tels que E = p F i. Si chaque F i est muni d une base B i, alors le recollement B des B i est une base de E. Ω : Dans un K-espace vectoriel de dimension finie, on considère des sous-espaces F 1,...,F p en somme directe. On a alors : ( p ) p dim F i = dimf i 1.3 Applications linéaires et matrices Ω : Soient E et F des K-espaces vectoriels de dimension p, (e 1,...,e p ) une base de E et (y 1,...,y p ) une famille quelconque de F. Il existe une unique application linéaire u : E F telle que u(e i ) = y i i [[1,p]] M = Mat (f) (e) u = u(e 1 )... u(e p) a 11. a n1... a 1p....... a np f 1. f n Υ : Le produit sur les matrices est donné par la formule suivante : si A = (a ij ) M np et B = (b ij ) M pq K, alors A et B sont multipliables et leur produit C = (c ij ) M nq K est donné par p c ij = a ik b kj. k=1 : On appelle matrice de passage de la base (e) à la base (e ) et on note P (e) (e ) (ou simplement P), la matrice dont les colonnes sont les coordonnées des vecteurs e i exprimés sur la base (e) : P (e) (e ) = e 1... e p d 11. d p1... d 1p....... d pp e 1. e p = Mat (e) (e ) Id E Ω : Formules de changement de bases : Avec les notations précédentes, nous avons : P (e) (e ) = Mat (e) (e ) Id E X = P (e) (e )X. P (e) (e )P (e ) (e ) = P (e) (e ) P (e ) (e) = ( 1 P (e) (e )). [ ] Mat u = P (f (f ) (e ) (f) Mat u P (e) (e ). ) (f) (e) : Soit M,M M np. Les conditions suivantes sont équivalentes : 22 janvier 2005 Mathématiques Page 3 sur 26

1. M et M représentent la même application linéaire dans des bases différentes. 2. Il existe des matrices inversibles P GL p (K) et Q GL n (K) telles que M = QMP. On dit alors que M et M sont équivalentes. : Soit M,M M n. Les assertions suivantes sont équivalentes : 1. M et M représentent le même endormorphisme dans deux bases différentes (en imposant que les bases d arrivée et de départ soient les mêmes). 2. Il existe une matrice inversible P GL n (K) telle que M = P 1 MP. Dans ce cas, on dit que M et M sont semblables. La relation ainsi définie s appelle la relation de similitude. 1.4 Théorie du rang : Définition du rang 1. Soit E un K-ev et (x 1,...,x p ) une famille de vecteurs. On appelle rang de la famille (x i ) la dimension du sous-espace vectoriel qu elle engendre. On le note rg(x 1,...,x p ) : rg(x 1,...,x p ) = dim Vect (x 1,...,x p ). 2. Soit E,F deux K-espaces vectoriels et u : E F une application linéaire. On appelle rang de u la dimension de son image. On le note rg u : rg u = dim Im u. 3. Soit M M np. On note C 1,...,C p M n1 (K) les vecteurs colonnes de M. On appelle rang de M le rang de la famille (C 1,...,C p ). Π : Soit E,F munis des bases (e) et (f). Soit u L(E,F) une application linéaire et M sa matrice dans les bases (e) au départ et (f) à l arrivée. Alors rg M = rg u. En particulier, si M et M sont deux matrices équivalentes, alors rg M = rg M. : Soit u L(E,F) une application linéaire. Soit G un sous-espace de E et H un sous-espace de F. Lorsque u(g) H, on peut définir l application u H G : G H obtenue par restriction de u au départ et à l arrivée. On dit que u induit l application u H G entre G et H. Ω : Théorème du rang : Soit u : E F une application linéaire. Soit G un supplémentaire quelconque de Ker u dans E. Alors u induit un isomorphisme entre G et Im u. Ω : Soit E,F de dimensions finies et u : E F une application linéaire. Alors dime = dim Ker u + dim Im u = dim Keru + rg u Il s ensuit qu en dimension finie, l injectivité, la surjectivité et la bijectivité sont équivalentes Ω : Soit E et F de même dimension n. Soit u : E F une application linéaire. Alors, pour prouver que u est un isomorphisme, il suffit de prouver que u est injective ou que u est surjective. En particulier, pour un endomorphisme u L(E), les assertions suivantes sont équivalentes : 1. u est un automorphisme. 2. Keru = {0}. 3. rg u = n. ( ) Ir 0 Ξ : J r = par blocs 0 0 Ω : Théorème du rang (forme matricielle) 22 janvier 2005 Mathématiques Page 4 sur 26

1. Toute application linéaire de rang r a pour matrice J r dans des bases ad hoc. 2. Deux matrices sont équivalentes si et seulement si elles ont le même rang. Toute matrice de rang r est équivalente à J r. Ω : Soit A une matrice. On a rg A = rg t A. Par conséquent, le rang des vecteurs colonnes C j est égal au rang des vecteurs lignes L i. 1.5 La dualité : On appelle forme linéaire toute application linéaire de E dans K. : Soit E un espace vectoriel sur K de dimension n. On appelle hyperplan de E tout sev de dimension n 1 (c est-à-dire de codimension 1). Ce sont, après E lui-même, les plus gros sousespaces vectoriels possibles. Ω : Soit E un K-ev de dimension finie. Soit ϕ une forme linéaire non nulle. Son noyau Kerϕ est un hyperplan. : On note E l espace L(E, K) de toutes les formes linéaires sur E. E est l espace dual de E. Ω : Soit E un espace vectoriel sur K muni d une base (e 1,...,e n ). Soient les applications e i telles que e i(x) = x i. La famille (e 1,...,e n) forme une base de E. Elle est appelée base duale de la base (e). 2 Les endomorphismes 2.1 La structure d algèbre : Une K-algèbre est un ensemble A muni de trois lois : une addition (notée +), une multiplication externe par des scalaires de K et une multiplication interne (notées ou ou même sans symbole en général). Ces trois lois doivent vérifier les propriétés suivantes : 1. L addition et la multiplication externe font de A un K-ev. 2. La multiplication interne possède un élément neutre (encore appelé unité) que nous notons habituellement 1 A 0. 3. La multiplication interne est associative : a, b, c A, a(bc) = (ab)c = abc. 4. La multiplication interne est distributive par rapport à l addition : a,b,c A, a(b + c) = ab + ac et (a + b)c = ac + bc. 5. Les multiplications interne et externe commutent : a,b A, λ K, λ(ab) = (λa)b = a(λb) = λab. : Soit A une K-algèbre. On dit qu un élément a A est inversible lorsqu il existe un élément de A (que nous notons alors a 1 ) tel que aa 1 = a 1 a = 1 A. : L ensemble des matrices inversibles est noté GL n (K). Il s appelle le groupe linéaire d ordre n. Un endomorphisme est inversible si et seulement s il est bijectif. L ensemble des endomorphismes bijectifs de E est noté GL(E). : Soit A une K-algèbre. Un élément a A est dit nilpotent lorsqu il existe un entier p tel que a p = 0. Le plus petit des entiers p tels que a p = 0 s appelle l indice de nilpotence de a. 22 janvier 2005 Mathématiques Page 5 sur 26

2.2 Propriétés de M n (K) : On appelle trace d une matrice A = (a ij ) le nombre Tr(A) = n a ii. C est la somme des termes diagonaux. Π : Propriétés de la trace 1. La trace est une forme linéaire, c est-à-dire que, pour toutes matrices A,B M n (K) et tout scalaire λ K, on a Tr(λA) = λ Tr(A) et Tr(A + B) = Tr(A) + Tr(B). 2. La trace d un produit ne dépend pas de l ordre : pour toutes matrices A,B M n (K), Tr(AB) = Tr(BA). 3. Deux matrices semblables ont la même trace. On dit que la trace est un invariant de similitude. ( ) ( ) A B A Ξ : On définit deux matrices par blocs M = et M C D B = C D dans M n (K). Alors le produit par blocs se calcule comme pour un produit normal, c est-à-dire : ( ) AA MM = + BC AB + BD CA + DC CB + DD. 2.3 Endomorphismes remarquables 2.3.1 Projecteurs : Un endomorphisme u L(E) est dit idempotent s il vérifie 1 u 2 = u. Ω : Un endomorphisme u L(E) est idempotent si et seulement si c est un projecteur. Ω : Soit p un projecteur de rang r. Il existe alors une base de E dans laquelle la matrice de u vaut J r. Π : Les projections sont des applications linéaires. 2.3.2 Symétries Dans ce paragraphe, on suppose que K est égal à Q, R ou C. : On dit qu un endomorphisme u L(E) est une involution ou que u est involutif lorsque u 2 = Id E. Cela signifie que u est bijectif et égal à son inverse : u = u 1. : Soit F et G deux sous-espaces supplémentaires dans E. Étant donné un vecteur x, nous écrivons sa décomposition selon la somme directe F G : x = x F + x G. Le symétrique de x par rapport à F parallèlement à G est le point s(x) = x F x G. L application s ainsi définie est nommée symétrie par rapport à F parallèlement à G. Π : Les symétries sont des applications linéaires. Ω : Un endomorphisme est involutif si et seulement si c est une symétrie. Ω : Soit s la symétrie par rapport à un sous-espace F parallèlement à un sous-espace G. Si on recolle une base de F et une base de G, la matrice de s dans la base ainsi obtenue est 1... 0 1 1 0... 1 On note pour plus de clarté u p = u u u }{{} p fois 1 dimf dimg 22 janvier 2005 Mathématiques Page 6 sur 26

2.3.3 Homothéties : On appelle homothétie tout endomorphisme de E de la forme λid E où λ K. 2.3.4 Rotations r(ε 2 ) sin θ ε 2 θ 0 cos θ sin θ θ cos θ r(ε 1 ) ε 1 Υ : Dans le plan R 2, on considère la rotation r d angle θ (et de centre 0, ce qui est toujours sous-entendu puisque nous parlons ici de rotation vectorielle). La matrice de cette rotation est : ( ) cos θ sin θ R θ = sin θ cosθ et on a les résultats suivants : R 1 θ 2.3.5 Endomorphismes nilpotents Ω : Matrice d un nilpotent = R θ et R θ R α = R θ+α 1. Un endomorphisme u L(E) est nilpotent si et seulement s il existe une base (e) telle que la matrice de u dans la base (e) soit triangulaire supérieure stricte, c est-à-dire triangulaire supérieure avec des 0 sur la diagonale. Matu = (e) * 0 0 0 2. Une matrice M M n (K) est nilpotente si et seulement si elle est semblable à une matrice triangulaire supérieure stricte. 3 Préliminaire au groupe symétrique 3.1 Permutations et transpositions : Soit n un entier naturel supérieur ou égal à 2. 1. On appelle permutation de [[1,n]] toute bijection de [[1,n]] dans lui-même. 2. On note S n et on appelle groupe symétrique l ensemble des permutations de [[1,n]]. On rappelle qu il existe n! permutations différentes de [[1,n]] donc Card(S n ) = n!. 3. Soit i j dans [[1,n]]. On note (i j) et on appelle transposition de i et j la permutation de [[1,n]] qui échange i et j et laisse fixes tous les autres nombres. En d autres termes, (i j) est la permutation τ définie par : Pour tout p [[1,n]], τ(p) = p si p i et p j j si p = i i si p = j 22 janvier 2005 Mathématiques Page 7 sur 26

Ξ : On parlera indifféremment de «produit de permutations» ou de «composition de permutations» et on écrira σ σ à la place de σ σ. Remarquons que l inverse d une transposition est elle-même :(i j) 1 = (i j). Ω : Toute permutation de {1,...,n} peut s écrire comme un produit de transpositions. En d autres termes, pour tout σ S n, il existe des transpositions τ 1,...,τ k telles que σ = τ 1 τ 2...τ k. Il est intéressant de noter que, si cette décomposition n est pas unique, la parité du nombre de transpositions nécessaires est toujours la même. 3.2 Signature d une permutation : On appelle signature de la permutation σ S n le nombre (qui vaut toujours ±1) ε(σ) = 1 i<j n σ(j) σ(i) j i Ω : La signature d un produit est le produit des signatures : soit σ,σ S n, alors ε(σ σ) = ε(σ )ε(σ). Ω : Corollaire du théorème précédent 1. Si τ est une transposition quelconque dans S n, alors ε(τ) = 1. 2. Si σ est une permutation quelconque dans S n qui se décompose comme produit de transpositions σ = τ 1...τ k, alors ε(σ) = ( 1) k. 4 La théorie du déterminant 4.1 Déterminant dans le cas général 4.1.1 Formes n-linéaires alternées en dimension n : Soit E un K-ev. Une forme n-linéaire { est une application f : E n K telle que, pour tous E K a 1,...,a i 1,a i+1,...,a n E, l application est linéaire. x f(a 1,...,a i 1,x,a i+1,...,a n ) En d autres termes, f est n-linéaire si et seulement si elle est linéaire par rapport à chacune de ses variables. Soit f : E n K une forme n-linéaire. Nous disons que : 1. f est symétrique lorsque, pour toute permutation σ S n et pour tous vecteurs x 1,...,x n E, on a f(x σ(1),...,x σ(n) ) = f(x 1,...,x n ). 2. f est antisymétrique lorsque, pour toute permutation σ S n et pour tous vecteurs x 1,...,x n E, on a f(x σ(1),...,x σ(n) ) = ε(σ)f(x 1,...,x n ). 3. f est alternée lorsque, pour toute famille (x 1,...,x n ) de vecteurs de E dont deux d entre eux sont égaux, alors f(x 1,...,x n ) = 0. Π : Soit f : E n K une forme n-linéaire. 1. f est antisymétrique si et seulement si pour toute transposition τ S n et pour tous vecteurs x 1,...,x n, on a f(x τ(1),...,x τ(n) ) = f(x 1,...,x n ). 2. f est antisymétrique si et seulement si f est alternée. 22 janvier 2005 Mathématiques Page 8 sur 26

4.1.2 Définition du déterminant de n vecteurs en dimension n Ω : Théorème fondamental sur le déterminant Soit λ K. Il existe une unique forme n-linéaire alternée f : E n K telle que f(e 1,...,e n ) = λ. : Soit E un K-ev de dimension n rapporté à une base (e 1,...,e n ). Le déterminant dans la base (e) est l unique application n-linéaire alternée valant 1 en (e 1,...,e n ). Nous le notons det. (e) Soit x 1,...,x n n vecteurs de E. Nous introduisons leurs coordonnées a ij dans la base (e) : x j = n a ij e i. Nous avons : det (e) (x 1,...,x n ) = σ S n ε(σ)a σ(1)1...a σ(n)n. Par analogie le déterminant d une matrice A = (a ij ) M n (K) est : det(m) = σ S n ε(σ)a σ(1)1...a σ(n)n. On remarque que le déterminant d une matrice A est égal au déterminant de ses vecteurs colonnes C 1,...,C n dans la base canonique de K n. Υ : Propriétés immédiates du déterminant 1. Soit M M n (K), on a det(m) = det( t M). 2. det (e) (e 1,...,e n ) = 1. 3. det(i n ) = 1. Π : Soit E un K-ev de dimension n rapporté à une base (e 1,...,e n ) 1. Si la famille de vecteurs (x 1,...,x n ) est liée, alors det (e) (x 1,...,x n ) = 0. 2. On ne modifie pas la valeur de det (e) (x 1,...,x n ) en ajoutant à l un des vecteurs x k une combinaison linéaire des autres. 4.1.3 Déterminant et produit Ω : Soit A,B M n (K). On a det(ab) = det(a) det(b). Ω : Corollaire du théorème précédent 1. Une matrice P M n (K) est inversible si et seulement si det(p) 0. Si elle est inversible, alors det(p 1 ) = det(p) 1 2. Soit E un K-ev de dimension n muni d une base (e) et soit (x 1,...,x n ) une famille de n vecteurs. La famille (x 1,...,x n ) est une base si et seulement si det(x 1,...,x n ) 0. (e) 3. Deux matrices semblables ont le même déterminant. On dit que le déterminant est un invariant de similitude. : Soit E un K-espace vectoriel de dimension n et u L(E) un endomorphisme. Comme det est un invariant de similitude, les matrices de u dans une base quelconque ont toutes le même déterminant. On l appelle déterminant de l endomorphisme u et on le note det(u). 22 janvier 2005 Mathématiques Page 9 sur 26

4.2 Calculer un déterminant 4.2.1 Techniques de base Υ : Règles de calcul déjà rencontrées 1. On ne change pas un déterminant en prenant la transposée d une matrice. 2. Si M M n (K), alors det(λm) = λ n det(m) 3. Si une matrice contient deux colonnes identiques, alors son déterminant est nul. 4. Si on multiplie une colonne par λ, alors le déterminant est multiplié par λ. Si on multiplie deux colonnes par λ, alors le déterminant est multiplié par λ 2, etc. 5. Si on échange deux colonnes, on change le déterminant en son opposé. 6. On ne change pas le déterminant en ajoutant à une colonne une combinaison linéaire des autres colonnes. 7. Les règles de calculs 3 à 6 sont énoncées sur des colonnes. Grâce à la règle 1, on voit que des règles identiques sont valables sur les lignes. Ω : Le déterminant d une matrice triangulaire est égal aux produits des termes diagonaux. En particulier, une matrice triangulaire est inversible si et seulement si tous ses termes diagonaux sont non nuls. La même formule est valable pour les matrices triangulaires inférieures, et bien entendu pour les matrices diagonales. a 11 * = a 11...a nn. ann 4.2.2 Déterminants triangulaires par blocs 0 Ω : ( Une matrice ) triangulaire supérieure par blocs est une matrice M M n (K) de la forme A B M = où A, B, C sont elles-mêmes des matrices. Alors det(m) = det(a) det(c). 0 C 4.3 Développement par rapport à une ligne ou à une colonne 4.3.1 Formule du développement Ξ : : Soit A = (a ij ) M n (K). On définit A ij M n 1 (K) la matrice extraite de A obtenue en rayant la ligne i et la colonne j : a a 11... a 1j... a 11... a 1,j 1 a 1,j+1... a 1n 1n....... a A ij = a i1... a ij... a in = i 1,1... a i 1,j 1 a i 1,j+1... a i 1,n a... i+1,1... a i+1,j 1 a i+1,j+1... a i+1,n a n1... a.... nj... a nn a n1... a n,j 1 a n,j+1... a nn On appelle mineur en position (i,j) de la matrice A le nombre D ij = det(a ij ). On appelle cofacteur en position (i,j) de la matrice A le nombre ij = ( 1) i+j D ij. Ω : Soit A = (a ij ) M n (K). Nous avons : n Pour tout i [[1,n]] : det(a) = a ij ij. (développement par rapport à la ligne i) j=1 22 janvier 2005 Mathématiques Page 10 sur 26

Pour tout j [[1,n]] : det(a) = n a ij ij. (développement par rapport à la colonne j) 4.3.2 Application au calcul de l inverse d une matrice : Soit A = (a ij ) M n (K). On appelle comatrice de A et on note ComA la matrice des cofacteurs de A : Com A = ( ij ). On appelle matrice complémentaire de A et on note à la transposée de la comatrice de A : à = t Com A. Ω : Soit A M n (K). On a la formule : Aà = ÃA = det(a)i n. En particulier, si det(a) 0, A 1 = 4.3.3 Le déterminant de Vandermonde à det(a) Π : Soit a 1,...,a n K. Le déterminant de Vandermonde est le suivant : 1... 1 a 1... a n V (a 1,...,a n ) = a 2 1... a 2 n = (a j a i )... 1 i<j n a1 n 1... an n 1 La matrice de Vandermonde est inversible tous les nombres a i sont distincts deux à deux. 4.4 Les systèmes linéaires 4.4.1 Définition : On appelle système linéaire à n équations et p inconnues un système d équations de la forme a 11 x 1 + + a 1p x p = b 1. a n1 x 1 + + a np x p Les coefficients du système sont les nombres a ij K. Le second membre est donné par les n nombres b 1,...,b n K et les inconnues sont des nombres x i dont on cherche à déterminer les valeurs possibles. Une solution du système est un p-uplet (x 1,...,x p ) K p de nombres qui vérifient les équations ci-dessus. Lorsque le second membre est nul, c est-à-dire lorsque b 1 = = b n = 0, on dit que le système est homogène. Il admet alors évidemment la solution banale (x 1,...,x p ) = (0,...,0). Il existe trois interprétations à un tel système : 4.4.1.1 Interprétation matricielle a 11... a 1p..... } a n1 {{ a np } A x 1. x p }{{} X = b n = b 1. b n }{{} B 22 janvier 2005 Mathématiques Page 11 sur 26

4.4.1.2 Interprétation vectorielle On considère l application linéaire u : K p K n dont la matrice dans les bases canoniques de K p et de K n est A. On note x = (x 1,...,x p ) K p le vecteur des inconnues et b = (b 1,...,b n ) K n le vecteur du second membre. Le système est alors équivalent à l équation vectorielle u(x) = b d inconnue x K p. 4.4.1.3 Interprétation scalaire On désigne par C 1,...,C p M n1 K les vecteurs colonnes de la matrice A. On les assimile à des vecteurs de K n. Le p-uplet de scalaires (x 1,...,x p ) K p est solution du système si et seulement si b est combinaison linéaire des vecteurs colonnes C i avec les x i comme coefficients, c est-à-dire si et seulement si x 1 C 1 + + x p C p = b. 4.4.2 Les systèmes de Cramer : Un système linéaire est de Cramer lorsqu il y a autant d équations que d inconnues (p = n) et que la matrice A a un déterminant non nul. Ω : Formules de Cramer Un système carré (avec autant d inconnues que d équations) est de Cramer si et seulement si il admet une unique solution. Cette solution unique est alors donnée par les formules : Pour tout 1 j n, x j = 1 det(a) det (ε) (C 1,...,C j 1,b,C j+1,...,c n ). Le dernier déterminant désigne le déterminant de la matrice A où on a substitué la colonne j par le second membre b. 4.5 Aires et volumes 4.5.1 Aires v u + v ε 2 P u,v u ε 1 Dans le plan usuel R 2 rapporté à sa base canonique (ε) = (ε 1,ε 2 ), on se donne deux vecteurs u et v et on s intéresse au paralallélogramme P u,v de côtés u et v. Ses quatre sommets sont 0, u, v et u + v. Ω : Aire d un parallélogramme : aire(p u,v ) = det (u,v) Ω : Soit f L(R 2 ). Soit A une partie de R 2 dont l aire vaut a, alors l aire de f(a) vaut det(f) a. En d autres termes, un endomorphisme f multiplie les aires par det(f). (ε) 22 janvier 2005 Mathématiques Page 12 sur 26

4.5.2 Volumes P uvw w v u Des résultats identiques sont valables en dimension 3 : Soit u,v,w trois vecteurs de R 3. Nous notons P u,v,w le parallélépipède formé sur u, v et w. Ω : Volume d un parallélépipède : Le volume de P u,v,w vaut det (u,v,w). Ω : Un endomorphisme f de R 3 multiplie les volumes par det(f). 5 Les polynômes 5.1 Généralités 5.1.1 Degré : Soit P = n a k X k un polynôme. k=0 1. Les coefficients sont les nombres a k. Le corps K auquel ils appartiennent est appelé le corps de base. L ensemble de tous les polynômes à coefficients dans K est noté K[X]. 2. Le polynôme X est appelé indéterminée ou inconnue. 3. Lorsqu on a pris le soin de prendre a n 0, on dit que P est de degré n et on écrit deg(p) = n. Par convention, le degré du polynôme nul est égal à. Le coefficient a n est alors appelé coefficient dominant ou directeur de P. L ensemble de tous les polynômes à coefficients dans K et de degré inférieur ou égal à n est noté K n [X]. 4. Lorsque le coefficient dominant de P vaut 1, on dit que P est un polynôme unitaire. Π : Soit P et Q deux polynômes. On a : deg(p + Q) max[deg(p), deg(q)] et deg(pq) = deg(p) + deg(q). 5.1.2 Polynômes dérivés : Soit P(X) = n a k X k un polynôme. Le polynôme dérivé de P est le polynôme P défini par k=0 P (X) = (ε) n n 1 ka k X k 1 = (j + 1)a j+1 X j. k=1 22 janvier 2005 Mathématiques Page 13 sur 26 j=0

En dérivant m fois de suite, on obtient le polynôme P (m), et si m > deg(p), alors P (m) = 0. Ω : Formule de Mac-Laurin : Soit P = n a k X k. ( k [[0,n]]), a k = P k (0) et donc k! k=0 P(X) = n k=0 P (k) (0) X k. k! 5.2 Arithmétique des polynômes 5.2.1 Division euclidienne Ω : Division euclidienne des polynômes : Soit S K[X] un polynôme quelconque et P K[X] un polynôme non nul. Il existe un unique couple de polynômes (Q,R) tels que 5.2.2 Diviseurs et multiples, idéal S = PQ + R avec deg(r) < deg(p). : On dit qu un polynôme P divise un polynôme Q ou encore que Q est un multiple de P lorsqu on peut factoriser P dans Q, c est-à-dire lorsqu il existe un polynôme R tel que Q = P R. : Les idéaux : Une partie I de K[X] est un idéal si elle vérifie les trois propriétés suivantes : 1. Le polynôme nul 0 appartient à I. 2. La somme de deux éléments de I est encore dans I. 3. Tout multiple d un élément de I est encore dans I. L ensemble des multiples d un polynôme P donné est un idéal. Ω : Idéaux de K[X] Soit I un idéal de K[X] contenant un polynôme non nul. Il existe un unique polynôme unitaire P 0 tel que I soit exactement l ensemble des multiples de P 0. On dit que P 0 est le générateur de l idéal I. 5.2.3 Polynômes premiers entre eux Ξ : Soient P,Q K[X]. On note P Q le plus grand diviseur commun de P et Q (ou pgcd) : On dit que deux polynômes non nuls P et Q sont premiers entre eux lorsque P Q = 1. Cela revient à dire que seules les constantes non nulles divisent à la fois P et Q. Ω : Théorème de Bezout : Deux polynômes non nuls P,Q K[X] sont premiers entre eux si et seulement s il existe deux polynômes U,V K[X] tels que PU + QV = 1. Υ : Soient A,B,C des polynômes non nuls. { A B = 1 Lemme de Gauss : = A C A BC Lemme d Euclide : A BC = 1 { A B = 1 A C = 1 5.3 Substitution de l indéterminée 5.3.1 Exemples Υ : Dans le polynôme P(X) = d a k X k, on peut substituer X par n importe quel b du moment k=0 que nous pouvons effectuer les opérations suivantes : 22 janvier 2005 Mathématiques Page 14 sur 26

1. Donner un sens à b 0. 2. Multiplier b par lui-même autant de fois que nécessaire et définir ainsi b k. 3. Multiplier b k par un scalaire a k. 4. Additionner le tout. C est à dire dès que b est un élément d une K-algèbre. Il y a trois cas d applications : x est un nombre dans K. On note alors P(x) = d a k x k = a d x d + + a 1 x + a 0. Cela définit la fonction polynomiale P : K K. u est un endomorphisme. Soit E un K-espace vectoriel et u L(E). On rappelle que u 0 = Id E et que u k est la composée de u par lui-même k fois de suite. On pose alors : k=0 P(u) = d a k u k = a d u d + a d 1 u d 1 + + a 1 u + a 0 Id E. k=0 M est une matrice. Soit M M n (K). On rappelle que M 0 = I n. On pose alors : P(M) = d a k M k = a d M d + a d 1 M d 1 + + a 1 M + a 0 I n. k=0 5.3.2 Lemme des noyaux : Des polynômes Q 1,...Q k sont dits premiers entre eux deux à deux si, pour tout i j, les polynômes Q i et Q j sont premiers entre eux. Il revient au même de dire que chaque polynôme Q i est premier avec le produit de tous les autres Q 1 Q i 1 Q i+1 Q k. Ω : Lemme des noyaux Soit E un K-espace vectoriel et u L(E). Soit Q 1,...,Q k K[X] des polynômes et Q = Q 1...Q k leur produit. Si les polynômes Q 1,...,Q k sont premiers entre eux deux à deux, alors k Ker Q(u) = Ker Q i (u). 5.4 Racines d un polynôme 5.4.1 Factorisation et nombre de racines : Soit P(X) = n a k X k un polynôme à coefficients dans K. Soit λ K un nombre quelconque. k=0 On pose P(λ) = n a k λ k = a n λ n + a n 1 λ n 1 + + a 1 λ + a 0. On dit que λ est une racine de P si k=0 et seulement si P(λ) = 0. L ensemble des racines d un polynôme donné dépend du corps K qu on s est fixé. Υ : Le nombre λ K est une racine du polynôme P K[X] si et seulement si (X λ) divise P. : On dit qu un nombre λ K est racine du polynôme P K[X] avec multiplicité m si (X λ) m divise P mais que (X λ) m+1 ne divise pas P. En d autres termes, la multiplicité m d une racine est le plus grande puissance de (X λ) que l on puisse mettre en facteur dans P. Ω : Le nombre λ K est une racine du polynôme P de multiplicité m si et seulement si P(λ) = 0,P (λ) = 0,...,P (m 1) (λ) = 0 et P (m) (λ) 0. 22 janvier 2005 Mathématiques Page 15 sur 26

Ω : Un polynôme non nul de degré n a au plus n racines comptées avec multiplicité. : On dit qu un polynôme P est scindé sur K s il peut s écrire sous la forme (avec a K, λ i K et m i N ) P(X) = a p (X λ i ) m i Υ : Soit P R[X] un polynôme réel et z C une racine de multiplicité m de P. Alors z est également racine de multiplicité m de P l équation P(X) = 0. Ω : Factorisation en polynômes irréductibles dans R[X] Dans R[X], tout polynôme s écrit comme produit d une constante, de polynômes unitaires de degré 1 et de polynômes unitaires de degré 2 sans racine dans R. En d autres termes, tout polynôme de R[X] s écrit sous la forme : P(X) = a p (X λ j ) j=1 q (X 2 + b k X + c k ) où a est le coefficient dominant de P, les λ j les racines (non nécessairement distinctes) de P dans R et où les nombres b k,c k sont des réels tels que b 2 k 4c k < 0. Υ : Corollaires utiles 1. Si deux polynômes P et Q de degrés inférieurs ou égaux à n prennent les mêmes valeurs en n + 1 points, alors P = Q. 2. Si un polynôme P a une infinité de racines, alors P est le polynôme nul. 3. Tout polynôme P R[X] de degré 3 admet au moins une racine réelle. k=1 5.4.2 Cas des polynômes à coefficients complexes Ω : Théorème de d Alembert-Gauss : Tout polynôme complexe non constant a une racine dans C. Υ : Tout polynôme à coefficients complexes est scindé sur C. Υ : Factorisation de polynômes explicites dans C 1. Penser à utiliser les racines réelles : une telle racine x est telle que P(x) = 0 donc telle que R (P(x)) = 0 et I(P(x)) = 0. C est vrai également d une racine complexe, mais la différence tient à ce qu on peut aisément séparer partie réelle et partie imaginaire lorsque la variable est réelle, et que ce faisant on peut, avec de la chance, repousser le problème sur des polynômes de degrés inférieurs. (cf. exemple du cours) 2. Pour rechercher la racine carrée δ = a + ib d un nombre complexe z = A + ib on procède comme suit : (a) On pose δ 2 = z ce qui donne la relation : {a 2 b 2 } + i [2ab] = {A} + i [B] dont on déduit par identification a 2 b 2 = A et le signe de ab (b) On a aussi δ 2 = a 2 + b 2 = z a 2 + b 2 = A 2 + B 2 (c) Ce qui nous donne le système a 2 b 2 = A (2 solutions) Signe ab = Signe B 22 janvier 2005 Mathématiques Page 16 sur 26

5.5 Applications 5.5.1 Les polynômes interpolateurs de Lagrange Le but de l interpolation polynômiale est de trouver un polynôme qui vaut exactement des valeurs prescrites en des points choisis auparavant. Ω : Polynômes d interpolation de Lagrange Soit x 1,..., x n des nombres distincts dans K. Soit y 1,..., y n des nombres quelconques dans K. Il existe un et un seul polynôme P K[X] tel que deg(p) < n et P(x i ) = y i pour tout i. Il s agit de P(X) = n X x i y k x k x i i k }{{} L k (X) k=1 Remarquons que ( L k (x i ) = 0 i k ) et L k (x k ) = 1 5.5.2 Les suites récurrentes d ordre 2 { un+2 = au n+1 + bu n Υ : On cherche à évaluer explicitement la suite (u n ) n 0 qui vérifie u 0 et u 1 donnés On introduit l équation caractéristique x 2 = ax + b x 2 ax b = 0, laquelle possède deux solutions r,s C, distinctes ou confondues. Il y a deux cas de figure : 1. r = s = u n = p r n + q nr n 2. r s = u n = p r n + q s n Dans les deux cas, on détermine p et q en utilisant u 0 et u 1 6 Sous-espaces stables d un endomorphisme 6.1 Généralités sur les sous-espaces stables : Soit E un K-espace vectoriel et u L(E) un endomorphisme. Un sous-espace vectoriel F est dit stable par u lorsque u(f) F. On peut alors définir l endomorphisme û induit par u sur F. Il est obtenu par restriction de u à F au départ et à l arrivée. Il est défini tout simplement par : x F, û(x) = u(x). Π : Expression matricielle d un sous-espace stable Soit E un K-espace vectoriel de dimension n et u L(E). Soit F un sous-espace stable non trivial de u. Soit (e 1,...,e p ) une base de F complétée en une base (e) = (e 1,...,e ( n ) de E. ) Alors la A B. 0 C matrice de u dans la base (e) est triangulaire supérieure par blocs : Mat (e) u = 6.2 Valeurs propres et vecteurs propres 6.2.1 Cas d un endomorphisme Dans toute cette partie, E est un K-espace vectoriel de dimension n et u L(E) est un endomorphisme. : Un vecteur non nul x E est un vecteur propre de u si et seulement si u(x) est colinéaire à x ce qui, compte tenu du fait que x 0, revient à dire qu il existe un nombre λ K appelé 22 janvier 2005 Mathématiques Page 17 sur 26

valeur propre tel que u(x) = λx. : On appelle spectre de u et on note Sp(u) l ensemble des nombres λ K qui sont des valeurs propres de u. : Soit λ Sp(u) une VaP de u. On appelle sous-espace propre de u associé à λ et on note E λ (u), ou plus simplement E λ lorsqu il n y a pas de confusion possible, le sous-espace vectoriel E λ = Ker(u λid E ). Ses sous-espaces propres sont stables par u Ω : Somme directe des sous-espaces propres Soit E un K-espace vectoriel de dimension n, soit u L(E) un endomorphisme et soit λ 1,...,λ p des VaP distinctes de u. Les sous-espaces propres E λ1,...,e λp sont en somme directe. On note donc : λ Sp(u) E λ = λ Sp(u) Si x 1 est un VeP associé à λ 1,..., x p est un VeP associé à λ p, alors (x 1,...,x p ) est une famille libre. 6.2.2 Cas d une matrice : Soit A M n (K) une matrice carrée. 1. Un nombre λ K est une VaP de A s il existe un vecteur colonne non nul X tel que AX = λx. 2. Le spectre de A est l ensemble de ses valeurs propres. 6.3 Polynôme caractéristique 6.3.1 Polynôme caractéristique d une matrice : Soit A M n (K) une matrice carrée. On appelle polynôme caractéristique de A le polynôme P A (X) = det(a XI n ). Π : Le polynôme caractéristique de A M n (K) est un polynôme de degré n de la forme P A (X) = ( 1) n X n + ( 1) n 1 Tr(A)X n 1 + + det(a). Υ : Matrices de Froebenius On appelle matrice de Froebenius toute matrice de la forme suivante en on calcule son polynôme caractéristique par récurrence : 0 a 0 X a 0 0 0 1 a 1 1 a 1 F = et P F (X) = 0 a n 2 0 X a n 2 0 1 a n 1 1a n 1 X [ ] P F (X) = ( 1) n[ ] n 1 X n a n 1 X n 1 a 1 X a 0 = ( 1) n X n a k X k E λ k=0 22 janvier 2005 Mathématiques Page 18 sur 26

Ω : Valeurs propres et polynôme caractéristique Soit A M n (K). Un nombre λ est VaP de A si et seulement si P A (λ) = 0. En d autres termes, les VaP de A sont les racines du polynôme caractéristique de A. Π : Le polynôme caractéristique est un invariant de similitude, c est-à-dire que deux matrices semblables ont le même polynôme caractéristique. 6.3.2 Polynôme caractéristique d un endomorphisme Dans ce paragraphe, E est un K-espace vectoriel de dimension n et u L(E) est un endomorphisme. : Grâce à la proposition précédente, on voit que toutes les matrices de u ont le même polynôme caractéristique. On l appelle polynôme caractéristique de l endomorphisme u et on le note P u. P u (X) = det(u XId E ). : Soit λ une VaP de u. La multiplicité algébrique de λ, notée α λ, est le nombre de fois où λ est racine de P u. La multiplicité géométrique de λ, notée β λ, est la dimension du sous-espace propre E λ. Π : Premières propriétés du polynôme caractéristique 1. Soit A M n (K). On a P A = P t A. 2. Soit u L(E) et F un sous-espace stable par u. On note û l endomorphisme induit par u sur F. Alors le polynôme P u est un multiple de P u. 3. Soit λ une VaP de u. Alors 1 β λ α λ. 7 Trigonalisation et diagonalisation 7.1 Trigonalisation : Définition fondamentale de la trigonalisation 1. Soit E un K-espace vectoriel de dimension n et u L(E) un endomorphisme. On dit que u est trigonalisable lorsqu il existe une base (e) dans laquelle la matrice de u est triangulaire supérieure. 2. Une matrice carrée M M n (K) est dite trigonalisable lorsqu elle est semblable à une matrice triangulaire supérieure. Cela revient à dire qu elle est la matrice d un endomorphisme trigonalisable dans une certaine base ou encore qu il existe une matrice inversible P telle que P 1 MP soit triangulaire supérieure. Ω : Caractérisation des endomorphismes et matrices trigonalisables 1. Soit E un K-espace vectoriel de dimension n. Un endomorphisme u L(E) est trigonalisable si et seulement si son polynôme caractéristique P u est scindé sur K. 2. Une matrice A M n (K) est trigonalisable si et seulement si P A est un polynôme scindé sur K. Υ : Corollaire 1. Si E est un C-espace vectoriel de dimension n, alors tout endomorphisme sur E est trigonalisable. 2. Toute matrice A M n (C) est trigonalisable. 22 janvier 2005 Mathématiques Page 19 sur 26

Π : Trace, déterminant et valeurs propres Soit u L(E) un endomorphisme trigonalisable et soit λ 1,...,λ n les VaP de u (répétées selon leurs multiplicités algébriques). On a : Tr(u) = n λ i et det(u) = n λ i. L énoncé est identique pour les matrices trigonalisables. 7.2 Diagonalisation : Définition fondamentale de la diagonalisation 1. Soit E un K-espace vectoriel de dimension n. Un endomorphisme u L(E) est dit diagonalisable lorsqu il existe une base (e) de E dans laquelle la matrice de u est diagonale. 2. Une matrice carrée A M n (K) est dite diagonalisable lorsqu elle est semblable à une matrice diagonale. Cela revient à dire que A est la matrice d un endomorphisme diagonalisable dans une certaine base ou encore qu il existe P GL n (K) telle que P 1 AP soit une matrice diagonale. Ω : Différentes expressions de la diagonalisation Soit E un K-espace vectoriel de dimension n et u L(E) un endomorphisme. Les propriétés suivantes sont équivalentes : 1. u est diagonalisable. 2. Il existe une base de E formée de VeP de u. 3. E = E λ. λ Sp(u) 4. P u est scindé sur K et, pour toute VaP λ, on a α λ = β λ. Π : Dans un K-espace vectoriel E de dimension n, tout endomorphisme ayant n valeurs propres distinctes est automatiquement diagonalisable. 7.3 Application aux systèmes différentiels 7.3.1 Résolution de l équation différentielle x = λx Ω : Solution de l équation différentielle x = λx Soit λ un nombre réel fixé. Quel que soit le nombre réel c, il existe une unique fonction dérivable x : R R solution de l équation différentielle x = λx et vérifiant la condition initiale x(0) = c. Cette fonction est donnée par la formule t R, x(t) = ce λt. 7.3.2 Résolution de X = DX Ω : Soient λ 1,...,λ n R n, x 1 (t) x λ 1(t) 1 X(t) =., X (t) =., D = 0 x n (t) x n(t) 0 λn c 1 c n,c =. 22 janvier 2005 Mathématiques Page 20 sur 26

Il existe une unique solution X : t X(t) de X = DX qui vérifie la condition initiale X(0) = C. Cette solution est donnée par la matrice t R, X(t) = e λ 1t 0 C. e λ nt 0 Autrement dit t R, x i (t) = c i e λ it 7.3.3 Résolution d un système différentiel diagonalisable Avec des notations évidentes on a un système de la forme suivante à résoudre : x 1 = a 11 x 1 + + a 1n x n x 1 (0) = c 1. et. x n = a n1 x 1 + + a nn x n x n (0) = c n On pose : x 1 (t) x 1(t) a 11... a 1n c 1 X(t) =., X (t) =., A =....., C =. x n (t) x n(t) a n1 a nn c n Ce faisant, on a ramené le problème dans le domaine des matrices : on cherche X telle que X = AX et X(0) = C. Maintenant, reste à diagonaliser A. On trouve P GL n (R) telle que D = P 1 AP. En notant Q = P 1 on a A = Q 1 DQ et il vient X = AX X = Q 1 DQX (QX ) = D(QX) Y = DY en posant les notations qui s imposent, à savoir QX = Y et QX = Y. On s aperçoit qu il s agit du cas précédent, que l on résout sans peine. On connaît donc Y. On revient à X immédiatement : QX = Y Q 1 QX = Q 1 Y X = PY et c est fini. 7.4 Application aux suites récurrentes On cherche les suites u 1,u 2,...,u n C N, vérifiant pour tout k 0 u 1 k+1 = a 11 u 1 k + + a 1n u n k u 1 0 = ξ 1 u 2 k+1 = a 21 u 1 k + + a 2n u n k u 2 0 = ξ 2 et.. u n k+1 = a n1 u 1 k + + a nn u n k u n 0 = ξ n On pose u 1 k U k =. u n k et A = a 11... a 1n..... a n1 a nn Le problème revient donc à trouver U k telle que U k+1 = AU k, donc U k = A k U 0. Toute la difficulté réside donc dans la recherche de l expression de A k. Plusieurs méthodes sont envisageables : 22 janvier 2005 Mathématiques Page 21 sur 26

Méthode 1 : «Good Luck» Calculer à la main les premières puissances de la matrice et tenter d en dégager une loi, qu il faudra car nous sommes des gens rigoureux démontrer par récurrence. Méthode 2 : «Diagonalisation» On a A = P 1 DP, où D est une matrice diagonale, dont on peut calculer aisément les puissances successives, et on a A k = P 1 D k P Méthode 3 : «Subtile» Commencer par déterminer les polynôme caractéristique et minimal, respectivement P A (X) et Q A (X), en déduire les valeurs propres de A : les λ i. Notons d = deg Q A (X). Ceci en poche, nous pouvons dire qu il existe un unique polynôme Π(X) et un unique d-uplet de réels a 0,...,a d 1 tels que X p = Π(x)Q A (X) + a d 1 X d 1 + + a 0 Il ne reste qu à calculer les a i en injectant les λ i dans l équation, et éventuellement en jouant sur la multiplicité des racines (c est à dire dériver l expression...). Après quoi on obtient A k en fonction des premières puissances de A : d 1 A k = a i A i 8 Polynômes d endomorphismes 8.1 Polynômes annulateurs d un endomorphisme 8.1.1 Généralités : Un polynôme P est dit annulateur de u si P(u) = 0 (c est-à-dire est l endomorphisme nul). Π : Soit E un K-espace vectoriel de dimension n et u L(E) un endomorphisme. 1. Si P K[X] est un polynôme quelconque, alors les endomorphismes u et P(u) commutent. Plus généralement, si P et Q sont deux polynômes, alors P(u) et Q(u) commutent : P(u)Q(u) = (PQ)(u) = (QP)(u) = Q(u)P(u) 2. Nous désignons par T u : K[X] L(E) l application qui au polynôme P associe l endomorphisme P(u). Cette application T u est linéaire. 3. Il existe des polynômes non nuls P tels que P(u) = 0. : L ensemble de tous les polynômes annulateurs de u est appelé idéal annulateur de u. Il s agit évidemment d un idéal. Π : Soit E un K-espace vectoriel de dimension n et u L(E) un endomorphisme. Soit x 0 un VeP de u associé à la VaP λ. Soit P K[X] un polynôme. Alors : i=0 P(u)(x 0 ) = P(λ)x 0. En particulier, Si λ est une VaP de u, alors P(λ) est une VaP de P(u). Si λ est une VaP de u, alors c est une racine de n importe lequel des polynômes annulateurs de u. 8.1.2 Un exemple important : le théorème de Cayley-Hamilton Ω : Soit E un K-espace vectoriel de dimension n et u L(E) un endomorphisme. Alors P u (u) = 0. En d autres termes, le polynôme caractéristique est un polynôme annulateur. 22 janvier 2005 Mathématiques Page 22 sur 26