ÉCOLE POLYTECHNIQUE FÉDÉRALE DE LAUSANNE. Algèbre Linéaire. Bachelor 1ère année Sections : Matériaux et Microtechnique

Dimension: px
Commencer à balayer dès la page:

Download "ÉCOLE POLYTECHNIQUE FÉDÉRALE DE LAUSANNE. Algèbre Linéaire. Bachelor 1ère année 2008-2009. Sections : Matériaux et Microtechnique"

Transcription

1 ÉCOLE POLYTECHNIQUE FÉDÉRALE DE LAUSANNE Algèbre Linéaire Bachelor ère année Sections : Matériaux et Microtechnique Support du cours de Dr Lara Thomas Polycopié élaboré par : Prof Eva Bayer Fluckiger Dr Philippe Chabloz Version de septembre 27

2 2

3 Table des matières Systèmes d équations linéaires et matrices 7 Introduction aux systèmes d équations linéaires 7 Systèmes linéaires et matrices 2 Elimination Gaussienne 2 2 Algorithme d élimination de Gauss 3 22 Méthode de résolution d un système d équations linéaires 6 3 Systèmes homogènes d équations linéaires 7 2 Eléments du calcul matriciel 9 2 Quelques définitions et opérations 9 22 Le produit matriciel 2 22 Matrice identité 2 23 Règles du calcul matriciel 2 24 Ecriture matricielle des systèmes d équations linéaires L inversion des matrices Matrices Puissances d une matrice Les matrices élémentaires Calcul de l inverse d une matrice Matrices triangulaires La transposition 3 2 La trace 3 2 Matrices symétriques Matrices antisymétriques 32 3 Le déterminant 33 3 Permutations et déterminants 33 3 Méthode pour calculer des déterminants de matrices de taille 2 2 et Déterminants et opérations élémentaires Les cofacteurs et la règle de Cramer Calcul du déterminant par la méthode des cofacteurs Calcul de l inverse par la méthode des cofacteurs Systèmes linéaires : règle de Cramer 47 4 Calcul vectoriel dans le plan et dans l espace 49 4 Définitions et règles de calcul 49 4 Systèmes de coordonnées 5 42 Propriétés du calcul vectoriel Le produit scalaire Projection orthogonale Le produit vectoriel (cross product Interprétation géométrique du produit vectoriel Le produit mixte (triple product Droites et plans dans l espace de dimension Equation du plan passant par un point P et ayant vecteur normal n 6 3

4 4 TABLE DES MATIÈRES 452 Droites dans l espace de dimension Espaces euclidiens et applications linéaires 65 5 Espaces de dimension n 65 5 Définitions et notations Produit scalaire Norme et distance dans R n Représentation matricielle des vecteurs de R n Formule matricielle du produit scalaire Multiplication des matrices et produit scalaire 7 52 Applications linéaires 7 52 Rappels sur les applications Applications linéaires Quelques exemples d applications linéaires Rotations Composition d applications linéaires Propriétés des applications linéaires 77 6 Espaces vectoriels 8 6 Définition et premières propriétés 8 62 Sous-espaces vectoriels Espace des solutions d un système d équations linéaires homogènes Combinaison linéaire Indépendance linéaire Interprétation géométrique de la dépendance linéaire Bases et dimension Espace des lignes et colonnes d une matrice Changements de bases Changement de bases en 2 dimensions Dimension quelconque 7 Produits scalaires généralisés 3 7 Définition et premières propriétés 3 72 Angles et orthogonalité 6 72 Angle formé par deux vecteurs 7 73 Bases orthogonales et méthode de Gram-Schmidt 74 Matrices orthogonales 4 74 Définition et Propriétés Changement de bases orthonormées Décomposition Q-R : application du théorème La méthode des moindres carrés 7 75 Solution approximative d un système d équations linéaires 7 8 Valeurs propres et vecteurs propres 2 8 Définitions et premières propriétés 2 8 Calcul des vecteurs propres Diagonalisation Méthode pour diagonaliser une matrice Matrices symétriques et diagonalisation 28 9 Applications linéaires 3 9 Définitions et exemples 3 9 Propriétés des applications linéaires Expression d une application linéaire dans une base Noyau et image d une application linéaire Applications linéaires inversibles Matrice d une application linéaire 4

5 TABLE DES MATIÈRES 5 Applications multilinéaires et tenseurs 43 Formes linéaires 43 Formes linéaires sur V : tenseurs d ordre (, 43 2 Espace dual, bases duales 43 3 Formes linéaires sur V : tenseurs d ordre (, 45 2 Formes multilinéaires sur V : tenseurs d ordre (, m 46 2 Formes bilinéaires sur V : tenseurs d ordre (, Tenseurs d ordre (, m Quelques interprétations physiques 47 3 Formes multilinéaires sur V : tenseurs d ordre (m, 48 3 Une remarque sur les tenseurs d ordre (, Formes bilinéaires sur V : tenseurs d ordre (2, Tenseurs d ordre (m, 48 4 Tenseurs mixtes d ordre (p, q 49 4 Tenseurs d ordre (p, q Exemple des tenseurs d ordre (, 49 5 Opérations sur les tenseurs 5 6 Changement de bases 5 6 Cas des tenseurs d ordre (, (vecteurs de V 5 62 Cas des tenseurs d ordre (, (formes linéaires sur V 5 63 Cas des tenseurs d ordre (, 2 (formes bilinéaires sur V Cas des tenseurs (2, (formes bilinéaires sur V Cas des tenseurs d ordre (, Cas des tenseurs d ordre (p, q 54 7 Champs tensoriels 54 7 Définitions Changements de coordonnées Cas d un champ tensoriel d ordre (, (champ vectoriel Cas d un champ tensoriel d ordre (, Cas d un champ quelconque 56 Index 58 Index des notations 6

6 6 TABLE DES MATIÈRES

7 Chapitre Systèmes d équations linéaires et matrices L algèbre linéaire est un outil essentiel pour toutes les branches des mathématiques appliquées, en particulier lorsqu il s agit de modéliser puis résoudre numériquement des problèmes issus de divers domaines : des sciences physiques ou mécaniques, des sciences du vivant, de la chimie, de l économie, des sciences de l ingénieur, Par exemple, la physique abonde de relations linéaires : les lois fondamentales du mouvement sont presque toutes linéaires, ou se déduisent de lois linéaires Les systèmes électriques sont fondamentalement décrits par des lois linéaires (V = RI, etc C est pourquoi, le présent cours commence avec une étude des équations linéaires et de leur résolution Introduction aux systèmes d équations linéaires L équation d une droite dans le plan xy s écrit a x + a 2 y = b où a, a 2 et b sont des paramétres réels Cette équation s appelle équation linéaire dans les variables (ou inconnues x et y Exemple 2x + 3y = 6 y 2 x Exemple 2 Les équations suivantes ne sont pas des équations linéaires : 2x + y 2 = y = sin(x x = y 7

8 8 CHAPITRE SYSTÈMES D ÉQUATIONS LINÉAIRES ET MATRICES Définition 3 De maniére générale, on appelle équation linéaire dans les variables x,, x n toute relation de la forme a x + + a n x n = b ( où a,, a n et b sont des nombres réels Il importe d insister ici que ces équations linéaires sont implicites, c est-à-dire qu elles décrivent des relations entre les variables, mais ne donnent pas directement les valeurs que peuvent prendre les variables Résoudre une équation signifie donc la rendre explicite, c est-à-dire rendre plus apparentes les valeurs que les variables peuvent prendre Une solution de l équation linéaire ( est un n-uple s,, s n de valeurs des variables x,, x n qui satisfont à l équation ( Autrement dit a s + + a n s n = b Par la suite, nous étudierons l ensemble des solutions d une équation linéaire Exemple 4 Trouvons l ensemble des solutions de l équation x 4x 2 + 3x 3 = 5 Nous donnons des valeurs arbitraires s et t à x 2 et x 3 respectivement et résolvons l équation par rapport à x : x 2 = s, x 3 = t et x = 4s 3t + 5 L ensemble des solutions est alors où s et t sont des nombres réels quelconques x = 4s 3t + 5, x 2 = s, x 3 = t Définition 5 Un ensemble fini d équations linéaires dans les variables x,, x n s appelle un système d équations linéaires Tout n uplet de nombres s,, s n satisfaisant chacune des équations s appelle solution du système d équations linéaires Exemple 6 Le système admet comme solution { x 3x 2 + x 3 = 2x + 4x 2 3x 3 = 9 x = 8, x 2 = 6, x 3 = Par contre x = 7 x 2 = 2 x 3 = ne satisfait que la première équation Ce n est donc pas une solution du système Définition 7 Un système d équations est dit incompatible ou inconsistant s il n admet pas de solutions Exemple 8 Le système linéaire { x + x 2 = 2x + 2x 2 = est clairement incompatible

9 INTRODUCTION AUX SYSTÈMES D ÉQUATIONS LINÉAIRES 9 Considérons le système { a x + a 2 x 2 = b a 2 x + a 22 x 2 = b 2 (2 avec a a 2 et a 2 a 22 Ces deux équations représentent deux droites d et d 2 dans le plan x x 2 et une solution du système est un point (s, s 2 qui est sur les deux droites Trois cas se présentent alors : ( Les droites d et d 2 se coupent en un seul point Dans ce cas, illustré par la figure, le système (2 a une seule solution (2 Les droites d et d 2 sont parallèles Alors le système est incompatible et n a pas de solution La figure 2 illustre cette situation (3 Les droites d et d 2 sont confondues et, dans ce cas, le système a une infinité de solutions Nous verrons plus loin que ces trois cas de figures (aucune solution, une seule solution, une infinité de solutions sont les seuls cas qui peuvent se présenter pour n importe quel système d équations linéaires x 2 d 2 d x Fig Droites se coupant en un seul point x 2 d 2 d x Fig 2 Droites parallèles

10 CHAPITRE SYSTÈMES D ÉQUATIONS LINÉAIRES ET MATRICES x 2 d = d 2 x Fig 3 Droites confondues Systèmes linéaires et matrices Considérons un système quelconque de m équations à n inconnues, a x + a 2 x a n x n = b a 2 x + a 22 x a 2n x n = b 2 a m x + a m2 x a mn x n = b m où le nombre réel a ij est le coefficient de la j-ème inconnue dans la i-ème équation (3 Définition 9 (Matrice augmentée Nous obtenons la matrice augmentée associée au système en «oubliant» les variables x i et les signes «+» et «=» La matrice augmentée aasociée au système (3 est alors a a 2 a n b a 2 a 22 a 2n b 2 a m a m2 a mn b m Exemple Considérons le système linéaire x + x 2 + 7x 3 = 2x x 2 + 5x 3 = 5 x 3x 2 9x 3 = 5 Sa matrice augmentée est La méthode de base pour résoudre un système d équations linéaires est de remplacer le système par un autre, plus simple, ayant le méme ensemble de solutions Ceci se fait par une succession d opérations, appelées opérations élémentaires : ( multiplier une équation par une constante non nulle ; (2 permuter deux équations ; (3 ajouter un multiple d une équation à une autre équation Les opérations (, (2 et (3 ne changent pas l ensemble des solutions Elles correspondent à des opérations élémentaires sur les lignes de la matrice augmentée Ces opérations sont les suivantes : ( multiplier une ligne par une constante non nulle ; (2 permuter deux lignes ; (3 ajouter un multiple d une ligne à une autre ligne (

11 INTRODUCTION AUX SYSTÈMES D ÉQUATIONS LINÉAIRES Exemple Utilisons ces opérations élémentaires pour résoudre le système suivant x + y + 7z = 2x y + 5z = 5 x 3y 9z = 5 Nous calculons la matrice augmentée associée au système : puis faisons les opérations élémentaires nécessaires sur le système et sur la matrice augmentée (3 l 2 l 2 2l (3 l 2 l 2 2l x + y + 7z = 3y 9z = 3 x 3y 9z = Nous remarquons que les opérations élémentaires peuvent être faites uniquement sur la matrice augmentée pour revenir à la fin au système d équations C est ce que nous faisons dans la suite (3 l 3 l 3 + l ( l 2 3 l (3 l 3 l 3 + 2l ( l 3 4 l (3 l l 7l 3

12 2 CHAPITRE SYSTÈMES D ÉQUATIONS LINÉAIRES ET MATRICES 6 3 (3 l 2 l 2 3l (3 l l l Cette matrice augmentée correspond au système x = 2 y = 4 z = On obtient ainsi l unique solution su système : x = 2, y = 4 et z = Cet exemple est généralisé dans le paragraphe suivant 2 Elimination Gaussienne Il s agit d une méthode qui permet de trouver l ensemble des solutions de n importe quel système d équations linéaires La méthode consiste à mettre la matrice augmentée du système sous une forme simple, dite forme échelonnée (réduite par une série d opérations élémentaires (, (2, (3 de ( Commençons par poser la définition suivante : Définition 2 (matrice échelonnée Une matrice est appelée matrice échelonnée si elle a les propriétés suivantes : (i Dans toute ligne non nulle, le premier élément non nul vaut Il est appelé le directeur (ii Les lignes dont tous les éléments sont nuls sont regroupées en bas de la matrice (iii Dans deux lignes successives (contiguës ayant des éléments non nuls, le directeur de la ligne inférieure se trouve à droite du directeur de la ligne supérieure Exemple 3 La matrice satisfait la propriété (i mais pas la propriété (iii, alors que la matrice suivante ( 3 ne satisfait pas la propriété (i En revanche, la matrice 7 6

13 2 ELIMINATION GAUSSIENNE 3 satisfait (i, (ii et (iii : elle est donc sous forme échelonnée Finalement, la matrice 3 satisfait (i, (ii mais pas (iii On peut raffiner un peu la définition précédente en posant : Définition 4 (matrice échelonnée réduite Si, en plus des propriétés (i-(iii ci-dessus, la matrice satisfait la propriété (iv ci-dessous, on parle de matrice échelonnée réduite : (iv Toute colonne contenant un directeur a des zéros partout ailleurs Exemple 5 La matrice est échelonnée réduite, alors que la matrice 3 2 est sous forme échelonnée non réduite (é cause de la 3-ème colonne On peut transformer n importe quelle matrice en une matrice échelonnée (réduite en utilisant l algorithme de Gauss 2 Algorithme d élimination de Gauss Cet algorithme permet de transformer n importe quelle matrice sous sa forme échelonnée réduite à l aide des opérations élémentaires (-(3 de ( Voici la marche à suivre illustrée par un exemple ( Identifier la colonne se trouvant le plus à gauche contenant au moins un élément non nul Exemple : ème colonne (2 Permuter, s il le faut, la première ligne avec une autre, pour que l élément en haut de la colonne identifiée en ( devienne non nul Exemple (suite : l l (3 Si l élément se trouvant en haut de la dite colonne vaut a, multiplier la première ligne par a pour y faire apparaître le directeur Exemple (suite :

14 4 CHAPITRE SYSTÈMES D ÉQUATIONS LINÉAIRES ET MATRICES l 3 l (4 Ajouter des multiples adéquats de la première ligne aux lignes en-dessous pour annuler les éléments en dessous du directeur Exemple (suite : l 3 l 3 3l 3 (5 Couvrir la première ligne de la matrice, et aller à ( Exemple (suite : ( 3 (4 l 2 l 2 l ( (3 l 2 2 l ( 3 (6 La matrice entiére est échelonnée Exemple (suite : On remet la première ligne en place 3 (7 Pour la mettre sous la forme échelonnée réduite, il faut ajouter à une ligne des multiples adéquats des lignes situées au-dessous d elle en allant du bas vers le haut Exemple (suite : 3 l 2 l 2 3l 3 l l 3 l 3 3

15 2 ELIMINATION GAUSSIENNE 5 Les deux exemples ci-dessous illustrent encore l algorithme L exemple 6 illustre le point (7 à partir d une matrice qui est déjà sous forme échelonnée mais pas réduite Dans l exemple 7, on effectue l algorithme dans son entier Exemple l 2 l 2 2l l l 4l Exemple ( ère colonne (2 l l 3 ( ème colonne (4 l 2 l 2 l ( On remet en place la première ligne pour obtenir La matrice est maintenant sous forme échelonnée Il reste à la mettre sous la forme échelonnée réduite (7 l 2 l 2 + 2l (7 l l 2l 3

16 6 CHAPITRE SYSTÈMES D ÉQUATIONS LINÉAIRES ET MATRICES (7 l l + 3l La matrice est sous forme échelonnée réduite Un système dont la matrice augmentée est sous forme échelonnée réduite est très simple à résoudre comme nous allons le voir ci-aprés 22 Méthode de résolution d un système d équations linéaires Après avoir mis la matrice augmentée du système sous forme échelonnée réduite, on procède selon les deux étapes suivantes ( Donner une valeur arbitraire à chaque variable dont la colonne ne contient pas de directeur Ces variables sont les variables libres (2 Résoudre chaque équation en exprimant la variable correspondant au directeur, appelée variable directrice, en fonction des autres variables Exemple 8 La matrice est échelonnée réduite Elle correspond au système x 2 4 = 2 y = 4 z = Toutes les variables sont des variables directrices La solution est donc Exemple 9 La matrice x = 2, y = 4, z = 3 5 est échelonnée réduite Elle correspond au système { x + x 2 + 3x 3 + x 4 = x 4 = 5 Les variables directrices sont x 2 et x 4 car les colonnes 2 et 4 de la matrice contiennent un directeur, alors que x et x 3 sont les variables libres Posons x = s, x 3 = t On obtient et l ensemble des solutions du système est : x 2 = 3t, x 4 = 5 x = s, x 2 = 3t, x 3 = t, x 4 = 5, pour tout t, s R

17 3 SYSTÈMES HOMOGÈNES D ÉQUATIONS LINÉAIRES 7 3 Systèmes homogènes d équations linéaires Un système homogène est un système dont les termes constants sont tous nuls Il est de la forme a x + a 2 x a n x n = a 2 x + a 22 x a 2n x n = a m x + a m2 x a mn x n = Tout système homogène d équations linéaires est consistant, car il a au moins la solution dite triviale x = x 2 = = x n = Un système homogène d équations linéaires a ou bien une seule solution (la solution triviale, ou bien une infinité de solutions En effet, supposons que le système admette la solution x = t,, x n = t n avec au moins l un des t i Alors, pour un nombre réel k quelconque, est aussi solution du système x = kt,, x n = kt n Théorème 2 Tout système homogène d équations linéaires dont le nombre d inconnues est plus grand que le nombre d équations a une infinité de solutions Démonstration Soit m le nombre de colonnes et n le nombre d équations La matrice augmentée du système a alors m+ colonnes et n lignes Il s ensuit que sa forme échelonnée réduite doit comporter au moins une colonne sans directeur Supposons que ce soit la j-ème avec j m Cette colonne correspond à une variable libre x j = s et il y a donc une infinité de solutions puisque le système est compatible Exemple 2 Considérons le système homogène 3x + 3x 2 2x 3 x 5 = x x 2 + x 3 + 3x 4 + x 5 = 2x + 2x 2 x 3 + 2x 4 + 2x 5 = x 3 + 8x 4 + 4x 5 = Sa matrice augmentée est et la forme échelonnée réduite est Cette matrice correspond donc au système x + x 2 + 3x 5 = x 3 + 2x 5 = x 4 2x 5 = Les variables directrices sont x, x 3 et x 4 alors que les variables libres sont x 2 et x 5 Posons alors x 2 = s x 5 = t

18 8 CHAPITRE SYSTÈMES D ÉQUATIONS LINÉAIRES ET MATRICES On obtient x = s 3t x 3 = 2t x 4 = 2t L ensemble des solutions est donc x = s 3t, x 2 = s, x 3 = 2t, x 4 = 2t, x 5 = t, qui est bien infini

19 Chapitre 2 Eléments du calcul matriciel 2 Quelques définitions et opérations Définition 2 (Matrice Une matrice (réelle A est un tableau rectangulaire de nombres (réels Elle est dite de taille m n si le tableau posséde m lignes et n colonnes Les nombres du tableau sont appelés les éléments de A L élément situé à la i-ème ligne et à la j-ème colonne est noté a ij La matrice A est également notée A = (a ij i n j m ou plus simplement A = (a ij ij si le nombre de lignes et de colonnes est connu par ailleurs Exemple 22 A = ( est une matrice 2 3 avec, par exemple, a = et a 23 = 7 Si n = m, la matrice est dite carrée a a 2 a n a 2 a 22 a 2n a n a n2 a nn matrice carrée n n Dans le cas d une matrice carrée, les éléments a, a 22, a nn sont appelés les éléments diagonaux a a 2 a n a 2 a 22 a 2n a n a n2 a nn Deux matrices sont égales lorsqu elles ont la même taille et que les éléments correspondants sont égaux Définition 23 (Somme de deux matrices On peut définir la somme de deux matrices si elles sont de même taille Soient A etb deux matrices de taille m n On définit leur somme C = A + B, de taille m n, par c ij = a ij + b ij En d autres termes, on somme composante par composante 9

20 2 CHAPITRE 2 ELÉMENTS DU CALCUL MATRICIEL Exemple 24 A = A = ( ( ( 5, B = 2 ( 2, B = 8 ( 3 3, A + B = 3 6, A + B n est pas définie La matrice (de taille m n dont tous les éléments sont des zéros est appelée la matrice nulle et notée nm ou plus simplement C est l élément neutre pour l addition, c est-à-dire que A + = A Définition 25 (Produit d une matrice par un scalaire Le produit d une matrice A par un scalaire k est formé en multipliant chaque élément de A par k Il est noté ka Exemple 26 Soient A = ( Alors ka = et k = 3 ( La matrice ( A est notée A et la différence A B est définie par A + ( B Exemple 27 ( 2 A = ( 4 2 B = ( A B = 3 22 Le produit matriciel Le produit AB de deux matrices A et B est défini seulement si le nombre de colonnes de A est égal au nombre de lignes de B : Définition 28 (Produit de deux matrices Soit A = (a ij une matrice m n et B = (b ij une matrice n p Alors le produit C = AB est une matrice m p dont les éléments c ij sont définis par c ij = a i b j + a i2 b 2j + + a im b mj = AB = C : a a m a 2 a 22 a 2m a n a nm n a ik bkj k= b b r b 2 b m b mr c c r c 2 c n c nr c 2 = a 2 b + a 22 b a 2m b m

21 23 RÈGLES DU CALCUL MATRICIEL 2 Exemple 29 ( = (8 6 3 = ( Exemple ( 2 3 = Matrice identité Définition 2 La matrice carrée n n I n = s appelle la matrice identité Ses éléments diagonaux sont égaux à et tous ses autres éléments sont égaux à Dans le calcul matriciel, la matrice identité joue un réle analogue à celui du nombre dans l arithmétique des scalaires C est l élément neutre pour la multiplication En d autres termes, si A une matrice m n, alors 23 Règles du calcul matriciel I m A = A et AI n = A Sous l hypothèse que les tailles des matrices soient compatibles avec les opérations indiquées, on a les règles suivantes : (a Commutativité de la somme : A + B = B + A (b Associativité de la somme : A + (B + C = (A + B + C (c Associativité du produit : A(BC = (ABC (d Distributivité du produit par rapport à la somme : A(B + C = AB + AC (B + CA = BA + CA (e A + = A (f AI = IA = A (g A = A = ATTENTION! Le produit des matrices n est pas nécessairement commutatif On peut avoir AB BA Exemple 22 A = AB = ( 2 5 ( 2 2 B = BA = ( 2 3 ( 4 5 3

22 22 CHAPITRE 2 ELÉMENTS DU CALCUL MATRICIEL ATTENTION! Il peut arriver que le produit de deux matrices non nulles soit nul En d autres termes, on peut avoir A, B et AB = Exemple 23 A = ( 5 ( 2 3, B = et AB = ( Ce qui précède implique, par distributivité, que l on peut avoir AB = AC et B C Exemple 24 A = ( 3 ( 4, B =, C = 5 4 ( 5 4 AB = AC = 5 2 ( Ecriture matricielle des systèmes d équations linéaires Le système linéaire a x + a 2 x a n x n = b a 2 x + a 22 x a 2n x n = b 2 a m x + a m2 x a mn x n = b m peut s écrire sous forme matricielle : a a n x b a 2 a 2n x 2 b 2 = } a m {{ a mn } } x n {{ } } b m {{ } A x B On appelle A la matrice des coefficients du système Le vecteur x est une solution du système si et seulement si Ax = B Théorème 25 Un système d équations linéaires n a soit aucune solution, soit une seule solution, soit une infinité de solutions Démonstration Soit Ax = B la représentation matricielle du système On est nécessairement dans l un des cas ci-dessous : (a le système est incompatible (aucune solution ; (b le système a une seule solution ; (c le système a plusieurs solutions Pour démontrer le théorème, il suffit alors de montrer que dans le cas (c il y a une infinité de solutions Soient x et x 2 des solutions distinctes du système Alors Ax = B et Ax 2 = B Donc Ax Ax 2 = et A(x x 2 = Posons x = x x 2 On a x, car x x 2 et l expression x + kx est une solution du système pour tout nombre réel k En effet, A(x +kx = Ax +kax = B+

23 25 L INVERSION DES MATRICES 23 Théorème 26 Supposons que le système a y + a 2 y a n y n = c a 2 y + a 22 y a 2n y n = c 2 a m y + a m2 y a mn y n = c m détermine les variables y,, y n en fonction de constantes c,, c m, et que le système b x + b 2 x b p x p = y b 2 x + b 22 x b 2p x p = y 2 b n x + b n2 x b np x p = y n exprime les variables x,, x p en fonction des variables y,, y n Écrivons ces systèmes sous la forme compacte Ay = c, Bx = y Alors le système déterminant les variables x,, x p en fonction des constantes c,, c m est donné par (ABx = c Quelques cas particuliers Dans le cas particulier ù n = m = 2 (2 équations à 2 inconnues le système linéaire correspond à l intersection de deux droites dans le plan Nous avons vu, dans le chapitre, que trois cas pouvaient se présenter : les droites sont soit parallèles, soit sécantes, soit confondues et ces trois cas correspondent aux trois cas du théorème ci-dessus Si le système est homogène, les deux droites passent par le point (, et ne peuvent donc être parallèles Le cas sans solution est donc exclu Dans le cas ù l on a 2 équations (m = 2 à 3 inconnues (n = 3, ceci correspond à l intersection de deux plans dans l espace Trois cas se présentent alors : les plans sont parallèles et il n y a alors aucune solution au système ; les plans sont confondus et il y a une infinité de solutions au système ; les plans se coupent en une droite et il y a une infinité de solutions ; Du point de vue du nombre de solutions, nous constatons qu il n y a que deux possibilités, à savoir aucune solution ou une infinité de solutions Mais les deux derniers cas ci-dessus sont néanmoins très différents géométriquement et il semblerait que dans le second cas (plans confondus, l infinité de solutions soit plus grande que dans le troisième cas Les chapitres suivants nous permettront de rendre rigoureuse cette impression 25 L inversion des matrices Définition 27 (Matrice inverse Soit A une matrice carrée de taille n n S il existe une matrice carrée B de taille n n telle que AB = I et BA = I, on dit que A est inversible et on appelle B un inverse de A (on verra plus tard qu il suffit de vérifier une seule des conditions AB = I, BA = I Exemple 28 La matrice ( est inversible et un de ses inverses est ( 3 5 2

24 24 CHAPITRE 2 ELÉMENTS DU CALCUL MATRICIEL En effet, on a ( 2 ( = ( et ( ( = ( Exemple 29 La matrice n est pas inversible En effet, soit A = B = ( 3 5 ( b b 2 b 2 b 22 une matrice quelconque Alors le produit ( ( b b BA = 2 3 = b 2 b 22 5 ne peut jamais être égal à la matrice identité Théorème 22 Si B et C sont des inverses de A, alors B = C ( Démonstration On a I = AC = BA du fait que B et C sont des inverses de A ; donc B = BI = B(AC = (BAC = IC = C Si A est une matrice inversible, son inverse est noté A On a donc AA = I et A A = I 25 Matrices 2 2 Considérons les matrices 2 2 ( a b A = c d On vérifie que ( d b et B = c a ( AB = BA = (ad bc Donc A est inversible si ad bc, et on a alors ( A d b = ad bc c a 252 Puissances d une matrice Soit A une matrice n n On définit Si A est inversible, on définit A m = AA A } {{ } m facteurs A m = ( A m = A A A } {{ } m facteurs Théorème 22 Soit A une matrice inversible Alors

25 26 LES MATRICES ÉLÉMENTAIRES 25 (a A est inversible et (A = A ; (b A m est inversible et (c ka est inversible si k et (ka = k A (A m = } A A {{ A } m facteurs = (A m = A m ; Théorème 222 Soient A et B deux matrices n n inversibles Alors (a AB est inversible et (b (AB = B A Démonstration Il suffit de montrer Cela suit de (B A (AB = (AB(B A = I (B A (AB = B (AA B = B IB = B B = I, et (AB(B A = A(BB A = AIA = AA = I De façon analogue, on montre que si A,, A m sont inversibles, alors Exemple 223 A = B = (A A 2 A m = A m A m A ( ( A = B = ( ( ( 2 AB = 5 3 B A = ( ( ( ( 6 7 = 39 7 ( 7 7 = 39 6 On a alors bien ( (AB(B A 6 7 = 39 7 ( = ( = ( 26 Les matrices élémentaires Définition 224 (Matrice élémentaire On dit qu une matrice E est élémentaire si elle peut être obtenue par une seule opération élémentaire sur les lignes de la matrice identité (voir ( pour la définition des opérations élémentaires Il existe donc trois types de matrices élémentaires correspondant aux trois opérations élémentaires ( La matrice E i (c est la matrice élémentaire obtenue en multipliant par c la i-ème ligne de I n, ù c est un nombre réel non nul Exemple 225 E 2 (5 = 5

26 26 CHAPITRE 2 ELÉMENTS DU CALCUL MATRICIEL (2 La matrice E ij est la matrice élémentaire obtenue en permutant les i-ème et j-ème lignes de I n Exemple 226 E 24 = E 42 = (3 La matrice E ij (c est la matrice élémentaire obtenue en ajoutant c fois la j-ème ligne de I n à la i-ème ligne Exemple 227 E 2 ( 5 = 5 L opération élémentaire «permuter les lignes i et j» correspond à multiplier une matrice sur la gauche par la matrice élémentaire E ij ; et de même pour toutes autres opérations élémentaires C est ce qu indique le théorème suivant : Théorème 228 Si la matrice élémentaire E est le résultat d une opération élémentaire effectuée sur I m, alors pour toute matrice A de taille m n le produit matriciel EA est égal à la matrice obtenue en effectuant la même opération élémentaire sur A Ainsi, multiplier une matrice A sur la gauche par E ij revient à échanger les lignes i et j de A ; multiplier A sur la gauche par E i (c revient à multiplier la ligne i de A par c ; et multiplier A sur la gauche par E ij (c revient à ajouter c fois la ième ligne à la jéme Exemples : ( E (2 A = ( 2 ( ( a a 2 a 3 2a 2a = 2 2a 3 a 2 a 22 a 23 a 2 a 22 a 23 (2 (3 E 23 A = E 2 (9 A = 9 a a 2 a 2 a 22 a 3 a 32 a a 2 a 3 = = a a 2 a 3 a 32 a 2 a 22 a 9a + a 2 a 3 Les opérations élémentaires sur les lignes sont réversibles Ceci entraîne l inversibilité des matrices élémentaires Théorème 229 Toute matrice élémentaire est inversible En particulier, on a : [E ij (c] = E ij ( c E ij = E ij ( [E i (c] = E i c Exemple 23 On a E 2 ( 4 = ( 4 et E 2 (4 = ( 4 et ( 4 ( 4 = ( = ( 4 ( 4

27 27 CALCUL DE L INVERSE D UNE MATRICE 27 Définition 23 On dit que deux matrices sont équivalentes par lignes si l une peut être obtenue à partir de l autre par une suite d opérations élémentaires sur les lignes Théorème 232 Pour toute matrice A de taille n n, les affirmations suivantes sont équivalentes : (a A est inversible (b Le système AX = B a une et une seule solution pour toute matrice B de taille n Cette solution est donnée par X = A B (c AX = n a que la solution triviale X = (d A est équivalente par lignes à I n (e A est un produit de matrices élémentaires Démonstration (a (b Si A est inversible, on a les équivalences suivantes : ce qui prouve (b AX = B A AX = A B X = A B (b (c C est évident car (c est un cas particulier de (b avec B = (c (d Par hypothèse, le système AX = est équivalent au système X = X 2 = X n = La matrice associée à ce dernier système est la matrice identité La matrice A est donc équivalente par lignes à I n et ceci prouve le point (d (d (e On sait, par hypothèse, qu une succession d opérations élémentaires sur A conduit à la matrice I n Par le théorème 228, ceci signifie qu il existe des matrices élémentaires E, E r telles que E r E r E A = I n Comme une matrice élémentaire est inversible, ceci implique que A = E E 2 E r Mais l inverse d une matrice élémentaire est encore une matrice élémentaire et l on a le résultat cherché (e (a Ceci découle du fait que toute matrice élémentaire est inversible et que le produit de matrices inversibles est encore inversible 27 Calcul de l inverse d une matrice Le théorème précédent donne une méthode pour déterminer l inverse d une matrice inversible La méthode consiste à faire les opérations élémentaires mettant la matrice A sous la forme échelonnée réduite, qui est I n On fait ensuite les mémes opérations élémentaires sur la matrice I n On aboutit alors à A En pratique, on fait les deux opérations en même temps selon la procédure suivante : Former la matrice (A : I et effectuer sur cette matrice augmentée les opérations élémentaires mettant A sous la forme échelonnée réduite On obtient alors la matrice (I : A Exemple 233 Calculons l inverse de A =

28 28 CHAPITRE 2 ELÉMENTS DU CALCUL MATRICIEL (A : I = 4 : 2 : 2 2 : l 2 := l 2 4l 2 : 8 5 : : l 3 := l 3 + l 2 : 8 5 : : l 2 := 8 l 2 2 : 5/8 : /2 /8 4 3 : l 3 := l 3 4l 2 2 : 5/8 : /2 /8 /2 : /2 l 3 := 2l 3 2 : 5/8 : /2 /8 : 2 2 l 2 := l l 3 2 : 7 : : 2 2 l := l 2l 2 l : 2 7 : : 2 2 A =

29 28 MATRICES TRIANGULAIRES Matrices triangulaires Définition 234 Soit A une matrice de taille n n On dit que A est triangulaire inférieure si ses éléments au dessus de la diagonale sont nuls, autrement dit si i < j = a ij = Une matrice triangulaire inférieure a donc la forme suivante : a a 2 a 22 a n a n2 a nn On dit que A est triangulaire supérieure si ses éléments en dessous de la diagonale sont nuls, autrement dit si i > j = a ij = Une matrice triangulaire supérieure a donc la forme suivante : a a 2 a n a 22 a 2n a nn Exemple 235 Matrices triangulaires inférieures : ( 5 2 Exemple 236 Matrices triangulaires supérieures : ( 3 6 Définition 237 Une matrice qui est triangulaire inférieure et triangulaire supérieure est dite diagonale Exemple 238 Exemples de matrices diagonales : 6 et ( 2 3 Théorème 239 Une matrice A de taille n n, triangulaire, est inversible si et seulement si ses éléments diagonaux sont tous non nuls Démonstration Supposons que A est triangulaire supérieure Si les éléments de la diagonale sont tous non nuls, alors, en multipliant chaque ligne i par l inverse de l élément diagonal a ii, on obtient la forme échelonnée de A Elle ne contient que des sur la diagonale De ce fait, la forme échelonnée réduite de A sera la matrice identité Le théorème 232 permet de conclure que A est inversible

30 3 CHAPITRE 2 ELÉMENTS DU CALCUL MATRICIEL Inversement, supposons qu au moins l un des éléments diagonaux soit nul et notons a mm le premier élément nul de la diagonale En multipliant les lignes à m par l inverse de leur élément diagonal, on obtient une matrice de la forme a ll a nn où l = m + Il est alors clair que la colonne m de la forme échelonnée ne contiendra pas de directeur La forme échelonnée réduite de A ne peut donc pas être I n et par le théorème 232, A n est pas inversible Dans le cas d une matrice triangulaire inférieure, on utilise la transposition qui fait l objet de la section suivante et on obtient une matrice triangulaire supérieure On applique alors la démonstration ci-dessus 29 La transposition Soit A la matrice de taille m n a a 2 a n a 2 a 22 a 2n A = a m a m2 a mn Définition 24 On appelle matrice transposée de A, la matrice A T de taille n m définie par : a a 2 a m A T a 2 a 22 a m2 = a n a 2n a mn Autrement dit, la i-ème colonne de A T est la i-ème ligne de A, ou encore Exemple 24 a T ij = a ji ( 2 5 T = T 3 5 = 2 ( T 2 = (4 T = (4 2 5 ( ( 2 Théorème 242 L opération de transposition obéit aux règles suivantes : (a (A + B T = A T + B T (b (ka T = ka T (c (AB T = B T A T (d (A T T = A (e Si A est inversible, alors A T l est aussi et on a (A T = (A T qui sera notée A T

31 2 LA TRACE 3 2 La trace Soit A la matrice n n A = a a n a n a nn Définition 243 On appelle trace de A,et on note trace(a, le nombre obtenu en additionnant les éléments diagonaux de A Autrement dit, trace(a = a + + a nn Exemple 244 Soient A = ( 2 5 et B = Alors trace(a = = 7 et trace(b = =-7 Théorème 245 Soient A et B deux matrices n n Alors (a trace(a + B = trace(a + trace(b ; (b trace(λa = λ trace(a pour tout λ R ; (c trace(a T = trace(a ; (d trace(ab = trace(ba Démonstration (a Pour tout i n, (A + B ii = A ii + B ii Ainsi, on a bien trace(a + B = trace(a + trace(b (b On a trace(λa = λa + + λa nn = λ(a + + A nn (c Etant donné que la transposition ne change pas les éléments diagonaux, la trace de A est égale à la trace de A T (d On a Ainsi, AB ii = A i B i + A i2 B 2i + + A in B ni trace(ab = A B +A 2 B 2 + +A n B n + A 2 B 2 +A 22 B A 2n B n2 On peut réarranger les termes pour obtenir + A n B n +A n2 B 2n + +A nn B nn A B +A 2 B 2 + +A n B n + A 2 B 2 +A 22 B A n2 B 2n + A n B n +A 2n B n2 + +A nn B nn En utilisant la commutativité de la multiplication dans R, la premiére ligne devient B A + B 2 A B n A n qui vaut BA En faisant de même avec les autres lignes, on voit finalement que trace(ab = BA + + BA nn = trace(ba

32 32 CHAPITRE 2 ELÉMENTS DU CALCUL MATRICIEL 2 Matrices symétriques Définition 246 Une matrice A de taille n n est dite symétrique si elle est égale à sa transposée, c est-à-dire si A = A T ou encore si a ij = a ji pour tout i, j =,, n Exemple 247 Les matrices 5 2, 5 ( 2 2 4, I n et n,n sont symétriques Théorème 248 Pour une matrice B quelconque, les matrices BB T et B T B sont symétriques Démonstration Par le théorème 242, on a (BB T T = (B T T B T = BB T (B T B T = B T (B T T = B T B 22 Matrices antisymétriques Définition 249 Une matrice A de taille n n est dite antisymétrique si A T = A c est-à-dire si a ij = a ji pour tout i, j =,, n Exemple 25 (, (, Remarquons que les éléments diagonaux d une matrice antisymétrique sont toujours tous nuls Théorème 25 Toute matrice A de taille n n est la somme d une matrice symétrique B et d une matrice antisymétrique C Démonstration Posons B = (A + A T /2 et C = (A A T /2 On a alors A = B + C ; et B est symétrique, car B T = (A T + (A T T /2 = B ; et C est antisymétrique, car C T = (A T (A T T /2 = C Exemple 252 Soit ( 2 A = 8 3 ( ( 2 9 A = } {{ } } {{ } symétrique antisymétrique

33 Chapitre 3 Le déterminant 3 Permutations et déterminants Nous allons construire dans ce chapitre une fonction appelée le déterminant qui associe un nombre réel à chaque matrice carrée et qui permettra de caractériser facilement les matrices inversibles puisque ce sont celles dont le déterminant est non nul Exemple 3 Soit ( a b A = c d On a vu que si ad bc, alors A est inversible On a alors ( A d b = ad bc c a On définit alors le déterminant de A comme étant det(a = ad bc On va maintenant généraliser cette notion à des matrices carrées de taille n n Définition 32 On appelle permutation de l ensemble d entiers {,, n} un arrangement de ceuxci sans omissions ni répétitions Autrement dit, une permutation de {,, n} est une bijection de l ensemble {,, n} sur lui-mème Une permutation quelconque σ de {,, n} sera notée σ = (j, j 2,, j n où j = σ(, j 2 = σ(2,, j n = σ(n L ensemble de toutes les permutations de n éléments sera noté S n Exemple 33 Il y a deux permutations de l ensemble {, 2} : (, 2 est l identité car σ ( = et σ (2 = 2 σ = (, 2 et σ 2 = (2, Exemple 34 Il y a 6 permutations de l ensemble {, 2, 3} : (, 2, 3 (, 3, 2 (2,, 3 (3, 2, (2, 3, (3,, 2 Plus généralement, l ensemble {,, n} a n! = 2 n permutations En effet, il y a n possibilités pour le premier nombre, n possibilités pour le deuxième et ainsi de suite ce qui nous donne n(n (n 2 2 différents arrangements possibles des nombres, 2,, n 33

34 34 CHAPITRE 3 LE DÉTERMINANT Définition 35 Dans une permutation on a une inversion si un nombre plus grand précède un nombre plus petit De manière plus précise, le nombre d inversions d une permutation (j, j 2,, j n est la somme du nombre de successeurs de j plus petits que j, plus le nombre de successeurs de j 2 plus petits que j 2, plus le nombre de successeurs de j n plus petits que j n Exemple 36 La permutation (4, 2, 5, 3, contient 7 inversions En effet,il y a 3 successeurs plus petits que 4, successeur plus petit que 2, 2 successeurs plus petits que 5, successeur plus petit que 3 et pas de successeur plus petit que En additionnant ces nombres, on obtient bien 7 Exemple 37 La permutation contient = 8 inversions (6,, 3, 4, 5, 2 Définition 38 Une permutation ayant un nombre pair d inversions est appelée permutation paire, sinon elle est appelée permutation impaire On définit la signature de la permutation σ comme suit : { si σ est paire sign(σ = si σ est impaire Exemple 39 Classification des permutations de {, 2, 3} : Permutation Nbre d inversions Parité (, 2, 3 paire (, 3, 2 impaire (2,, 3 impaire (2, 3, 2 paire (3,, 2 2 paire (3, 2, 3 impaire Lemme 3 Soit n, i, j {,, n} avec i < j et σ S n Posons σ = (σ(,, σ(i, σ(j, σ(i +,, σ(j, σ(i, σ(j +,, σ(n Alors sign(σ = sign(σ «Démonstration» : Nous illustrons la méthode de la démonstration par un cas particulier Considérons les deux permutations de S 8 suivantes : σ = (, 2, 5, 7, 6, 3, 4, 8 et σ = (, 3, 5, 7, 6, 2, 4, 8 Pour calculer leur signature, il faut calculer le nombre d inversions de σ et de σ On voit que, 4 et 8 ont le même nombre de successeurs plus petits dans σ et σ Pour passer de σ à σ, on permute 2 et 3 Dans σ, 3 n est pas un successeur de 2 plus petit, alors que dans σ, 2 est un successeur de 3 plus petit Dans σ, 5 n est pas un successeur de 2 plus petit, mais 3 est un successeur de 5 plus petit,alors que dans σ, 5 n est pas un successeur de 3 plus petit, mais 2 est un successeur de 5 plus petit En répétant le même raisonnement avec 7 et 6, on remarque que le nombre de successeurs de 5, 7 et 6 plus petits est le même que cela soit dans σ ou dans σ Globalement, on voit donc que σ a une et une seule inversion de plus que σ Ainsi, leurs signatures sont opposées

35 3 PERMUTATIONS ET DÉTERMINANTS 35 Définition 3 Soit A = a a n a n a nn une matrice carrée de taille n n Un produit élémentaire de A est le produit de n éléments de A, choisis de façon qu aucun couple d entre eux ne provienne de la méme ligne ou de la même colonne Autrement dit, tous les éléments du produit sont dans des lignes et des colonnes différentes Exemple 32 Les produits élémentaires de la matrice ( a a A = 2 a 2 a 22 sont a a 22 et a 2 a 2 Les produits élémentaires de a a 2 a 3 A = a 2 a 22 a 23 a 3 a 32 a 33 sont : a a 22 a 33 a a 32 a 23 a 2 a 2 a 33 a 2 a 32 a 3 a 3 a 2 a 23 a 3 a 22 a 3 Plus généralement, à partir d une matrice de taille n n, on peut former n! produits élémentaires En effet, on constate qu un produit élémentaire de A n est rien d autre qu un produit a j a 2j2 a njn où (j, j 2,, j n est un élément de S n Définition 33 Un produit élémentaire signé d une matrice A est un produit sign(σ a j a 2j2 a njn où σ = (j, j 2,, j n est une permutation à n éléments Exemple 34 Les produits élémentaires signés de ( a a 2 a 2 a 22 sont a a 22 (la permutation (, 2 est paire et a 2 a 2 (la permutation (2, est impaire Les produits élémentaires signés de a a 2 a 3 a 2 a 22 a 23 a 3 a 32 a 33 sont a a 22 a 33, a a 23 a 32, a 2 a 2 a 33, a 2 a 23 a 3, a 3 a 2 a 32 et a 3 a 22 a 3 Définition 35 Le déterminant d une matrice A est le nombre obtenu en effectuant la somme de tous les produits élémentaires signés de A Il est noté det(a Autrement dit, det(a = σ S n sign(σ a i a nin, où σ = (i,, i n Exemple 36 A = ( a a 2 a 2 a 22 det(a = a a 22 a 2 a 2

36 36 CHAPITRE 3 LE DÉTERMINANT Exemple 37 A = a a 2 a 3 a 2 a 22 a 23 a 3 a 32 a 33 det(a = sign((, 2, 3a a 22 a 33 + sign((2, 3, a 2 a 23 a 3 + sign((3,, 2a 3 a 2 a 32 + sign((3, 2, a 3 a 22 a 3 + sign((2,, 3a 2 a 2 a 33 + sign((, 3, 2a a 23 a 32 = a a 22 a 33 + a 2 a 23 a 3 + a 3 a 2 a 32 a 3 a 22 a 3 a 2 a 2 a 33 a a 23 a 32 Théorème 38 Si A est une matrice ayant une ligne formée de zéros, alors det(a = Démonstration Par définition, le déterminant est la somme des produits élémentaires signés de A Mais chacun de ces produits élémentaires contient un élément nul provenant de la ligne de zéros de A Donc det(a = Théorème 39 Le déterminant d une matrice A triangulaire (inférieure ou supérieure est égal au produit a a 22 a 33 a nn des éléments diagonaux Démonstration Le seul produit élémentaire signé non nul est a a 22 a nn La permutation correspondante est (, 2,, n qui contient inversions et qui est donc une permutation paire On a donc bien det(a = a a 22 a 33 a nn Examinons maintenant ce qui se passe si deux lignes de la matrice sont égales Exemple 32 Soit A = a b c a b c d e f, on a det(a = abf abf + ace ace + bcd bcd = et l on remarque que tous les produits élémentaires apparaissent deux fois avec des signes opposés (cf lemme 3 Ceci nous amène au théorème suivant : Théorème 32 Soit A une matrice avec deux lignes égales Alors det(a = Démonstration Dans le déterminant d une telle matrice, tous les produits élémentaires apparaissent deux fois, avec des signes opposés Donc det(a = 3 Méthode pour calculer des déterminants de matrices de taille 2 2 et 3 3 Nous décrivons ici la règle de Sarus pour calculer des déterminants 2 2 et 3 3 Matrice 2 2 a a 2 a 2 a 22 + det(a = a a 22 a 2 a 2

37 32 DÉTERMINANTS ET OPÉRATIONS ÉLÉMENTAIRES 37 Matrice 3 3 On recopie les colonnes et 2 à la suite de la colonne 3 et on calcule comme suit : a a 2 a 3 a a 2 a 2 a 22 a 23 a 3 a 32 a 2 a 22 a 33 a 3 a det(a = a a 22 a 33 + a 2 a 23 a 3 + a 3 a 2 a 32 a 3 a 22 a 3 a 32 a 23 a a 33 a 2 a 2 Exemple 322 Calculer det donc det = ATTENTION : Cette méthode ne s applique pas pour les matrices de dimensions supérieures é 3 32 Déterminants et opérations élémentaires Nous allons voir que la réduction d une matrice à la forme échelonnée nous fournit une méthode efficace pour calculer son déterminant Théorème 323 Soit A une matrice de taille n n, et soit E une matrice élémentaire (E = E i (k, E ij ou E ij (k Alors ( det(e i (k = k (2 det(e ij = (3 det(e ij (k = (4 det(ea = det(e det(a Démonstration ( Soit k R, k Rappelons que E i (k = k det(e i (k = σ S n sign(σ a j a njn, où σ = (j,, j n

38 38 CHAPITRE 3 LE DÉTERMINANT Comme il n y a qu un seul élément non nul dans chaque ligne et dans chaque colonne, le seul produit élémentaire non nul est k = k De plus, la permutation (, 2,, n n a pas d inversion Sa signature est donc Ainsi det(e i (k = k (2 Sans perte de généralité, on peut supposer que i < j On a E ij = Comme avant, il y a un seul produit produit élémentaire non nul, qui vaut Le déterminant sera donc ± Il reste à déterminer la signature de la permutation (, 2,, (i, j, (i +, (i + 2,, (j, i, (j +,, n j a (j successeurs plus petits Les nombres compris entre (i + et (j ont chacun un succeseur plus petit Or, il y a (j nombres entre i et j Ainsi, le nombre d inversions de la permutation est (j i + (j i = 2j 2i C est un nombre impair La signature est donc et le déterminant de E ij est (3 En écrivant la matrice E ij (k, on voit que le seul produit élémentaire non nul est et que la signature de la permutation à étudier est celle de (, 2,, n C est une permutation paire, ce qui implique que det(e ij (k = (4 Pour montrer que det(ea = det(a det(e, nous allons considérer trois cas, E = E i (k, E = E ij et E = E ij (k Premier cas E = E i (k, k et A = (a ij EA = a a 2 a n a 2 a 22 a 2n ka i ka i2 ka in a n a n2 a nn Le déterminant est la somme des produits élémentaires signés Chaque produit élémentaire a exactement un élément de chaque ligne,en particulier un élément de la i-ème ligne Ainsi, dans chaque terme de la somme, on peut mettre k en évidence Finalement, det(ea = k σ S n sign(σa σ( a nσ(n = det(e det(a

39 32 DÉTERMINANTS ET OPÉRATIONS ÉLÉMENTAIRES 39 Deuxième cas E = E ij On peut supposer que i < j Posons B = E ij A On a a a 2 a n a j a j2 a jn E ij A = a i a i2 a in a n a n2 a nn Les produits élémentaires de B et de A sont les mêmes Comme det(e ij =, pour montrer que det(e ij A = det(e ij det(a il faut montrer que les produits élémentaires signés de A et de B sont opposés Par définition du déterminant, det(b = σ S n sign(σ b σ( b iσ(i b jσ(j b nσ(n = σ S n sign(σ a σ( a jσ(i a iσ(j a nσ(n La deuxième égalité vient du fait que la i-ème ligne de B est la j-ème ligne de A (et réciproquement Posons σ = (σ(,, σ(i, σ(j, σ(i +,, σ(j, σ(i, σ(j +,, σ(n σ est la composition de σ avec la permutation qui échange i et j Par le lemme 3, sign(σ = sign(σ Ainsi det(b = σ S n ( sign(σ a σ ( a nσ (n = σ S n sign(σ a σ ( a nσ (n = det(a Troisième cas E = E ij (k On peut supposer que i < j Posons C = E ij (ka On a a a n a i + ka j a in + ka jn C = a j a jn a n a nn Alors, det(c = σ S n sign(σ b σ( b nσ(n = σ S n sign(σ a σ( a (i σ(i (a iσ(i + ka jσ(i a (i+σ(i+ a nσ(n = σ S n sign(σ a σ( a nσ(n + k σ S n sign(a σ( a (i σ(i a jσ(i a (i+σ(i+ a nσ(n } {{ } =α = det(a + k α

40 4 CHAPITRE 3 LE DÉTERMINANT Comme det(e ij (k =, pour montrer que det(c = det(a det(e ij (k, il suffit de montrer que α = Mais, a a n a (i a (i n α = det a j a jn a (i+ a (i+n a n a nn et la i-ème ligne de cette matrice est a j a jn Elle a donc deux lignes identiques (la i-ème et la j-ème, ce qui implique que α = Ce théorème nous permet de calculer le déterminant d une matrice de façon relativement simple, en utilisant l algorithme de Gauss pour réduire la matrice à la forme échelonnée (qui est triangulaire et en utilisant les théorèmes 323 et 39 En effet, si A = E E r D où D = (d ij est une matrice échelonnée (triangulaire Alors det(a = det(e det(e r det(d = det(e det(e r d d 22 d nn Exemple 324 Calculer det(a, où A = det(a = det = ( det = ( 3 det = ( 3 det = ( 3 det = ( 3( 55 det = ( 3( 55 = Exemple 325 Soit A =

41 32 DÉTERMINANTS ET OPÉRATIONS ÉLÉMENTAIRES 4 Alors, en soustrayant deux fois la ligne à la ligne 2, on obtient det(a = det = Notation : Pour toute matrice carrée A, on note A = det(a Théorème 326 Soit A une matrice carrée Alors A est inversible si et seulement si det(a On a, dans ce cas, det(a := det(a Démonstration Supposons d abord que A est inversible On peut alors écrire A comme produit de matrices élémentaires, A = E E r En appliquant successivement le théorème 323, on a det(a = det(e E r = det(e det(e 2 E r = = det(e det(e r Comme le déterminant d une matrice élémentaire n est jamais nul, on en déduit que le déterminant de A n est pas nul Ensuite, A = Er E, et on vérifie aisément que det(e = det(e pour toute matrice élémentaire E On a donc det(a = det(e r det(e, et donc det(a = det(a Réciproquement, supposons que det(a Nous montrerons qu alors A est équivalente par lignes à I, ce qui implique, par le théorème 232, que A est inversible Soit R la forme échelonnée réduite de A On peut donc trouver des matrices élémentaires E,, E k telles que On en déduit que E k E A = R, ou encore A = E E k R A = E E k R Mais par hypothèse A Donc R On en déduit que chaque ligne de R contient un directeur Donc R = I Le théorème suivant est essentiel et nous affirme que le déterminant est multiplicatif : Théorème 327 Soient A et B deux matrices de taille n n Alors det(ab = det(a det(b Démonstration Si A et B sont les deux inversibles, on les écrit comme produit de matrices élémentaires : A = E E r et B = F F s On a alors det(ab = det(e E r F F s = det(e det(e 2 E r F F s = = det(e det(e r det(f F s = det(e E r det(f F s = det(a det(b Si A ou B n est pas inversible, alors AB n est pas inversible non plus ; et det(ab = Le déterminant est invariant par transposition :

42 42 CHAPITRE 3 LE DÉTERMINANT Théorème 328 Soit A une matrice de taille n n Alors det(a = det(a T Autrement dit, le déterminant d une matrice est égal à celui de sa transposée Démonstration La démonstration se fait comme ci-dessus : supposons d abord que A est inversible On peut alors l écrire comme produit de matrices élémentaires, A = E E r On a alors A T = E T r E T et A T = E T r E T = E r E = A D autre part, si A n est pas inversible, alors A T n est pas inversible non plus, et A = A T = Comme la transposition transforme une ligne en une colonne (et réciproquement, ce thèorème nous permet de formuler le principe suivant : Principe 329 Pour toute propri`té des déterminants où il est question des lignes de la matrice, on a une propriété analogue concernant les colonnes de la matrice Résumé des résultats sur le déterminant A matrice carrée de taille n n det(a = sign(σa,j a n,jn où σ = (j,, j n Si A a une ligne nulle, alors det(a = Si A a deux lignes égales, alors det(a = Si A est une matrice triangulaire (inférieure ou supérieure alors det(a est le produit de ses éléments diagonaux A = a a nn ou det(a = a a nn a a nn det(ab = det(a det(b det(a T = det(a A est inversible si et seulement si Si A est inversible, alors det(a det(a = det(a Matrices élémentaires : det(e i (k = k det(e ij = det(e ij (k = 33 Les cofacteurs et la règle de Cramer Définition 33 (Mineur et cofacteur Soit A = (a ij une matrice de taille n n On appelle mineur de l élément a ij le déterminant de la sous-matrice obtenue en éliminant la i-ème ligne et la j-ème colonne de la matrice A On le note M ij On appelle cofacteur de a ij la quantité C ij = ( i+j M ij

43 33 LES COFACTEURS ET LA RÈGLE DE CRAMER 43 a a 2 a ij a n a 2 a 22 a 2j a 2n A = a i a ij a ij a in a n a n2 a nj a nn M ij = det Exemple 33 Soit Calculons M, C, M 32, C 32 : a a,j a,j+ a n a i a i,j a i,j+ a i,n a i+ a i+,j a i+,j+ a i+,n a n a n,j a n,j+ a n,n A = M = = 2 = C = ( + M = M 32 = = 3 4 = C 32 = ( 3+2 ( = Pour déterminer si C ij = M ij ou C ij = M ij, on peut utiliser le schéma suivant : A = C = M, C 2 = M 2, C 2 = M 2, etc 33 Calcul du déterminant par la méthode des cofacteurs Soit A une matrice de taille 3 3

44 44 CHAPITRE 3 LE DÉTERMINANT Nous savons que A = a a 2 a 3 a 2 a 22 a 23 a 3 a 32 a 33 On peut le réécrire de la manière suivante : det(a = a a 22 a 33 + a 2 a 23 a 3 +a 3 a 2 a 32 a 3 a 22 a 3 a 2 a 2 a 33 a a 23 a 32 det(a = a (a 22 a 33 a 23 a 32 +a 2 (a 23 a 3 a 2 a 33 +a 3 (a 2 a 32 a 22 a 3 Les termes entre parenthèses sont les cofacteurs des éléments a, a 2, a 3 Donc Exemple 332 det(a = a C + a 2 C 2 + a 3 C 3 A = det(a = C + 2C 2 + 3C 3 = ( 4 = = 5 De manière analogue, on obtient det(a = a C + a 2 C 2 + a 3 C 3 = a 2 C 2 + a 22 C 22 + a 23 C 23 = a 3 C 3 + a 32 C 32 + a 33 C 33 Nous avons vu que les propriétés du déterminant relatives aux lignes conduisent à des propriétés analogues relatives aux colonnes On a donc aussi : det(a = a C + a 2 C 2 + a 3 C 3 = a 2 C 2 + a 22 C 22 + a 32 C 32 = a 3 C 3 + a 23 C 23 + a 33 C 33 Ces expressions sont appelées les développements du déterminant en cofacteurs par rapport aux lignes, respectivement aux colonnes, de la matrice A Pour une matrice A de taille n n, on a les développements en cofacteurs analogues Nous résumons ceci dans le théorème suivant : Théorème 333 (Déterminant par la méthode des cofacteurs Développement par rapport à la i-ème ligne : Développement par rapport à la j-ème colonne : det(a = a i C i + a i2 C i2 + + a in C in det(a = a j C j + a 2j C 2j + + a nj C nj

45 33 LES COFACTEURS ET LA RÈGLE DE CRAMER Calcul de l inverse par la méthode des cofacteurs Reprenons la formule du déterminant développé selon la i-ème ligne : a i C i + a i2 C i2 + + a in C in Remplaçons les éléments a ij obtenons par ceux d une autre ligne, disons la k-ème, avec k i Nous Cette expression est égale à zéro Autrement dit, a k C i + a k2 C i2 + + a kn C in Théorème 334 a k C i + a k2 C i2 + + a kn C in = si k i «Démonstration» : Nous allons le vérifier dans le cas particulier où n = 3 La démonstration est analogue dans le cas général Soit a a 2 a 3 A = a 2 a 22 a 23 a 3 a 32 a 33 Remplaçons la 3-ème ligne par la -ère On obtient a a 2 a 3 A = a 2 a 22 a 23 a a 2 a 3 On a det(a =, car A a deux lignes égales Calculons det(a par développement en cofacteurs par rapport à la 3ème ligne On a : où C ij sont les cofacteurs de la matrice A Mais det(a = a C 3 + a 2 C 32 + a 3 C 33 C 3 = C 3, C 32 = C 32, et C 33 = C 33 On a donc det(a = a C 3 + a 2 C 32 + a 3 C 33 = En résumé, on a a k C i + a k2 C i2 + + a kn C in = { det(a si i = k si i k Considérons maintenant la matrice des cofacteurs C C 2 C n C 2 C 22 C 2n C = C n C n2 C nn et calculons AC T = a a 2 a n a 2 a 22 a 2n a i a i2 a in a n a n2 a nn C C 2 C n C 2 C 22 C n2 C n C 2n C nn

46 46 CHAPITRE 3 LE DÉTERMINANT Dans le produit AC T, l élément de la i-ème ligne et de la j-ème colonne est a i C j + a i2 C j2 + + a in C jn Par ce qui précéde, on a donc AC T = det(a det(a det(a = det(a I On en déduit que si det(a, c est-à-dire si A est inversible, alors on a A = det(a CT On a ainsi une formule explicite pour calculer A On appelle C T la matrice adjointe de A Elle est notée adj(a Théorème 335 Soit A une matrice carrée avec det(a On a alors A = det(a adj(a Exemple 336 On a det(a = 2 La matrice formée des M ij est A = M = La matrice des signes est La matrice des cofacteurs est On a donc Donc A = C = adj(a = C T = A = 2

47 33 LES COFACTEURS ET LA RÈGLE DE CRAMER Systèmes linéaires : règle de Cramer Le théorème suivant, appelé règle de Cramer, donne une formule explicite pour la solution de certaines systèmes d équations linéaires Soit a x + a 2 x a n x n = b a 2 x + a 22 x a 2n x n = b 2 a n x + a n2 x a nn x n = b n un système d équations linéaires à n équations et n inconnues Ce système peut aussi s écrire AX = B où a a 2 a n x b a 2 a 22 a 2n x 2 A = a n a n2 a nn, X = x n et B = b 2 La matrice A est appelée la matrice des coefficients du système et la matrice B est appelée le second membre Définissons A j par A j = a a,j b a,j+ a n a 2 a 2,j b 2 a 2,j+ a 2n a n a n,j b n a n,j+ a nn jème colonne Autrement dit, A j est la matrice obtenue en remplaèccant la j-ème colonne de A par le second membre B La règle de Cramer va nous permettre de calculer la solution du système dans le cas où det(a en fonction des déterminants des matrices A et A j Théorème 337 (Règle de Cramer Soit AX = B un système de n équations à n inconnues Supposons que det(a Alors l unique solution du système est donnée par Démonstration Nous avons supposé que x = det(a det(a, x 2 = det(a 2 det(a,, x n = det(a n det(a det(a b n Donc A est inversible Alors X = A B est l unique solution du système D autre part, nous avons vu que A = det(a adj(a Donc X = det(a adj(ab

48 48 CHAPITRE 3 LE DÉTERMINANT Autrement dit, X = x x n = = det(a det(a C C n b C n C nn b n C b + C 2 b C n b n C n b + C 2n b C nn b n, c est- à -dire Mais x = C b + + C n b n det(a x i = C ib + + C ni b n det(a x n = C nb + + C nn b n det(a b C i + + b n C ni est le développement en cofacteurs de det(a i par rapport à sa i-ème colonne Donc x i = det(a i det(a Exemple 338 Résolvons le système suivant : x + 2x 3 = 6 3x + 4x 2 + 6x 3 = 3 x 2x 2 + 3x 3 = 8 On a A = A 2 = A = A 3 = et det(a = 44 det(a = 4 det(a 2 = 72 det(a 3 = 52 La solution est alors x = det(a det(a = 4 44 = x 2 = det(a2 det(a = = 8 x 3 = det(a3 det(a = = 38

49 Chapitre 4 Calcul vectoriel dans le plan et dans l espace 4 Définitions et règles de calcul Un vecteur est un segment orienté dans le plan ou dans l espace de dimension 3 v A B v = AB On appelle module du vecteur la longueur du segment AB Le support du vecteur v est par définition la droite passant par A et B Deux vecteurs ont la même direction si leurs supports sont parallèles Deux vecteurs ayant la même direction ont le même sens s ils sont orientés de la même façon : Deux vecteurs sont dits équivalents si l on peut les superposer par une translation Par la suite, deux vecteurs équivalents seront considérés comme égaux Un vecteur est ainsi déterminé par son module, sa direction et son sens Dans le calcul vectoriel, on pourra donc faire des translations sans changer le vecteur On définit la somme de deux vecteurs v et w par la règle du parallelogramme : w v v+w w v 49

50 5 CHAPITRE 4 CALCUL VECTORIEL DANS LE PLAN ET DANS L ESPACE On place l origine de w sur l extrémité de v Le vecteur v +w est alors le segment orienté joignant l origine de v à l extrémité de w Remarquons que v + w = w + v Le produit d un vecteur v par un scalaire k est le vecteur kv défini par les propriétés suivantes : son module est égal à k fois le module de v sa direction est celle de v son sens est celui de v si k > et le sens opposé si k < Exemple 4 v 3v 2v L opposé du vecteur v est le vecteur v et la différence de deux vecteurs v et w est définie par v w = v + ( w 4 Systèmes de coordonnées Si l on choisit un système de coordonnées pour le plan (resp pour l espace, un vecteur peut alors s écrire en composantes : ( v v v =, respectivement v = v v 2 2 v 3 y v 2 O v v x Figure 62 Dans cette représentation, l origine du vecteur est toujours le point O = (, intersection des axes de coordonnées x et y Dans le cas de l espace à 3 dimensions, on choisit toujours un système d axes orienté positivement comme le montre la figure ci-dessous : La somme de deux vecteurs et le produit d un vecteur par un scalaire se calculent comme suit (nous donnons les formules pour des vecteurs de l espace, le cas du plan étant similaire : Si v = ( v v 2 et w = v 3 ( w w 2 alors w 3 v + w = v + w v 2 + w 2, v 3 + w 3 kv kv = kv 2 kv 3

51 4 DÉFINITIONS ET RÈGLES DE CALCUL 5 z v 3 v v v2 x v Figure 64 : v = v 2 v 3 y x Figure 65 : y a l orientation positive z

52 52 CHAPITRE 4 CALCUL VECTORIEL DANS LE PLAN ET DANS L ESPACE et v = v v 2 v 3 42 Propriétés du calcul vectoriel Théorème 42 (a u + v = v + u (b (u + v + w = u + (v + w (c u + = + u = u (d u + ( u = (e k(lu = (klu (f k(u + v = ku + kv (g (k + lu = ku + lu Soit v un vecteur On note v son module C est un nombre positif ou nul qui est aussi appelé la norme de v Si u = ( u u 2 alors u = u 2 + u2 2 et, de même, si u = ( u u 2 alors u 3 u = Ceci découle du théorème de Pythagore Un vecteur de norme est appelé vecteur unité 42 Le produit scalaire u 2 + u2 2 + u2 3 On va définir le produit scalaire de deux vecteurs u et v dans le plan ou dans l espace de dimension 3 Le produit scalaire de deux vecteurs est un scalaire Soient u = ( u u 2 et v = ( v v 2 deux vecteurs dans le plan On définit le produit scalaire par u v = u v + u 2 v 2 ( u Soient u = u 2 et v = ( v,v 2,v 3 deux vecteurs dans l espace de dimension 3 On définit le produit u 3 scalaire par Le produit scalaire a les propriétés suivantes : Théorème 43 (2 λu v = λ(u v ( u v = v u (3 (u + v w = u w + v w (4 u u (5 u u = si et seulement si u = (6 u u = u 2 u v = u v + u 2 v 2 + u 3 v 3 Démonstration Ces propriétés sont des conséquences immédiates de la définition Par exemple, si u = ( u u 2 alors u u = u 2 + u 2 2 Mais et donc ce qui démontre (6 u = u 2 + u2 2 u u = u 2,

53 42 LE PRODUIT SCALAIRE 53 Nous rappelons maintenant un résultat de trigonométrie Considérons le triangle suivant : b c α β γ a On a alors Théorème 44 (Théorème du cosinus Soient a, b, c les côtés d un triangle et α, β, γ ses angles comme dans la figure ci-dessus Alors a 2 = b 2 + c 2 2 b c cos(α Démonstration Soit H le pied de la hauteur issue du sommet C A H b c α β B γ a C Appliquons le théorème de Pythagore dans le triangle rectangle BCH : a 2 = BH 2 + CH 2 Or, CH = b sin(α et BH = c b cos(α Ainsi a 2 = c 2 2 b c cos(α + b 2 cos 2 (α + b 2 sin 2 (α = b 2 + c 2 2 b c cos(α Théorème 45 Soient u et v deux vecteurs non nuls, et soit θ l angle qu ils forment Alors u v = u v cos(θ Démonstration On a v u 2 = (v u (v u = v v + u u 2u v = v 2 + u 2 2u v Par le théorème du cosinus, on a : v u 2 = v 2 + u 2 2 u v cos(θ Donc Ceci démontre le théorème u v = u v cos(θ

54 54 CHAPITRE 4 CALCUL VECTORIEL DANS LE PLAN ET DANS L ESPACE u v u θ v Figure 68 Théorème 46 Soient u et v deux vecteurs non nuls Alors u et v sont orthogonaux si et seulement si u v = Démonstration Comme u v = u v cos(θ on a u v = si et seulement si cos(θ = et donc si et seulement si θ = π 2 si u et v sont orthogonaux et donc si et seulement Remarque 47 On convient en général que le vecteur nul est orthogonal à tous les vecteurs Ainsi, l énoncé du théorème 46 reste vrai, même si l un des deux vecteurs est nul, bien que l angle θ entre u et v ne soit pas défini 42 Projection orthogonale u v Figure 69 La projection (orthogonale de u sur v est notée proj v u Le théorème suivant nous donne le lien entre la projection et le produit scalaire : Théorème 48 proj v u = u v v 2 v Posons w = proj v u Comme w est parallèle à v, on peut l écrire w = lv pour un certain scalaire l On a : u = w + w 2

55 43 LE PRODUIT VECTORIEL (CROSS PRODUCT 55 w u 2 w v Figure 6 Démonstration Calculons le produit scalaire avec v On a : u v = (w + w 2 v = = w v + w 2 v Mais w 2 v =, car w 2 et v sont orthogonaux Il reste alors u v = w v = (lv v = = l v v = l v 2 d où On a donc l = u v v 2 proj v u = u v v 2 v Théorème 49 Soit θ l angle formé par les vecteurs u et v Alors proj v u = u cos(θ Démonstration Par les théorèmes 48 et 45, on a u v u v proj v u = v = v 2 v = u v cos(θ = u cos(θ v 43 Le produit vectoriel (cross product Le produit vectoriel associe à deux vecteurs de l espace u et v un troisième vecteur, noté u v, et défini de la façon suivante : ( u ( v Définition 4 Soient u = u 2 et v = v 2 deux vecteurs Leur produit vectoriel est le vecteur u 3 v 3 u v défini par

56 56 CHAPITRE 4 CALCUL VECTORIEL DANS LE PLAN ET DANS L ESPACE u v = = u 2 v 3 u 3 v 2 u 3 v u v 3 u v 2 u 2 v u 2 v 2 u 3 v 3 u v u 3 v 3 u v u 2 v 2 Alors Posons i =, j =, et k = u v = i u v j u 2 v 2 k u 3 v 3 Le produit vectoriel satisfait les propriétés suivantes : Théorème 4 Si u, v et w sont des vecteurs dans l espace de dimension 3, on a : (a u (u v = (b v (u v = u v est orthogonal à u u v est orthogonal v (c u v 2 = u 2 v 2 (u v 2 (d u (v w = (u wv (u vw identité de Lagrange (e (u v w = (u wv (v wu ( u ( v Démonstration (a Soient u = u 2 et v = v 2 Alors u 3 v 3 u u 2 v 3 u 3 v 2 u (u v = u 2 u 3 v u v 3 = u 3 u v 2 u 2 v = u (u 2 v 3 u 3 v 2 + u 2 (u 3 v u v 3 + u 3 (u v 2 u 2 v = (b calcul similaire à (a (c On a et = u u 2 u 3 u u 3 v 2 + u 2 u 3 v u u 2 v 3 + u u 3 v 2 u 2 u 3 v = u v 2 = (u 2 v 3 u 3 v (u 3 v u v (u v 2 u 2 v 2 u 2 v 2 (u v 2 = (u 2 + u u 3 3(v 2 + v v 2 3 (u v + u 2 v 2 + u 3 v 3 2 et un calcul direct montre que les deux termes de droites sont égaux (d Les égalités (d et (e se montrent de manière similaire Le produit vectoriel est bilinéaire et anti-symétrique En d autres termes, on a Théorème 42 (a u v = (v u (b u (v + w = (u v + (u w (c (u + v w = (u w + (v w (d k(u v = (ku v = u (kv (e u = u =

57 43 LE PRODUIT VECTORIEL (CROSS PRODUCT 57 (f u u = La notion de produit vectoriel est liée à celle de colinéarité par le théorème suivant : Théorème 43 Soient u et v deux vecteurs non nuls de l espace de dimension 3 Les affirmations ( et (2 sont équivalentes : ( u et v sont colinéaires (c est-à-dire u = lv (2 u v = Démonstration ( = (2 : Supposons que u = lv Alors u v = (lv v = l(v v = ce qui démontre (2 Montrons maintenant l implication inverse (2 = ( : Soient u = ( u2v 3 u 3v 2 u v = u 3v u v 3 Supposons que u v = On a donc u v 2 u 2v u 2 v 3 u 3 v 2 = u 3 v u v 3 = u v 2 u 2 v = er cas : Si u et u 2 = u 3 =, les équations deviennent = u v 3 = u v 2 = Comme u, ceci entraîne v 2 = v 3 = et donc u = v = ( u ( v ( u u 2 u 3 et v = ( v v 2 v 3 et Comme v est non nul, on a v, d où u = lv avec l = u v ce qui démontre ( 2ème cas : Supposons maintenant que u et u 2 Si v 2 = la -ère équation devient u 2 v 3 = u 3 v 2 = Comme u 2, ceci entraîne v 3 = Comme par hypothèse v est non nul, on doit avoir v Alors par la 3ème équation, on a u v 2 = u 2 v ce qui implique v 2 ce qui est absurde Ainsi, on a donc v et v 2 Posons l = u v Alors la 3-ème équation donne u 2 v 2 = l et par la 2ème équation on a u 3 v = u v 3 ce qui implique En conclusion, on a ce qui démontre (2 u 3 = u v v 3 = lv 3 u = l v

58 58 CHAPITRE 4 CALCUL VECTORIEL DANS LE PLAN ET DANS L ESPACE 43 Interprétation géométrique du produit vectoriel Nous avons vu que u v 2 = u 2 v 2 (u v 2 (identité de Lagrange Soit θ l angle formé par u et v Alors on a : u v = u v cos(θ On a donc u v 2 = u 2 v 2 u 2 v 2 cos 2 θ = u 2 v 2 ( cos 2 θ = u 2 v 2 sin 2 θ On obtient donc Théorème 44 Démonstration Comme on a u v = u v sin(θ θ π sin(θ et donc l égalité cherchée Considérons maintenant un parallélogramme dont les côtés sont les vecteurs u et v : v ϑ h u Figure 62 : h = v sin(θ L aire A de ce parallélogramme se calcule de la façon suivante : A = (base (hauteur = u v sin(θ = u v On obtient donc le théorème suivant qui donne une interprétation géométrique du produit vectoriel de deux vecteurs : Théorème 45 La norme u v est égale à l aire du parallèlogramme déterminé par u et v En résumé, u v est un vecteur perpendiculaire à u et v, et de longueur (norme égale à l aire du parallèlogramme déterminé par u et v De plus, l orientation du triplet (u, v, u v est positive

59 44 LE PRODUIT MIXTE (TRIPLE PRODUCT 59 u v v u Figure Le produit mixte (triple product Définition 46 Soient u, v et w des vecteurs de l espace de dimension 3 On définit le produit mixte des vecteurs u, v et w par [u, v, w] = u (v w C est un scalaire Si u = ( u u 2, v = u 3 ( v v 2 et w = v 3 ( w w 2 alors w 3 [u, v, w] = u (v w ( v = u 2 w 2 v 3 w 3 i v w v 3 w 3 j + v w v 2 w 2 k = v 2 w 2 v 3 w 3 u v w v 3 w 3 u 2 + v w v 2 w 2 u 3 u v w = u 2 v 2 w 2 u 3 v 3 w 3 Théorème 47 Soient u, v et w trois vecteurs de l espace Alors ( [u, v, w] = [w, u, v] = [v, w, u] = [v, u, w] = [u, w, v] = [w, v, u] (2 [λu, v, w] = λ[u, v, w] pour tout scalaire λ (3 [u, v, w] = si et seulement s il existe des scalaires α, β, γ non tous nuls tels que αu+βv+γw = Démonstration ( et (2 découlent directement de la définition Montrons alors la propriété (3 Supposons que αu + βv + γw = avec α, β, γ non tous nuls Sans perte de généralité, on peut supposer α Alors u = λv + µw avec λ = β α et µ = γ α, et [u, v, w] = (λv + µw (v w = λ v (v w +µ w (v w } {{ } } {{ } =

60 6 CHAPITRE 4 CALCUL VECTORIEL DANS LE PLAN ET DANS L ESPACE Réciproquement, supposons que [u, v, w] = On a donc (u v w = c est-à-dire que u v est orthogonal à w Mais u v est aussi orthogonal à u et à v Ceci entraîne que u, v et w sont coplanaires et donc que l on peut écrire ce qui termine la démonstration w = αu + βv Le produit mixte peut également être interprété géométriquement ce qui est l objet du théorème suivant Théorème 48 (2 Soient u = déterminant ( Soit u = ( u u 2 et v = ( v v 2 deux vecteurs de R 2 Alors la valeur absolue du déterminant u v u 2 v 2 est égal à l aire du parallèlogramme défini par les vecteurs u et v ( u ( v ( w u 2, v = v 2 et w = w 2 u 3 v 3 w 3 trois vecteurs de R 3 Alors la valeur absolue du u v w u 2 v 2 w 2 u 3 v 3 w 3 est égal au volume du parallélépipède déterminé par ces trois vecteurs Démonstration ( On considère u et v comme vecteurs de l espace de dimension 3 : ( u ( v u = u 2 et v = v 2 Alors u v = i u v j u 2 v 2 k L aire du parallélogramme déterminé par u et v est ( u v = det u v k u 2 v 2 ( = det u v k = u 2 v 2 = u v u 2 v 2 k ( det u v u 2 v 2 (2 Prenons le parallélogramme déterminé par v et w comme base du parallélépipède déterminé par u, v et w L aire de la base est donc v w et la hauteur du parallélépipède est la projection orthogonale de u sur v w On a u (v w h = proj v w u = v w et le volume V du parallélépipède est alors V = (aire de la base (hauteur = v w = u (v w u (v w v w qui est donc bien la valeur absolue du déterminant u v w u 2 v 2 w 2 u 3 v 3 w 3

61 45 DROITES ET PLANS DANS L ESPACE DE DIMENSION 3 6 Figure 64 : h = hauteur 45 Droites et plans dans l espace de dimension 3 45 Equation du plan passant par un point P et ayant vecteur normal n ( x ( n Soit P = y un point de l espace de dimension 3 et n = n 2 un vecteur z n 3 Figure 65 Le plan passant par P et ayant n comme vecteur normal est formé des points P tels que le vecteur P P est orthogonal au vecteur n On a donc ( XY Si P = Z alors P P = ( X x Y y Z z P P n = et la condition P P n = s écrit ( X x Y y Z z ( n n 2 = n 3 ou encore n (X x + n 2 (Y y + n 3 (Z z = ( 2 5 Exemple 49 L équation du plan passant par le point P = et perpendiculaire au vecteur ( 6 3 n = est 2 (X 2 + 3(Y + 5 2(Z 6 = ou encore X + 3Y 2Z + 25 = Théorème 42 Soient a, b, c, d des scalaires tels que (a, b, c (,, Alors l équation ax + by + cz + d =

62 62 CHAPITRE 4 CALCUL VECTORIEL DANS LE PLAN ET DANS L ESPACE est l équation d un plan ayant comme vecteur normal le vecteur n = a b c Démonstration Par hypothèse, les scalaires a, b, c sont non tous nuls Nous pouvons supposer que a Alors l équation ax + by + cz + d = peut être réécrite comme ( a X + d + by + cz = a ( d/a Mais ceci est l équation du plan passant par le point et ayant comme vecteur normal le ( ab vecteur c 452 Droites dans l espace de dimension 3 Soit L la droite passant par le point P = (x, y, z et parallèle au vecteur v = (a, b, c Alors L est constituée des points P = (X, Y, Z tels que le vecteur P P est parallèle au vecteur v Autrement dit : P P = λv pour un scalaire λ On a donc ou, de manière équivalente, X x λa Y y = λb Z z λc X x Y y Z z = λa = λb = λc Ce système est est appelé système d équations paramétriques de la droite L ( x Théorème 42 La distance D entre le point P = y et le plan d équation z ax + by + cz + d = est donnée par D = ax + by + cz + d a2 + b 2 + c 2 Figure 66 Démonstration

63 45 DROITES ET PLANS DANS L ESPACE DE DIMENSION 3 63 ( x Soit Q = y un point du plan On place le vecteur normal n au point Q La distance de P z au plan est égale à la norme de la projection orthogonale du vecteur QP sur le vecteur n : Donc D = proj n QP = QP n on a On a ( x x QP = y y et ainsi z z Comme ( x y z QP n = n x x a y y b = a(x x + b(y y + c(z z z z c n = a 2 + b 2 + c 2, D = a(x x + b(y y + c(z z a2 + b 2 + c 2 Or Q = est un point du plan, ce qui entraîne que ax + by + cz + d = et donc que d = ax by cz On obtient finalement D = ax + by + cz + d a2 + b 2 + c 2

64 64 CHAPITRE 4 CALCUL VECTORIEL DANS LE PLAN ET DANS L ESPACE

65 Chapitre 5 Espaces euclidiens et applications linéaires 5 Espaces de dimension n 5 Définitions et notations L ensemble des nombres réels est noté R L ensemble des nombres réels R est souvent représenté par une droite C est un espace de dimension Le plan est formé des couples ( a a 2 de ( nombres réels Il est noté R 2 a L espace de dimension 3 est constitué des triplets de nombres réels a 2 Il est noté ( a 3 R 3 a Le symbole a 2 a deux interprétations géométriques : a 3 Un point a a 2 a 3 Figure 7 2 Un vecteur a a 2 a 3 Figure 72 65

66 66 CHAPITRE 5 ESPACES EUCLIDIENS ET APPLICATIONS LINÉAIRES On généralise ces notions en considérant aussi des espaces de dimension n pour tout entier positif n =, 2, 3, 4, Les éléments de l espace de dimension n sont les n-uples L espace de dimension n est noté R n Comme en dimension 3, le n-uple point que le vecteur de l espace de dimension n Définition 5 (Somme de deux vecteurs Soient u = Leur somme est par définition le vecteur ( u u n u + v u + v = u n + v n Définition 52 (Produit d un vecteur par un scalaire Soit u = Alors Le vecteur nul de R n est le vecteur = Soit u = ( u u n Théorème 53 Soient u = λu λu = λu n ( et v = ( u u n un vecteur de R n Alors son opposé est le vecteur u = ( u (a u + v = v + u (b u + (v + w = (u + v + w (c u + = + u = u (d u + ( u = (e λ(µu = (λµu (f λ(u + v = λu + λv (g (λ + µu = λu + µu (h u = u 52 Produit scalaire Soient u = ( u u n et v = u n ( v v n, v = ( v v n et w = ( w w n ( a ( v v n ( a a n a n de nombres réels dénote aussi bien le deux vecteurs de R n un vecteur et λ un scalaire ( u u n des vecteurs de R n Alors : deux vecteurs de R n On définit leur produit scalaire par u v = u v + u 2 v u n v n C est un scalaire Remarquons que cette définition généralise la notion de produit scalaire dans le plan R 2 et dans l espace R 3 Théorème 54 Soient u, v et w des vecteurs de R n et soit λ un scalaire Alors on a : (a u v = v u (b (u + v w = u w + v w (c (λu v = λ(u v (d v v (e v v = si et seulement si v =

67 5 ESPACES DE DIMENSION N Norme et distance dans R n Soit u = Soient u = est définie par ( u u n ( u u n un vecteur On définit la norme de u (ou norme euclidienne de u par et v = ( v v n 4 3 u = u u = u u2 n deux vecteurs La distance (ou distance euclidienne entre u et v d(u, v = u v = (u v 2 + (u 2 v (u n v n 2 ( 6 ( 37 Exemple 55 Soient u = et v = Alors leur distance dans R 4 est 2 2 d(u, v = ( ( ( ( = = 66 Théorème 56 (Inégalité de Cauchy-Schwarz Soient u et v des vecteurs de R n Alors on a u v u v Théorème 57 Soient u et v des vecteurs de R n, et soit λ un scalaire Alors on a : (a u (b u = si et seulement si u = (c λu = λ u (d u + v u + v (Inégalité du triangle Démonstration (a et (b découlent des points (d et (e du théorème 54 ( u ( λu (c Soit u = On a λu = et donc u n λu n (d Soient u = ( u dotsu n et v = ( v v n On a λu = (λu (λu n 2 = λ 2 u λ2 u 2n = λ 2 u u2 n = λ u u2 n = λ u u + v 2 = (u + v (u + v = u u + v v + 2u v = u 2 + v 2 +2u v Remarquons que u v u v car, pour n importe quel scalaire a, on a a a On obtient alors u + v 2 u 2 + v 2 +2 u v = ( u + v 2 et donc u + v u + v Corollaire 58 Soient u, v et w des vecteurs dans R n, et soit λ un scalaire Alors

68 68 CHAPITRE 5 ESPACES EUCLIDIENS ET APPLICATIONS LINÉAIRES u + v v u Figure 73 (a d(u, v (b d(u, v = si et seulement si u = v (c d(u, v = d(v, u (d d(u, v d(u, w + d(w, v (Inégalité du triangle Théorème 59 Soient u et v des vecteurs de R n Alors u v = 4 u + v 2 4 u v 2 Démonstration u + v 2 = (u + v (u + v = u 2 + v 2 +2u v u v 2 = (u v (u v = u 2 + v 2 2u v d où Donc u + v 2 u v 2 = 4u v u v = 4 u + v 2 4 u v 2 Définition 5 On dit que deux vecteurs u et v de R n sont orthogonaux si u v = Théorème 5 (Théorème de Pythagore dans R n Soient u et v deux vecteurs de R n orthogonaux Alors u + v 2 = u 2 + v 2 Démonstration u + v 2 = (u + v (u + v = u 2 + v 2 +2u v = u 2 + v 2 car u v = 54 Représentation matricielle des vecteurs de R n Soit u = ( u u n un vecteur de R n On l appelle «vecteur colonne», et on le considère naturellement u comme une matrice de taille n Parfois, on rencontre aussi des «vecteurs ligne» : on peut voir u comme une matrice n, de la forme u = (u,, u n En fait, le vecteur ligne correspondant à u est le transposé u T du vecteur colonne u

69 5 ESPACES DE DIMENSION N 69 Les opérations de somme et de produit par un scalaire définies ci-dessus se transposent parfaitement à l écriture matricielle et l on retrouve ainsi les opérations définies sur les matrices introduites au chapitre 2 : et u + v = u u n + λu = λ u u n v v n = = λu λu n 55 Formule matricielle du produit scalaire Soient deux vecteurs On a et ainsi On a donc u = v T u = (v v n u u n et v = v T = ( v v 2 v n u u n u + v u n + v n v v n = u v + + u n v n = u v u v = v T u Exemple 52 u = 3 6 4, v = u v = v T u = ( = (4 = 4 Soit A une matrice de taille n n et u un vecteur colonne (ie une matrice n Le produit matriciel Au est une matrice n, donc un vecteur colonne On peut alors considérer le produit scalaire de Au avec un autre vecteur v, (Au v On a ainsi (Au v = v T (Au = (v T Au = (A T v T u = = u (A T v On obtient donc la formule Théorème 53 (Au v = u (A T v On verra plus tard (matrices orthogonales la signification de cette équation

70 7 CHAPITRE 5 ESPACES EUCLIDIENS ET APPLICATIONS LINÉAIRES Exemple 54 Posons A = u = 2 4 et v = 2 5 Alors et Au = A T v = = = On obtient ainsi (Au v = (v T (Au = ( = = 5 et u (A T v = (A T v T u = ( = = 56 Multiplication des matrices et produit scalaire Soient A = (a ij une matrice de taille m r, et B = (b ij une matrice de taille r n Nous avons vu que l on peut former le produit matriciel AB On obtient une matrice de taille m n L élément d indice ij de la matrice AB est Remarquons que ceci est aussi le produit a i b j + a i2 b 2j + + a ir b rj ( ai a i2 a ir Autrement dit, c est le produit scalaire du i-ème vecteur ligne de A avec le j-ème vecteur colonne de B Notons l,, l m les vecteurs ligne de A, et c,, c n les vecteurs colonne de B On a alors l c l c 2 l c n l 2 c l 2 c 2 l 2 c n AB = l m c l m c 2 l m c n En particulier, un système d équations linéaires peut être exprimé grâce au produit scalaire comme suit : soit Ax = b un système linéaire où A est la matrice des coefficients du système de taille m n, b b = b m b j b 2j b rj est le second membre et x = x x n

71 52 APPLICATIONS LINÉAIRES 7 le vecteur colonne des inconnues Soient l,, l m les lignes de la matrice A Ce sont des vecteurs ligne (matrices de taille n Alors le système peut être exprimé comme l x l 2 x l m x b = b = b m 52 Applications linéaires 52 Rappels sur les applications Soient A et B deux ensembles Une application f : A B associe à tout élément a de A un unique élément f(a de B L élément f(a est appelé l image de a par f (ou la valeur de f en a L ensemble A est appelé le domaine de définition de f Le sous-ensemble f(a de l ensemble B formés des éléments f(a, où a est un élément de A, s appelle l image de A par f Lorsque A = R, on dit que f est une application (ou fonction d une variable réelle Lorsque A = R n, on dit que f est une application (ou fonction de n variables réelles Lorsque B = R, on dit que f est à valeurs réelles Exemples ( f : R R f(x = x 2 (2 est une fonction d une variable réelle à valeurs réelles f : R n R f(x,, x n = x x 2 n (3 est une fonction à valeurs réelles, de n variables réelles f : R R f(x = 3x est une fonction d une variable réelle à valeurs réelles Soient f : R n R f m : R n R m fonctions de n variables réelles à valeurs réelles On peut construire une application f : R n R m définie par f(x,, x n = (f (x,, x n,, f m (x,, x n

72 72 CHAPITRE 5 ESPACES EUCLIDIENS ET APPLICATIONS LINÉAIRES 522 Applications linéaires Définition 55 Une application f : R n R m définie par f(x,, x n = (w,, w m est dite linéaire si w = a x + a 2 x a n x n w 2 = a 2 x + a 22 x a 2n x n En notation matricielle, on a x x 2 f = x n ou encore w m = a m x + a m2 x a mn x n w w 2 w m A est appelée la matrice de l application f a a 2 a n a 2 a 22 a 2n = a m a m2 a mn f(x = w = Ax avec A = (a ij Exemple 56 La fonction f : R 4 R 3 définie par w = 2x + 5x 2 + 2x 3 7x 4 w 2 = 4x + 2x 2 3x 3 + 3x 4 w 3 = 7x 3x 2 + 9x 3 x x 2 x n peut être exprimée sous forme matricielle comme suit : w w 2 w 3 = x x 2 x 3 x 4 Notation : Soit f : R n R m une application linéaire On note [f] la matrice de f (appelée aussi matrice standard de f Soit A une matrice m n On note f A : R n R m l application linéaire f A (x = Ax pour tout x R n L application linéaire induite par la matrice identité f I (x = Ix = x est appelée application identité, et notée I ou Id L application linéaire induite par la matrice nulle de taille m n f (x = x = est appelée application nulle, et notée Remarque 57 Soit f : R n R m une application linéaire Alors f( = En effet, si A est la matrice standard de f, on a f( = A = 523 Quelques exemples d applications linéaires Réflexion par rapport à l axe Oy La fonction f : R 2 R 2 ( x y ( x y

73 52 APPLICATIONS LINÉAIRES 73 ( x, y (x, y Figure 76 est la réflexion par rapport à l axe Oy et sa matrice est ( car ( ( x y = ( x y Réflexion par rapport à l axe Ox La réflexion par rapport à l axe des x est donnée par la matrice ( Réflexion par rapport à la droite y = x La réflexion par rapport à la droite y = x est donnée par f : R 2 R 2 ( x y ( y x et sa matrice est ( Réflexions dans l espace L application f : R 3 R 3 ( xy ( xy est la réflexion par rapport au plan Oxy C est une application linéaire et sa matrice est De même, la réflection par rapport au plan Oxz est donnée par la matrice z z

74 74 CHAPITRE 5 ESPACES EUCLIDIENS ET APPLICATIONS LINÉAIRES (y, x (x, y Figure 77 et la réflection par rapport au plan Oyz par la matrice Projections orthogonales y (x, y x (x, Figure 78 L application f : R 2 R 2 ( x y ( x est la projection orthogonale sur l axe Ox C est une application linéaire donnée par la matrice ( L application linéaire f : R 3 R 3 ( xy ( xy z

75 52 APPLICATIONS LINÉAIRES 75 est la projection orthogonale sur le plan Oxy et sa matrice est De même, la projection orthogonale sur le plan Oxz est donnée par la matrice standard, et la projection orthogonale R 3 R 3 sur le plan Oyz par la matrice standard 524 Rotations Soit f : R 2 R 2 la rotation d angle θ On a y (w, w2 (x, y θ α x Figure 79 : Rotation d angle θ x = r cos α y = r sin α Après rotation d angle θ, on obtient : w = r cos(α + θ, w 2 = r sin(α + θ En appliquant des formules trigonométriques, on obtient w = r cos α cos θ r sin α sin θ w 2 = r cos α sin θ + r sin α cos θ c est-à-dire w = x cos θ y sin θ w 2 = x sin θ + y cos θ

76 76 CHAPITRE 5 ESPACES EUCLIDIENS ET APPLICATIONS LINÉAIRES Autrement dit, la rotation d angle θ est donnée par la matrice standard ( cos θ sin θ sin θ cos θ 525 Composition d applications linéaires et Soient f A : R m R r f B : R r R n deux applications linéaires induites respectivement par les matrices A et B Considérons leur composition f B f A : R m R n définie par (f B f A (x = f B (f A (x C est une application linéaire et on a ce qui implique que (f B f A (x = f B (f A (x = = B(Ax = (BAx f B f A = f BA Autrement dit, la matrice associée à la composition de deux applications linéaires est égale au produit de leurs matrices standard Exemple 58 Soit la réflection par rapport à la droite y = x, et soit la projection orthogonale sur l axe des y f : R 2 R 2 g : R 2 R 2 f(v g(f(v x = y v Figure 7 : Composition de f puis de g La matrice standard de f est et la matrice standard de g est [f] = [g] = ( (

77 53 PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 77 y x = y g(v v f(g(v x Figure 7 : Composition de g puis de f On a alors et Remarquons que [f g] = [f][g] = [g f] = [g][f] = [g f] = ( ( ( ( ( ( = = ( ( = [f g] ce qui montre que la composition d applications linéaires n est pas commutative en général 53 Propriétés des applications linéaires Définition 59 Soient E et E 2 deux ensembles et soit f : E E 2 une application On dit que f est injective si f(x = f(y implique x = y Autrement dit, deux éléments distincts ont des images distinctes On dit que f est surjective si pour tout z E 2, il existe x E avec f(x = z Autrement dit, f(e = E 2 On dit que f est bijective si elle est injective et surjective Autrement dit, f est bijective si, pour tout z E 2, il existe un unique x E avec f(x = z Soit A une matrice n n Nous avons vu (théorème 232 que les propriétés suivantes sont équivalentes : ( A est inversible (2 Pour toute matrice colonne w, de taille n, le système Ax = w a une solution D autre part, si pour toute matrice colonne w de taille n le système A x = w a une solution, alors A est inversible En effet, vu que pour tout w le système a une solution, il existe x, x 2,, x n des matrices colonne telles que Ax =, Ax 2 =,, Ax n =

78 78 CHAPITRE 5 ESPACES EUCLIDIENS ET APPLICATIONS LINÉAIRES Ainsi, A (x x 2 x n = I n } {{ } =C et det(ac = det(a det(c = Le déterminant de A est donc non nul, ce qui est équivalent à dire que A est inversible D où le théorème suivant : Théorème 52 Soit A une matrice n n Les propriétés suivantes sont équivalentes : ( A est inversible (2 Pour toute matrice colonne w de taille n, le système a une solution Ax = w (3 Pour toute matrice colonne w de taille n, le système a exactement une solution Ax = w Soit f A : R n R n l application linéaire de matrice standard A Remarquons que la propriété (2 ci-dessus est équivalente à (2 f A est surjective et que (3 équivalent à (3 f A est bijective On a donc le théorème suivant : Théorème 52 Soit A une matrice de taille n n, et soit f A : R n R n l application linéaire associée Les propriétés suivantes sont équivalentes : ( f A est injective (2 f A est surjective (3 f A est bijective (4 A est inversible Démonstration L équivalence des points (2, (3 et (4 découle du théorème précédent Il suffit donc de montrer que ( est équivalent à (4 par exemple Supposons f A injective Soit x R n tel que f A (x = Alors Ax = Or, on a aussi A = Comme f A est injective, on a nécessairement x = Autrement dit, le système Ax = a une unique solution Le théorème 232 permet de conclure que la matrice A est inversible Réciproquement, supposons A inversible Soient x, x 2 R n tels que f A (x = f A (x 2, c est-à-dire tels que Ax = Ax 2 On a alors A(x x 2 = A nouveau par le théorème 232, on en déduit que x = x 2 L application f A est donc injective Exemple 522 Soit f : R 2 R 2 la projection sur l axe des x Alors f n est pas injective En effet, La matrice standard de f est f ( x y = ( x pour tout y R 2 [f] = ( Elle n est pas inversible, car det([f] = L application f n est donc pas surjective : ceci se vérifie aisément car aucun point en-dehors de l axe des x n est dans l image de f

79 53 PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 79 Soit f A : R n R n une application linéaire associée à une matrice A inversible Alors est aussi une application linéaire et on a f A : R n R n f A (f A (x = AA x = Ix = x f A (f A (x = A Ax = Ix = x pour tout x dans R n L application f A est appelée l application inverse de f A On dit qu une application linéaire f : R n R n est inversible si f = f A, où A est une matrice inversible Si f : R n R n est inversible, on note f : R n R n son inverse Par le théorème 52, une application linéaire est inversible si et seulement si elle est bijective Exemple 523 Soit f : R n R 2 la rotation d angle θ Alors f : R 2 R 2 est la rotation d angle θ On a ( cos θ sin θ [f] = sin θ cos θ [ f ] ( cos θ sin θ = sin θ cos θ ( cos ( θ sin ( θ = sin ( θ cos( θ Théorème 524 Une application f : R n R m est linéaire si et seulement si pour tous les vecteurs u, v de R n et pour tout scalaire λ, on a ( f(u + v = f(u + f(v (2 f(λu = λf(u Démonstration Supposons f : R n R m linéaire, et soit A sa matrice standard On a et f(u + v = A(u + v = Au + Av = f(u + f(v f(λu = A(λu = λau = λf(u Réciproquement, supposons ( et (2 Notons d abord que ( implique que Posons f(v + v v r = f(v + f(v f(v r e =, e 2 = Soit A la matrice n n dont les colonnes sont,, e n = f(e, f(e 2,, f(e n

80 8 CHAPITRE 5 ESPACES EUCLIDIENS ET APPLICATIONS LINÉAIRES et Alors et donc x = x x 2 x n x = x e + x 2 e x n e n Ax = A(x e + x 2 e x n e n = x Ae + x 2 Ae x n Ae n = x f(e + x 2 f(e x n f(e n = f(x e + f(x 2 e f(x n e n = f(x e + x 2 e x n e n = f(x On a alors que f = f A C est une application linéaire Définition 525 Les vecteurs e =, e 2 = sont appelés les vecteurs de base standard de R n La démonstration précédente a ainsi montré :,, e n = Théorème 526 Soit f : R n R m une application linéaire, et soient e,, e n les vecteurs de base standard de R n Alors la matrice standard de f est donnée par [f] = ( f(e f(e 2 f(e n

81 Chapitre 6 Espaces vectoriels 6 Définition et premières propriétés Rappels et notations Soit E un ensemble La notation x E signifie «x est un élément de E» ou «x appartient à E» Par exemple, λ R signifie «λ est un nombre réel» 2 Soient E et E deux ensembles La notation E E signifie «E est contenu dans E» ou «E est un sous-ensemble de E» 3 Soient E, E deux ensembles Alors l ensemble des couples s appelle le produit cartésien de E et E E E = {(e, e e E, e E } Définition 6 (Espace vectoriel Soit V un ensemble muni de deux opérations : une addition et une multiplication par les scalaires V V V (u, v u + v R V V (λ, u λu On dit que V, muni de ces deux opérations, est un espace vectoriel si pour tout u, v, w V et tout λ, µ R, on a les propriétés suivantes : ( u + v = v + u (2 u + (v + w = (u + v + w (3 Il existe V tel que + u = u + = u pour tout u V (4 Pour tout u V, il existe u V tel que u + ( u = (5 λ(u + v = λu + λv (6 (λ + µu = λu + µu (7 λ(µu = (λµu (8 u = u Exemple 62 L ensemble V = R n muni des opérations habituelles d addition de vecteurs et de produit d un vecteur par un scalaire est un espace vectoriel Exemple 63 Soit V l ensemble des matrices de taille n m, muni de l addition des matrices et de la multiplication d une matrice par un scalaire Alors V est un espace vectoriel 8

82 82 CHAPITRE 6 ESPACES VECTORIELS Exemple 64 Soit V l ensemble des fonctions On définit sur V une opération d addition : f : R R (f + g(x = f(x + g(x et une opération de multiplication par les scalaires (λf(x = λf(x pour tout λ R Ceci en fait un espace vectoriel Les propriétés sont faciles à vérifier Par exemple, on définit la fonction nulle : R R par (x = pour tout x R Alors f + = f pour toute fonction f, et on est donc légitimé à écrire pour la fonction Si f : R R est une fonction, on définit f : R R par ( f(x = f(x Les autres propriétés se vérifient facilement Exemple 65 Tout plan passant par l origine est un espace vectoriel (par rapport aux opérations habituelles sur les vecteurs Le plan est donné par une équation de la forme ax + by + cz = où a, b et c sont des scalaires non tous nuls ( x ( x Notons V ce plan Soient y et y deux éléments de V Autrement dit, z z Alors ( x+x y +y est aussi dans V car on a z +z Les autres propriétés sont aussi faciles à vérifier ax + by + cz = ax + by + cz = a(x + x + b(y + y + c(z + z = Remarque 66 Attention! Un plan ne contenant pas l origine n est pas un espace vectoriel Théorème 67 Soit V un espace vectoriel, v V et λ R Alors on a : (a v = (b λ = (c ( v = v (d Si λ v =, alors λ = ou v =

83 62 SOUS-ESPACES VECTORIELS Sous-espaces vectoriels Définition 68 Un sous-ensemble W d un espace vectoriel V est un sous-espace vectoriel de V si W est un espace vectoriel par rapport aux opérations de V Théorème 69 Soit V un espace vectoriel, et soit W un sous-ensemble de V Alors W est un sous-espace vectoriel de V si et seulement si les conditions suivantes sont vérifiées : (a W ; (b si u, v W, alors u + v W ; (c si u W et λ R, alors λu W Démonstration Soit W un sous-espace vectoriel de V Alors W satisfait aux axiomes qui définissent un espace vectoriel, en particulier on a (a (b et (c Réciproquement, si W est un sous-ensemble de V vérifiant (a, (b et (c, alors il est facile de vérifier que W est un espace vectoriel Terminologie : Soit W un sous-ensemble d un espace vectoriel V Si la propriété (b ci-dessus est satisfaite, on dit que W est fermé par rapport à l addition Si (c est satisfait, on dit que W est fermé par rapport à la multiplication par les scalaires Remarque 6 Soit V un espace vectoriel et W un sous-ensemble de V Pour montrer que W est un sous-espace vectoriel de V, il suffit de vérifier les propriétés (b et (c du théorème ci-dessous En effet, en prenant λ = dans (c, on a directement que W Il est par contre souvent utile de commencer par vérifier (a ; ainsi, si / W, on en déduit immédiatemment que W n est pas un sous-espace vectoriel Exemple 6 Soit M n l espace vectoriel de toutes les matrices de taille n n Soit S n le sousensemble des matrices symétriques Alors S n est un sous-espace vectoriel de M n Il suffit en effet de vérifier que la matrice nulle est symétrique, que la somme de deux matrices symétriques est encore symétrique et finalement que le produit d une matrice symétrique par un scalaire est une matrice symétrique Exemple 62 Soit V l espace vectoriel des fonctions f : R R et soit P n le sous-ensemble des fonctions polynomiales de degré au plus n, autrement dit des fonctions de la forme p : R R p(x = a + a x + + a n x n, avec a, a,, a n R Alors P n est un sous-espace vectoriel de V En effet : (a la fonction nulle est une fonction polynomiale ; (b soient p, q P n p(x = a + a x + + a n x n q(x = b + b x + + b n x n Alors (p + q(x = p(x + q(x = (a + b + (a + b x + + (a n + b n x n Donc p + q P n ; (2 soit p(x = a + a x + + a n x n P n et λ R Alors Donc λp P n (λp(x = λp(x = λa + λa x + + λa n x n Exemple 63 Notons C(R l ensemble des fonctions continues f : R R Alors C(R est un espace vectoriel C est un sous-espace vectoriel de l espace vectoriel de toutes les fonctions f : R R Il suffit de vérifier que la somme de deux fonctions continues est continue et que si f C(R alors λf est continue pour tout λ R

84 84 CHAPITRE 6 ESPACES VECTORIELS Notons C (R l ensemble des fonctions f : R R qui sont dérivables et de première dérivée continue Alors C (R est un sous-espace vectoriel de C(R Notons C i (R l ensemble des fonctions f : R R qui sont dérivables i fois et dont la i-ème dérivée est continue On a les inclusions C i (R C i (R C(R C i (R est un sous-espace vectoriel de C(R (et aussi de C i (R Notons C (R l ensemble des fonctions f : R R qui sont indéfiniment dérivables et dont toutes les dérivées sont continues Alors C (R est un sous-espace vectoriel de C(R On a les inclusions d espaces vectoriels P n C (R C(R Remarque 64 Soit {e, e 2 } la base standard de R 2 Soit d (respectivement d 2 la droite passant par l origine et de vecteur directeur e (respectivement e 2 La réunion de d et de d 2 n est pas un sous-espace vectoriel de R 2 En effet, le vecteur n appartient ni à d, ni à d 2 e + e 2 = ( + ( = 62 Espace des solutions d un système d équations linéaires homogènes Un autre exemple d espace vectoriel est donné par l ensemble des solutions d un système linéaire homogène Soit Ax = un système de m équations à n inconnues : a a n x = a m a mn x n On a alors Théorème 65 Soit Ax = un système d équations linéaires homogènes à n variables Alors l ensemble des vecteurs solution est un sous-espace vectoriel de R n Démonstration Soit W l ensemble des vecteurs solution Le vecteur est un élément de W Vérifions que W est fermé par rapport à l addition et par rapport à la multiplication par un scalaire Si x et x sont des vecteurs-solution, alors Ax = et Ax = et donc A(x + x = Ax + Ax = ce qui montre que W est fermé par rapport à l addition On a aussi A(λx = λax = λ = ce qui prouve que W est aussi fermé par rapport à la multiplication par un scalaire Exemple 66 Considérons le système Les solutions de ce système sont ce qui donne d où x y z = x = 2s 3t y = s z = t x = 2y 3z x 2y + 3z = L ensemble des solutions est donc un plan passant par l origine Nous avons vu que ceci est un espace vectoriel (

85 63 COMBINAISON LINÉAIRE Combinaison linéaire Définition 67 Un vecteur w est appelé combinaison linéaire des vecteurs v, v 2,, v r si avec λ R,, λ r R Exemple 68 Soient e = w = λ v + λ 2 v λ r v r les vecteurs de la base standard de R 3 et un vecteur quelconque de R 3 On a x = x + x 2 + e 2 = x 3 x = x x 2 x 3 e 3 = = x + x 2 + x 3 ce qui montre que x est une combinaison linéaire de e, e 2 et e 3 Ainsi, tout vecteur de R 3 est combinaison linéaire de e, e 2 et e 3 ( 2 ( 64 ( Exemple 69 Soient u = et v = deux vecteurs de R 3 92 Montrons que w = est 2 7 combinaison linéaire de u et v On cherche donc λ et µ tels que ( 92 ( 2 ( 64 = λ + µ On a donc Une solution de ce système est par exemple 7 = = ( λ2λ + λ ( λ+6µ 2λ+4µ λ+2µ ( 6µ 4µ 2µ 9 = λ + 6µ 2 = 2λ + 4µ 7 = λ + 2µ λ = 3, µ = 2, ce qui implique que w est combinaison linéaire de u et v On vérifie que l on a 9 2 = ( 2 ( 64 ( 4 Exemple 62 Soient u = et v = Montrons que w = n est pas une combinaison 2 8 linéaire de u et v L égalité 4 6 = λ 2 + µ donne le système Or ce système n a aucune solution 4 = λ + 6µ = 2λ + 4µ 8 = λ + 2µ 2

86 86 CHAPITRE 6 ESPACES VECTORIELS Théorème 62 Soient v,, v r des vecteurs d un espace vectoriel V Alors l ensemble W des combinaisons linéaires de v,, v r est un sous-espace vectoriel de V Démonstration Le vecteur est dans W car = v + + v r Vérifions que W est fermé pour l addition et pour la multiplication par un scalaire Soient u, v W Alors, par définition de W, u = λ v + λ 2 v λ r v r v = µ v + µ 2 v µ r v r, où λ,, λ r et µ,, µ r sont des scalaires Donc u + v = (λ + µ v + (λ 2 + µ 2 v (λ r + µ r v r Donc u + v est aussi une combinaison linéaire de v,, v r Ceci implique que u + v W Pour tout α R, on a αu = (αλ v + + (αλ r v r Donc αu est combinaison linéaire de v,, v r Ceci implique que αu W Donc W est bien un sous-espace vectoriel de V Définition 622 Le sous-espace W du théorème précédent est appelé le sous-espace vectoriel de v engendré par v,, v r Si l on pose S = {v,, v n }, alors W est noté W = L(S = L(v, v 2,, v r Théorème 623 Soit V un espace vectoriel, et soient v,, v r V Soit W le sous-espace vectoriel de V engendré par v,, v r Alors W est le plus petit sous-espace vectoriel de V contenant v,, v r Démonstration On a clairement que v W, v 2 W,, v r W Soit W un autre sous-espace vectoriel de V qui contient v,, v r Comme W est un sous-espace vectoriel de V, il est fermé par addition et par multiplication par un scalaire Donc W contient toutes les combinaisons linéaires de v,, v r ce qui implique que W W Exemple 624 Soient v et v 2 deux vecteurs non colinéaires de R 3 Alors l espace vectoriel W engendré par v et v 2 est un plan Exemple 625 Soient v et v 2 deux vecteurs colinéaires de R 3 Alors v 2 = λv L espace vectoriel engendré par v et v 2 est une droite Exemple 626 Soit P n l espace vectoriel des fonctions polynomiales de degré n Alors les polynômes, x,, x n engendrent P n Théorème 627 Soit V un espace vectoriel, et soient S = {v, v 2,, v r } et S = {v, v 2,, v s} deux ensembles de vecteurs de V On a L(v, v 2,, v r = L(v, v 2,, v s si et seulement si tout vecteur de S est une combinaison linéaire de vecteurs de S et tout vecteur de S est une combinaison linéaire de vecteurs de S Démonstration C est une conséquence immédiate de la définition de L(S et de L(S

87 64 INDÉPENDANCE LINÉAIRE Indépendance linéaire Définition 628 Soit S = {v,, v r } un ensemble non vide de vecteurs d un espace vectoriel L équation λ v + + λ r v r = a au moins une solution, notamment la solution triviale λ = λ 2 = = λ r = Si cette solution est unique, on dira que S est un ensemble linéairement indépendant, ou que les vecteurs v, v r sont linéairement indépendants Sinon, on dira que S est un ensemble linéairement dépendant, ou que les vecteurs v,, v r sont linéairement dépendants Remarque 629 Tout vecteur non nul est linéairement indépendant En effet, λv = implique λ = ou v = Le vecteur nul est linéairement dépendant car λ = pour tout λ R Plus généralement, tout ensemble contenant le vecteur nul est linéairement dépendant En effet, soient v,, v r des vecteurs quelconques et v r = Alors pour tout λ R ( 2 ( 2 Exemple 63 Soient v =, v 2 = 5 3 est linéairement dépendant, car v + + v r + λ = et v 3 = 3v + v 2 v 3 = ( 7 5 Alors l ensemble S = {v, v 2, v 3 } 8 Exemple 63 Les polynômes p (x = x, p 2 (x = 5 + 3x 2x 2 et p 3 (x = + 3x x 2 forment un ensemble linéairement dépendant, car Exemple 632 Soient e = 3p p 2 + 2p 3 =, e 2 =, e 3 = les vecteurs de la base standard de R 3 Alors l ensemble {e, e 2, e 3 } est linéairement indépendant En effet, supposons que λ e + λ 2 e 2 + λ 3 e 3 = Alors λ + λ 2 + λ 3 =, ce qui donne et donc λ + λ 2 + λ 3 = λ λ 2 λ 3 λ =, λ 2 =, λ 3 = =, Exemple 633 Les polynômes, x,, x n forment un ensemble linéairement indépendant de P n En effet, supposons qu il existe a,, a n R tels que a + a x + + a n x n soit la fonction nulle Ceci implique que pour tout x R, on a a + a x + + a n x n = Mais un polynôme de degré n a au plus n racines On doit donc avoir a = a = = a n =

88 88 CHAPITRE 6 ESPACES VECTORIELS Théorème 634 Un ensemble S est linéairement dépendant si et seulement si au moins l un des vecteurs de S est une combinaison linéaire des autres vecteurs de S Démonstration Soit S = {v, v 2,, v r } un ensemble linéairement dépendant Alors il existe λ,, λ r R non tous nuls tels que λ v + λ 2 v λ r v r = Comme les λ,, λ r ne sont pas tous nuls, il en existe au moins un qui est non nul Supposons λ i, avec i r On a Comme λ i, ceci implique v i = λ i v i = λ v λ i v i λ i+ v i+ λ r v r ( λ ( v + + λ ( i v i + λ ( i+ v i+ + + λ r v r λ i λ i λ i λ i et alors v i est une combinaison linéaire des autres vecteurs Réciproquement, supposons que l un des vecteurs disons v i soit combinaison linéaire des autres vecteurs Alors on a v i = λ v + + λ i v i + λ i+ v i+ + + λ r v r Ceci implique λ v + + λ i v i v i + λ i+ v i+ + + λ r v r = Donc v,, v r sont linéairement dépendants 64 Interprétation géométrique de la dépendance linéaire Dans R 2 ou R 3, deux vecteurs sont linéairement dépendants si et seulement s ils sont colinéaires Dans R 3, trois vecteurs sont linéairement dépendants si et seulement s ils sont sur le même plan (coplanaires Théorème 635 Soit S = {v, v 2,, v r } un sous-ensemble de R n Si S contient plus de n éléments, alors S est linéairement dépendant Démonstration Supposons que v v 2 v 2 v =, v v 22 2 =,,, v v r2 r = v n v 2n v rn v r L équation x v + x 2 v x r v r = donne alors le système suivant v x + v 2 x v r x r = v 2 x + v 22 x v r2 x r = v n x + v 2n x v rn x r = C est un système homogène de n équations à r inconnues Lorsque r > n, ce système a des solutions non triviales ce qui montre que la famille S est linéairement dépendante

89 65 BASES ET DIMENSION Bases et dimension Définition 636 (Base d un espace vectoriel Soit V un espace vectoriel, et S = {v, v 2,, v n } un sous-ensemble de V Alors S est une base de V si et seulement si les deux conditions suivantes sont vérifiées : ( l ensemble S est linéairement indépendant ; (2 l ensemble S engendre V, c est-à-dire V = L(S Théorème 637 Si S = {v, v 2,, v n } est une base de l espace vectoriel V, alors tout vecteur v V s exprime de façon unique comme combinaison linéaire d éléments de S : avec λ,, λ n R déterminés de façon unique v = λ v + λ 2 v λ n v n Démonstration Par définition, S engendre V, donc pour tout v V il existe λ,, λ n R tels que v = λ v + λ 2 v λ n v n Il reste à montrer l unicité des λ, λ 2,, λ n Soient µ, µ 2,, µ n R tels que Alors on a v = µ v + µ 2 v µ n v n (λ µ v + (λ 2 µ 2 v (λ n µ n v n = Comme S = {v,, v n } est linéairement indépendant, ceci implique λ µ =, λ 2 µ 2 =,, λ n µ n = et donc λ = µ, λ 2 = µ 2,, λ n = µ n Définition 638 (Coordonnées par rapport à une base Les λ,, λ n du théorème précédent sont appelés les coordonnées de v dans la base S Exemple 639 Les vecteurs v et v 2 de la figure ci-dessous forment une base du plan car on a v = av + bv 2 pour tout vecteur v du plan où a et b sont des nombres réels uniquement déterminés Figure 84 Exemple 64 Soient e = (, e 2 = (, e 3 = ( les vecteurs de la base standard de R 3 Alors S = {e, e 2, e 3 } est une base de R 3 car S est linéairement indépendant et engendre R 3

90 9 CHAPITRE 6 ESPACES VECTORIELS Exemple 64 Base standard de R n : les vecteurs e =, e 2 =,, e n = forment une base de R n, appelée la base standard de R n ( 2 ( 29 ( 33 Exemple 642 Soient v =, v 2 = et v 3 = Montrons que l ensemble S = {v, v 2, v 3 } 4 ( est une base de R 3 Montrons d abord que S engendre R 3 a Soit a = a 2 un vecteur quelconque de a 3 R 3 On cherche λ, λ 2, λ 3 R tels que a = λ v + λ 2 v 2 + λ 3 v 3 Ceci se reformule comme suit : a 2 3 a 2 = λ 2 + λ λ 3 3 a 3 4 λ + 2λ 2 + 3λ 3 = 2λ + 9λ 2 + 3λ 3 λ + 4λ 3 Ceci conduit au système suivant : λ + 2λ 2 + 3λ 3 = a 2λ + 9λ 2 + 3λ 3 = a 2 λ + 4λ 3 = a 3 Il reste à montrer que ce système a une solution λ, λ 2, λ 3 Pour montrer que S est linéairement indépendant, il faut montrer que l unique solution de est λ v + λ 2 v 2 + λ 3 v 3 = λ = λ 2 = λ 3 = Ceci conduit à montrer que le système λ + 2λ 2 + 3λ 3 = 2λ + 9λ 2 + 3λ 3 = λ + 4λ 3 = a une unique solution λ = λ 2 = λ 3 = Remarquons que les deux systèmes ont la même matrice de coefficients On peut donc montrer simultanément que S engendre R 3 et que S est linéairement indépendant en montrant que la matrice des coefficients est inversible Cette matrice est A = et son déterminant vaut det(a = Donc S est une base de R 3 Remarque 643 L exemple précédent se généralise de la façon suivante : pour montrer que n vecteurs de R n forment une base de R n, il suffit de montrer la chose suivante : la matrice A constituée des composantes de ces vecteurs (chaque vecteur formant une colonne de A est de déterminant non nul

91 65 BASES ET DIMENSION 9 Exemple 644 Base standard de P n : la famille S = {, x,, x n } est une base de P n, appelée base standard de P n En effet, nous avons déjà vu que L(S = P n et que S est linéairement indépendant Exemple 645 Base standard de M 22 On note M 22 l ensemble des matrices 2 2 Nous avons vu que M 22 est un espace vectoriel Soient M = M 3 = ( ( M 2 = M 4 = ( ( L ensemble S = {M, M 2, M 3, M 4 } est une base de l espace vectoriel M 22, appelée base standard de M 22 ( a b Montrons d abord que L(S = M 22 Soit un élément quelconque de M c d 22 On a ( ( a b a = c d ( = a ( b + + b ( = am + bm 2 + cm 3 + dm 4 ( + c + c ( ( + d + d ( ce qui montre que L(S = M 22 Montrons maintenant que S est linéairement indépendant Pour cela, supposons que λ M + λ 2 M 2 + λ 3 M 3 + λ 4 M 4 = Ceci implique ( ( ( ( ( = λ + λ 2 + λ 3 + λ 4 ( ( ( ( λ λ2 = λ 3 λ 4 ( λ λ = 2 λ 3 λ 4 ce qui implique λ = λ 2 = λ 3 = λ 4 = Donc S est linéairement indépendant Définition 646 Soit V un espace vectoriel non nul On dit que V est de dimension finie s il existe un ensemble fini S de V qui est une base de V S il n existe aucun tel ensemble, alors on dit que V est de dimension infinie Exemple 647 Les espaces vectoriels R n, M 22, P n sont de dimension finie alors que C (R, C (R, C(R sont de dimension infinie Théorème 648 Soit V un espace vectoriel de dimension finie, et soit S = {v,, v n } une base de V Alors ( Tout sous-ensemble de V ayant plus de n éléments est linéairement dépendant (2 Aucun sous-ensemble de V ayant moins de n éléments n engendre V Démonstration ( Soit S = {w,, w m } avec w,, w m V et m > n Montrons que S est linéairement dépendant Comme S = {v, v 2,, v n } est une base de V, on a w = a v + a 2 v a n v n w 2 = a 2 v + a 22 v a n2 v n w m = a m v + a 2m v a nm v n

92 92 CHAPITRE 6 ESPACES VECTORIELS Pour montrer que S est linéairement dépendant, on doit trouver des scalaires λ, λ 2,, λ m non tous nuls tels que λ w + λ 2 w λ m w m = On peut reécrire cette équation comme suit Par l indépendance linéaire de S, on obtient (λ a + λ 2 a λ m a m v + + (λ a 2 + λ 2 a λ m a 2m v (λ a n + λ 2 a n2 + + λ m a nm v n = a λ + a 2 λ a m λ m = a 2 λ + a 22 λ a 2m λ m = a n λ + a n2 λ a nm λ m = C est un système homogène qui a plus d inconnues que d équations Il a donc des solutions non triviales λ,, λ m R telles que λ w + + λ m w m = ce qui montre que S = {w,, w m } est linéairement dépendant La démonstration de (2 est similaire Corollaire 649 Toutes les bases d un espace vectoriel de dimension finie ont le même nombre d éléments Définition 65 (Dimension d un espace vectoriel La dimension d un espace vectoriel de dimension finie V, notée dim(v, est par définition le nombre d éléments d une base de V L espace vectoriel V = {} est de dimension Exemple 65 Par les exemples qui précédent, on a dim(r n = n (Exemple 64 ; 2 dim(p n = n + (Exemple 644 ; 3 dim(m 22 = 4 (Exemple 645 ; 4 Plus généralement, si M mn est l espace vectoriel des matrices m n, on a dim(m mn = mn En effet, l ensemble M = M n = M mn = M 2 = M n+ = est une base de M mn et posséde mn éléments

93 65 BASES ET DIMENSION 93 Exemple 652 On a vu la base standard {, x,, x n } des polynômes de degré au plus n Voici une autre base, souvent commode pour les calculs : on fixe des nombres λ, λ,, λ n distincts, et on considère la base {(x λ (x λ (x λ n, (x λ (x λ (x λ n 2 (x λ n,, (x λ (x λ i (x λ i+2 (x λ n,, (x λ (x λ 2 (x λ n } où à chaque fois on prend tous les facteurs (x λ i sauf un Cette base est trés utile parce que le i-iéme vecteur s annulle en tous les λ j pour j i Exemple 653 Nous avons vu que l ensemble des solutions d un système d équations linéaires homogène est un espace vectoriel On considère le système 2x + 2x 2 x 3 + x 5 = x x 2 + 2x 3 3x 4 + x 5 = x + x 2 2x 3 x 5 = x 3 + x 4 + x 5 = On vérifie que la solution générale de ce système est x = s t x 2 = s x 3 = t x 4 = x 5 = t Donc les vecteurs solution s écrivent sous la forme x s t s t x 2 x 3 x 4 = s t = s + t x 5 t t = s + t Ceci montre que les vecteurs v = et v 2 = engendrent l espace des solutions du système D autre part, on vérifie que v et v 2 sont linéairement indépendants Donc {v, v 2 } est une base de l espace des solutions du système Ceci montre que cet espace vectoriel est de dimension 2 Théorème 654 Soit V un espace vectoriel et S un sous-ensemble fini et non vide de V Alors (a si S est linéairement indépendant et si v L(S, alors S {v} est encore linéairement indépendant ; (b si v S est une combinaison linéaire d autres vecteurs de S, alors L(S\{v} = L(S où S\{v} désigne l ensemble obtenu en retirant v de S Théorème 655 Soit V un espace vectoriel de dimension n Soit S un sous-ensemble de V contenant exactement n vecteurs Alors les affirmations suivantes sont équivalentes : ( S est une base de V ; (2 S engendre V ;

94 94 CHAPITRE 6 ESPACES VECTORIELS (3 S est linéairement indépendant Démonstration Il est clair que ( implique (2 et (3 Montrons que (2 implique ( Pour cela, il suffit de montrer que (2 implique (3 Autrement dit, il suffit de montrer que que si V = L(S alors S est linéairement indépendant On le montre par l absurde Supposons S linéairement dépendant Alors il existe v S qui est une combinaison linéaire des autres vecteurs de S Par le théorème précédent, ceci implique que L(S\{v} = L(S = V Mais S\{v} contient seulement n vecteurs, ce qui contredit l hypothèse dim(v = n Montrons que (3 implique ( Il suffit de montrer que (3 implique (2 Autrement dit, il suffit de montrer que si S est linéairement indépendant, alors S engendre V Supposons que ce ne soit pas le cas Alors il existe v V tel que v L(S Par le théorème précédent, ceci implique que S {v} est linéairement indépendant Mais S {v} contient n+ vecteurs ce qui contredit à nouveau l hypothèse sur la dimension de V Théorème 656 Soit V un espace vectoriel de dimension finie et soit S un sous-ensemble fini de V (a Si S engendre V, alors on peut rétrécir S en une base de V : il existe v,, v r S tels que S\{v,, v r } soit une base de V (b Si S est linéairement indépendant, alors on peut compléter S en une base de V : il existe w,, w k V tels que S {w,, w k } soit une base de V Démonstration Pour (a, on procède par récurrence sur dim V #S Supposons que S ne soit pas linéairement indépendant (sinon on a déjà gagné On a alors une combinaison linéaire c u + + c n u n = avec des u i S, et au moins un des c i, disons c, non nul On pose alors v = u et S = S \ {v } Par le théorème 654(a, S engendre aussi V et est plus petit ; on peut donc, par récurrence, enlever v 2,, v r à S pour obtenir une base de V ; et donc enlever v,, v r à S pour obtenir une base de V Pour (b, on procède par récurrence sur #S dim V Supposons que S n engendre pas V Soit w V \ L(S, et S = S {w } Alors, par le théorème 654(b, S est toujours linéairement indépendant, mais plus grand, donc par récurrence peut se compléter en une base S {w 2,, w k } de V Ainsi S {w,, w k } est une base de V Théorème 657 Soit V un espace vectoriel de dimension finie, et soit W un sous-espace vectoriel de V Alors dim(w dim(v De plus, si dim(w = dim(v, alors W = V 66 Espace des lignes et colonnes d une matrice Définition 658 Soit A une matrice de taille m n, Les vecteurs de R n a a 2 a n a 2 a 22 a 2n A = a m a m2 a mn l = ( a a 2 a n, l 2 = ( a 2 a 22 a 2n, l m = ( a m a m2 a mn

95 66 ESPACE DES LIGNES ET COLONNES D UNE MATRICE 95 sont appelés vecteurs ligne de A, et les vecteurs de R m a a 2 a 2 a 22 c = a m sont appelés vecteurs colonne de A, c 2 = a m2,, c n = Définition 659 Soit A une matrice de taille m n Le sous-espace de R n engendré par les vecteurs ligne de A est appelé espace des lignes de A, et le sous-espace de R m engendré par les vecteurs colonne de A est appelé espace des colonnes de A Ainsi la dimension de l espace des lignes de A est le nombre de lignes linéairement indépendantes de A ; la dimension de l espace des colonnes est le nombre de colonnes linéairement indépendantes de A On verra bientét que ces dimensions sont égales Définition 66 (Noyau (ou Nilespace d une matrice L espace des solutions du système d équations homogène Ax = est appelé noyau de A, ou nilespace de A Le noyau (nilespace de A est un sous-espace vectoriel de R n Il est noté Ker(A Théorème 66 Soit A une matrice m n Alors a n a 2n a mn L espace des colonnes de A est R m si et seulement si f A est surjective ; 2 Le noyau ker(a = si et seulement si f A est injective ; 3 Ax = b admet une solution si et seulement si b appartient á l espace des colonnes de A ; 4 L espace des lignes de A est l espace des colonnes de A T ; 5 Soit x un vecteur solution du système Ax = b, et soit {v, v 2,, v k } une base du noyau de A Alors l ensemble des solutions du système Ax = b est {x + c v + + c k v k : c i R} Démonstration L espace des colonnes est l image de l application f A Ainsi l espace des colonnes est R m si et seulement si l image de f A est R m, c est-à-dire si et seulement si f A est surjective 2 Le noyau de A est l ensemble des x R n tels que Ax = Ainsi le noyau de A est si et seulement si Ax = n admet que x = comme solution, ce qui veut dire que A est injective 3 Ax = b admet une solution si et seulement si b est dans l image de f A, qui est l espace des colonnes de A 4 C est évident 5 On calcule d abord A(x + c v + + c k v k = Ax + c Av + + c k Av k = b = b, ce qui montre que x + c v + + c k v k est une solution quels que soient c,, c k Ensuite, soit x une autre solution à Ax = b On a alors A(x x = b b =, donc x x ker(a On peut donc écrire x x = c v + + c k v k dans la base de ker(a On a donc x = x + c v + + c k v k pour certains c,, c k R Théorème 662 Les opérations élémentaires sur les lignes ne changent pas le noyau de la matrice Démonstration Soit A une matrice Le noyau de A est par définition l espace vectoriel des solutions du système Ax = Nous avons vu que les opérations élémentaires sur A ne changent pas les solutions du système Ax = Ceci implique que les opérations élémentaires ne changent pas le noyau de A

96 96 CHAPITRE 6 ESPACES VECTORIELS Théorème 663 Les opérations élémentaires sur les lignes ne changent pas l espace des lignes de la matrice Démonstration Soit A une matrice, et soient l,, l m ses vecteurs ligne Soit B une matrice obtenue à partir de A par une opération élémentaire sur les lignes Si l opération consiste à permuter deux lignes de A, alors B a les mêmes lignes que A, donc l espace des lignes est le même Si l opération consiste à multiplier une ligne de A par un scalaire non nul, ou à ajouter un multiple d une ligne à une autre, alors les lignes de B sont des combinaisons linéaires de l,, l m Donc l espace des lignes de B est contenu dans l espace des lignes de A Comme les opérations élémentaires sont réversibles, on voit que l espace des lignes de A est contenu dans l espace des lignes de B Donc ces deux espaces vectoriels sont égaux Théorème 664 Soit A une matrice Alors les lignes non nulles de la matrice échelonnée réduite forment une base de l espace des lignes de A Démonstration La matrice échelonnée réduite a autant de directeurs que de lignes non nulles Les directeurs sont dans des colonnes différentes Donc les vecteurs ligne non nuls de la matrice échelonnée réduite sont linéairement indépendants Comme ils engendrent également l espace des lignes, ils forment une base de cet espace Exemple 665 A = est une matrice échelonnée réduite Les lignes non nulles de A sont l = (, l 2 = ( et l 3 = ( Elles sont linéairement indépendantes En effet, soient λ, λ 2, λ 3 R tels que Alors on a Donc λ = λ 2 = λ 3 = λ l + λ 2 l 2 + λ 3 l 3 = λ ( + λ 2 ( + λ 3 ( = ( Application Nous donnons la méthode pour extraire une base d une famille de vecteurs Soient 2 x = 3 8, y = 2, z = Nous voulons extraire une base de cette famille de vecteurs Nous écrivons ces trois vecteurs en ligne dans une matrice 3 4 On obtient A = Par le théorème 664, les lignes non nulles de la matrice échelonnée réduite forment une base de l espace des lignes de la matrice A Il suffit donc d echelonner A et de la réduire pour trouver une base l 2 2l 2 + l

97 66 ESPACE DES LIGNES ET COLONNES D UNE MATRICE l 3 2l 3 l l 3 7l 3 + 9l l 2 7 l 2 l l 3l l 2 l 2 7 Une base de l espace engendré par les vecteurs x, y et z est, 2 7 En fait, on peut également prendre comme vecteurs de base les lignes non nulles de la matrice échelonnée (non nécessairement réduite Théorème 666 Soit A une matrice de taille m n Alors la dimension de l espace des lignes de A est égale à la dimension de l espace des colonnes de A Cette dimension est appelée le rang de la matrice A et est notée rg(a Démonstration Soit a a n A = a m a mn Soient l,, l m les lignes de A et c,, c n les colonnes de A Supposons que la dimension de l espace des lignes de A soit k, et soit {b,, b k } une base de cet espace On peut donc écrire chaque ligne comme combinaison linéaire des vecteurs de cette base : l = λ b + + λ k b k l m = λ m b + + λ mk b k

98 98 CHAPITRE 6 ESPACES VECTORIELS Ceci donne le système a j = λ b j + + λ k b kj a 2j = λ 2 b 2j + + λ 2k b kj a mj = λ m b j + + λ mk b kj avec On a donc c j = b j b j = (b j b jn λ λ 2 λ m + + b kj λ k λ 2l λ mk Ainsi l espace des colonnes de A est engendré par k vecteurs La dimension de cet espace est donc au plus égale à k Ce raisonnement est valable pour n importe quelle matrice et en particulier pour la transposée de A Or, les colonnes de A T sont les lignes de A, et les lignes de A T sont les colonnes de A Gréce au raisonnement précédent appliquée à A T, on voit que la dimension de l espace des lignes de A est au plus égale à la dimension de l espace des colonnes de A Ces deux dimensions sont donc égales Définition 667 Soit A une matrice La nullité de A est par définition la dimension du noyau de A, et est noté null(a Théorème 668 (Théorème du rang Soit A une matrice à n colonnes Alors Démonstration Le système linéaire homogène rg(a + null(a = n Ax = a n variables Donc la somme du nombre des variables directrices et du nombre des variables libres est n Or, le nombre de variables directrices est égal au nombre de directeurs dans la forme échelonnée réduite de A Ce nombre est égal au rang de (A D autre part, le nombre de variables libres est égal au nombre de paramétres de la solution générale du système, ce qui est égal à la dimension de l espace des solutions du système, qui est par définition égal à la nullité de A On a donc bien rg(a + null(a = n Théorème 669 Soit A une matrice de taille n n Alors les affirmations suivantes sont équivalentes : ( A est inversible (2 rg(a = n (3 null(a = Démonstration Nous avons vu que A est inversible si et seulement si sa forme échelonnée réduite est la matrice identité I n Ceci se passe si et seulement si toutes les variables sont directrices Mais le nombre de variables directrices est égal au rang de A On a donc ( (2 L équivalence (2 (3 résulte du théorème précédent

99 67 CHANGEMENTS DE BASES Changements de bases Soit V un espace vectoriel, et soit B = {v, v 2,, v n } une base de V Nous avons vu que tout v V s écrit de façon unique v = λ v + λ 2 v λ n v n avec λ, λ 2,, λ n R Les λ,, λ n sont appelés les coordonnées de v dans la base B, et on note λ λ 2 (v B = λ n 67 Changement de bases en 2 dimensions Soient B = {u, u 2 } et B = {u, u 2} deux bases du même espace vectoriel Supposons que ( (u a B = b et autrement dit que (u 2 B = ( c d Soit v V tel que c est-à-dire que u = au + bu 2 u 2 = cu + du 2 (v B = ( λ λ 2, v = λ u + λ 2 u 2 Nous aimerions trouver les coordonnées de v par rapport à la base B On a v = λ (au + bu 2 + λ 2 (cu + du 2 = (λ a + λ 2 cu + (λ b + λ 2 du 2 On a donc Ceci peut également s écrire (v B = (v B = = ( λ a + λ 2 c λ b + λ 2 d ( ( a c λ b d λ 2 ( a c (v b d B La matrice ( a c P B,B = b d est la matrice de changement de bases (ou de passage de bases de B à B

100 CHAPITRE 6 ESPACES VECTORIELS 672 Dimension quelconque Soit V un espace vectoriel de dimension n, et soient deux bases de V Alors B = {u,, u n } et B = {u,, u n} (v B = P B,B (v B où P B,B est la matrice dont les colonnes sont les coordonnées de u,, u n par rapport à la base B ; autrement dit, P B,B = ( (u B (u 2 B (u n B On appelle P B,B la matrice de changement de base (ou de passage de base de B à B Exemple 67 Soient B = {u, u 2 } et B = {u, u 2} deux bases de R 2, avec Donc On a u = (, u 2 = ( ; u = (, u 2 = ( 2 (u B = u = u + u 2 u 2 = 2u + u 2 ( (, (u 2 2 B = La matrice de changement de base de B à B est ainsi ( 2 P B,B = Théorème 67 Soit V un espace vectoriel de dimension finie, et soient B et B deux bases de V Soit P B,B la matrice de changement de base de B à B Alors P B,B est inversible et la matrice de changement de base de B à B est P B,B Démonstration Soit P B,B la matrice de changement de base de B à B Montrons que Soit B = {u, u 2,, u n }, et supposons que Nous avons et pour tout x V On a donc Pour x = u, on obtient P B,B P B,B = I c c 2 c n c 2 c 22 c 2n P B,B P B,B = c n c n2 c nn (x B = P B,B (x B (x B = P B,B(x B (x B = P B,B P B,B(x B c c 2 c n c 2 c 22 c 2n = c n c n2 c nn

101 67 CHANGEMENTS DE BASES d où = c c 2 c n Le même raisonnement avec x = u 2,, u n nous donne c 2 c 22 c n2 =,, c n c 2n c nn = Ceci montre que P B,B P B,B = I Théorème 672 Soit V un espace vectoriel de dimension n et soient B, B, B trois bases de V Alors P B,B P B,B = P B,B Démonstration Soit x V On a et d où (x B = P B,B (x B (x B = P B,B (x B (x B = P B,B P B,B (x B Ainsi, la matrice de changement de base de B à B est P B,B P B,B = P B,B P B,B P B,B Autrement dit, Application Soit V un espace vectoriel de dimension n Soient B et B deux bases de V et C une autre base de V Si on connaét les coordonnées des vecteurs de B et de B dans C, on peut calculer la matrice P B,B de la maniére suivante : Ecrivons ( P C,B : P C,B Comme PC,B est inversible (son inverse est P B,C, elle est équivalente par lignes à I n On obtient donc, par la méthode de Gauss, que ( In : (P C,B P C,B ou, autrement dit ( In : (P B,C P C,B } {{ } P B,B La matrice C désigne souvent la matrice canonique Dans ce cas, si on connaét les coordonnées de B et B dans la base canonique, on calcule directement la matrice de passage de B à B Exemple 673 Soit V = R 3 et C sa base canonique Définissons 3 B =,, 2 et B =,,

102 2 CHAPITRE 6 ESPACES VECTORIELS On a alors P C,B = 3 2 et P C,B = On applique maintenant la méthode de Gauss pour calculer P C,B et donc P B,B = P C,B P C,B : 3 : 2 : : l 2 l 2 l l l + 3l 3 l 2 l 2 + l 3 l 3 l 3 D où : 3 : : 2 : : 3 : 2 : P B,B = 3 2

103 Chapitre 7 Produits scalaires généralisés 7 Définition et premières propriétés Définition 7 Soit V un espace vectoriel Alors un produit scalaire généralisé sur V est par définition une application ayant les propriétés <, >: V V R (u, v < u, v > ( < u, v >=< v, u > symétrie (2 < u + v, w >=< u, w > + < v, w > additivité (3 < λu, v >= λ < u, v > homogénéïté (4 < v, v > positivité (5 < v, v >= v = pour tout u, v, w V et λ R Exemple 72 Produit scalaire euclidien sur R n Dans cet exemple, on a V = R n et < u, v >= u v le produit scalaire euclidien (produit scalaire habituel de R n Nous avons déjà vu que les propriétés ( - (5 sont vérifiées dans cet exemple Exemple 73 Soient u = ( u u 2 et v = ( v v 2 deux vecteurs de R 2 Posons < u, v > = 3u v + 2u 2 v 2 Alors <, > est un produit scalaire généralisé sur R 2 Vérifions les propriétés ( - (5 : ( On a (2 Soit w = ( w w 2 Alors < u, v > = 3u v + 2u 2 v 2 = 3v u + 2v 2 u 2 = < v, u > < u + v, w > = 3(u + v w + 2(u 2 + v 2 w 2 = (3u w + 2u 2 w 2 + (3v w + 2v 2 w 2 = < u, w > + < v, w > 3

104 4 CHAPITRE 7 PRODUITS SCALAIRES GÉNÉRALISÉS (3 (4 (5 < λu, v > = 3(λu v + 2(λu 2 v 2 = λ(3u v + 2u 2 v 2 = λ < u, v > < v, v > = 3v v + 2v 2 v 2 = 3v 2 + 2v2 2 < v, v > = 3v 2 + 2v 2 2 = v = v 2 = v = Définition 74 Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Alors on définit la norme (ou longueur d un vecteur v V par la formule v = < v, v > La distance entre u, v V est même par définition d(u, v = u v Exemple 75 Norme et distance dans R n Lorsque V = R n et <, > est le produit scalaire habituel < u, v >= u v, on retrouve les notions habituelles de norme et de distance dans R n Exemple 76 Soit V = R 2 On obtient des notions de norme et de distance différentes selon le produit scalaire généralisé choisi Soient u = ( et v = ( Si l on choisit le produit scalaire habituel sur R 2, on a u = u 2 + u2 2 = + = et d(u, v = u v = ( = 2 + ( 2 = 2 Si l on choisit le produit scalaire généralisé < u, v >= 3u v + 2u 2 v 2 on obtient u = < u, u > = 3u 2 + 2u2 2 = 3 + = 3 et d(u, v = u v = < (, ( > = = 5 Définition 77 (Cercle unité (ou sphère unité Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Alors le cercle unité, ou sphère unité de V est par définition l ensemble des u V tels que u = Ce sont les éléments de V dont la distance à l origine est égale à

105 7 DÉFINITION ET PREMIÈRES PROPRIÉTÉS 5 Exemple 78 Soit V = R 2 et <, > le produit scalaire habituel Soit u = ( x y Alors u = x 2 + y 2 et l équation du cercle unité est alors x 2 + y 2 = ou x 2 + y 2 = Exemple 79 Soit V = R 2 muni du produit scalaire généralisé Soit w = (x, y Alors ce qui donne 3x 2 + 2y 2 = ou comme équation pour le cercle unité Le graphe de cette équation est une ellipse < u, v >= 3u v + 2u 2 v 2 w = 3x 2 + 2y 2 3x 2 + 2y 2 = Définition 7 Soit A une matrice de taille n n inversible Le produit scalaire généralisé associé à A est, par définition, le produit scalaire sur R n qui à u, v R n associe (le produit scalaire habituel de Au et de Av Au Av Soient u, v R n représentés comme vecteurs colonne Nous avons vu que Au Av = (Av T Au et ceci conduit à une nouvelle formulation de ce produit scalaire généralisé : < u, v >= v T A T Au Notons que lorsque A = I, on obtient le produit scalaire habituel < u, v >= u v Exemple 7 Soit ( 3 A = 2 Alors le produit scalaire généralisé associé à A est ( ( ( 3 < u, v > = (v v 2 3 u 2 2 u 2 ( ( 3 u = (v v 2 2 u 2 = 3u v + 2u 2 v 2 On retrouve ainsi le produit scalaire de l exemple 73 Théorème 72 Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Alors, pour tout u, v, w V et tout λ R, on a (a <, v >=< v, >= (b < u, λv >= λ < u, v > (c < u, v + w >=< u, v > + < u, w > Démonstration Ceci découle immédiatement des propriétés du produit scalaire : (a <, v >= <, v >= et < v, >=<, v >= (b < u, λv >=< λv, u >= λ < v, u >= λ < u, v > (c < u, v + w >=< v + w, u >=< v, u > + < w, u >=< u, v > + < u, w >

106 6 CHAPITRE 7 PRODUITS SCALAIRES GÉNÉRALISÉS 72 Angles et orthogonalité Théorème 73 (Inégalité de Cauchy-Schwarz Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Soient u, v V Alors on a Démonstration Si u =, alors on a < u, v > u v < u, v >= u =, donc l affirmation est vraie Supposons que u, et posons On a, pour tout t R, a = < u, u > b = 2 < u, v > c = < v, v > < tu + v, tu + v > = < u, u > t < u, v > t+ < v, v > = at 2 + bt + c Donc at 2 + bt + c pour tout t R Ceci implique que le polynôme quadratique ax 2 + bx + c a soit une racine double, soit aucune racine réelle Son discriminant est donc négatif ou nul : b 2 4ac Remplaçant a par < u, u >, b par 2 < u, v > et c par < v, v >, on obtient 4 < u, v > 2 4 < u, u >< v, v > ce qui implique donc < u, v > 2 < u, u > < v, v > < u, v > < u, u >< v, v > = u v Théorème 74 Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Alors on a, pour tout u, v V et pour tout λ R (a u (b u = u = (c λu = λ u (d u + v u + v inégalité du triangle Démonstration La démonstration est la même que dans le cas du produit scalaire habituel Corollaire 75 Soit V un espace vectoriel muni d un produit scalaire généralisé Alors, pour tout u, v, w V et tout λ R, on a (a d(u, v (b d(u, v = u = v (c d(u, v = d(v, u (d d(u, v d(u, w + d(w, v inégalité du triangle Démonstration Ceci est une conséquence immédiate des définitions et du théorème précédent

107 72 ANGLES ET ORTHOGONALITÉ 7 72 Angle formé par deux vecteurs Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Soient u, v V Alors par l inégalité de Cauchy-Schwarz, on a si u et v ( 2 < u, v > u v donc < u, v > u v Il existe donc un unique angle θ, avec θ π, tel que cos θ = < u, v > u v On appelle θ l angle formé par les vecteurs u et v Remarquons que dans le cas du produit scalaire habituel de R n, on retrouve la notion habituelle d angle entre deux vecteurs Définition 76 Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Soient u, v V On dit que u et v sont orthogonaux si et seulement si polynme < u, v >= Exemple 77 Soit P 2 l espace vectoriel des fonctions polynomiales de degré au plus 2 On définit un produit scalaire généralisé sur P 2 en posant < p, q >= p(xq(xdx pour tout p, q P 2 Les axiomes de produit scalaire généralisé sont faciles à vérifier On a par exemple la positivité : pour tout p P 2, on a Soient et alors p et q sont orthogonaux En effet < p, p >= < p, q > = p(x = x q(x = x 2 = p 2 (xdx x x 2 dx = x 3 dx Théorème 78 (Théorème de Pythagore généralisé Soit V un espace vectoriel muni d un produit scalaire généralisé Soient u, v V, et supposons que u et v soient orthogonaux Alors u + v 2 = u 2 + v 2 Démonstration Comme u et v sont orthogonaux, on a Donc < u, v >= u + v 2 = < u + v, u + v > = u 2 + v 2 +2 < u, v > = u 2 + v 2

108 8 CHAPITRE 7 PRODUITS SCALAIRES GÉNÉRALISÉS Exemple 79 Soit P 2 l espace vectoriel des fonctions polynomiales de degré au plus 2, muni du produit scalaire généralisé défini dans l exemple 77 Soient p(x = x et q(x = x 2 Nous avons vu que p et q sont orthogonaux Calculons p 2, q 2, et p + q 2 : On a bien p 2 =< p, p >= p + q 2 =< p + q, p + q >= x 2 dx = 2 3 (x + x 2 (x + x 2 dx = p 2 + q 2 = p + q 2 q 2 =< q, q >= x 4 dx = 2 5 (x 4 + 2x 3 + x 2 dx = 6 5 Définition 72 Soit V un espace vectoriel muni d un produit scalaire généralisé, et soit W un sous-espace vectoriel de V On dit que u V est orthogonal à W si u est orthogonal à tout élément de W L ensemble des u V qui sont orthogonaux à W est appelé le complément orthogonal de W Il est noté W Théorème 72 Soit V un espace vectoriel muni d un produit scalaire généralisé, et soit W un sous-espace vectoriel de V Alors on a (a W est un sous-espace vectoriel de V (b W W = {} Figure 9 : V = R 2 < u, v >= u v Démonstration (a On a <, w >= pour tout w W, donc W Montrons que W est fermé par addition et par multiplication par les scalaires Soient u, v W Alors pour tout w W On a donc < u, w >=< v, w >= < u + v, w >=< u, w > + < v, w >= + =

109 72 ANGLES ET ORTHOGONALITÉ 9 pour tout w W ce qui montre que De même, si λ R, alors pour tout w W et donc λu W (b Soit v W W Alors et donc u + v W < λu, w >= λ < u, w >= < v, v >= v = Théorème 722 Soit A une matrice de taille m n Alors (a Par rapport au produit scalaire habituel de R n, le complément orthogonal de l espace des lignes de A est le nilespace (noyau de A (b Par rapport au produit scalaire habituel de R m, le complément orthogonal de l espace des colonnes de A est le nilespace de A T Démonstration (a Soit W l espace des lignes de A Soit v W Soient l,, l m les vecteurs ligne de A Alors l v = l 2 v = = l m v = Or, nous avons vu que le système linéaire peut étre exprimé par l x l 2 x l m x Ax = = Comme l v = l 2 v = = l m v =, le vecteur v est une solution de ce système Par définition, ceci implique que v est dans le nilespace de A Réciproquement, supposons que v est dans le nilespace de A, autrement dit Alors on a Av = l v = l 2 v = = l m v = Soit w W Alors w est combinaison linéaire de l, l 2,, l m, c est-à-dire que l on a avec λ, λ 2,, λ m R On a donc w = λ l + λ 2 l λ m l m w v = (λ l + λ 2 l λ m l m v = λ (l v + λ 2 (l 2 v + + λ m (l m v = Donc v W Ceci démontre la partie (a du théorème (b On applique (a à la matrice A T : en effet, l espace des colonnes de A est égal à l espace des lignes de A T

110 CHAPITRE 7 PRODUITS SCALAIRES GÉNÉRALISÉS 73 Bases orthogonales et méthode de Gram-Schmidt Définition 723 Soit V un espace vectoriel muni d un produit scalaire généralisé Soit S = {v,, v n } un sous-ensemble de V On dit que S est un ensemble orthogonal si v i est orthogonal à v j pour tout i j On dit que S est un ensemble orthonormé si S est orthogonal et si v i = pour tout i =,, n Un ensemble orthogonal qui est une base est appelé une base orthogonale ; un ensemble orthonormé qui est une base est appelé une base orthonormée Théorème 724 Soit V un espace vectoriel muni d un produit scalaire généralisé <, >, et soit S = {v,, v n } une base orthonormée de V Soit u V Alors u = < u, v > v + + < u, v n > v n Démonstration Comme S est une base, il existe λ,, λ n R tels que On a u = λ v + + λ n v n < u, v i >=< λ v + + λ n v n, v i >= λ < v, v i > + + λ n < v n, v i > Or, comme < v j, v i >= si i j et < v i, v i >= v i 2 =, on a < u, v i >= λ i et par conséquent u =< u, v > v + < u, v 2 > v < u, v n > v n On appelle les scalaires < u, v >, < u, v 2 >,, < u, v n > les coordonnées de u par rapport à la base orthonormée {v,, v n } Théorème 725 Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Soit S = {v, v 2,, v n } une base orthogonale de V et u un vecteur de V Alors Démonstration La base u = < u, v > v 2 v + < u, v 2 > v 2 2 v < u, v n > v n 2 v n S = { } v v, v 2 v 2,, v n v n est orthonormée Par le théorème précédent, on a donc u = u, v v v v + + u, v n vn v n v n et alors u = < u, v > v 2 v + + < u, v n > v n 2 v n Théorème 726 Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Soit S = {v,, v n } un sous-ensemble orthogonal de V, avec v i pour tout i =,, n Alors S est une famille linéairement indépendante

111 73 BASES ORTHOGONALES ET MÉTHODE DE GRAM-SCHMIDT Démonstration Supposons que avec λ, λ 2,, λ n R On a λ v + λ 2 v λ n v n = < λ v + λ 2 v λ n v n, v i >=<, v i >= pour tout i =,, n Par linéarité du produit scalaire, on obtient λ < v, v i > +λ 2 < v 2, v i > + + λ n < v n, v i >= Mais comme < v j, v i >= si i j, on obtient λ i < v i, v i >= ce qui implique, comme v i, que λ i = pour tout i =,, n Donc S est linéairement indépendant Théorème 727 Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Soit S = {v, v 2,, v n } un sous-ensemble orthonormé (qui n est pas forcément une base ; il peut être plus petit de V et soit u V Posons w =< u, v > v + < u, v 2 > v < u, v n > v n et w 2 = u w Notons W = L(S, le sous-espace vectoriel de V engendré par S Alors w W et w 2 W w 2 u w W Figure 92 : u = w + w 2 Notation : Le vecteur w W est appelé la projection orthogonale de u sur W, et est noté proj W (u Démonstration Il est clair que w W, puisque w est une combinaison linéaire de v,, v n Montrons que w 2 W On a pour tout i =,, n On a pour tout i =,, n On a donc < w 2, v i >=< u w, v i >=< u, v i > < w, v i > < w, v i > = < u, v > v + + < u, v n > v n, v i = < u, v >< v, v i > + + < u, v n >< v n, v i > = < u, v i >< v i, v i > = < u, v i > =< u, v i > < w 2, v i >=< u, v i > < w, v i >=

112 2 CHAPITRE 7 PRODUITS SCALAIRES GÉNÉRALISÉS pour tout i =,, n ce qui montre que w 2 est orthogonal à S = {v, v 2,, v n } Comme S engendre W, on a que w 2 est orthogonal à W Donc w 2 W Corollaire 728 Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Soit W un sous-espace vectoriel de dimension finie de V Alors tout u V s écrit de manière unique comme u = w + w 2 avec w W et w 2 W De plus, w = proj W (u Exemple 729 Soit V = R 3, <, > le produit scalaire habituel, et soit W le sous-espace engendré par 4/5 v = et v 2 = 3/5 On vérifie que v = ( v 2 =, et que < v, v 2 >= v v 2 = Donc S = {v, v 2 } est un ensemble orthonormé Soit u = Alors w = proj W (u =< u, v > v + < u, v 2 > v 2 Comme < u, v >= et < u, v 2 >= 5, ceci donne proj W (u = v 4/25 5 v 2 = 3/25 La décomposition orthogonale de u par rapport à W est donc = 4/25 + 2/25 3/25 28/25 On vérifie que ( 2/25 est orthogonal à v et à v 2 et donc qu il est bien dans W 28/25 Théorème 73 Soit V un espace vectoriel de dimension finie muni d un produit scalaire généralisé <, > Alors V a une base orthonormée Démonstration On va démontrer le théorème en construisant une base orthonormée La méthode de construction utilisée ici s appelle méthode de Gram-Schmidt ou procédé de Gram-Schmidt Soit S = {u,, u n } une base quelconque de V On construit une base orthonormée en n étapes ère étape : On pose ce qui nous donne v = v = u u 2ère étape : Soit W le sous-espace de V engendré par v On pose w 2 = u 2 proj W (u 2 Alors < w 2, v >=

113 73 BASES ORTHOGONALES ET MÉTHODE DE GRAM-SCHMIDT 3 car w 2 est orthogonal à W, donc à v Vérifions que w 2 En effet, si w 2 =, alors u 2 = proj W (u 2 Ceci implique que u 2 et v sont linéairement dépendants et donc que u 2 et u le sont également Ceci n est pas possible car u et u 2 font partie d une base de V La norme de w 2 est donc non nulle On pose alors v 2 = w 2 w 2 On a v 2 =, v = et < v, v 2 >= k-ème étape Supposons construits les vecteurs tels que v, v 2,, v k v = v 2 = = v k =, que < v i, v j >= si i j et que le sous-espace W k engendré par v, v 2,, v k soit égal au sous-espace engendré par u,, u k On pose w k = u k proj Wk (u k Montrons que w k Si w k =, alors u k = proj Wk (u k, donc u k W k = L(u,, u k Ceci contredit l hpothèse que u,, u k font partie d une base de V Donc w k Comme w k = u k proj Wk (u k, le vecteur w k est orthogonal à W k et en particulier à v,, v k On pose finalement v k = w k w k On a ainsi construit v,, v k tels que v = = v k =, et que < v i, v j >= si i j et L(v,, v k = L(u,, u k On termine ce procédé lorsque l on a obtenu v n Exemple ( 73 On considère R 3 muni du produit scalaire habituel Soit S = {u, u 2, u 3 }, avec ( ( u =, u 2 =, u 3 = une base de R 3 On applique la méthode de Gram-Schmidt pour obtenir une base orthonormée ( ère étape : w = u = 2ème étape : soit W = L(w = L(u On pose w 2 = u 2 proj W (u 2 = = u 2 < u 2, w > w 2 w Comme < u 2, w >=< u 2, u >= 2 et w 2 = u 2 = 3, on obtient w 2 = 2 2/3 = /3 3 /3 3ème étape : soit Posons W 2 = L(w, w 2 = L(u, u 2 w 3 = u 3 proj W2 (u 3 = u 3 < u 3, w > w 2 w < u 3, w 2 > w 2 2 w 2 = /2 /2

114 4 CHAPITRE 7 PRODUITS SCALAIRES GÉNÉRALISÉS On a donc w =, w 2 = 2/3 /3, w 3 = /3 /2 /2 Alors {w, w 2, w 3 } est une base orthogonale de R 3 On obtient une base orthonormée en posant Ceci nous donne v = w w, v 2 = w 2 w 2 et v 3 = w 3 w 3 / 3 v = / 2/ 6 3 /, v 2 = / 6 3 /, v 3 = / 2 6 / 2 74 Matrices orthogonales 74 Définition et Propriétés Définition 732 Soit A une matrice carrée On dit que A est une matrice orthogonale si A = A T Remarque : A est une matrice orthogonale si et seulement si A T A = AA T = I Exemple 733 Les matrices de rotation sont orthogonales Soit θ un angle Alors la matrice de la rotation d angle θ de R 2 est ( cos θ sin θ A = sin θ cos θ Cette matrice est orthogonale En effet, l identité sin 2 θ + cos 2 θ = montre que l on a A T A = I Théorème 734 Soit A une matrice n n Les trois propriétés suivantes sont équivalentes : (a A est orthogonale (b Pour tout x R n, on a Ax = x (c Pour tout x, y R n, on a Ax Ay = x y En d autres termes, une matrice orthogonale conserve les normes et les angles Démonstration (a = (b Supposons A orthogonale On a Ax 2 = Ax Ax = x (A T Ax = x x = x 2 (b = (c Supposons que pout tout x R n On a Ax = x Ax Ay = 4 Ax + Ay 2 4 Ax Ay 2 = = 4 A(x + y 2 4 A(x y 2 = = 4 x + y 2 4 x y 2 = x y

115 74 MATRICES ORTHOGONALES 5 (c = (a On considère (c avec x = e i et y = e j des vecteurs de la base standard Alors x y est soit (si i j soit (si i = j, et est le coefficient I ij de la matrice identité D autre part, Ax Ay = e T j A T Ae i est le coefficient (i, j de la matrice A T A Il suit que A T A = I, et donc que A est orthogonale Remarque 735 L inverse d une matrice orthogonale est orthogonale En effet on a A orthogonale A = A T (A = (A T (A = (A T A est orthogonale 742 Changement de bases orthonormées Théorème 736 Soit V un espace vectoriel de dimension finie muni d un produit scalaire généralisé Soit P la matrice de changement de base d une base orthonormée vers une autre base orthonormée Alors P est une matrice orthogonale Démonstration Soient B = {e,, e n } et B = {e,, e n} deux bases orthonormées de V et soit P B,B la matrice de changement de base de B à B On a u = n u i e i = i= Comme B et B sont des bases orthonormées, on a De plus, on a ce qui implique que (u B = u u n u = n u 2 i = (u T B (u B i= n u 2 i = i= = P B,B et n u ie i i= n i= u u n n i= u 2 i = P B,B (u B, u 2 i = (u T B (u B (u T B (u B = u = (ut B (u B = (P B,B (u B T P B,B (u T B = (ut B P T B,B P B,B (u B Comme ceci est vrai pour tout vecteur u, on en déduit que P T B,B P B,B = I ce qui montre que P B,B est orthogonale 743 Décomposition Q-R : application du théorème 73 Soit A une matrice n n ayant ses colonnes linéairement indépendantes Alors il existe une matrice orthogonale Q (par rapport au produit scalaire standard sur R n et une matrice triangulaire supérieure R, telles que : A = QR Plus précisément, Q est la matrice dont les colonnes sont les vecteurs obtenus en appliquant le procédé de Gram-Schmidt aux vecteurs colonne de A On procède comme suit : Soit A = a a 2 a n a n a n2 a nn

116 6 CHAPITRE 7 PRODUITS SCALAIRES GÉNÉRALISÉS On appelle c i la i-ème colonne de A Soit {c,, c n} la base obtenue en appliquant Gram-Schmidt à {c,, c n } et Q la matrice dont les colonnes sont c,, c n q q n Q = q n q nn Comme {c,, c n} est une base orthonormée, on a c = < c, c > c + + < c, c n > c n c n = < c n, c > c + + < c n, c n > c n c est-à-dire c = < c, c > q q n + + < c, c n > q n q nn c n = < c n, c > q q n + + < c n, c n > Ainsi, on voit que q q n < c, c > < c 2, c > < c n, c > A = q n q nn } < c, c n > < c 2, c n > {{ < c n, c n > } =R La matrice R est triangulaire En effet, par Gram-Schmidt, pour tout k >, c k est orthogonal à l espace engendré par c,, c k Ainsi, R ij =< c j, c i >= pour tout i > j, et R est bien triangulaire supérieure La décomposition d une matrice en un produit d une matrice orthogonale et d une matrice triangulaire s appelle la décomposition QR Exemple 737 Calculons la décomposition QR de la matrice ( 2 3 A = q n q nn En appliquant le procédé de Gram-Schmidt aux vecteurs colonne de A, on obtient ( De plus, Ainsi, Q = ( c = et c 2 = < c, c > = 5 < c 2, c > = < c, c 2 > = < c 2, c 2 > = et R = ( (

117 75 LA MÉTHODE DES MOINDRES CARRÉS 7 75 La méthode des moindres carrés Théorème 738 Soit V un espace vectoriel muni d un produit scalaire généralisé, et soit W un sous-espace de V Soit u V Alors u proj W (u < u w pour tout w W, w proj W (u On dit que proj W (u est la meilleure approximation de u par des vecteurs de W Démonstration Pour tout w W, on a On a et u w = (u proj W (u + (proj W (u w proj W (u w W u proj W (u W donc ces deux termes sont orthogonaux l un à l autre Par le théorème de Pythagore généralisé, on a u w 2 = u proj W (u 2 + proj W (u w 2 Si w proj W (u, alors, d où et donc proj W (u w 2 > u w 2 > u proj w (u 2 u w > u proj w (u 75 Solution approximative d un système d équations linéaires Soit Ax = b un système d équations linéaires qui est incompatible, c est-à-dire qui n a pas de solution Nous allons voir une méthode pour donner une solution approximative de ce système Cette méthode s appelle la méthode des moindres carrés (least squares Le principe de la méthode est le suivant : étant donné un système Ax = b de m équations et n inconnues, on se propose de trouver un vecteur x tel que la norme Ax b soit minimale Un tel vecteur x est appelé une solution au sens des moindres carrés Cette terminologie vient du fait que l on minimise la norme euclidienne de l erreur commise En effet, posons e = Ax b Si le système admettait une solution, on aurait e = Ce terme mesure donc l erreur commise par l approximation faite Si e = (e,, e m, alors e 2 = e 2 + e e 2 m On désire que ces carrés soient aussi petits que possible Soit Ax = b un système de m équations linéaires à n inconnues Alors A est de taille m n Soit W l espace des colonnes de A C est un sous-espace vectoriel de R m Nous avons vu que le système a une solution si et seulement si b W Lorsque b W, le mieux que l on puisse faire est de trouver une approximation de b par un vecteur de W Or, nous avons vu que la meilleure approximation de b par un vecteur de W est proj W (b On doit donc résoudre le système Ax = proj W (b

118 8 CHAPITRE 7 PRODUITS SCALAIRES GÉNÉRALISÉS On pourrait donc calculer proj W (b, et résoudre le système Ax = proj W (b, mais il y a une meilleure méthode En effet, si x est tel que Ax = proj W (b, alors le vecteur b Ax = b proj W (b est orthogonal à W Mais W est l espace des colonnes de A et W est donc le nilespace de A T On doit donc avoir A T (b Ax = autrement dit Définition 739 Le système A T Ax = A T b A T Ax = A T b est appelé le système normal associé au système Ax = b Les solutions du système normal sont les solutions au sens des moindres carrés (solutions approximatives du système de départ Ax = b Théorème 74 Pour tout système d équations linéaires Ax = b le système normal associé A T Ax = A T b a au moins une solution Toutes les solutions du système normal sont des solutions au sens des moindres carrés du système Ax = b De plus, si W est l espace des colonnes de A et si x est une solution de moindres carrés de Ax = b, alors proj W b = Ax Théorème 74 Soit A une matrice de taille m n Supposons que les vecteurs colonne de A soient linéairement indépendantes Alors la matrice A T A est inversible Démonstration Pour montrer que A T A est inversible, il suffit de montrer que le système A T Ax = a une unique solution (la solution triviale Soit x une solution de ce système Alors Ax est dans le nilespace de A T Mais Ax est aussi dans l espace des colonnes de A Or nous avons vu que ces deux espaces sont orthogonaux l un à l autre Leur intersection est donc nulle Ceci implique que Ax = Comme nous avons supposé que les vecteurs colonne de A sont linéairement indépendants, ceci implique que x = Théorème 742 Soit A une matrice dont les vecteurs colonne sont linéairement indépendants Alors tout système linéaire Ax = b a une unique solution au sens des moindres carrés qui est donnée par x = (A T A A T b Démonstration Ceci découle directements des deux théorèmes précédents Exemple 743 Trouver les solutions de moindres carrés du système Ax = b suivant : x + x 2 = 6 2x x 2 = x 3x 2 =

119 75 LA MÉTHODE DES MOINDRES CARRÉS 9 On a A = 2 3 b = 6 Les vecteurs colonne de A étant linéairement indépendants, le système a une unique solution au sens des moindres carrés On a ( A T 6 5 A = 5 et Le système normal A T Ax = A T b est donc A T b = ( 7 8 6x 5x 2 = 7 5x + x 2 = 8 dont l unique solution est x = 7 39 x 2 = 83 39

120 2 CHAPITRE 7 PRODUITS SCALAIRES GÉNÉRALISÉS

121 Chapitre 8 Valeurs propres et vecteurs propres 8 Définitions et premières propriétés Définition 8 Soit A une matrice n n On dit que x R n, x, est un vecteur propre de A s il existe λ R tel que Ax = λx Le scalaire λ est appelé valeur propre de A On dit que x est un vecteur propre associé (ou correspondant à la valeur propre λ Si x est un vecteur propre de A, alors Ax est colinéaire à x : Exemple 82 Soit Ax x λ = 2 A = ( 3 8 x Ax λ = ( Alors x = est un vecteur propre de A correspondant à la valeur propre λ = 3, car 2 ( ( ( 3 3 Ax = = = 3x Soit A une matrice n n On peut réécrire l égalité comme ce qui est équivalent à Ax = λx Ax = λix, (λi Ax = Si λ est une valeur propre de A, alors cette équation a une solution x Ceci implique que det(λi A = Cette dernière équation est appelée l équation caractéristique de A et p(λ = det(λi A est appelé le polynôme caractéristique de A Les racines λ de l équation caractéristique sont les valeurs propres de A Si A est une matrice n n, alors l équation caractéristique de A est de degré n et le coefficient de λ n est Autrement dit, le polynôme caractéristique d une matrice n n est de la forme p(λ = det(λi A = λ n + c λ n + + c n λ + c n On sait qu un polynôme de degré n a au plus n racines distinctes ce qui montre qu une matrice n n a au plus n valeurs propres distinctes 2

122 22 CHAPITRE 8 VALEURS PROPRES ET VECTEURS PROPRES Exemple 83 Cherchons les valeurs propres et les vecteurs propres de la matrice ( 3 A = 4 2 Son équation caractéristique est ( λ 3 det(λi A = det = λ 2 3λ = 4 λ 2 Les valeurs propres de A sont donc les racines de λ 2 3λ = qui sont polynôme λ = 2 et λ = 5 Cherchons maintenant les vecteurs propres de A Un vecteur ( x x = est vecteur propre de A si et seulement si Ax = λx x 2 autrement dit si (λi Ax = Ceci nous donne ( λ 3 4 λ 2 Pour λ = 2, on obtient Les solutions de ce système sont ( ( ( x = x 2 ( ( x = x 2 x = t, x 2 = t L ensemble des vecteurs propres de A correspondant à la valeur propre λ = 2 est donc {( } t t R, t t Pour λ = 5, on obtient le système ( dont les solutions sont ( ( x = x 2 ( ( 3 x = 4 t x 2 t L ensemble des vecteurs propres de A correspondant à la valeur propre λ = 5 est donc {( 3 4 t } t R, t t Théorème 84 Soit A une matrice triangulaire Alors les valeurs propres de A sont les éléments de la diagonale de A

123 8 DÉFINITIONS ET PREMIÈRES PROPRIÉTÉS 23 Démonstration Soit A une matrice triangulaire supérieure a a 22 A = a nn Le polynôme caractéristique de A est λ a λ a 22 det(λi A = det λ a nn = (λ a (λ a 22 (λ a nn ce qui montre que les valeurs propres de A sont λ = a, λ = a 22,, λ = a nn La démonstration est analogue lorsque A est triangulaire inférieure 8 Calcul des vecteurs propres Soit A une matrice carrée et λ une valeur propre de A Les vecteurs propres de A correspondant à la valeur propre λ sont les vecteurs x qui satisfont l équation Ax = λx De façon équivalente, ces vecteurs sont les vecteurs non nuls de l espace des solutions de (λi Ax = L ensemble de ces vecteurs propres est appelé l espace propre de A correspondant à la valeur propre λ et est noté E λ Nous venons donc de voir que l espace propre E λ est le nilespace de la matrice λi A Exemple 85 Trouver des bases pour les espaces propres de la matrice A = L équation caractéristique de A est Les valeurs propres de A sont donc λ 3 5λ 2 + 8λ 4 = (λ (λ 2 2 = λ = et λ = 2 Il y a donc deux espaces propres Pour calculer E 2 (l espace propre associé à la valeur propre 2, il faut trouver le noyau de 2I A, c est-à-dire le noyau de 2 2 On obtient x = s, x 2 = t, x 3 = s

124 24 CHAPITRE 8 VALEURS PROPRES ET VECTEURS PROPRES Les vecteurs propres de A correspondant à la valeur propre λ = 2 sont donc les vecteurs non nuls de la forme s s x = t s = s + t = s + t Comme et sont linéairement indépendants, ces vecteurs forment une base de l espace propre E 2 Pour λ =, on calcule le noyau de I A : 2 2 Les solutions sont x = 2s, x 2 = s, x 3 = s ce qui nous permet de conclure que les vecteurs propres de A correspondant à la valeur propre λ = sont les vecteurs non nuls de la forme L ensemble s 2 2 constitue ainsi une base possible de E Théorème 86 Soit A une matrice carrée, et soit k un entier Si λ est une valeur propre de A, et x un vecteur propre correspondant, alors λ k est une valeur propre de A k, et x est un vecteur propre correspondant à λ k polynôme Démonstration Supposons d abord que k est positif On a A k x = A k (Ax = A k (λx = λa k x = λa k 2 (Ax = λ 2 A k 2 x = = λ k x Si k est négatif, et si A est inversible, on a alors A x = λ x en divisant l équation Ax = λx par A λ ; le même calcul donne A k x = λ k x En particulier, les valeurs propres de A k sont précisément les puissances k-ièmes des valeurs propres de A Remarquons toutefois que A k peut avoir plus de vecteurs propres que A Un exemple simple est la matrice A = ( ; l espace propre E de A est de dimension, mais comme A 2 = l espace propre E de A 2 est de dimension 2 Lemme 87 Soit f = a n X n + + a X + a un polynôme à coefficients réels Alors X = est une racine de f = si et seulement si a = Démonstration Si est une racine de f =, alors en remplaçant X par on trouve a = Réciproquement, si a =, alors on vérifie que est bien une solution de l équation f = Théorème 88 Soit A = (a ij une matrice n n et det(λi A = λ n + c n λ n + + c λ + c son polynôme caractéristique Alors c = ( n det(a et c n = tr(a

125 82 DIAGONALISATION 25 Démonstration Montrons la premiére égalité Remplaçons λ par dans le polynôme caractéristique de A On obtient ainsi det( A = c Comme det( A = ( n det(a, on obtient l égalité voulue Montrons la deuxième égalité λ a a 2 a n a 2 λ a 22 a 2n det(λi n = det a n a n(n λ a nn Si on développe ce déterminant par rapport à la premiére ligne par exemple, on remarque que le seul terme qui contient des puissances de λ supérieures à n 2 est On a donc (λ a (λ a 22 (λ a nn (λ a (λ a 22 (λ a nn = λ n + ( a a 22 a nn λ n + Le coefficient de λ n dans le polynôme caractéristique est donc bien trace(a Corollaire 89 Une matrice carrée A est inversible si et seulement si λ = n est pas valeur propre de A Démonstration la matrice A est inversible si et seulement si det(a Or, par le théorème précédent, ceci est équivalent à dire que λ = n est pas un zéro du polynôme caractéristique, c est-à-dire pas une valeur propre de A Notons que si λ = est une valeur propre de A, alors l espace propre associé E n est rien d autre que le nilespace de A En résumé, E = KerA si est valeur propre 82 Diagonalisation Définition 8 Soit A une matrice carrée On dit que A est diagonalisable s il existe une matrice inversible P telle que P AP soit une matrice diagonale Théorème 8 Soit A une matrice n n Alors les propriétés suivantes sont équivalentes : (a A est diagonalisable ; (b A a n vecteurs propres linéairement indépendants Démonstration (a = (b Comme A est diagonalisable, il existe une matrice inversible p p 2 p n p 2 p 22 p 2n P =, p n p n2 p nn telle que P AP soit diagonale On a donc P AP = D, avec λ D = λ 2 λ n

126 26 CHAPITRE 8 VALEURS PROPRES ET VECTEURS PROPRES Comme P AP = D, on a AP = P D Donc λ p p n AP = P D = p n p nn λ n = λ p λ 2 p 2 λ n p n λ p 2 λ 2 p 22 λ n p 2n λ p n λ 2 p n2 λ n p nn Soient p, p 2,, p n les vecteurs colonne de P Alors les colonnes de AP sont λ p, λ 2 p 2,, λ n p n Mais on sait que les colonnes de AP sont Ap, Ap 2,, Ap n Donc Ap = λ p, Ap 2 = λ 2 p 2,, Ap n = λ n p n Comme P est inversible, les vecteurs colonne p, p 2,, p n sont linéairement indépendants Par les formules ci-dessus, p, p 2,, p n sont des vecteurs propres de A correspondant aux valeurs propres λ, λ 2,, λ n Donc A a n vecteurs propres linéairement indépendants (b = (a Supposons que A ait n vecteurs propres linéairement indépendants p, p 2,, p n, avec valeurs propres correspondantes λ, λ 2,, λ n Posons P = p p 2 p n p 2 p 22 p 2n p n p n2 p nn Les colonnes de la matrice P sont les vecteurs p, p 2,, p n Les colonnes du produit AP sont les vecteurs Ap, Ap 2,, Ap n Mais comme Ap = λ p, Ap 2 = λ 2 p 2,, Ap n = λ n p n, on a AP = = P D, λ p λ 2 p 2 λ n p n λ p 2 λ 2 p 22 λ n p 2n λ p n λ 2 p n2 λ n p nn = p p 2 p n p 2 p 22 p 2n p n p n2 p nn λ λ 2 λ n avec D = λ λ 2 λ n On a donc : AP = P D Comme les vecteurs colonne de P sont linéairement indépendants, la matrice P est inversible et l on obtient finalement P AP = D, ce qui montre que A est diagonalisable

127 82 DIAGONALISATION Méthode pour diagonaliser une matrice Trouver n vecteurs propres linéairement indépendants, p, p 2,, p n 2 Construire la matrice P ayant p, p 2,, p n comme vecteurs colonne 3 La matrice P AP est diagonale Les éléments diagonaux sont les valeurs propres λ, λ 2,, λ n correspondant respectivement aux vecteurs propres p, p 2,, p n Exemple 82 Diagonalisons la matrice L équation caractéristique de A est A = (λ (λ 2 2 = et les valeurs propres sont alors λ = et λ = 2 Une base de E 2 est donnée par p =, p 2 = alors qu une base de E est donnée par le vecteur p 3 = 2 Ces 3 vecteurs propres étant linéairement indépendants, la matrice A est diagonalisable On pose alors 2 P = et on a P AP = 2 2 Théorème 83 Si v, v 2,, v n sont des vecteurs propres d une matrice A correspondant à des valeurs propres distinctes λ, λ 2,, λ n, alors {v, v 2,, v n } est un ensemble linéairement indépendant Démonstration Nous allons démontrer ce théorème par l absurde Supposons donc que les vecteurs propres v, v 2,, v n sont linéairement dépendants Soit r le plus grand entier tel que {v, v 2,, v r } soit linéairement indépendant On a r < n Il existe donc des scalaires c, c 2,, c r+ non tous nuls tels que c v + c 2 v c r+ v r+ = ( Multiplions cette équation par A On obtient c Av + c 2 Av c r+ Av r+ = Comme Av = λ v, Av 2 = λ 2 v 2,, Av r+ = λ r+ v r+, on obtient c λ v + c 2 λ 2 v c r+ λ r+ v r+ = En multipliant ( par λ r+, on a c λ r+ v + c 2 λ r+ v c r+ λ r+ v r+ =

128 28 CHAPITRE 8 VALEURS PROPRES ET VECTEURS PROPRES En soustrayant cette équation de la dernière, on obtient Comme les λ,, λ n sont distincts, on a c (λ λ r+ v + + c r (λ r λ r+ v r = c = c 2 = = c r = On a donc c r+ v r+ = Comme v r+, on a c r+ = ce qui conduit à c = c 2 = = c r+ = Ceci contredit l hypothèse que c, c 2,, c r+ sont non tous nuls Corollaire 84 Soit A une matrice n n Si A a n valeurs propres distinctes, alors A est diagonalisable Démonstration C est une conséquence immédiate des théorèmes 83 et 8 ( 2 Exemple 85 Soit A = Par le théorème 88, le polynôme carcatéristique de A est 2 λ 2 trace(aλ + det(a = λ A n est pas diagonalisable car son polynôme n a pas de racines dans R ( 2 3 Exemple 86 Soit A = Comme A est triangulaire, ses valeurs propres apparaissent 2 sur la diagonale La matrice a donc une unique valeur propre qui est égale à 2 On sait, par le théorème 8, que A est diagonalisable si et seulement si A a deux vecteurs propres linéairement indépendants Calculons l espace E 2 : on doit résoudre le système ( ( ( 2 3 x x = 2, x, y R 2 y y {( } s Il est équivalent à y = Ainsi, E 2 = s R qui est de dimension A n a donc pas 2 vecteurs linéairement indépendants, elle n est donc pas diagonalisable 83 Matrices symétriques et diagonalisation Comme nous allons le voir, les matrices symétriques sont des matrices ayant la propriété d être toujours diagonalisables De plus, il existe une base de vecteurs propres orthonormée Théorème 87 Soit A une matrice n n, symétrique Alors A possède n vecteurs propres linéairement indépendants De plus, on peut choisir ces vecteurs propres de façon qu ils forment une base orthonormale Une matrice carrée symétrique est donc diagonalisable On va faire appel au lemme suivant, dont la démonstration nécessite l usage de nombres complexes Lemme 88 Soit A une matrice n n, symétrique Alors A possède une valeur propre réelle Preuve du théorème 87 Il s agit de montrer : pour une matrice A symétrique (A T = A, il existe une matrice P orthogonale (P T P = I telle que P AP est diagonale En effet, la matrice P en question a pour colonnes les vecteurs propres de A, et ces derniers forment une base orthonormale si et seulement si P est orthogonale On procède par récurrence, le cas n = étant trivial Par le lemme, soit λ une valeur propre de A, et soit x un vecteur propre associé On peut supposer x de norme, soit x T x = Par le procédé de Gram-Schmidt, on peut compléter x en une base orthonormale (x, y 2,, y n de R n On note Y la matrice n (n dont les colonnes sont y,, y n On a donc Y T Y = et x T Y = et Y T x =, par orthogonalité de la base

129 83 MATRICES SYMÉTRIQUES ET DIAGONALISATION 29 La matrice B = Y T AY est une matrice symétrique, car B T = Y T A T (Y T T = B De plus, elle est de taille (n (n Ainsi, par récurrence, il existe une matrice orthogonale Q telle que Q BQ soit diagonale, disons de coéfficients diagonaux λ 2,, λ n On pose alors P = (x Y Q ; c est la matrice carrée dont la première colonne est x et dont les n colonnes suivantes sont la matrice Y Q On calcule : P T P = ( x T (Y Q T ( x Y Q = ( x T x x T Y Q Q T Y T x Q T Y T Y Q = ( = I I n, n donc P est une matrice orthogonale De plus, ( ( x P AP = P T T Ax x T AY Q x T λ x (Ax T Y Q AP = Q T Y T Ax Q T Y T = AY Q Q T Y T λ x Q T BQ λ λ x T Y Q λ λ 2 = λ Q T Y T x = λ 2 λ n λ n est diagonale Théorème 89 Deux vecteurs propres associés à deux valeurs propres distinctes sont orthogonaux (pour le produit scalaire usuel Démonstration Soient A une matrice carrée et λ, µ deux valeurs propres de A distinctes Soient encore v un vecteur propre associé à la valeur propre λ et w un vecteur propre associé à la valeur propre µ On a (Av w = (λv w = λ(v w = λ w T v D autre part, v (Aw = (Aw T v = w T A T v = w T Av = w T λv = λw T v La troisième égalité découle du fait que A est symétrique On a donc (Av w = v (Aw, c est-à-dire λ v w = µ v w Ainsi (λ µ v w = Comme λ µ, on a nécessairement v w = Les vecteurs v et w sont donc bien orthogonaux Définition 82 Soit A une matrice carrée On dit que A est orthogonalement diagonalisable si elle est diagonalisable et s il existe une base de vecteurs propres qui est orthonormée Par le théorème précédent, toute matrice symétrique est orthogonalement diagonalisable Nous donnons maintenant un exemple d une diagonalisation orthogonale Exemple 82 Soit A = Le polynôme caractéristique est c est-à-dire On trouve ainsi det det(λ I A λ λ λ λ 3 3λ 2 Les valeurs propres de A sont donc et 3 Calculons les espaces propres Pour E, on doit résoudre le système x y = z

130 3 CHAPITRE 8 VALEURS PROPRES ET VECTEURS PROPRES qui est équivalent à x + y + z = Ainsi, { E = s + t } s, t R Comme A est diagonalisable et que E est de dimension 2, alors E 3 est nécessairement de dimension On a clairement On remarque qu on a bien E 3 Ainsi E 3 = { s et } s R Gram-Schmidt pour extraire une base orthogonale de E Posons f = Les vecteurs, g = f f = f 2 = f 2 f f 2 f f f = 2 2 = de E Pour E 3, il suffit de prendre et g 2 = f 2 f 2 = Appliquons le procédé de et f 2 = forment une base orthonormée comme vecteur de base de norme On vérifie que } {{ } P T } {{ } P = 3

131 Chapitre 9 Applications linéaires 9 Définitions et exemples Nous avons étudié la notion d application linéaire f : R n R m Cette notion se généralise à des espaces vectoriels quelconques Définition 9 Soient V et W des espaces vectoriels On dit qu une application f : V W est une application linéaire si et seulement si les deux propriétés suivantes sont vérifiées : (a f(u + v = f(u + f(v pout tout u, v V ; (b f(λu = λf(u pour tout u V, λ R Exemple 92 Voici quelques exemples d applications linéaires : ( Applications linéaires f : R n R m f(x = Ax pour une certaine matrice A (2 L application nulle f : V W f(u = pour tout u V (3 L application identité f : V V f(u = u pour tout u V (4 La symétrie centrale S : V V S(v = v pour tout v V (5 L homothétie de rapport k H : V V H(v = k v pour tout v V 3

132 32 CHAPITRE 9 APPLICATIONS LINÉAIRES (6 La projection orthogonale Soit V un espace vectoriel muni d un produit scalaire généralisé <, >, et soit W un sous-espace vectoriel de V Nous avons défini la projection orthogonale f : V W f(v = proj W (v Si S = {w, w 2,, w r } est une base orthonormée de W, alors f(v = proj W (v =< v, w > w + + < v, w r > w r C est une application linéaire En effet, vérifions les deux propriétés : f(u + v =< u + v, w > w + + < u + v, w r > w r =< u, w > w + < v, w > w + + < u, w r > w r + < v, w r > w r =< u, w > w + + < u, w r > w r + < u, w > w + + < v, w r > w r = f(u + f(v f(λu =< λu, w > w + + < λu, w r > w r = λ(< u, w > w + + < u, w r > w r = λf(u Donc f est bien une application linéaire (7 Rappelons que l on note P n l ensemble des fonctions polynomiales de degré n : p(x = a n x n + + a x + a On définit une application f : P n P n+ par C est une application linéaire car on a : f(p = xp(x = a n x n+ + + a x 2 + a x f(p + p 2 = x(p (x + p 2 (x = xp (x + xp 2 (x = f(p + f(p 2 et f(λp = x(λp(x = λ(xp(x = λf(p (8 Soient a, b R Définissons l application T : P n P n par T (f = f(ax + b C est bien une application linéaire car : T (f + f 2 = (f + f 2 (ax + b = f (ax + b + f 2 (ax + b = T (f + T (f 2 et T (λf = (λf(ax + b = λ(f(ax + b = λt (f

133 9 DÉFINITIONS ET EXEMPLES 33 (9 L application linéaire définie par un produit scalaire généralisé Soit V un espace vectoriel muni d un produit scalaire généralisé <, > Soit v V On définit une application f : V R en posant f(v =< v, v > Alors f est une application linéaire En effet, on a : f(u + v =< u + v, v >=< u, v > + < v, v >= f(u + f(v, et f(λv =< λv, v >= λ < v, v >= λf(v ( La dérivation Soit V = C (R l espace vectoriel des fonctions f : R R dérivables avec première dérivée continue et W = C (R l espace vectoriel des fonctions continues réelles à variable réelle Soit D : C (R C (R l application définie par D(f = f où f est la première dérivée de f Alors D est une application linéaire car la dérivation est une opération linéraire ( L intégration Soit V = C (R et W = C (R Soit J : C (R C (R f(t x f(tdt L application J est linéaire car x (f(t + g(tdt = x f(tdt + x g(tdt et x (λ f(tdt = λ x f(tdt pour toutes fonctions f et g et pour tout λ R (2 Soit M n (R l ensemble des matrices n n Alors est une application linéaire tr : M n (R R A trace(a Exemple 93 Donnons un exemple d une application qui n est pas linéaire Soit f : M 22 R la fonction définie par On a f(a = det(a det(λa = λ 2 det(a et λ 2 det(a est différent de λ det(a dès que λ et det(a De plus, en général det(a + B det(a + det(b ce qui montre que cette application n est pas linéaire

134 34 CHAPITRE 9 APPLICATIONS LINÉAIRES 9 Propriétés des applications linéaires Soit f : V W une application linéaire Pour tout v, v 2 V et pour tout λ, λ 2 R, on a f(λ v + λ 2 v 2 = λ f(v + λ 2 f(v 2 Plus généralement, pour tout λ,, λ n R et tout v,, v n V, on a f(λ v + + λ n v n = λ f(v + + λ n f(v n On dit que f préserve les combinaisons linéaires Théorème 94 Soit f : V W une application linéaire Alors on a les propriétés suivantes : (a f( = (b f( v = f(v pour tout v V (c f(v w = f(v f(w pour tout v, w V Démonstration (a Soit v V On a v = Comme f est linéaire, on a f( = f( v = f(v = (b Pour tout v V, on a f( v = f(( v = ( f(v = f(v Pour tout v, w V, on a v w = v + ( w, donc f(v w = f(v + ( w = f(v + f(( w = f(v + ( f(w = f(v f(w 92 Expression d une application linéaire dans une base Soit f : V W une application linéaire, et soit {v,, v n } une base de l espace vectoriel V Alors f est déterminée par les images des éléments de la base, c est-à-dire par l ensemble {f(v,, f(v n } En effet, si v V, alors v = λ v + + λ n v n On a donc f(v = f(λ v + + λ n v n = λ f(v + + λ n f(v n Exemple 95 Soit {v, v 2, v 3 } une base de R 3, avec v = (,,, v 2 = (,, et v 3 = (,, Soit f : R 3 R 2 l application linéaire telle que f(v = (,, f(v 2 = (2,, f(v 3 = (4, 3 Soit v = (2, 3, 5

135 9 DÉFINITIONS ET EXEMPLES 35 Alors donc v = 5v 8v 2 + 5v 3, f(v = f(5v 8v 2 + 5v 3 = = 5f(v 8f(v 2 + 5f(v 3 = 5(, 8(2, + 5(4, 3 = ( , = (9, 23 Définition 96 Soient f : V V 2 et f 2 : V 2 V 3 deux applications linéaires Alors on définit la composition de f 2 avec f, notée f 2 f par pour tout v V (f 2 f : V V 3 v f 2 (f (v Figure Théorème 97 Si f : V V 2 et f 2 : V 2 V 3 sont des applications linéaires, alors (f 2 f : V V 3 est aussi une application linéaire Démonstration Soient u, v V Alors on a (f 2 f (u + v = f 2 (f (u + v = f 2 (f (u + f (v = f 2 (f (u + f 2 (f (v = (f 2 f (u + (f 2 f (v Soient v V et λ R Alors (f 2 f (λv = f 2 (f (λv = = f 2 (λf (v = = λf 2 (f (v = = λ(f 2 f (v Donc f 2 f est bien une application linéaire

136 36 CHAPITRE 9 APPLICATIONS LINÉAIRES 92 Noyau et image d une application linéaire Définition 98 Soit f : V W une application linéaire Le noyau de f, noté Ker(f, est par défintion l ensemble des v V tels que f(v = L image de f, notée Im(f, est par définition l ensemble des w W tel qu il existe v V avec f(v = w Exemple 99 Soit f : R n R m définie par f(x = Ax, où A est une matrice m n Alors Ker(f est égal au nilespace de A, et Im (f est égal à l espace des colonnes de A Exemple 9 Soit : V W l application linéaire nulle Alors Ker( = V et Im( = {} Exemple 9 Soit f : V V l application identité Alors Ker(f = {} et Im (f = V Exemple 92 Soit f : R 3 R 2 la projection orthogonale sur le plan xy Alors Ker(f est égal à l axe des z et l image de f est égale au plan xy Figure 2 Théorème 93 Soit f : V W une application linéaire Alors (a Ker(f est un sous-espace vectoriel de V (b Im(f est un sous-espace vectoriel de W Démonstration (a On a Ker(f Supposons que u, v Ker(f Alors f(u = f(v = On a f(u + v = f(u + f(v = ce qui montre que u + v Ker(f Soit λ R Alors f(λv = λf(v =, car f(v = Ceci implique que λv Ker(f Ceci montre que Ker(f est un sous-espace vectoriel de V (b On a f( =, donc Im(f Soient w, w 2 Im(f Alors il existe v, v 2 V tels que f(v = w, f(v 2 = w 2

137 92 NOYAU ET IMAGE D UNE APPLICATION LINÉAIRE 37 Mais alors f(v + v 2 = f(v + f(v 2 = w + w 2, donc w + w 2 Im(f Soient w Im(f et λ R Soit v V tel que f(v = w Alors f(λv = λf(v = λw Donc λw Im(f Ceci implique que Im(f est un sous-espace vectoriel de W Exemple 94 Soit n un entier Considérons l application linéaire ϕ : P n P n+ f xf Etudions d abord le noyau de φ : soit f = a n x n + + a P n tel que xf = Alors a n x n+ = + a x 2 + a x = Ainsi, a i = pour tout i {,, n} et f = Le noyau de φ est donc nul L espace Im(φ est l ensemble des polynômes de P n+ sans terme constant Une base de cet espace est {x, x 2,, x n+ } Lemme 95 Soit f : V W une application linéaire Alors f est injective si et seulement si Ker(f = {} Démonstration Supposons f injective On a, par le théorème 94, que f( = Mais, l injectivité implique que pour tout v V, v, on a f(v Ainsi, le noyau de f est nul Réciproquement, supposons que Ker(f =, et soient v, v 2 V avec f(v = f(v 2 Alors = f(v f(v 2 = f(v + f( v 2 = f(v v 2 Ainsi, v v 2 Ker(f et v = v 2 L application f est donc bien injective Définition 96 Soit f : V W une application linéaire La dimension de Ker(f est appelée la nullité de f, et est notée null(f La dimension de Im(f est appelée le rang de f, et est notée rg(f Ces définitions sont compatibles avec celles données pour les matrices comme le montre le théorème suivant : Théorème 97 Soit A une matrice m n, et soit définie par Alors (a null(f = null(a (b rg(f = rg(a f : R n R m f(x = Ax Théorème 98 (Théorème du rang Soient V un espace vectoriel de dimension finie et f : V W une application linéaire Alors rg(f + null(f = dim(v Démonstration (i Si null(f =, alors Ker(f = {} et, par le lemme 95, f est injective Soit {e,, e n } une base de l espace V La famille {f(e,, f(e n } est une base de l image de f En effet, c est une famille linéairement indépendante car si λ f(e + + λ n f(e n =, la linéarité permet de dire que f(λ e + + λ n e n = Mais l injectivité implique que λ e + + λ n e n = et comme {e,, e n } est une base, on a finalement λ = = λ n = Il reste à montrer que c est une famille génératrice Soit w Im(f Il existe v V tel que f(v = w Mais v s écrit µ e + + µ n e n, pour certains µ,, µ n R Ainsi, w = f(µ e + + µ n e n = µ f(e + + µ n f(e n On a ainsi rg(f = dim(v et donc bien rg(f + (f = dim(v

138 38 CHAPITRE 9 APPLICATIONS LINÉAIRES (ii Si rg(f =, cela signifie que Im(f = {} Autrement dit, tout vecteur de V est envoyé sur par l application f Ainsi, Ker(f = V et null(f = dim(v (iii Supposons maintenant que null(f, rg(f Posons r = (f et soit {e,, e r } une base de Ker(f Pour montrer le théorème, il suffit de montrer que l image de f est de dimension n r Comme {e,, e n } est une base de Ker(f, c est en particulier une famille de vecteurs linéairement indépendants Il existe donc e r+,, e n V tels que {e,, e n } soit une base de V La famille B = {f(e r+,, f(e n } est une base de Im(f En effet, i si λ r+ f(e r+ + + λ n f(e n =, alors, par linéarité, on a que λ r+ e r+ + + λ n e n Ker(f Ce vecteur s exprime alors dans la base du noyau : λ r+ e r+ + + λ n e n = µ e + + µ r e r pour certains µ,, µ r R ou, autrement dit, µ e + µ r e r + λ r+ e r+ + + λ n e n = Ceci implique en particulier que λ r+ = = λ n = B est donc linéairement indépendante ii soit w Im(f Il existe α,, α n R tels que Mais cette égalité implique que w = f(α e + + α n e n w = α f(e + + α r f(e r +α r+ f(e r+ + + α n f(e n } {{ } } {{ } = = Ainsi, tout élément de l image de f est une combinaison linéaire des vecteurs de B Théorème 99 Soit V un espace vectoriel de dimension finie, et soit f : V V une application linéaire Alors les affirmations suivantes sont équivalentes : (a f est injective (b Ker(f = {} (c null(f = (d rg(f = n = dim(v 93 Applications linéaires inversibles Nous avons déjà défini l inverse d une application linéaire f A donnée par une matrice inversible A Nous allons maintenant généraliser cette notion pour toutes les applications linéaires Définition 92 Soit f : V W une application linéaire injective On définit f : Im(f V de la manière suivante : Soit w Im(f Il existe v V tel que w = f(v De plus, comme f est injective, le vecteur v est unique On définit alors f (w = v L application f est appelée l inverse de f

139 93 APPLICATIONS LINÉAIRES INVERSIBLES 39 Remarque 92 Dans le définition ci-dessus, on définit f uniquement sur l espace Im(f Si Im(f = W, c est-à-dire si f est aussi surjective, alors on peut définir f : W V On dit alors que f est inversible Remarque 922 Une application linéaire f : V W est donc dite inversible si et seulement si elle est bijective Théorème 923 Soit f : V W une application linéaire injective Alors ( (f f(v = v pour tout v V (2 (f f (w = w pour tout w Im(f (3 f est une application linéaire Démonstration ( Ce point découle directement de la définition de l inverse (2 Soit w Im(f Il existe un unique v V tel que f(v = w On a donc (3 Soient w, w 2 Im(f et λ R Alors (f f (w = f(f (w = f(v = w } {{ } =v f (w + w 2 = f (f(v + f(v 2 pour certains v, v 2 V Or, f (w i = v i pour i =, 2 Ainsi = f (f(v + v 2 = v + v 2 f (w + w 2 = f (w + f (w 2 La propriété f (λw = λf (w se montre de manière analogue Théorème 924 Soit f : V W une application linéaire injective Si g : Im(f V est une application telle que (g f(v = v pour tout v V, alors g = f De plus, on a également (f g(w = w pour tout w Im(f Démonstration Soit w Im(f Par hypothèse, on a (g f(f (w = f (w ( Mais, par le théorème précédent, cette expression est égale à g(w Ainsi, g(w = f (w pour tout w Im(f, c est-à-dire que g = f En appliquant f des deux côtés de l égalité (, on obtient (f g(w = w pour tout w Im(f Cas particulier Soit V un espace vectoriel de dimension finie et f : V V une application injective Alors, par le théorème du rang, rg(f = dim(v et donc, Im(f = V Dans ce cas, l inverse de f est défini sur tout V Théorème 925 Soient f : V V 2 et g : V 2 V 3 deux applications linéaires injectives Alors g f est aussi injective et (g f = f g Démonstration Soit v V avec g(f(v = On utilise succesivement l injectivité de g et de f pour conclure que v = La composition g f est donc bien injective Soit v 3 Im(g f Posons u = (g f (v 3 Montrons que u = (f g (v 3 On a Ainsi, et (g f(u = (g f((g f (v 3 = v 3 g ((g f(u = f(u = g (v 3 f (f(u = u = f (g (v 3 = (f g (v 3

140 4 CHAPITRE 9 APPLICATIONS LINÉAIRES 94 Matrice d une application linéaire Soient V et W des espaces vectoriels avec n = dim(v et m = dim(w Soit B = {u, u n } une base de V et B = {v,, v m } une base de W On sait que les n vecteurs f(u,, f(u n déterminent l application linéaire f Notons [f(u i ] B, les coordonnées de f(u i dans la base B C est un vecteur colonne de taille m Considérons alors la matrice m n suivante : A = ( [f(u ] B [f(u n ] B Cette matrice est notée [f] B,B et est appelée la matrice de f par rapport aux bases B et B Si V = W et B = B, on note [f] B au lieu de [f] B,B Théorème 926 Soient V, V 2 et V 3 des espaces vectoriels de dimensions finies munis des bases B, B 2 et B 3 respectivement Soient f : V V 2 et f 2 : V 2 V 3 des applications linéaires Alors [f 2 f ] B3,B = [f 2 ] B3,B 2 [f ] B2,B Démonstration Posons n = dim(v, n 2 = dim(v 2, n 3 = dim(v 3 et B = {e,, e n } B 2 = {b,, b n2 } B 3 = {β,, β n3 } Ecrivons [f 2 ] B3,B 2 = λ λ n2 λ n3 λ n3n 2 et [f ] B2,B = µ µ n µ n2 µ n2n On a (f 2 f (e = f 2 (f (e = f 2 (µ b + + µ n2b n2 = µ f 2 (b + + µ n2f 2 (b n2 = µ [λ β + + λ n3β n3 ] + + µ n2[λ n2 β + + λ n3n 2 β n3 ] Ainsi, la première colonne de [f 2 f ] B3,B est µ λ + + µ n2λ n2 µ λ µ n2λ 2n2 µ λ n3 + + µ n2λ n3n 2 Mais ceci est aussi la première colonne de la matrice [f 2 ] B3,B 2 [f ] B2,B En faisant la même chose avec les autres colonnes, on remarque que [f 2 ] B3,B 2 [f ] B2,B et [f 2 f ] B3,B sont deux matrices ayant leurs colonnes égales On a donc bien l égalité cherchée Théorème 927 Soit f : V V une application linéaire, et soit B une base de V Alors les conditions suivantes sont équivalentes : (a l application f est inversible ; (b La matrice [f] B est inversible Démonstration Si f est inversible, alors, par le théorème précédent, [f] B [f ] B = [f f ] B = [I] B Ainsi, [f] B est inversible et son inverse est [f ] B Réciproquement, si [f] B est inversible, il existe une matrice [g] B telle que [f] B [g] B = I = [g] B [f] B Par le théorème ci-dessus, [f g] B = I = [g f] B, et les applications f g et g f sont toutes deux égales à l identité Donc f est bien inversible Théorème 928 Soient V un espace vectoriel de dimension finie, B et B des bases de V et P B,B la matrice de changement de base de B à B Soit f : V V une application linéaire Alors [f] B = P B,B [f] BP B,B

141 94 MATRICE D UNE APPLICATION LINÉAIRE 4 Démonstration Soit x V Il faut montrer que P B,B [f] BP B,B (v B P B,B = P B,B et que P B,B (v B = (v B On a alors P B,B [f] BP B,B (v B = P B,B[f] B (v B = P B,B ([f] B (v B = P B,B (f(v B = (f(v B = (f(v B Rappelons que

142 42 CHAPITRE 9 APPLICATIONS LINÉAIRES

143 Chapitre Applications multilinéaires et tenseurs La théorie des tenseurs offre un langage mathématique simple et efficace pour décrire des phénomènes naturels, comme la trajectoire d un satellite, la circulation de la chaleur dans un corps ou encore la focre électromagnétique d un électron L objectif du présent chapitre est d introduire la notion de tenseur ainsi que certaines propriétés associées Celles-ci permettent, par exemple, d expliquer les relations entre des quantités physiques et de prédire leur évolution future Dans toute la suite, on considère un espace vectoriel V Nous commençons ce chapitre en introduisant, dans le premier paragraphe, les tenseurs d ordre (, et ceux d ordre (, : ce sont des formes linéaires Dans les paragraphes suivants, nous introduirons les tenseurs d ordre (, m (dits aussi m fois covariants puis les tenseurs d ordre (m, (dits m fois contravariants avant de définir les tenseurs mixtes (p, q : ce sont des formes multilinéaires L étude du comportement des tenseurs lors de changements de bases permettra d expliquer les terminologies covariant et contravariant (paragraphe 6 Ce chapitre clôturera avec un paragraphe sur les champs tensoriels Formes linéaires Formes linéaires sur V : tenseurs d ordre (, Définition On appelle forme linéaire ou tenseur d ordre (, ou encore tenseur covariant d ordre sur V toute application linéaire : f : V R Exemple 2 Si V = R n, l application de i-ième projection π i : (x,, x n x i est une forme linéaire sur V 2 Si V est l espace vectoriel des matrices carrées de taille n, alors l application trace M Tr(M définit une application linéaire sur V 3 Si V est un espace vectoriel muni d un produit scalaire généralisé <, > et si v un élément de V, alors l application f : V R définie par f(v =< v, v > est une forme linéaire sur V 2 Espace dual, bases duales Définition 3 On appelle espace dual de V l ensemble, noté V, des formes linéaires sur V 43

144 44 CHAPITRE APPLICATIONS MULTILINÉAIRES ET TENSEURS On a donc : V = {f : V R f est linéaire } Théorème 4 L espace dual V est muni d une structure d espace vectoriel Démonstration On vérifie facilement que l addition des formes linéaires et leur multiplication par un scalaire satisfont aux propriétés des espaces vectoriels Si V est un espace vectoriel de dimension finie (voir Chapitre 6 pour la notion de dimension, alors V est aussi de dimension finie, et leurs dimensions sont égales Plus précisément, chaque base de V détermine une base de V de la façon suivante : Théorème 5 On suppose que l espace V est de dimension finie, avec dim(v = n Soit B = (e,, e n une base de V Soit B la famille (α,, α n de V où les α i : V R sont des applications linéaires sur V données par : α i (e j = δ ij et étendues linéairement à V Alors, la famille B forme une base de l espace dual V, appelée base duale de la base B En particulier, on a bien : dim(v = dim(v Rappelons que le symbole δ ij désigne le symbole de Kronecker, c est-à-dire la fonction qui vaut si i = j et sinon Démonstration Soit f une forme linéaire sur V Puisque toute forme linéaire sur V est déterminée par ses valeurs prises sur les e i, on a : n f = f i α i i= avec f i = f(e i Ceci montre que les α i engendrent l espace dual V D autre part, on vérifie facilement que les α i sont linéairement indépendantes L ensemble B forme donc une base de l espace V Remarque 6 Si f est une application linéaire sur V, alors, avec les notations précédentes, on a f = i f iα i et les coordonnées f i sont appelées les coordonnées covariantes de f Exemple 7 Considérons la base suivante de V = R 2 : B = {e = (2,, e 2 = (3, } Nous allons déterminer la base B de V qui est duale de B, c est-à-dire identifier les formes linéaires sur R 2, notées α et α 2, telles que : On écrit ces applications sous la forme : α (e =, α (e 2 =, et α 2 (e =, α 2 (e 2 = α (x, y = ax + by et α 2 (x, y = cx + dy

145 FORMES LINÉAIRES 45 Il s agit donc de déterminer les réels a, b, c, d Les relations précédentes impliquent : { α (e = α (2, = 2a + b = α (e 2 = α (3, = 3a + b = d où a = et b = 3 Puis : d où c = et d = 2 La base duale est donc : { α2 (e = α 2 (2, = 2c + d = α 2 (e 2 = α 2 (3, = 3c + d = B = {α : (x, y x + 3y ; α 2 : (x, y x 2y} Le théorème 5 implique un résultat plus fort : Théorème 8 Si V est un espace de dimension finie, alors les espaces V et V sont isomorphes Démonstration Soit B = (e,, e n une base de V et soit B = (α,, α n la base duale de V correspondante, donnée par le théorème 5 D après ce théorème, il est évident que l application : Θ B : V V e i α i est un isomorphisme entre V et V Notons que cet isomorphisme dépend de la base B choisie : en ce sens, il n est pas canonique Il est intéressant de noter les relations suivantes entre une base B = (e,, e n de V et sa base duale B = (α,, α n de V Ces relations expriment les coordonnées de tout vecteur v (resp forme linéaire f dans la base B (resp B : v V, u = α (ve + α 2 (ve α n (ve n ; f V, f = f(e α + f(e 2 α f(e n α n 3 Formes linéaires sur V : tenseurs d ordre (, L espace dual V de V étant encore un espace vectoriel, on peut définir son espace dual Celui-ci est noté V : c est l espace vectoriel formé de toutes les formes linéaires sur V Si l on applique deux fois le théorème 8, on voit clairement que les espaces V et V sont isomorphes, lorsque V est de dimension finie En fait, on a mieux : l isomorphisme est cette fois canonique, dans le sens qu il ne dépend pas de la base choisie sur V C est ce que nous montrons dans le théorème qui suit Avant cela, il est utile de faire la remarque suivante : si v est un vecteur de V, l application : v := f f(v est une forme linéaire sur V, c est-à-dire un élément de V On définit ainsi une application de l espace V dans son bidual V, donnée par : Le théorème est le suivant : ι : V V v v Théorème 9 L application ι est linéaire et injective De plus, lorsque l espace V est de dimension finie, ι est un isomorphisme

146 46 CHAPITRE APPLICATIONS MULTILINÉAIRES ET TENSEURS Démonstration Pour montrer la linéarité, il faut montrer que ι(k v + w = k ι(v + ι(w pour tout k R et pour tout v, w V Il faut donc montrer que k v + w = k v + ŵ Ce qui est vrai car ( k v + w(f = f(k v + w = k f(v + f(w = k v(f + ŵ(f puisque f est linéaire Supposons maintenant que ι(v =, c est-à-dire que v(f = pour tout f V Ceci implique que f(v = pour tout f V et donc que v = Ceci démontre bien l injectivité de ι Enfin, si l on calcule la base duale de B, on obtient une base de V, notée : B = {ê, ê 2,, ê n } et l isomorphisme (cf notations de la preuve du théorème 8 V θ B V θ B V envoie e i sur ê i Cet isomorphisme n est donc rien d autre que ι (en particulier, ι ne dépend plus de B Ceci prouve la dernière assertion du théorème Dans la suite, nous supposerons l espace V de dimension finie et nous identifierons souvent les espaces V et V Les vecteurs de V sont appelés tenseurs d ordre (,, ou encore tenseurs contravariants d ordre Avec cette identification, remarquons que si (α,, α n est une base de V, duale d une base (e,, e n de V, alors (e,, e n est aussi une base de V, duale de la base (α,, α n 2 Formes multilinéaires sur V : tenseurs d ordre (, m 2 Formes bilinéaires sur V : tenseurs d ordre (, 2 Définition (Forme bilinéaire Une application f : V V R est dite bilinéaire si elle est linéaire en chacun des facteurs, autrement dit, si : (i f(ku + v, w = kf(u, w + f(v, w et si (ii f(u, kv + w = kf(u, v + f(u, w L ensemble des formes bilinéaires sur V est un espace vectoriel où l addition et la multiplication par un scalaire sont données par et (f + g(u, v = f(u, v + g(u, v (λf(u, v = λf(u, v Cet espace vectoriel est noté Bil(V, R Si B = {e, e 2,, e n } est une base de V, on peut considérer les formes bilinéaires particulières α i α j i n, j n définies par (α i α j (e k, e l = δ ik δ jl L ensemble des α i α j forme alors une base de Bil(V, R Les coordonnées f ij d une forme bilinéaire f quelconque dans cette base sont simplement données par l évaluation de f au couple (e i, e j Explicitement, on a f ij = f(e i, e j

147 2 FORMES MULTILINÉAIRES SUR V : TENSEURS D ORDRE (, M 47 et f = i,j f ij (α i α j Ainsi, si une base B de V est choisie, une forme bilinéaire sur V n est rien d autre que la donnée d une matrice F = (f ij de dimension n n où n = dim V Si [u] B (resp [v] B désigne le vecteur des coordonnées de u (resp v dans la base B, alors f(u, v se calcule par le produit matriciel suivant : f(u, v = [u] T B F [v] B Une forme bilinéaire sur V est aussi appelée un tenseur d ordre (, 2 ou encore un tenseur 2 fois covariant Cette terminologie provient du comportement de la forme lors d un changement de base que nous verrons dans la section 6 Remarque La notation ci-dessus peut être prise ici pour une simple notation Exemple 2 Soit V = R n Alors le produit scalaire usuel est une forme bilinéaire (symétrique Sa matrice dans la base canonique est I n Un produit scalaire généralisé est une forme bilinéaire (symétrique Il est représenté par une matrice A symétrique et définie positive 22 Tenseurs d ordre (, m Définition 3 (Forme multilinéaire Soit V un espace vectoriel, et soit f : V V R } {{ } m une application On dit que f est une forme multilinéaire ou tenseur d ordre (, m si pour tout i m, on a : f(v,, αv i + βw i,, v m = αf(v,, v i,, v m + βf(v,, w i,, v m pour tout v,, v m, w,, w m V et tout α, β R Une telle application est appelée tenseur d ordre (, m, ou tenseur covariant d ordre m Pour m =, on retrouve les formes linéaires sur V, et pour m = 2 les formes bilinéaires sur V Exemple 4 (Produit mixte Le produit mixte est un tenseur d ordre (, 3 R 3 R 3 R 3 R f(x, y, z = [x, y, z] = x (y z 23 Quelques interprétations physiques Avant de poursuivre, voici quelques interpétations physiques des tenseurs d ordre (, m que nous venons de rencontrer Les tenseurs d ordre (, sont les applications linéaires R R Ces dernières étant précisément de la forme x ax pour un scalaire a R, les tenseurs d ordre (, peuvent donc être naturellement identifiés aux scalaires de R En physique, ils représentent des quantités chiffrées telles la masse d un satellite, la température d un corps ou la charge d un électron 2 Les tenseurs d ordre (, sont les formes linéaires V R Un exemple de tel tenseur est donné par l étude de la trajectoire d un bateau à voile, qui se dirige selon un vecteur unitaire e Considérons la force du vent exercée sur ce bateau : elle est représentée par un vecteur f perpendiculaire à la voile du bateau Seule la composante ef (produit scalaire propulse le bateau à l avant L application f ef est un tenseur d ordre (, Le bateau avancera d autant plus vite que la quantité ef est grande 3 Les tenseurs d ordre (, 2 sont les formes bilinéaires V V R Le calcul du moment d une force appliquée sur une clef plate pour visser un boulon fournit un exemple

148 48 CHAPITRE APPLICATIONS MULTILINÉAIRES ET TENSEURS 3 Formes multilinéaires sur V : tenseurs d ordre (m, 3 Une remarque sur les tenseurs d ordre (, Nous avons vu à la section 3 que V et V sont isomorphes si V est de dimension finie (ce que nous supposons toujours ici Ainsi un vecteur v V peut être vu comme une forme linéaire v sur V : v : V R f f(v C est pourquoi, on identifie les tenseurs d ordre (, avec les vecteurs En physique, la direction que suit la trajectoire d un électron à un moment donné est représentée par un vecteur et fournit donc un exemple de tenseur fois contravariant 32 Formes bilinéaires sur V : tenseurs d ordre (2, Considérons un espace vectoriel V muni d une base B = {e,, e n } et son dual V muni de la base duale B = {α, α n } On se donne une forme bilinéaire f : V V R Cette forme est entièrement déterminée par ses valeurs sur les couples (α i, α j Rappelons que l espace vectoriel V des formes linéaires sur V est isomorphe canoniquement à V et admet pour base l ensemble : où les ê i sont donnés par : B = {ê,, ê n } ê i (α j = α j (e i = δ ij Notons ê i ê j la forme bilinéaire sur V V définie par ê i ê j (α k, α l = δ ik δ jl On montre de manière similaire à ce qui a été fait précédemment que l ensemble C = {ê i ê j } i n j n est une base de l espace vectoriel des formes bilinéaires sur V V Dans cette base, la forme bilinéaire f s écrit f = f ij (ê i ê j i j où f ij = f(α i, α j Le choix de B étant fait (et donc aussi celui de B et de C, la forme f est représentée par une matrice F = (f ij Les formes bilinéaires sur V V contravariants d ordre 2 sont appelées tenseurs d ordre (2,, ou encore tenseurs 33 Tenseurs d ordre (m, En généralisant ceci, on peut poser la définition suivante : Définition 5 (Tenseur d ordre (m, Une application multilinéaire V V V } {{ R } m est appelée un tenseur d ordre (m, ou tenseur m fois contravariant ou encore tenseur contravariant d ordre m À nouveau, la terminologie de tenseur contravariant vient du comportement d une telle application lors d un changement de bases (voir paragraphe 6

149 4 TENSEURS MIXTES D ORDRE (P, Q 49 4 Tenseurs mixtes d ordre (p, q 4 Tenseurs d ordre (p, q Il existe des tenseurs mixtes, à savoir des tenseurs d ordre (p, q qui sont donc (en copiant les terminologies précédentes p fois contravariants et q fois covariants Définition 6 (Tenseur d ordre (p, q Soient p et q des entiers Un tenseur d ordre (p, q est une application multilinéaire : f : V V } {{ V V R } } {{ } p q 42 Exemple des tenseurs d ordre (, Pour illustrer la notion de tenseur d ordre (,, considérons une application bilinéaire : f : V V R Nous allons montrer qu une telle application n est rien d autre qu une application linéaire : φ : V V On commence par la construction inverse Etant donnée une application linéaire : on peut définir une application bilinéaire : en posant : φ : V V, f : V V R f(α, u = φ(u(α = α(φ(u On vérifie facilement que f est bilinéaire et que l association φ f est injective Vérifions ici l injectivité Supposons que f soit l application triviale f(α, u = pour tout u V et pour tout α V Par définition de f, ceci implique que α(φ(u = pour tout u et tout α Mais ceci entraéne que φ(u doit être nul pour tout u V et donc que φ est l application nulle Pour des raisons de dimensions, l injectivité implique la surjectivité et on a donc montré que donner une application bilinéaire : f : V V R est équivalent à donner une application linéaire : φ : V V Ce qui est remarquable, c est que les matrices de f et de φ sont les mêmes, une base B de V étant choisie Soit B = {e,, e n } une base de V et B = {α,, α n } sa base duale La matrice de f dans les bases B et B est définie par F B,B = F = (f ij avec f ij = f(e i, α j Mais, d autre part, la j-ème colonne de la matrice [φ] B est donnée par l image de e j exprimée dans la base B Ainsi, on a [φ] ij = α i (φ(e j = f(α i, e j = f ij ce qui prouve que [φ] B = F B,B

150 5 CHAPITRE APPLICATIONS MULTILINÉAIRES ET TENSEURS 5 Opérations sur les tenseurs Sur les tenseurs de même ordre, on a une opération d addition et de multiplication par les scalaires qui en font un espace vectoriel Nous avons déjà vu cette structure d espace vectoriel pour les tenseurs d ordre (, et d ordre (, 2, c est-à-dire sur V et sur l espace des formes bilinéaires La généralisation à tout tenseur se fait de manière évidente On a aussi une opération de multiplication entre tenseurs Nous commençons par l exemple du produit de deux formes linéaires : Exemple 7 Soient f, g V deux tenseurs d ordre (,, on définit leur produit par f : V R g : V R b : V V R b(u, v = f(ug(v C est une forme bilinéaire, c est-à-dire un tenseur d ordre (, 2 Plus généralement, on peut multiplier un tenseur d ordre (p, q avec un tenseur d ordre (r, s et le résultat est un tenseur d ordre (p + r, q + s Voici comment le produit est défini Soit : un tenseur d ordre (p, q et soit : f : V V } {{ V V R } } {{ } p q g : V V } {{ V V R } } {{ } r s un tenseur d ordre (r, s On définit leur produit : par : f g : V V } {{ V V R } } {{ } p+r q+s (f g(a,, a p+r, x, x q+s = f(a,, a p, x, x q g(a p+, a p+r, x q+, x q+ss Remarque 8 L application identité Id : R R peut être considérée comme un tenseur d ordre (, Il joue alors le rôle d élément neutre pour le produit défini ci-dessus 6 Changement de bases Dans ce paragraphe, nous allons étudier le comportement d un tenseur (ou plutôt de ses coordonnées lors d un changement de bases Il s agit ici d introduire des propriétés importantes des tenseurs liées aux changements de coordonnées, très utiles par exemple en physique lorsque l on change de système référent D autre part, les relations obtenues nous permettront d éclairer les notions de tenseurs covariants et contravariants Soient donc deux bases de V : B = {e,, e n } et B = {e,, e n}

151 6 CHANGEMENT DE BASES 5 D après le paragraphe 67, la matrice de passage de la base B à la base B est la matrice : P BB = (λ ij dont la j-ème colonne repésente les coordonnées de e j dans la base B En d autres termes n e j = λ ij e i ( i= ou encore, matriciellement (avec un petit abus de notation e e e 2 e 2 e n = P BB T D après le théorème 67, la matrice P BB est inversible, et l on a : P BB = P B B e n (2 Dans la suite, nous noterons γ ij les coefficients de la matrice P B B, de sorte que l on a : e i = n e k Le but de cette section est de d étudier le changement de coordonnées des tenseurs 6 Cas des tenseurs d ordre (, (vecteurs de V k= La modification des coordonnées d un vecteur par un changement de bases a déjà été étudiée au chapitre 6, paragraphe 67 Rappelons que si v est un vecteur de V et si [v] B (resp [v] B désigne le vecteur colonne dont les composantes sont les coordonnées de v dans la base B (resp B, on a : [v] B = P BB [v] B, (3 ou encore : [v] B = P BB [v] B, (4 chaque v i (resp v i désignant la i-ème composante de v dans la base B (resp B 62 Cas des tenseurs d ordre (, (formes linéaires sur V Considérons maintenant une forme linéaire f V Soit B = (e,, e n une base de V et soit B = (α,, α n la base de V, duale de V Matriciellement, en écrivant les vecteurs de V dans la base B, l application f est de la forme : x f( = ( f f n x n x x n

152 52 CHAPITRE APPLICATIONS MULTILINÉAIRES ET TENSEURS Le vecteur ligne [f] B = ( f f n est la matrice de f dans la base B, donnée par f i = f(e i En d autres termes, on a : n f = f i α i i= De même, si B = (e,, e n est une autre base de V, de base duale B = (α,, α n, et si on note [f] B la matrice de f dans cette base, ses coefficients sont donnés par : f i = f(e i, de sorte que : n f = f iα i i= Il s agit d écrire la matrice de passage de la base B á la base B et de voir les modifications sur les coefficients de la matrice de f Pour cela, déterminons d abord les coefficients, notés µ ij de la matrice de passage P B B, dont la j-ème colonne est donnée par les coefficients de l application α j dans la base B Des relations α j = i µ ijα i et α i (e j = δ ij, on déduit : α j(e i = µ ij, c est-à-dire : µ ij = α j ( k γ kie k = γ ji, où les γ ij sont les coefficients de la matrice P B B = P BB On a donc prouvé : P B B = (PBB T (5 On peut maintenant calculer les coordonnées de f dans la base B, ie trouver les f j tels que f = j f jα j Cela s écrit facilement, en utilisant la relation α i (e j = δ ij : On a donc : f j = f(e j = i λ ijf(e i = i λ ijf(e i = i λ ijf i [f] B = P T BB [f] B (6 On constate que les formes linéaires sur V se transforment «comme» les vecteurs de base tandis que les vecteurs se transforment selon la règle inverse (comparer (6 avec (2 et (4

153 6 CHANGEMENT DE BASES 53 C est pour cette raison que les vecteurs (ou les formes linéaires sur V sont appelés des tenseurs contravariants d ordre et les formes linéaires sur V sont appelées des tenseurs covariants d ordre Le qualificatif contravariant concernerait donc les tenseurs dont les composantes se transforment contrairement à celles des vecteurs de base Poursuivons notre investigation 63 Cas des tenseurs d ordre (, 2 (formes bilinéaires sur V On considère une forme bilinéaire f sur V et sa matrice F (resp F dans la base B (resp, B On peut montrer que l on a la relation F = PBB T F P BB (7 Cette équation est du même type que la relation (6 Les formes bilinéaires suivent les mêmes règles que les formes linéaires lors d un changement de bases C est pourquoi, on dit aussi que les formes bilinéaires sur V sont des tenseurs covariants d ordre 2 64 Cas des tenseurs (2, (formes bilinéaires sur V On considère un tenseur d ordre (2,, c est-à-dire une forme bilinéaire sur V Notons F (resp F sa matrice dans la base B (resp, B On a la relation : F = P BB F (PBB T (8 On constate que c est la règle inverse que pour un tenseur d ordre (, 2 (comparer avec 7 En revanche, c est une loi similaire à celle qui régit le changement de coordonnées d un vecteur Un tenseur d ordre (2, est donc dit 2 fois contravariant 65 Cas des tenseurs d ordre (, Lors d un changement de bases, on sait comment la matrice d une application φ : V V change Si Φ (resp Φ est la matrice de φ dans la base B (resp B, alors on a Φ = P BB Φ P BB Via l équivalence vue au paragraphe 42, et tenant compte du fait que Φ = F, on obtient la manière dont les coefficients d un tenseur d ordre (, varient lors d un changement de bases C est la même règle que pour une application linéaire Plus précisément, si f : V V R est une application bilinéaire de matrice F (resp F dans la base B (resp B, alors on a F = P BB F P BB (9 On constate que la matrice de changement de base apparaît à droite de F mais que c est son inverse qui apparait à gauche C est pourquoi, un tenseur d ordre (, est dit fois covariant et fois contravariant (comparer la relation (9 avec l équation (8 qui donne la règle pour un tenseur 2 fois covariant

154 54 CHAPITRE APPLICATIONS MULTILINÉAIRES ET TENSEURS 66 Cas des tenseurs d ordre (p, q Les formules précédentes se généralisent encore et expliquent pourquoi un tenseur d ordre (p, q est dit p fois contravariant et q fois covariant 7 Champs tensoriels 7 Définitions Jusqu ici, nous n avons considéré que des tenseurs isolés En physique, il est plus fréquent de rencontrer un champ tensoriel, c est-à-dire, la donnée d un tenseur en tout point de l espace (ou d une partie de celui-ci ou en plusieurs instants On considère donc l espace affine E = R n et en tout point y de l espace on considère l espace vectoriel V = R n Définition 9 (Champ tensoriel Un champ tensoriel est la donnée en tout point y de l espace d un tenseur d ordre (p, q Alors que le tenseur varie en fonction du point y E, l ordre (p, q, quant à lui, est indépendant de y Exemple 2 Considérons un fluide localisé dans une partie de l espace E La vitesse du fluide en chaque point de l espace est un tenseur d ordre (, En chaque point y R 3, on se donne une base : B(y = {e (y, e n (y} dans laquelle on exprimera le champ tensoriel Par exemple, on pourrait considérer la base canonique en chaque point y : dans ce cas, la base ne dépend pas de la position y 72 Changements de coordonnées Supposons que l on se donne un changement de coordonnées, ie en termes mathématiques, une fonction : Φ : R n R n u = u (x,, x n (x,, x n u n = u n (x,, x n qui soit de classe C, bijective et dont l inverse est aussi de classe C L application Φ transforme, en chaque point y, la base B(y en une nouvelle base B (y = {e (y,, e n(y} Le dessin ci-dessous illustre la situation dans le cas E = R 2 Explicitement, en chaque point y de l espace R n, on a un changement de bases qui est donné par e i(y = j u j x i (ye j (y Notons la dépendance en y dans la formule ci-dessus

155 7 CHAMPS TENSORIELS 55 e 2 (y y e (y Φ e 2 (y y e (y Définissons la matrice : Λ = (λ ij := ( ui (y x j C est la matrice de changement de base au point y Son inverse est donné par ( Λ xi = Γ = (γ ij = (y u j Ces deux matrices dépendent du point y 73 Cas d un champ tensoriel d ordre (, (champ vectoriel Admettons que l on ait maintenant un champ vectoriel, ie la donnée d un vecteur v de R n en tout point y de l espace R n Un champ vectoriel (ou champ tensoriel d ordre (, est donc la donnée d une application : E = R n R n y v(y qui à tout point y associe un vecteur v(y Notons v i (y (resp v i (y les coordonnées de v(y dans la base B(y (resp B (y On montre alors qu on a la relation suivante : v i(y = j u i x j (yv j (y ou matriciellement [v ] = Γ [v] Cette règle est similaire à celle obtenue en (3, avec comme seule différence que la matrice de changement de bases dépend du point y et est donnée par la matrice jacobienne Γ = Λ On parle dans ce cas de champ contravariant 74 Cas d un champ tensoriel d ordre (, Soit w un champ de formes linéaires, ie la donnée en tout point y de l espace d une forme linéaire w(y : R n R On peut, en tout point y, considérer la base duale de B(y que l on note B (y Comme précédemment, si B (y = {α i (y} alors chaque forme linéaire w(y s écrit w(y = i w i (y α i (y

156 56 CHAPITRE APPLICATIONS MULTILINÉAIRES ET TENSEURS Le changement de coordonnées donné par Φ induit un changements des coordonnées w i (y qui suit la règle suivante : w i(y = x j (yw j (y u j i qui s écrit matricellement ou encore [w ] = Λ T [w] [w] = (Λ T [w ] ( Ce résultat n est pas surprenant L équation ( est semblable à la relation (6, la matrice P BB ayant été remplaçée par la matrice Λ On parle dans ce cas d un champ covariant 75 Cas d un champ quelconque On peut généraliser ce qui précède au cas d un champ tensoriel d ordre (p, q quelconque Les changements de coordonnées se font de la même manière que pour un tenseur d ordre (p, q à la différence près, à nouveau, que la matrice de changement de bases dépend du point y (et de Φ On remplace ainsi la matrice P BB par la matrice ( ui Λ = x j

157 Bibliographie [] H Anton and C Rorres Elementary linear Algebra Applications Version John Wiley & Sons, Inc New York, 2 [2] R Dalang and A Caabouni Algèbre linéaire, Aide-mémoire, exercices et applications [3] D Danielson Vectors and Tensors in Enginee and Physics Addison-Wesley Publishing Company, 992 [4] T Liebling Algèbre linéaire : une introduction pour ingénieurs 57

158 58 BIBLIOGRAPHIE Index angle entre deux vecteurs, 5 application, 69 application linéaire, 7, 27 base d un espace vectoriel, 86 orthogonale, 8 orthonormée, 8 standard, 78, 83, 87, 88 bijective (application, 75 caractéristique (équation, 7 caractéristique (polynôme, 7 Cauchy-Schwarz (inégalité de, 65, 4 cofacteur d une matrice, 42 combinaison linéaire, 82 complément orthogonal, 6 composition d applications, 73 coordonnées d un vecteur, 5, 87, 8 Cramer (règle de, 46 déterminant, 33, 35 dérivation, 29 diagonal(e élément, 9 matrice, 29 diagonalisation, 2 dimension d un espace vectoriel, 9 dual d un espace vectoriel, 39 espace des colonnes, 92 des lignes, 92 propre, 9 vectoriel, 79 dimension, 9 fonction, 69 forme multilinéaire, 4 Gauss (algorithme de, 2 gaussienne (élimination, Gram-Schmidt (méthode de, homogène (système, 5, 82 image d une application, 32 impaire (permutation, 34 incompatible (système, 6 inconsistant (système, 6 injective (application, 75 inversion d une permutation, 33 linéaire (équation, 5 linéairement dépendants (vecteurs, 84 linéairement indépendants (vecteurs, 84 matrice adjointe, 46 antisymétrique, 32 augmentée d un système, 9 carrée, 9 d une application linéaire, 7, 36 de changement de bases, 97 des coefficients, 47 diagonale, 29 diagonalisable, 2 échelonnée, échelonnée réduite, élémentaire, 25 identité, 2 inverse, 23 inversible, 23 orthogonale, 2 symétrique, 3 transposée, 3 triangulaire, 28 matrice (réelle, 9 matrices équivalentes par lignes, 26 mineur d une matrice, 42 moindres carrés (méthode des, 4 nilespace (=noyau, 93, 32 norme d un vecteur, 5, 65, 2 noyau (=nilespace, 93, 32 nullité, 96, 33 opérations élémentaires, 9 orthogonal complément, 6 matrice, 2 vecteur, 5 orthogonalité, 53, 66, 6 paire (permutation, 34 paramétriques (équations d une droite, 6 permutation, 33 polynôme, 8, 85 produit de tenseurs, 43 cartésien, 79 élémentaire, 35 élémentaire signé, 35 matriciel, 2, 68 mixte, 58 scalaire, 52, 64, vectoriel, 55 projection orthogonale, 54, 72, 9, 28 Pythagore (théorème de, 66, 5

159 INDEX 59 rang, 95, 33 rang (théorème du, 96, 33 réflexion, 7 rotation, 73 second membre, 47 somme de matrices, 9 de tenseurs, 43 de vecteurs, 49, 64 sous-espace vectoriel, 8 sphère unité, 2 surjective (application, 75 système d équations linéaires, 6 système normal, 5 tenseur, 39 triangle (inégalité du, 66, 4 valeur propre, 7 variable directrice, 5 libre, 5 vecteur(s, 49 colonne, 66 ligne, 66 normal, 6 orthogonaux, 5 propre, 7

160 6 BIBLIOGRAPHIE Index des notations Id - application identité, 7 <, > - produit scalaire (généralisé, a ij éléments de la matrice A, 9 A, B - matrices, 9 A - matrice inverse, 24 A - déterminant, 4 adj(a - matrice adjointe, 46 A T - matrice transposée, 3 A T - matrice transposée inverse, 3 C ij - cofacteur d une matrice, 42 C i (R, 8 det(a - déterminant de A, 35 e,, e n - base standard, 78 E i (c, E ij (c, E ij - matrices élémentaires, 25 E λ - espace propre, 9 f A - application associée à A, 7 [f] B,B - matrice de f dans les bases B et B, 36 f, F - applications (linéaires, 69, 27 [f], [F ] - matrice standard, 7 G F - composition d applications, 3 g f - composition d applications, 74 I n, I - matrice identité, 2 Im(f - image de f, 32 Ker(A - noyau de A, 93 Ker(f - noyau de f, 32 L(S - espace vectoriel engendré par S, 84 M ij - mineur d une matrice, 42 M mn - espace vectoriel des matrices m n, 9 null(a - nullité de A, 96 P n - espace vectoriel des polynômes de degré n, 8 rg(a - rang de A, 95 R n - espace réel de dimension n, 63 u v - produit scalaire, 52, 64 u v - produit vectoriel, 55 [u, v, w]- produit mixte, 58 V - dual de V, 39 v - norme de v, 5, 65 V, W - espace, sous-espace vectoriel, 79 W - complément orthogonal, 6 x, x 2, x 3 - variables, 5

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Chapitre 2. Matrices

Chapitre 2. Matrices Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Résolution de systèmes linéaires par des méthodes directes

Résolution de systèmes linéaires par des méthodes directes Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2. Eo7 Calculs de déterminants Fiche corrigée par Arnaud Bodin Eercice Calculer les déterminants des matrices suivantes : Correction Vidéo ( ) 0 6 7 3 4 5 8 4 5 6 0 3 4 5 5 6 7 0 3 5 4 3 0 3 0 0 3 0 0 0 3

Plus en détail

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10.

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. A1 Trouvez l entier positif n qui satisfait l équation suivante: Solution 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. En additionnant les termes du côté gauche de l équation en les mettant sur le même dénominateur

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Exercices Corrigés Premières notions sur les espaces vectoriels

Exercices Corrigés Premières notions sur les espaces vectoriels Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3

Plus en détail

Eteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques :

Eteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques : MTH EN JEN 2013-2014 Elèves de seconde, première et terminale scientifiques : Lycée Michel Montaigne : HERITEL ôme T S POLLOZE Hélène 1 S SOK Sophie 1 S Eteindre Lycée Sud Médoc : ROSIO Gauthier 2 nd PELGE

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Le produit semi-direct

Le produit semi-direct Le produit semi-direct Préparation à l agrégation de mathématiques Université de Nice - Sophia Antipolis Antoine Ducros Octobre 2007 Ce texte est consacré, comme son titre l indique, au produit semi-direct.

Plus en détail

Groupe symétrique. Chapitre II. 1 Définitions et généralités

Groupe symétrique. Chapitre II. 1 Définitions et généralités Chapitre II Groupe symétrique 1 Définitions et généralités Définition. Soient n et X l ensemble 1,..., n. On appelle permutation de X toute application bijective f : X X. On note S n l ensemble des permutations

Plus en détail

Cours d analyse numérique SMI-S4

Cours d analyse numérique SMI-S4 ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Angles orientés et trigonométrie

Angles orientés et trigonométrie Chapitre Angles orientés et trigonométrie Ce que dit le programme : CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Trigonométrie Cercle trigonométrique. Radian. Mesure d un angle orienté, mesure principale.

Plus en détail

Polynômes à plusieurs variables. Résultant

Polynômes à plusieurs variables. Résultant Polynômes à plusieurs variables. Résultant Christophe Ritzenthaler 1 Relations coefficients-racines. Polynômes symétriques Issu de [MS] et de [Goz]. Soit A un anneau intègre. Définition 1.1. Soit a A \

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument Formes algébriques et trigonométriques, module et argument Exercice - - L/Math Sup - On multiplie le dénominateur par sa quantité conjuguée, et on obtient : Z = 4 i 3 + i 3 i 3 = 4 i 3 + 3 = + i 3. Pour

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

1 Définition et premières propriétés des congruences

1 Définition et premières propriétés des congruences Université Paris 13, Institut Galilée Département de Mathématiques Licence 2ème année Informatique 2013-2014 Cours de Mathématiques pour l Informatique Des nombres aux structures Sylviane R. Schwer Leçon

Plus en détail

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie Rappels et compléments, première partie : Nombres complexes et applications à la géométrie 1 Définition des nombres complexes On définit sur les couples de réels une loi d addition comme suit : (x; y)

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Construction d un cercle tangent à deux cercles donnés.

Construction d un cercle tangent à deux cercles donnés. Préparation au CAPES Strasbourg, octobre 2008 Construction d un cercle tangent à deux cercles donnés. Le problème posé : On se donne deux cercles C et C de centres O et O distincts et de rayons R et R

Plus en détail

Représentation géométrique d un nombre complexe

Représentation géométrique d un nombre complexe CHAPITRE 1 NOMBRES COMPLEXES 1 Représentation géométrique d un nombre complexe 1. Ensemble des nombres complexes Soit i le nombre tel que i = 1 L ensemble des nombres complexes est l ensemble des nombres

Plus en détail

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE LA PHYSIQUE DES MATERIAUX Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE Pr. A. Belayachi Université Mohammed V Agdal Faculté des Sciences Rabat Département de Physique - L.P.M [email protected] 1 1.Le réseau

Plus en détail

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Présentation du cours de mathématiques de D.A.E.U. B, remise à niveau

Présentation du cours de mathématiques de D.A.E.U. B, remise à niveau i Présentation du cours de mathématiques de D.A.E.U. B, remise à niveau Bonjour, bienvenue dans votre début d étude du cours de mathématiques de l année de remise à niveau en vue du D.A.E.U. B Au cours

Plus en détail

Mathématiques appliquées à l'économie et à la Gestion

Mathématiques appliquées à l'économie et à la Gestion Mathématiques appliquées à l'économie et à la Gestion Mr Makrem Ben Jeddou Mme Hababou Hella Université Virtuelle de Tunis 2008 Continuité et dérivation1 1- La continuité Théorème : On considère un intervalle

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

avec des nombres entiers

avec des nombres entiers Calculer avec des nombres entiers Effectuez les calculs suivants.. + 9 + 9. Calculez. 9 9 Calculez le quotient et le rest. : : : : 0 :. : : 9 : : 9 0 : 0. 9 9 0 9. Calculez. 9 0 9. : : 0 : 9 : :. : : 0

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS? PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS? Pierre Baumann, Michel Émery Résumé : Comment une propriété évidente visuellement en dimensions deux et trois s étend-elle aux autres dimensions? Voici une

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

Géométrie dans l espace Produit scalaire et équations

Géométrie dans l espace Produit scalaire et équations Chapitre 11. 2ème partie Géométrie dans l espace Produit scalaire et équations Terminale S Ce que dit le programme : CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES 2ème partie Produit scalaire Produit scalaire

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Les indices à surplus constant

Les indices à surplus constant Les indices à surplus constant Une tentative de généralisation des indices à utilité constante On cherche ici en s inspirant des indices à utilité constante à définir un indice de prix de référence adapté

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail

Approximations variationelles des EDP Notes du Cours de M2

Approximations variationelles des EDP Notes du Cours de M2 Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation

Plus en détail

Compter à Babylone. L écriture des nombres

Compter à Babylone. L écriture des nombres Compter à Babylone d après l article de Christine Proust «Le calcul sexagésimal en Mésopotamie : enseignement dans les écoles de scribes» disponible sur http://www.dma.ens.fr/culturemath/ Les mathématiciens

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Pour l épreuve d algèbre, les calculatrices sont interdites.

Pour l épreuve d algèbre, les calculatrices sont interdites. Les pages qui suivent comportent, à titre d exemples, les questions d algèbre depuis juillet 003 jusqu à juillet 015, avec leurs solutions. Pour l épreuve d algèbre, les calculatrices sont interdites.

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

CORRIGE LES NOMBRES DECIMAUX RELATIFS. «Réfléchir avant d agir!»

CORRIGE LES NOMBRES DECIMAUX RELATIFS. «Réfléchir avant d agir!» Corrigé Cours de Mr JULES v3.3 Classe de Quatrième Contrat 1 Page 1 sur 13 CORRIGE LES NOMBRES DECIMAUX RELATIFS. «Réfléchir avant d agir!» «Correction en rouge et italique.» I. Les nombres décimaux relatifs.

Plus en détail

Licence Sciences de l Ingénieur et Licence Informatique. Niveau L2 (= 2ème année)

Licence Sciences de l Ingénieur et Licence Informatique. Niveau L2 (= 2ème année) Licence Sciences de l Ingénieur et Licence Informatique Niveau L2 (= 2ème année) Mathématiques : Résumé de ce qu il faut savoir en Algèbre linéaire (ou Calcul Matriciel) au sortir du L1, en préalable au

Plus en détail

Représentation des Nombres

Représentation des Nombres Chapitre 5 Représentation des Nombres 5. Representation des entiers 5.. Principe des représentations en base b Base L entier écrit 344 correspond a 3 mille + 4 cent + dix + 4. Plus généralement a n a n...

Plus en détail

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007 Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................

Plus en détail

IV- Equations, inéquations dans R, Systèmes d équations

IV- Equations, inéquations dans R, Systèmes d équations IV- Equations, inéquations dans R, Systèmes d équations 1- Equation à une inconnue Une équation est une égalité contenant un nombre inconnu noté en général x et qui est appelé l inconnue. Résoudre l équation

Plus en détail

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet

Plus en détail

Extrait du poly de Stage de Grésillon 1, août 2010

Extrait du poly de Stage de Grésillon 1, août 2010 MINI-COURS SUR LES POLYNÔMES À UNE VARIABLE Extrait du poly de Stage de Grésillon 1, août 2010 Table des matières I Opérations sur les polynômes 3 II Division euclidienne et racines 5 1 Division euclidienne

Plus en détail

LE PRODUIT SCALAIRE ( En première S )

LE PRODUIT SCALAIRE ( En première S ) LE PRODUIT SCALAIRE ( En première S ) Dernière mise à jour : Jeudi 4 Janvier 007 Vincent OBATON, Enseignant au lycée Stendhal de Grenoble ( Année 006-007 ) 1 Table des matières 1 Grille d autoévaluation

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Problème 1 : applications du plan affine

Problème 1 : applications du plan affine Problème 1 : applications du plan affine Notations On désigne par GL 2 (R) l ensemble des matrices 2 2 inversibles à coefficients réels. Soit un plan affine P muni d un repère (O, I, J). Les coordonnées

Plus en détail

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples 45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et

Plus en détail

Chapitre VI - Méthodes de factorisation

Chapitre VI - Méthodes de factorisation Université Pierre et Marie Curie Cours de cryptographie MM067-2012/13 Alain Kraus Chapitre VI - Méthodes de factorisation Le problème de la factorisation des grands entiers est a priori très difficile.

Plus en détail

Qu est-ce qu une probabilité?

Qu est-ce qu une probabilité? Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont

Plus en détail

Représentation d un entier en base b

Représentation d un entier en base b Représentation d un entier en base b 13 octobre 2012 1 Prérequis Les bases de la programmation en langage sont supposées avoir été travaillées L écriture en base b d un entier est ainsi défini à partir

Plus en détail

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R. Angles orientés Trigonométrie I. Préliminaires. Le radian Définition B R AB =R C O radian R A Soit C un cercle de centre O. Dire que l angle géométrique AOB a pour mesure radian signifie que la longueur

Plus en détail

Corrigé du baccalauréat S Asie 21 juin 2010

Corrigé du baccalauréat S Asie 21 juin 2010 Corrigé du baccalauréat S Asie juin 00 EXERCICE Commun à tous les candidats 4 points. Question : Le triangle GBI est : Réponse a : isocèle. Réponse b : équilatéral. Réponse c : rectangle. On a GB = + =

Plus en détail

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée. ANALYSE 5 points Exercice 1 : Léonie souhaite acheter un lecteur MP3. Le prix affiché (49 ) dépasse largement la somme dont elle dispose. Elle décide donc d économiser régulièrement. Elle a relevé qu elle

Plus en détail

Axiomatique de N, construction de Z

Axiomatique de N, construction de Z Axiomatique de N, construction de Z Table des matières 1 Axiomatique de N 2 1.1 Axiomatique ordinale.................................. 2 1.2 Propriété fondamentale : Le principe de récurrence.................

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

NOMBRES COMPLEXES. Exercice 1 :

NOMBRES COMPLEXES. Exercice 1 : Exercice 1 : NOMBRES COMPLEXES On donne θ 0 un réel tel que : cos(θ 0 ) 5 et sin(θ 0 ) 1 5. Calculer le module et l'argument de chacun des nombres complexes suivants (en fonction de θ 0 ) : a i( )( )(1

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable Eo7 Fonctions de plusieurs variables Eercices de Jean-Louis Rouget Retrouver aussi cette fiche sur wwwmaths-francefr * très facile ** facile *** difficulté moenne **** difficile ***** très difficile I

Plus en détail

2.4 Représentation graphique, tableau de Karnaugh

2.4 Représentation graphique, tableau de Karnaugh 2 Fonctions binaires 45 2.4 Représentation graphique, tableau de Karnaugh On peut définir complètement une fonction binaire en dressant son tableau de Karnaugh, table de vérité à 2 n cases pour n variables

Plus en détail

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET TOUT E QU IL FUT SVOIR POUR LE REVET NUMERIQUE / FONTIONS eci n est qu un rappel de tout ce qu il faut savoir en maths pour le brevet. I- Opérations sur les nombres et les fractions : Les priorités par

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

COURS EULER: PROGRAMME DE LA PREMIÈRE ANNÉE

COURS EULER: PROGRAMME DE LA PREMIÈRE ANNÉE COURS EULER: PROGRAMME DE LA PREMIÈRE ANNÉE Le cours de la première année concerne les sujets de 9ème et 10ème années scolaires. Il y a bien sûr des différences puisque nous commençons par exemple par

Plus en détail

Chapitre 1 : Évolution COURS

Chapitre 1 : Évolution COURS Chapitre 1 : Évolution COURS OBJECTIFS DU CHAPITRE Savoir déterminer le taux d évolution, le coefficient multiplicateur et l indice en base d une évolution. Connaître les liens entre ces notions et savoir

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail

I. Ensemble de définition d'une fonction

I. Ensemble de définition d'une fonction Chapitre 2 Généralités sur les fonctions Fonctions de références et fonctions associées Ce que dit le programme : Étude de fonctions Fonctions de référence x x et x x Connaître les variations de ces deux

Plus en détail

Mesures gaussiennes et espaces de Fock

Mesures gaussiennes et espaces de Fock Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première

Plus en détail

Date : 18.11.2013 Tangram en carré page

Date : 18.11.2013 Tangram en carré page Date : 18.11.2013 Tangram en carré page Titre : Tangram en carré Numéro de la dernière page : 14 Degrés : 1 e 4 e du Collège Durée : 90 minutes Résumé : Le jeu de Tangram (appelé en chinois les sept planches

Plus en détail