1.1 Introduction aux systèmes d équations linéaires (cf. Section 1.1 de [1])

Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Résolution de systèmes linéaires par des méthodes directes

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Cours d analyse numérique SMI-S4

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Structures algébriques

Programmes des classes préparatoires aux Grandes Ecoles

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Programmation linéaire

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Programme de la classe de première année MPSI

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Programmation linéaire

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

3 Approximation de solutions d équations

Chapitre 2. Matrices

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Cours d Analyse. Fonctions de plusieurs variables

I. Polynômes de Tchebychev

Fonctions de plusieurs variables

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Exercices Corrigés Premières notions sur les espaces vectoriels

1 Complément sur la projection du nuage des individus

Développement décimal d un réel

Programmation linéaire et Optimisation. Didier Smets

Simulation de variables aléatoires

1S Modèles de rédaction Enoncés

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Problème 1 : applications du plan affine

Résumé du cours d algèbre 1, Sandra Rozensztajn. UMPA, ENS de Lyon, sandra.rozensztajn@ens-lyon.fr

[ édité le 30 avril 2015 Enoncés 1

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Deux disques dans un carré

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Cours de mathématiques

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Capes Première épreuve

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Mathématiques appliquées à l'économie et à la Gestion

Polynômes à plusieurs variables. Résultant

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Cours 02 : Problème général de la programmation linéaire

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x =

Chapitre VI - Méthodes de factorisation

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Calcul fonctionnel holomorphe dans les algèbres de Banach

Trouver un vecteur le plus court dans un réseau euclidien


= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

LE PRODUIT SCALAIRE ( En première S )

Calcul différentiel. Chapitre Différentiabilité

Résolution d équations non linéaires

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Programmation Linéaire - Cours 1

Corrigé du baccalauréat S Asie 21 juin 2010

Calcul intégral élémentaire en plusieurs variables

Le produit semi-direct

Une forme générale de la conjecture abc

Licence Sciences de l Ingénieur et Licence Informatique. Niveau L2 (= 2ème année)

Une introduction aux codes correcteurs quantiques

NOTATIONS PRÉLIMINAIRES

Proposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5.

Optimisation Discrète

Extrait du poly de Stage de Grésillon 1, août 2010

La géométrie du triangle III IV - V Cercles remarquables - Lieux géométriques - Relations métriques

Catalogue des connaissances de base en mathématiques dispensées dans les gymnases, lycées et collèges romands.

Probabilités sur un univers fini

Correction de l examen de la première session

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Calcul différentiel sur R n Première partie

Comment démontrer des formules sans effort? exposé de maîtrise

Exercice : la frontière des portefeuilles optimaux sans actif certain

Limites finies en un point

Algorithmes pour la planification de mouvements en robotique non-holonome

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

Pour l épreuve d algèbre, les calculatrices sont interdites.

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Fonctions de plusieurs variables

Séquence 10. Géométrie dans l espace. Sommaire

STATIQUE GRAPHIQUE ET STATIQUE ANALYTIQUE

Quantification Scalaire et Prédictive

DOCM Solutions officielles = n 2 10.

Axiomatique de N, construction de Z

VI. COMPLÉMENTS SUR LES MODULES, THÉORÈME CHINOIS, FACTEURS INVARIANTS SÉANCES DU 15, 16 ET 22 OCTOBRE

Approximations variationelles des EDP Notes du Cours de M2

MATHÉMATIQUES DISCRÈTES (4) CRYPTOGRAPHIE CLASSIQUE

Introduction à l étude des Corps Finis

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Angles orientés et fonctions circulaires ( En première S )

Première partie. Introduction à la méthodes des différences finies

UNIVERSITE IBN ZOHR Faculté des sciences Agadir. Filière SMA & SMI. Semestre 1. Module : Algèbre 1

Angles orientés et trigonométrie

Géométrie dans l espace Produit scalaire et équations

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Transcription:

Algèbre linéaire pour GM Prof. A. Abdulle Automne 2014 EPFL Résumés du cours d algèbre linéaire 1 Introduction 1.1 Introduction aux systèmes d équations linéaires (cf. Section 1.1 de [1]) Systèmes d équations, interprétation géométrique de systèmes linéaires (plan, espace à trois dimensions), notation matricielle d un système linéaire, matrice augmentée d un système linéaire. 1.2 Résolution dun systme déquations linéaires (cf. Section 1.2 de [1]) Systèmes linéaires équivalents, opérations sur un système linéaire qui ne modifient pas l ensemble de solutions (permutation, addition d un multiple d une autre équation, multiplication d une équation par une constante non nulle). Théorème 1. Les opérations de type 1, 2, 3 transforment un système linéaire en un système équivalent. Algorithme de réduction, forme échelonnée, forme échelonnée réduite, position pivot, variables de base et variables libres. Théorème 2. Un système linéaire est compatible si et seulement si la matrice augmentée n a pas de ligne de la forme [ 0 0 c ] avec c non nul. Pour un système linéaire compatible, on a une solution unique s il n y a pas de variables libres et une infinité de solutions sinon. 1.3 Vecteurs et équations vectorielles (cf. Section 1.3 de [1]) Notion de vecteur, l espace R n. Combinaisons linéaires de vecteurs, équivalence entre solutions de systèmes linéaires et solutions d équations vectorielles associées (cf. résultat fondamental à la page 34 dans [1]), ensemble des combinaisons linéaires de v 1, v 2,..., v p vecteurs de R n, la notion de span d une collection de vecteurs et sous-ensembles de R n. 1.4 Équations matricielles et systèmes linéaires (cf. Section 1.4 de [1]) Produit matrice vecteur. Théorème 1. Soit A une matrice m n. Alors 1. A(u + v) = Au + Av pour tout u, v R m, 2. A(αu) = αa(u) pour tout u R m et tout α R. 1

Théorème 2. Soit A une matrice m n; Ax = b a le même ensemble de solutions que l équation vectorielle x 1 a 1 + + x n a n = b, où a i est la i-ième colonne de la matrice A, ou que le système linéaire de matrice augmentée [ a 1 a 2 a n b ]. Théorème 3. Soit A une matrice m n, alors les énoncés suivants sont équivalents: pour chaque b de R m, Ax = b admet une solution, tout b de R m est une combinaison linéaire des colonnes de A, les colonnes de A engendrent R m, A a une position pivot dans chaque ligne. 1.5 Ensembles de solutions des systèmes linéaires (cf. Section 1.5 de [1]) Notion de système homogène Ax = 0, où A est une matrice m n. Théorème 1. Ax = 0 admet une solution non triviale si et seulement si l équation a au moins une variable libre. Systèmes non homogènes Ax = b. Théorème 2. Supposons que Ax = b est compatible et soit p une solution du système. Alors l ensemble des solutions de Ax = b est l ensemble des vecteurs x = p + v où v est une solution de l équation homogène Ax = 0. 1.6 Indépendance linéaire (cf. Section 1.7 de [1]) Définition d (in)dépendance linéaire d un ensemble de vecteurs (v 1, v 2,..., v p ) de R n. Théorème 1. Soit A une matrice m n. Les colonnes de A sont linéairement indépendantes si et seulement si l équation Ax = 0 n admet que la solution triviale. Théorème 2. Un ensemble indicé S = (v 1, v 2,..., v p ), où v i sont des vecteurs de R n avec p 2, est linéairement dépendant si et seulement si au moins l un des vecteurs de S est une combinaison linéaires des autres. Notion de base de R n et base canonique de R n. 1.7 Introduction aux transformations linéaires (cf. Section 1.8 de [1]) Notion de transformation T : R n R m, domaine de définition, ensemble d arrivée, image d un vecteur x, image de l application T. Définition d une transformation linéaire, exemples de transformations linéaires (symétrie, projection, etc.). 1.8 La matrice d une transformation linéaire (cf. Section 1.9 de [1]) Matrice d une transformation linéaire, matrice canonique d une transformation linéaire. Théorème 1. Soit T : R n R m une transformation linéaire. Alors il existe une unique matrice A de dimension m n, telle que T (x) = Ax, où x est un vecteur de R n. 2

Applications injectives, surjectives et bijectives. Théorème 2. Soit T : R n R m une transformation linéaire. Alors T est injective si et seulement si T (x) = 0 n admet que la solution triviale, où x est un vecteur de R n. Théorème 3. Soit T : R n R m une transformation linéaire et soit A sa matrice canonique. Les énoncés suivants sont équivalents: T est surjective, tout b de R m est une combinaison linéaire des colonnes de A, les colonnes de A engendrent R m, A a une position pivot dans chaque ligne. Notion de noyau et d image d une transformation linéaire. 2 L algèbre matricielle 2.1 Opération sur les matrices (cf. Section 2.1 de [1]) Définition de l addition de deux matrices m n, multiplication d une matrice par un scalaire. Théorème 1. Soit A, B, C des matrices m n. Alors 1. A + B = B + A, 2. (A + B) + C = A + (B + C), 3. A + 0 = A. Théorème 2. Soit A, B des matrices m n et α, β R. Alors 1. α(a + B) = αa + βb, 2. (α + β)a = αa + βa, 3. α(βa) = (αβ)a, 4. 1 A = A, 5. 0 A = 0 (scalaire 0 matrice A = matrice 0). Définition du produit matriciel. Théorème 3. Soit A matrice m n et B matrice n p. Alors (AB)x = A(Bx) pour tout x R p. Produit matriciel (exemple), règle ligne colonne pour le calcul de AB. Théorème 4. Propriétés du produit matriciel, symétrie, associativité, distributivité par rapport à l addition, etc. Transposée d une matrice et propriétés (cf. p.115 dans [1]). 3

2.2 L inverse d une matrice (cf. Section 2.2 de [1]) Définition de l inverse, lemme 1 (unicité de l inverse). Proposition 1. Soit A une matrice n n. S il existe une matrice C de taille n n telle que AC = I n ou CA = I n alors A est inversible et A 1 = C. [ ] a b Théorème 2. Soit A = une matrice 2 2. Alors A est inversible si et seulement c d ( ) [ ] 1 d b si ad bc est différent de zéro. Si A est inversible, alors A 1 =. ad bc c a Théorème 3. Si A est une matrice n n inversible, alors pour chaque b de R n, l équation Ax=b admet la solution unique x=a 1 b. Théorème 4. Soient A et B deux matrices inversibles. Alors, A 1 est inversible et (A 1 ) 1 = A, AB est inversible et (AB) 1 = B 1 A 1, A T est inversible et (A T ) 1 = (A 1 ) T. Matrices symétriques et antisymétriques. Matrices élémentaires. Théorème 5. Effet du produit par une matrice élémentaire. Théorème 6. Inversibilité des matrices élémentaires. Théorème 7. Soit A une matrice de taille n n. Alors les énoncés suivants sont équivalents: A est inversible, pour chaque b de R n Ax=b admet une solution unique, Ax=0 n a que la solution triviale x = 0, les colonnes de A sont linéairement indépendantes, les colonnes de A engendrent R n, A a une position pivot dans chaque ligne, A est équivalente à la matrice I n, A est un produit de matrice élémentaires. 4

2.3 Factorisation des matrices (cf. Section 2.2 et Section 2.5 de [1]) Calcul de l inverse d une matrice [ A I ] [ I A 1], factorisation des matrices, matrices triangulaires supérieures et inférieures, la décomposition A = LU. La décomposition A = LU, résolution d un système linéaire Ax = b à l aide de la décomposition LU, où (i) Ly = b, (ii) Ux = y, calcul de la décomposition, matrice L i et son inverse, compte d opérations : la décomposition, n 2 pour la résolution. n 3 3 pour 2.4 Matrices partitionnées (cf. Section 2.4 de [1]) Décomposition d une matrice par blocs. Addition et multiplication de matrices avec partitions par blocs compatibles Règle colonne/ligne pour le produit de deux matrices. Inverse de matrices (triangulaires) partitionnées. 3 Les déterminants 3.1 Introduction aux déterminants (cf. Section 3.1 de [1]) Définition du déterminant d ordre n (par récurrence sur n), cofacteurs. Théorème 1. Le déterminant de A d ordre n peut être calculé par un développement selon n importe quelle ligne ou colonne. Théorème 2. Le déterminant d une matrice triangulaire (supérieure ou inférieure) est le produit des éléments de sa diagonale. 3.2 Propiétés des déterminants (cf. Section 3.2 et Section 3.3 de [1]) Théorème 1. Soit A une matrice n n. Son déterminant a les propriétés suivantes: si B est une matrice obtenue en ajoutant à une ligne de la matrice A un multiple d une autre de ses lignes, alors det B = det A, si B est une matrice obtenue en intervertissant deux lignes de A, alors det B = det A, si B est obtenue en multipliant une ligne de A par α, alors det B = α det A. Calcul d un déterminant, remarque sur la complexité du calcul d un déterminant par la méthode du développement en cofacteur (complexité n!), calcul du déterminant par transformation de la matrice sous forme échelonnée. Théorème 2. Une matrice A n n est inversible si et seulement si det A 0. Théorème 3. Soit A une matrice n n, alors det A = det A T. 5

Déterminant du produit de matrices. Théorème 4. Soit A et B des matrices n n, alors det AB = det A det B. Théorème 5 (Règle de Cramer). Soit A une matrice n n inversible, alors les solutions du système linéaire Ax = b, où x et b sont des vecteurs de R n, sont données par x i = det A i(b) det A pour i = 1, 2,..., n, où (en notant par a i les vecteurs colonnes de la matrice A) on définit A i (b) = [ ] a 1 a 2 a i 1 b a i+1 a n. Théorème 6 (Formule de l inverse). Soit A une matrice n n inversible. Alors A 1 = 1 det A adja, où adja est la matrice des cofacteurs, i.e. (adja) ij = C ji avec C ji un cofacteur de A. 4 Les espaces vectoriels 4.1 Espaces et sous-espaces vectoriels (cf. Section 4.1 de [1]) Définition d un espace vectoriel, premières conséquences. Soit V un espace vectoriel et soit u V. Alors, (a) le vecteur 0 est unique, (b) l opposé de u est unique, (c) 0u = 0, (d) r0 = 0, où r est un scalaire, (e) ( 1)u = u. Exemples d espace vectoriels (R n, fonctions, polynômes, matrices, signaux discrets). Sous-espaces vectoriels, sous-espace engendré par un ensemble. Théorème 1. Soient v 1, v 2,..., v p des éléments d un espace vectoriel V. Alors span{v 1, v 2,..., v p } est un sous-espace vectoriel de V. 4.2 Espaces vectoriels et transformations linéaires (cf. Section 4.2 de [1]) Transformation linéaires de V W où V et W sont des espaces vectoriels, définition de KerT et ImT. Théorème 1. KerT est un sous espace vectoriel de V. Théorème 2. ImT est un sous-espace vectoriel de W. Application des théorèmes 1 et 2. Théorème 3. Soit A une matrice de taille m n. Alors l ensemble des solutions homogènes Ax = 0 est un sous-espace vectoriel de R n. ImA est un sous-espace vectoriel de R m. L espace des colonnes d une matrice A, noté ColA, est l ensemble de toutes les combinaisons linéaires des colonnes de A. 6

4.3 Bases d un espace vectoriel (cf. Section 4.3 de [1]) Définition de vecteurs linéairement indépendants de V, un espace vectoriel. Théorème 1. Un ensemble {v 1, v 2,..., v p } de deux vecteurs ou plus est linéairement dépendant si et seulement si au moins l un des vecteurs {v 1, v 2,..., v p } est combinaison linéaire des autres. Définition 2. Soit V un espace vectoriel et S = {v 1, v 2,..., v p } un sous-ensemble de V. Alors S est une base de V si et seulement si (i) l ensemble S est linéairement indépendant, (ii) l ensemble S engendre V, c.-à.-d. span{v 1, v 2,..., v p } = V. Théorème 3. Soit V un espace vectoriel et S = {v 1, v 2,..., v p } un ensemble d éléments de V et soit W = span{v 1, v 2,..., v p }. Alors, (i) si l un des vecteurs de S, disons v k, est une combinaison linéaire des autres vecteurs de S, alors l ensemble {v 1, v 2,..., v k 1, v k+1,..., v p } est encore un ensemble générateur de W, (ii) si W 0 alors un sous-ensemble extrait de S constitue une base de W. Base de KerA et ColA pour une matrice A m n (mise sous forme échelonnée en une matrice B, alors KerA = KerB mais ColA ColB en général). Théorème 4. Les colonnes d une matrice A ayant une position pivot forment une base de ColA. 4.4 Coordonnées dans R n et changement de bases (cf. Section 4.4 et Section 4.7 de [1]) Théorème 1. Soit B = {b 1, b 2,..., b p } une base d un espace vectoriel V. Alors pour tout vecteur v de V il existe un ensemble unique de scalaires c 1, c 2,..., c p tel que v = c 1 b 1 + c 2 b 2 +... + c p b p. Définition de coordonnées de v par rapport à B. Définition de [v] B vecteur des coordonnées de v par rapport a B. Changement de coordonnées de la base canonique à une base quelconque B. Définition de P B matrice de passage entre la base B et la base canonique. Application coordonnées [ ] B : V R n. Théorème 2. L application [ ] B est une transformation linéaire et bijective entre espaces vectoriels. Isomorphisme d espace vectoriels, changement de base. Théorème 3. Soient B = {b 1, b 2,..., b n } et C = {c 1, c 2,..., c n } deux bases d un espace vectoriel. Alors il existe une unique matrice P CB n n telle que [v] C = P CB [v] B. 7

4.5 Dimension d un espace vectoriel et théorème du rang (cf. Section 4.5 et Section 4.6 de [1]) Théorème 1. Si B = {b 1, b 2,..., b n } est une base d un espace vectoriel V, alors tout ensemble de V de plus de n vecteurs est linéairement dépendent. Théorème 2. Soit B = {b 1, b 2,..., b n } une base d un espace vectoriel V. Alors toute autre base de V comporte exactement n vecteurs. Définition de dimension d un espace vectoriel. Théorème 3. Soit W un sous-espace vectoriel d un espace vectoriel de dimension finie V. Alors tout ensemble linéairement indépendant de W peut être élargi en une base de W. De plus W est de dimension finie et dimw dimv. Théorème 4. Soit V un espace vectoriel de dimension p où p 1. Alors, (i) toute famille linéairement indépendante d exactement p vecteurs de V est automatiquement une base, (ii) toute famille d exactement p vecteurs qui engendre V est automatiquement une base. Définition de rang d une matrice. Théorème 5. Soit A une matrice n n. Alors n =rga+dim(kera). Théorème 6. Soit A une matrice de taille n n. Alors les énonces suivants sont équivalents (i) A est inversible, (ii) rg A = n, (iii) dim(kera)=0. Définition de LigA, l espace des lignes de A. Théorème 7. Soit A une matrice m n, alors dim(cola) = dim(liga). Rang de la matrice transposée. Soit A une matrice m n, alors rga = rga T. 5 Les valeurs et les vecteurs propres (cf. Section 5.1 et Section 5.2 de [1]) 5.1 Introduction aux valeurs et vecteurs propres (cf. Section 5.1 et Section 5.2 de [1]) Exemple. Définition 1. Soit A une matrice n n. On dit que v R n, v 0, est un vecteur propre de A s il existe λ R tel que Av = λv. Théorème 2. Soit A une matrice n n. Alors λ R est une valeur propre de A si et seulement si det(a λi) = 0. 8

Définition 3. L équation scalaire det(a λi) = 0 est appelée l équation caractéristique de A. Développement det(a ti) = ( 1) n t n + ( 1) n 1 trace(a)t n 1 + + det A. Théorème 4. Une matrice A de taille n n a au plus n valeurs propres distinctes. Théorème 5. Soit A une matrice n n et supposons que A possède λ 1, λ 2,..., λ r valeurs propres distinctes (avec r n). Soit v 1, v 2,..., v r des vecteurs propres associés à λ 1, λ 2,..., λ r. Alors {v 1, v 2,..., v r } est linéairement indépendant. Valeur propre et inversibilité. Théorème 6. Une matrice A de taille n n est inversible si et seulement si 0 n est pas valeur propre de A. Valeur propre et matrice triangulaire. Théorème 7. Soit A une matrice triangulaire. Alors les valeurs propres de A sont les éléments de la diagonale de A. Matrices semblables. Définition 8. Soit A une matrice de taille n n. On dit que A est semblable à une matrice B de taille n n s il existe une matrice inversible P de taille n n telle que B = P 1 AP. Théorème 9. Deux matrices A et B de taille n n et semblables ont le même polynôme caractéristique. 5.2 Diagonalisation (cf. Section 5.3 de [1]) Soit A une matrice de taille n n et soit λ une valeur propre de A. Le sous-espace vectoriel de R n Ker(A λi), noté E λ, est appelé l espace propre de A correspondant à la valeur propre λ. Note 1. La dimension de E λ correspond au nombre de vecteurs propres linéairement indépendants associés à λ. Définition de multiplicité algébrique de λ, dimension de E λ : multiplicité géométrique de λ. Théorème 2. Soit une matrice A de taille n n et λ une valeur propre de A. Alors multiplicité géométrique de λ multiplicité algébrique de λ. Théorème 3. Soit A une matrice symétrique. Alors A possède n vecteurs propres linéairement indépendants. Ces vecteurs peuvent être choisis de façon à former une base orthogonale. 5.3 Valeurs propres complexes (cf. Section 5.5 de [1]) Exemple de calcul de valeurs propres et vecteurs propres complexes. Espace propre associeé. 9

6 Produit scalaire, longueur et orthogonalité 6.1 Introduction au produit scalaire, à la longueur et à l orthogonalité (cf. Section 6.1 de [1]) Définition 1. Soient u, v R n. u v = u 1 v 1 + u 2 v 2 + + u n v n. Alors, le produit scalaire dans R n est définie par Théorème 2. Soient u et v vecteurs de R n et α R. Alors, (i) u v = v u, (ii) (u + v) w = u w + v w, (iii) (αu) v = α(u v) = u (αv), (iv) u u = 0 si et seulement si u = 0. Norme d un vecteur. Définition 3 (Norme euclidienne). Soit v R n, alors la norme euclidienne de v est définie par v = v v = v1 2 + v2 2 + + v2 n. Vecteur unitaire, distance dans R n. Définition 4. Soient u et v dans R n. La distance entre u et v, notée dist(u, v) est définie par dist(u, v) = u v. Théorème 5 (Propriétés de la norme). Soient u et v dans R n et soit α R. Alors les propriétés suivantes sont satisfaites: (i) u 0, (ii) u = 0 si et seulement si u = 0, (iii) αu = α u, (iv) u + v u + v. Inégalité de Cauchy-Schwarz ( u v u v ). Théorème 6. Soient u, v, w R n. Alors, (i) dist(u, v) 0, (ii) dist(u, v) = 0 si et seulement si u = v, (iii) dist(u, v) =dist(v, u), (iv) dist(u, v) dist(u, w)+dist(w, v). Définition 7. Deux vecteurs u, v dans R n sont dits orthogonaux si et seulement si u v = 0. 10

Théorème 8 (Pythagore). Deux vecteurs u, v dans R n sont orthogonaux si et seulement si u + v 2 = u 2 + v 2. Définition 9. L orthogonal d un sous-espace vectoriel W de R n, noté W, est donné par W = {z R n z est orthogonal à W }. Exemples. Théorème 10. Soit W un sous-espace vectoriel de R n. Alors, (i) W est un sous-espace vectoriel de R n, (ii) W W = {0}. Théorème 11. Soit A une matrice m n. Alors, (i) l orthogonal de l espace des lignes de A est l espace nul de A, c.-à.-d. (LigA) = KerA, (ii) l orthogonal de l espace des colonnes de A est l espace nul de A T, c.-à.-d. (ColA) = KerA T. 6.2 Les ensembles orthogonaux (cf. Section 6.2 de [1]) Définition 1. Une base d un sous-espace vectoriel W de R n qui est un ensemble orthogonal est appelée une base orthogonale. Définition 2. Un ensemble de vecteurs {u 1,..., u p } R n est dit orthogonal si u i u j = 0 pour tout i, j = 1,..., n, i j. Théorème 3. Soit S = {u 1,..., u p } un ensemble orthogonal de vecteurs u i R n, u i 0 pour tout i = 1,..., p. Alors S est linéairement indépendant. Théorème 4. Soit S = {u 1, u 2,..., u p } une base orthogonale d un sous-espace vectoriel W de R n. Alors pour tout v W on a où a j = v u j u j u j pour j {1, 2,..., p}. Exemple, projection orthogonale. v = a 1 u 1 + a 2 u 2 + + a p u p, Théorème 5. Soit W un sous-espace vectoriel de R n. Alors tout vecteur v R n peut être écrit de façon unique v = u + z, où u W et z W. Définition 6. Le vecteur u du Théorème 5 est appelé la projection orthogonale de v sur W. Théorème 7. Soit W un sous-espace vectoriel de R n et v un vecteur quelconque de R n et soit u la projection orthogonale de v sur W. Alors v u v y pour tout y W. 11

6.3 La méthode de Gram-Schmidt et la factorisation QR (cf. Section 6.4 de [1]) Méthode de Gram-Schmidt (algorithme pour construire une base orthogonale (ou orthonormée) d un sous-espace vectoriel non nul quelconques de R n ), exemples. Théorème 1. Soit {v 1, v 2,..., v p } une base sous-espace vectoriel W de R n. On définit u 1 = v 1 u 2 = v 2 v 2 u 1 u 1 u 1 u 1. u p = v p vp u 1 u 1 u 1 u 1 vp u 2 u 2 u 2 u 2 vp u p 1 u p 1 u p 1 u p 1. Alors {u 1, u 2,..., u p } est une base orthogonale de W. De plus, span{v 1, v 2,..., v k } = span{u 1, u 2,..., u k } pour 1 k p. Définition 2. Soit Q une matrice n n. Si les colonnes de Q forment une base orthonormale de R n, on dit que Q est orthogonale et on a donc Q T Q = I. Factorisation QR d une matrice. Théorème 3. Soit A une matrice m n dont les colonnes sont linéairement indépendantes. Alors A peut être factorisée en A = QR, où Q est une matrice m n dont les colonnes forment une base orthonormée de ColA et oú R est une matrice n n triangulaire supérieure inversible avec des éléments diagonaux positifs. Exemples. 6.4 Les problèmes de moindres carrés Soit A une matrice m n. Si m > n on dit que le systéme linéaire Ax = b avec x R n, b R m est surdéterminé (le système d équations est en général incompatible). Idée des moindres carrés (penser Ax comme une approximation de b et chercher x tel que l approximation dans la norme euclidienne sur R n soit la meilleure, c.-à.-d. x tel que la distance soit minimale). Définition 1. Le système d équations A T Ax = A T b est appelé équations normales de Ax = b. Théorème 2. L ensemble des solutions des moindres carrés de Ax = b coïncide avec l ensemble des solutions des équations normales A T Ax = A T b. Cet ensemble est non vide. Théorème 3. Soit A une matrice m n. Alors la matrice A T A est inversible si et seulement si les colonnes de A sont linéairement indépendantes. Conséquence: le système linéaire Ax = b possède une solution unique au sens des moindres carrés si et seulement si les colonnes de A sont linéairement indépendantes. Solution des moindres carrés à l aide de la factorisation QR. Théorème 4. Soit A une matrice m n dont les colonnes sont linéairement indépendantes et soit A = QR une factorisation QR de A. Alors la solution unique du système linéaire Ax = b est donnée par x = R 1 Q T b. Application: calcul de la trajectoire d une planète. 12

6.5 Les espaces euclidiens (cf. Section 6.7 de [1]) But: généraliser les notions de produit scalaire, norme et orthogonalité à des espaces vectoriels autres que R n. Définition 1. Soit V un espace vectoriel. Un produit scalaire sur V est une fonction qui associe à chaque paire de vecteurs u, v V un nombre réel noté (u v) satisfaisant aux axiomes suivants pour tout u, v, w V et tout α R: (i) (u v) = (v u), (ii) (u + v w) = (u w) + (v w), (iii) (αu v) = α(u v), (iv) (u u) 0 et (u u) = 0 si et seulement si u = 0. Définition 2. Un espace vectoriel de dimension finie muni d un tel produit scalaire est appelé un espace euclidien. Exemples : fonctions polynomiales, produit scalaire défini à l aide de l intégrale, produit scalaire basé sur une forme quadratique définie positive. 7 Les matrices symétriques et les formes quadratiques 7.1 Retour sur les matrices symétriques (cf. Section 7.1 de [1]) On a vu que si A est une matrice n n symétrique, il existe une matrice orthogonale Q telle que Q T AQ = D, où D est la matrice diagonale formée par les n valeurs propres. Définition 1. Une matrice A de taille n n admet une décomposition de Schur s il existe une matrice orthogonale U de taille n n et une matrice triangulaire supérieure R de taille n n telles que R = U T AU. Théorème 2. Une matrice A de taille n n qui admet une décomposition de Schur A = URU T a n valeurs propres réelles (pas nécéssairement distinctes). Théorème 3. Soit A une matrice de taille n n avec n valeurs propres réelles. Alors, A admet une décomposition de Schur. Théorème 4. Soit A une matrice symétrique de taille n n. Soient v 1 et v 2 deux vecteurs propres associés à des valeurs propres distinctes de A λ 1, λ 2. Alors v 1 v 2 = 0. Exemples, rappel sur les nombres complexes. Théorème 5. Soit A une matrice n n. Si A est symétrique alors A possède n valeurs propres réelles λ 1, λ 2,..., λ n. Théorème 6 (Théorème spectral). Soit A une matrice symétrique n n. Alors A est diagonalisable, c.-à.-d. il existe une matrice P n n inversible telle que P 1 AP est diagonale avec une diagonale composée des valeurs propres λ 1, λ 2,..., λ n de la matrice A. De plus la matrice P peut être choisie orthogonale. Définition 7. Soit A n n symétrique, Q = (u 1... u n ) la matrice orthogonale donnée par le théorème spectral et λ 1,..., λ n les n valeurs propres de A. Alors A = λ 1 u 1 u T 1 +... + λ n u n u T n et cette expression est appelée décomposition spectrale. 13

7.2 Les formes quadratiques (cf. Section 7.2 et Section 7.3 de [1]) Définition 1. Une forme quadratique de R n est une fonction Q : R n R, telle que Q(x) = x T Ax, où A est une matrice symétrique de taille n n. Exemple (interprétation géométrique de Q(x) = cst, x R 2, cercle, ellipse, hyperbole), changement de variables dans une forme quadratique. Théorème 2. Soit Q(x) = x T Ax une forme quadratique, où A est une matrice symétrique. Alors il existe un changement de variables x = Uy, où U est une matrice n n orthogonale, qui transforme la forme quadratique Q(x) en une forme quadratique Q(y) de la forme λ 1 y 2 1 + λ 2y 2 2 + + λ ny 2 n, où λ 1, λ 2,..., λ n sont les valeurs propres de A. Exemple (interprétation géométrique). Note 3. Le changement de variables x = Uy exprime le vecteurs x dans la base orthogonale composée des colonnes de U = [ u 1 u 2 u n ]. Définition 4. Une forme quadratique Q : R n R, Q(x) = x T Ax, où A est une matrice symétrique de taille n n, est (i) définie positive si Q(x) > 0 pour tout x 0 (semi-finie positive si Q(x) 0 pour tout x R n ), (ii) définie négative si Q(x) < 0 pour tout x 0 (semi-finie positive si Q(x) 0 pour tout x R n ), (iii) indéfinie si Q(x) prend des valeurs positives et négatives. Théorème 5. Soit Q(x) = x T Ax une forme quadratique, où A est une matrice symétrique de taille n n. Alors la forme est (i) définie positive si et seulement si les valeurs propres de A sont toutes strictement positives (semi-définie positive si et seulement si les valeurs propres de A sont toutes positives ou nulles), (ii) définie négative si et seulement si les valeurs propres de A sont toutes strictement négatives (semi-définie négative si et seulement si les valeurs propres de A sont toutes négatives ou nulles), (iii) indéfinie si et seulement si A a des valeurs propres négatives et positives. Note 6. Pour une matrice symétrique A, on dit aussi que A est (semi-)définie positive ou (semi-)définie négative ou indéfinie quand Q(x) = x T Ax est respectivement (semi- )définie positive ou (semi-)définie négative ou indéfinie. Théorème 7. Le produit (x z) défini par (x z) = x T Az, où A est une matrice n n symétrique est un produit scalaire si et seulement si A est définie positive. Théorème 8. Soit A une matrice n n symétrique. Notons λ 1 λ 2 λ n les n valeurs propres réelles de A (non nécéssairement distinctes). Alors max{x T Ax; x = 1} = λ 1, min{x T Ax; x = 1} = λ n. 14

Références [1] David C. Lay. Algbre linaire : thorie, exercices et applications, volume 3. De Boeck, Bruxelles, 2005. Informations générales, séries et corrigés: cf. http://anmc.epfl.ch/algebre.html. 15