Espaces euclidiens, orthogonalité, longueur. Moindres carrés.

Documents pareils
Fonctions de plusieurs variables

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Cours de mathématiques

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Cours d Analyse. Fonctions de plusieurs variables

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

I. Polynômes de Tchebychev

Limites finies en un point

Le produit semi-direct

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Théorème du point fixe - Théorème de l inversion locale

Introduction à l étude des Corps Finis

3 Approximation de solutions d équations

Image d un intervalle par une fonction continue

[ édité le 30 avril 2015 Enoncés 1

CCP PSI Mathématiques 1 : un corrigé

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Continuité en un point

Calcul fonctionnel holomorphe dans les algèbres de Banach

Simulation de variables aléatoires

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Calcul différentiel sur R n Première partie

Capes Première épreuve

Programmation linéaire et Optimisation. Didier Smets

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Université Paris-Dauphine DUMI2E 1ère année, Applications

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Programmation linéaire

NOTATIONS PRÉLIMINAIRES

Programme de la classe de première année MPSI

1 Complément sur la projection du nuage des individus

Exercices Corrigés Premières notions sur les espaces vectoriels

Chapitre 2. Matrices

Correction de l examen de la première session

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Continuité d une fonction de plusieurs variables

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

Structures algébriques

Résolution de systèmes linéaires par des méthodes directes

NOMBRES COMPLEXES. Exercice 1 :

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Angles orientés et trigonométrie

Résolution d équations non linéaires

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Programmes des classes préparatoires aux Grandes Ecoles

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Approximations variationelles des EDP Notes du Cours de M2

Calcul intégral élémentaire en plusieurs variables

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET

Logique. Plan du chapitre

Polynômes à plusieurs variables. Résultant

Comparaison de fonctions Développements limités. Chapitre 10

Fonctions de plusieurs variables

1S Modèles de rédaction Enoncés

Calcul différentiel. Chapitre Différentiabilité

RO04/TI07 - Optimisation non-linéaire

Cours d analyse numérique SMI-S4

Représentation géométrique d un nombre complexe

Plan du cours : électricité 1

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Différentiabilité ; Fonctions de plusieurs variables réelles

Chapitre VI Fonctions de plusieurs variables

Problème 1 : applications du plan affine

Cours d Analyse 3 Fonctions de plusieurs variables

3. Conditionnement P (B)

Dérivées d ordres supérieurs. Application à l étude d extrema.


Extrait du poly de Stage de Grésillon 1, août 2010

Continuité et dérivabilité d une fonction

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Cours 02 : Problème général de la programmation linéaire

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

Optimisation Discrète

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

DOCM Solutions officielles = n 2 10.

Fonctions de plusieurs variables. Sébastien Tordeux

Mathématiques Algèbre et géométrie

Seconde Généralités sur les fonctions Exercices. Notion de fonction.

Optimisation, traitement d image et éclipse de Soleil

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

Quelques contrôle de Première S

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Optimisation des fonctions de plusieurs variables

Corps des nombres complexes, J Paul Tsasa

Chapitre VI - Méthodes de factorisation

1 Première section: La construction générale

Transcription:

Université Nice Sophia-Antipolis SL2SF 2012-13 Algèbre 2 Espaces euclidiens, orthogonalité, longueur. Moindres carrés. On travaille avec le corps des réels, noté R. Pour tout entier naturel n, on considère l ensemble des n-uplets de réels que l on désigne par R n : ainsi, un élément x de R n est une famille de réels (x 1, x 2,..., x n ). Noter que R 0 ne contient qu un élément, la famille vide, que l on note 0. L ensemble R 1 se ramène à R. On appelle souvent x un vecteur en référence à la structure d espace vectoriel sur R n. (Voir 10.1 pour la définition de cette structure). 7. Produit scalaire dans R n. Étant donnés deux vecteurs x et y de R n, on considère le nombre réel n x 1 y 1 +... + x n y n = x i y i que l on appelle produit scalaire de x et y et que l on note x y. On vérifie très facilement les propriétés suivantes : pour tous x, u, v, y de R n, pour tout λ scalaire réel, on a (1) Le produit scalaire est bilinéaire i=1 u + v y = u y + v y x u + v = x u + x v λ x y = λ x y x λ y = λ x y (2) Le produit scalaire est symétrique. x y = y x (3) Le produit scalaire est défini positif. x x 0 et x x = 0 = x = 0. La troisième propriété permet de définir la norme euclidienne d un vecteur (on peut dire aussi sa longueur) par la formule x := x x Cette même propriété montre que la norme d un vecteur est nulle si et seulement si le vecteur est nul. Pour tout λ réel on a : λ x = λ x. 7.1. Théorème (Inégalité de Cauchy-Schwarz). : Pour x et y vecteurs de R n on a x y x y avec égalité si et seulement si x et y sont colinéaires.

26 Démonstration. Considérons deux vecteurs x et y de R n. Si x est le vecteur nul, le théorème est vrai. Supposons donc x 0 et, pour λ réel, considérons la fonction ϕ : R R λ = λ x + y 2. En utilisant la bilinéarité et la symétrie du produit scalaire on trouve ϕ(λ) = λ x + y λ x + y = λ 2 x 2 + 2λ x y + y 2. Comme le produit scalaire est défini positif, la fonction ϕ est toujours positive ou nulle. Comme c est une fonction polynôme du second degré, son discriminant 4 x y 2 4 x 2 y 2 est négatif ou nul. On a donc x y 2 x 2 y 2 et l inégalité demandée. S il y a égalité, c est que le discriminant s annule. C est le seul cas où ϕ a une racine (double) λ 0. Dire que ϕ(λ 0 ) = 0, c est dire que λ 0 x + y 2 = 0, donc (produit scalaire défini positif) que le vecteur λ 0 x + y est nul, soit encore que y est proportionnel à x. Réciproquement, si x et y sont colinéaires et que x n est pas nul, il existe un λ 0 tel que le vecteur λ 0 x + y est nul. On a alors x y = x λ 0 x = λ 0 x 2 = x y. 7.2. Corollaire (Inégalité du triangle). Pour x et y vecteurs de R n, on a : x + y x + y avec égalité si et seulement si l un des vecteurs est nul ou si ils sont proportionnels avec un coefficient de proportionnalité positif. Démonstration. On calcule x + y 2 = x + y x + y = x 2 + 2 x y + y 2. En utilisant l inégalité de Cauchy-Schwarz, on obtient que et donc la majoration x y x y x y x + y 2 x 2 + 2 x y + y 2 = ( x + y ) 2 qui est celle recherchée. Pour avoir égalité il est nécessaire et suffisant que x y = x y. En particulier on est dans le cas où l inégalité de Cauchy-Schwarz est une égalité, les deux vecteurs sont donc colinéaires avec un coefficient de proportionnalité positif (voir la preuve de 7.1).

7.3. Commentaire. On remarque que les preuves de l inégalité de Cauchy-Schwarz et de ses conséquences utilisent seulement les trois propriétés énoncées d abord pour le produit scalaire : bilinéarité, symétrie et positivité et non la formule explicite qui définit le produit scalaire (le vérifier). Encouragé par ce constat, on va désormais appeler produit scalaire sur un espace vectoriel E sur le corps R toute application bilinéaire φ : E E R ( x, y) φ( x, y) qui est bilinéaire, symétrique et définie positive. Pour une telle application, il y un analogue de l inégalité de Cauchy-Schwarz et de ses conséquences. Par exemple, l inégalité de Cauchy-Schwarz pour φ s énonce ainsi : Pour x et y vecteurs de E on a φ( x, y) φ( x, x) φ( y, y) avec égalité si et seulement si x et y sont colinéaires. On définit également une norme associée à φ sur E : pour tout vecteur x de E, x φ := φ( x, x) (voir ici les énoncés généraux pour les produits scalaires 10.9, les normes 10.10 et l inégalité du triangle 3). 7.4. Exemples d espaces vectoriels euclidiens.. On peut considérer l exemple suivant d application : φ : R n R n R ( x, y) 2x 1 y 1 + x 2 y 2 +... + x n y n qui est un produit scalaire sur R n (le vérifier). Si n 2, on a φ((1, 1, 0,..., 0), (1, 1, 0,..., 0)) = 1, alors que le produit scalaire usuel de ces deux vecteurs est nul. Il y a donc, en général, plusieurs produits scalaires sur un même espace vectoriel réel. Sous-espaces vectoriels d un espace vectoriel réel. Si F est un sous-espace vectoriel d un espace vectoriel euclidien E (donc muni d un produit scalaire φ), la restriction de φ à F F induit un produit scalaire sur F. Autrement dit, pour calculer le produit scalaire de deux vecteurs de F, on calcule leur produit scalaire dans E. Dans la suite on considèrera donc un espace vectoriel E muni d un produit scalaire que nous noterons. L exemple privilégié, que l on doit garder en tête, est celui de R n muni du produit scalaire usuel. Polynômes orthogonaux. C est un autre exemple très important et très utilisé dans les applications. Voir Feuille 4, Exercice 4. 27 8. Orthogonalité 8.1. Définition. On dira que deux vecteurs x et y de R n sont orthogonaux si leur produit scalaire est nul. Remarquer que le vecteur nul est orthogonal à tout autre vecteur. Le calcul de x + y 2 ci-dessus (7.2) prouve le résultat suivant :

28 8.2. Théorème (Pythagore). Deux vecteurs x et y de R n sont orthogonaux si et seulement si x + y 2 = x 2 + y 2. 8.3. Théorème. Une famille libre de vecteurs de E qui sont tous non nuls et orthogonaux deux à deux est une famille libre. Démonstration. On rappelle qu une famille ( v 1, v 2,..., v d ) est libre si toute combinaison linéaire λ 1 v 1 + λ 2 v 2 +... + λ d v d qui donne le vecteur nul est la combinaison linéaire triviale : celle où tous les scalaires λ 1, λ 2,..., λ d sont nuls. Considérons donc des réels (λ 1, λ 2,..., λ d ) et la combinaison linéaire λ 1 v 1 + λ 2 v 2 +... + λ d v d = d λ i v i. Supposons que le résultat est le vecteur nul et faisons le produit scalaire par le vecteur v i pour i de 1 à d. On obtient, en utilisant la bilinéarité du produit scalaire 0 = v i λ 1 v 1 + λ 2 v 2 +... + λ d v d = λ 1 v i v 1 +... + λ d v i v d. Comme le vecteur v i est orthogonal à tous les autres, on en déduit 0 = v i λ 1 v 1 + λ 2 v 2 +... + λ d v d = λ i v i v i = λ i v i 2. i=1 Mais v i n est pas le vecteur nul, donc sa longueur n est pas nulle. C est donc que λ i = 0. 8.4. Définition. Une famille finie ( v 1, v 2,..., v d ) de vecteurs de E qui sont tous non nuls et orthogonaux deux à deux (et qui est donc libre d après le théorème) est appelée famille orthogonale. Si de plus les vecteurs de la famille sont tous de norme 1, on dit alors que la famille est orthonormée (on dit parfois orthonormale). On abrège base orthonormée en b.o.n. 8.5. Définition. On dira qu un vecteur v de E est orthogonal à une partie A de E s il est orthogonal à tous les vecteurs de A. On définit l orthogonal A comme l ensemble des vecteurs de E orthogonaux à A. Un vecteur v de E est dit orthogonal à A si y A v y = 0. 8.6. Lemme. On considère un espace vectoriel E et une partie A de E. Alors A est un sousespace vectoriel de E, même si A n en est pas un. L intersection A A contient au plus le vecteur nul. Si F est un sous-espace vectoriel de E, un vecteur v de E est orthogonal à F si et seulement s il est orthogonal à une partie génératrice de F (par exemple une base de F ). Démonstration. Exercice. 9. Algorithme de Gram-Schmidt C est l outil essentiel. 9.1. Théorème. On considère un espace vectoriel E et une famille libre ( v 1,..., v p ). Il existe une famille orthonormée ( e 1,..., e p ) de E telle que, pour tout j de 1 à p, Vect( v 1,..., v j ) = Vect( e 1,..., e j ). Voir la définition de sous-espace vectoriel et du symbole Vect( ) ici 10.3.

Démonstration. La preuve se fait par récurrence sur p. Pour p = 0, on ne fait rien. Considérons alors un entier p > 0 et une famille libre ( v 1,..., v p ). Par hypothèse de récurrence, on sait trouver une famille orthonormée ( e 1,..., e p 1 ) telle que, pour tout j de 1 à p 1, Vect( v 1,..., v j ) = Vect( e 1,..., e j ). On considère alors le vecteur Il a deux propriétés importantes p 1 ε p = v p e j v p e j. j=1 (1) Il est non nul. Sinon, v p serait combinaison linéaire de e 1,..., e p 1, donc dans Vect( e 1,..., e p 1 ) qui est égal, toujours par hypothèse de récurrence, à Vect( v 1,..., v p 1 ). On aurait donc v p combinaison linéaire de ( v 1,..., v p 1 ), ce qui est impossible puisque la famille ( v 1,..., v p ) est libre. (2) Il est orthogonal à e i pour i de 1 à p 1. En effet, on a p 1 e i ε p = e i v p e j v p e i e j j=1 et le produit scalaire e i e j vaut 0 si i j et 1 si i = j. On en conclut que e i ε p = 0 pour i de 1 à p 1. Pour terminer la construction de la famille orthonormée ( e 1,..., e p ), il suffit de prendre e p = 1 ε p ε p. Les conséquences du résultat précédent sont importantes. On considère un espace vectoriel euclidien E, c est-à-dire un espace vectoriel sur R muni d un produit scalaire euclidien et un sous-espace vectoriel F de dimension finie p dans E. (1) Bases orthonormées. Le sous-espace F, qui est de dimension finie, a au moins une b.o.n. (2) Projection orthogonale. Si x est un vecteur de E et ( e 1,... e p ) une b.o.n. de F, alors le vecteur p v := e j x e j j=1 est dans F et la différence x v est orthogonale à F. C est le seul vecteur qui a cette propriété. On appelle v la projection orthogonale de x sur F et on la note pr F ( x). On définit ainsi une application de E dans E qui est linéaire. Voir Feuille 5. Exercice 2. (3) Supplémentaire orthogonal. Si E est lui-même de dimension finie n et F un sousespace vectoriel de dimension p dans E, alors F est un sous-espace vectoriel de dimension finie n p et tout vecteur x de E se décompose de manière unique en x = pr F ( x) + pr F ( x). Autrement dit, si on connaît l une des deux projections orthogonales, on déduit l autre par différence. On appelle F le supplémentaire orthogonal de F dans E. 29

30 (4) Optimisation. À cause du théorème de Pythagore, la projection orthogonale sur F a la propriété caractéristique suivante : pour tout vecteur y de F, x pr F ( x) x y avec égalité seulement si y = pr F ( x). Autrement dit, la fonction y x y, définie sur F, a un minimum unique qui est atteint pour y = pr F ( x). Ceci est un moyen efficace de résoudre certains problèmes d optimisation qui se ramènent ainsi à un calcul de projection orthogonale. (5) Moindres carrés. Voir Feuille 5. Exercice 5.

Université Nice Sophia-Antipolis SL2SF 2012-13 Algèbre 2 Matrices symétriques réelles. 10. Calcul matriciel 10.1. Application bilinéaire symétrique associée à une matrice symétrique. On considère une matrice symétrique A dans M n (R). On appelle B la base canonique (e 1,..., e n ) de R n. (1) À une telle matrice est associée une application linéaire f de Rn dans R n. Si x est un vecteur de R n, on note X la matrice colonne de ses coordonnées dans la base canonique B. Le produit de matrices AX est une matrice colonne qui est la matrice dans la base canonique B d un vecteur y de R n. Ce vecteur est l image de x par f. (2) À une telle matrice est associée une application bilinéaire symétrique de Rn R n dans R. On considère deux vecteurs x et y de R n de matrices respectives X et Y dans la base B. Le produit de matrices t Y A X est une matrice 1 1, c est-à-dire un réel. Remarquons que ce réel est le produit scalaire y f( x). On notera φ l application φ : R n R n R On note que, puisque A est symétrique, ( x, y) y f( x). t Y A X = t X t A Y = t XA Y. On a donc φ( x, y) = φ( y, x), soit encore y f( x) = f( y) x. Espace vectoriel euclidien E x y f : E E y = f( x) x y = y x y f( x) = f( x) y Dans la base B X Y A matrice carrée n n Y = AX t Y X = t XY t Y A X = t (AX)Y = t X t A Y 11. Formes bilinéaires symétriques Dans cette section on étudie les applications bilinéaires symétriques φ : E E R ( u, v) φ( u, v). où E est un espace vectoriel sur R. Comme l espace d arrivée est R on appelle une telle application forme bilinéaire symétrique. 11.1. Lemme. On considère une application bilinéaire φ comme ci-dessus qui est de plus positive, c est-à-dire v E φ( v, v) 0. L ensemble des vecteurs v de E tels que φ( v, v) = 0 est un sous-espace vectoriel de E. C est aussi le sous-ensemble { v E w E φ( v, w) = 0}

32 Démonstration. On considère un vecteur v tel que φ( v, v) = 0, un vecteur w de E et un scalaire réel λ. On calcule φ( v + λ w, v + λ w), positif ou nul par hypothèse, en utilisant la bilinéarité : 0 φ( v + λ w, v + λ w) = φ( v, v) + λ 2 φ( w, w) + 2λφ( v, w) = λ 2 φ( w, w) + 2λφ( v, w). On en déduit que la fonction λ λ 2 φ( w, w) + 2λφ( v, w) ne prend aucune valeur négative, ce qui n est possible que lorsque φ( v, w) = 0. On vérifie ensuite que l ensemble { v E w E φ( v, w) = 0} est un sous-espace vectoriel de E. C est une conséquence de la linéarité de φ par rapport à son premier argument. Remarque. En particulier, une forme bilinéaire positive φ est un produit scalaire si et seulement si l une des deux propriétés suivantes est satisfaite (1) l ensemble { v E φ( v, v) = 0} est réduit au vecteur nul. (2) le sous-espace vectoriel { v E w E φ( v, w) = 0} est réduit au vecteur nul. 11.2. Théorème. On considère un entier naturel n, un espace vectoriel euclidien E de dimension finie n et une forme bilinéaire symétrique φ sur E. Il existe une base orthonormée ( v 1,..., v n ) de vecteurs de E, et une famille de réels (λ 1,..., λ n ) telles que (1) Pour i de 1 à n, φ( v i, v i ) = λ i. (2) Pour i et j de 1 à n, i j, φ( v i, v j ) = 0. (3) Si v = n i=1 α i v i et w = n i=1 β i w i, alors En particulier, φ( v, w) = φ( v, v) = n λ i α i β i. i=1 n λ i (α i ) 2. L assertion (3) est équivalente aux deux premières, compte tenu de la bilinéarité de φ. i=1 Démonstration. La démonstration se fait par récurrence sur l entier n. Pour n = 0 il n y a rien à faire (une famille à 0 éléments est vide). On considère alors un entier n > 0, une forme bilinéaire symétrique φ sur un espace euclidien E de dimension n et on fait l hypothèse que le théorème est vrai pour toute forme bilinéaire symétrique sur un espace de dimension strictement inférieure à n. À l aide de φ, on construit une application h : R n R x h( x) := φ( x, x). La sphère unité de R n est un ensemble fermé et borné de R n, donc compact. La fonction h est continue parce que polynomiale. Un théorème important d analyse affirme que toute fonction continue sur un compact est bornée et atteint ses bornes sur ce compact. La fonction h est donc bornée sur la sphère unité et il existe un vecteur v 0 de norme 1, tel que tout vecteur v de norme 1 a une image h(v) majorée par h(v 0 ). On désigne h(v 0 ) par λ 0.

33 On considère alors l application ψ : R n R n R ( u, v) λ 0 u v φ( u, v). C est encore une forme bilinéaire symétrique parce que φ et le produit scalaire sont toutes deux des formes bilinéaires symétriques. D autre part, ψ est positive. En effet, si v est nul ψ(0, 0) = 0 et sinon ψ( v, v) = v 2 (λ 0 h( v v ) 0. puisque v est un vecteur de norme 1. v Le lemme 11.1 montre que (1) L ensemble des vecteurs v de E tels que h( v) = λ 0 v 2 est un sous-espace vectoriel F 0 de E, non reduit à 0 puisqu il contient v 0. (2) Un vecteur v est dans F 0 si et seulement si pour tout w de E, ψ(v, w) = 0. On a donc montré : v F 0 w E En particulier, si w est orthogonal à F 0, on voit que φ( w, v) = λ 0 w v v F 0 φ( w, v) = 0. Tout vecteur v de E se décompose de manière unique en v + v avec v F 0 et v F 0. On calcule φ( v, w) : φ( v, w) = φ( v + v, w + w ) = φ( v, w ) + φ( v, w ) + φ( v, w ) + φ( v, w ) = φ( v, w ) + φ( v, w ) = λ 0 v w + φ( v, w ). Il suffit donc de connaître la valeur de φ sur un couple de vecteurs de F0 pour connaître φ. Or F0 est un espace vectoriel euclidien de dimension strictement inférieure à n. On peut lui appliquer l hypothèse de récurrence : il existe une base orthonormée de F0 vérifiant les conclusions du théorème. En prenant une base orthormée de F 0 et en la concaténant avec celle obtenue pour F0, on obtient une base orthonormée de E vérifiant les conclusions du théorème. 11.2.1. Exemple. On considère la matrice symétrique ( ) 7 2 A :=. 2 4 On lui associe la forme bilinéaire symétrique φ : R 2 R 2 R ((u 1, u 2 ), (v 1, v 2 )) ( u 1 u 2 ) ( 7 2 2 4 L application h est alors h : R 2 R ) ( ) v1 = 7u v 1 v 1 + 4u 2 v 2 + 2u 1 v 2 + 2u 2 v 1. 2 (x 1, x 2 ) 7x 2 1 + 4x 2 2 + 4x 1 x 2.

34 Le cercle unité est l ensemble des vecteurs de norme 1, autrement dit l ensemble des vecteurs (cos θ, sin θ) pour θ réel. Pour trouver le maximum de h sur le cercle, on étudie la fonction R R θ h(cos θ, sin θ) = 7 cos 2 θ + 4 sin 2 θ + 4 sin θ cos θ = 4 + 3 2 cos 2θ + 3 + 2 sin 2θ. 2 La dérivée vaut 3 sin 2θ + 4 cos 2θ et s annule si et seulement si tan 2θ = 4 soit encore tan θ = 1 3 2 ou tan θ = 2. On vérifie que la deuxième valeur correspond à un maximum pour h. Le vecteur u = ( 2 1, ) 5 5 est de norme 1 et rend la fonction h maximum. On trouve φ( u, u) = h( u) = 8. Le vecteur v = ( 1, 2 ) 5 5 est de norme 1 et rend la fonction h minimum. On trouve φ( v, v) = h( v) = 3. La famille ( u, v) est orthonormée et on a φ( u, v) = 0. On vérifie également les relations : f( u) = 8 u et f( v) = 3 v. 11.2.2. Exemple. On considère dans R n, muni de son produit scalaire usuel, une famille de vecteurs ( w 1,..., w d ) et on veut résoudre le problème suivant : Quelle est la droite vectorielle qui est la plus proche de la famille ( w 1,..., w d )? On quantifie la question de la manière suivante : Trouver une droite vectorielle de R n telle que la somme suivante soit minimale d Σ( ) := w i pr ( w i ) 2. j=1 La différence w i pr ( w i ) est orthogonale à par définition de la projection orthogonale. Le théorème de Pythagore montre alors la relation : d Σ( ) := w j 2 pr ( w j ) 2. Considérons un vecteur unitaire u qui dirige. La somme Σ s écrit : d d Σ( ) := w j 2 w j u 2 j=1 j=1 La somme Σ( ) est une différence de deux termes. Le premier terme est indépendant de et ne dépend que de la famille de vecteurs. Le deuxième d j=1 w j u 2 est une forme quadratique associée à la forme bilinéaire symétrique d φ( u, v) = w j u w j v j=1 Dans les notations du théorème, il s agit de trouver le maximum de la fonction h( u) = φ( u, u) lorsque u est de norme 1 pour en déduire le minimum de Σ( ). C est donc exactement le problème étudié dans la preuve du théorème. j=1

Cet exemple est très utilisé en statistiques (analyse de données) ou en mécanique (axes principaux de rotation d un solide). 12. Réduction des matrices symétriques réelles On considère un entier n et une matrice symétrique réelle A. On considère la forme bilinéaire symétrique φ associée (voir 10.1). On veut calculer une base orthonormée ( v 1,..., v n ) et la famille de réels (λ 1,..., λ n ) dont le théorème 11.2 affirme l existence. Ces deux familles ont les propriétés suivantes (1) Pour i de 1 à n, v i f( v i ) = φ( v i, v i ) = λ i. (2) Pour i et j de 1 à n, i j, v j f( v i ) = φ( v i, v j ) = 0. Considérons le vecteur f( v i ) : on connait son produit scalaire avec tous les vecteurs de la base orthonormée ( v 1,..., v n ). Il vaut donc λ i v i, autrement dit : v i est un vecteur non nul du noyau de f λ i Id. 12.1. Définition. On appelle valeur propre de f un réel λ tel que le noyau ker(f λid) n est pas réduit au vecteur nul. Un vecteur non nul de ker(f λid) est appelé vecteur propre associé à la valeur propre λ. Lorsque λ est une valeur propre de f, le sous-espace vectoriel ker(f λid) est le sous-espace propre de f associé à la valeur propre λ. Il s agit donc de calculer les valeurs propres et les vecteurs propres de f à partir de la matrice A de f. On désigne par I n la matrice identité n n. 12.2. Théorème. On considère un réel λ et une application linéaire f : R n R n de matrice A dans la base B. Les propriétés suivantes sont équivalentes (1) Le noyau ker(f λid) n est pas réduit au vecteur nul (λ est valeur propre de f). (2) Le rang de la matrice A λi n est strictement inférieur à n. (3) det(a λi n ) = 0. La preuve est une application directe des propriétés du rang et du déterminant. 12.2.1. Exemple. On reprend l exemple 11.2.1. On considère la matrice symétrique ( ) 7 2 A :=. 2 4 et le déterminant det(a λi 2 ) qui vaut λ 2 11λ + 24. Les valeurs propres sont les racines de ce polynôme du second degré, 8 et 3. Les vecteurs propres associés à la valeur propre 8 sont éléments du noyau de f 8Id, c est-à-dire les solutions du système linéaire sans second membre de matrice A 8I 2 v 1 + 2v 2 = 0 2v 1 4v 2 = 0. Les deux équations sont proportionnelles et le système est de rang 1 (est-ce surprenant?). L ensemble des solutions est une droite vectorielle dirigée par le vecteur (2, 1). Un vecteur directeur de norme 1 est u := (2/ 5, 1/ 5). On opère de même pour la valeur propre 3 pour trouver un vecteur propre de norme 1 associé v := (1/ 5, 2/ 5). On constate que la famille ( u, v) est orthonormée. 35

36 12.3. Théorème. On considère une matrice symétrique A et l application linéaire associée f : R n R n. Deux vecteurs propres u et v de f, associés à des valeurs propres différentes λ et µ sont orthogonaux. Démonstration. On considère le produit scalaire u f( v). Comme v est un vecteur propre associé à la valeur propre µ on a u f( v) = u µ v = µ u v. Comme A est symétrique on a aussi u f( v) = f( u) v et comme u est un vecteur propre associé à la valeur propre λ on a f( u) v = λ u v = λ u v. Au final, on obtient (λ µ) u v = 0 qui implique u v = 0 puisque λ µ. 12.4. Théorème (Matrices orthogonales). On considère un entier n et une matrice P de M n (R). Les propriétés suivantes sont équivalentes : 1. t P P = I n (on dit que P est orthogonale). 2. La famille des vecteurs colonnes de P est orthonormée. 3. P t P = I n 4. La famille des vecteurs lignes de P est orthonormée. On considère l application linéaire g qui a pour matrice P dans la base canonique B de R n. Les propriétés suivantes sont équivalentes aux 4 précédentes : 5. Pour toute b.o.n. ( v 1,..., v n ) de R n, la famille des images (g( v 1 ),..., g( v n )) est orthonormée. 6. Il existe une b.o.n. ( v 1,..., v n ) de R n telle que la famille des images (g( v 1 ),..., g( v n )) est orthonormée. Démonstration. L équivalence entre les 2 premières propriétés est une conséquence des règles de calcul d un produit de matrices. Il en est de même pour l équivalence entre les propriétés 3 et 4. La propriété 5 implique clairement la 6. La propriété 2 signifie que 6 est vraie pour la base B. La propriété 3 signifie que t P est aussi orthogonale. Remarquons d abord qu une matrice orthogonale P est inversible. Notons ( v 1,..., v n ) la famille de ses vecteurs colonnes. C est une b.o.n. Désignons par R la matrice des coordonnées dans la base ( v 1,..., v n ) des vecteurs ( e 1,..., e n ) de la base canonique. On a P R = RP = I n (le vérifier). On en conclut que t P = R et que P t P = I n (propriété 3). Les 4 premières propriétés sont équivalentes. Montrons que la propriété 1 implique la propriété 5. On considère une famille orthonormée ( v 1,..., v n ) de vecteurs de R n. On désigne par Q la matrice des vecteurs ( v 1,..., v n ) dans la base B. Elle est donc orthogonale. La matrice produit P Q est la matrice des coordonnées de la famille (g( v 1 ),..., g( v n )). Calculons t (P Q)P Q = t Q t P P Q = t QQ = I n ce qui prouve que P Q est orthogonale, donc que la famille (g( v 1 ),..., g( v n )) est orthonormée. Montrons ensuite que la propriété 6 implique la propriété 1. Si la propriété 6 est vraie il existe une matrice orthogonale Q telle que P Q est orthogonale. On a alors I n = P Q t (P Q) = P Q t Q t P = P t P. Remarque La multiplication des matrices induit sur l ensemble des matrices n n orthogonales une structure de groupe. On note ce groupe O(n, R).

12.5. Théorème. On considère un entier n et une matrice symétrique réelle A de M n (R). Il existe une matrice orthogonale P telle que la matrice t P AP est diagonale. Démonstration. On considère une b.o.n ( v 1,..., v n ) obtenue à partir du théorème 11.2 et la matrice P des coordonnées des vecteurs ( v 1,..., v n ) dans la base canonique B. Désignons par V i la matrice colonne des coordonnées de v i dans B. Comme f( v i ) = λ i v i, on a AV i = λ i V i. Mais V i est aussi la i-ème colonne de P. En résumé AP = P D où D est la matrice diagonale Diag(λ 1,..., λ n ). On conclut en utilisant le fait que P 1 = t P. 37

38 10. Définitions, commentaires 10.1. Espace vectoriel. On se donne un corps K et un ensemble E muni d une addition notée +. On dit que E a une structure d espace vectoriel sur K si (1) E est un groupe abélien pour la loi +. On note 0 l élément neutre de cette loi. (2) Il existe une action de K sur E (appelée multiplication par un scalaire). Pour tout élément λ de K, et tout vecteur x de E, λx est un élément de E. Cette multiplication a les propriétés suivantes pour x dans E on a 1x = x. pour α et β dans K, et x dans E on a (α + β)x = αx + βx. pour α et β dans K, et x dans E on a α(βx) = (αβ)x. (3) pour α dans K, x et y dans E, on a α(x + y) = αx + αy. 10.2. Sous-espace vectoriel. On considère un espace vectoriel E sur un corps K et un sousensemble F de E. On dit que F est un sous-espace vectoriel de E si F contient 0 et stable par combinaison linéaire. 10.3. Sous-espace vectoriel engendré. On considère un espace vectoriel E sur un corps K et une famille (v 1,..., v p ) de p vecteurs de E. Le sous-espace vectoriel engendré par la famille (v 1,..., v p ) est l ensemble de toutes les combinaisons linéaires : λ 1 v 1 +... + λ p v p pour λ 1,..., λ p scalaires de K. Vérifier que c est bien un sous-espace vectoriel de E. On le note Vect(v 1,..., v j ). On convient que la famille vide engendre le sous-espace réduit à 0. 10.4. Bases, dimension. On se donne un espace vectoriel E sur un corps K. Une famille B := (e i ) i I de vecteurs de E est une base de E si tout vecteur x de E se décompose de manière unique comme combinaison linéaire finie d éléments de B. Lorsque E, espace vectoriel sur K, peut être engendré par un ensemble fini, alors il possède une base finie et toutes ses bases ont le même nombre d éléments. Ce nombre est appelé dimension de E. Lorsque E n a aucune base finie, on dit que E est de dimension infinie. L espace vectoriel K[X] des polynômes à coefficients dans K est dans ce dernier cas. On considère E espace vectoriel de dimension finie n sur K, avec une base B := (e 1,..., e n ). Tout vecteur x de E a une décomposition unique n x = α 1 e 1 + α 2 e 2 +... + α n e n = α i e i. Par exemple, la seule façon d écrire le vecteur nul est de prendre tous les coefficients égaux à 0. 10.5. Théorème de la base incomplète : On se donne un espace vectoriel E sur un corps K et une famille libre de vecteurs de E. On peut compléter cette famille en une base de E. 10.6. Application linéaire. On travaille sur un corps K. On se donne deux espaces vectoriels E et F sur K et une application f : E F. On dit que f est K-linéaire (linéaire s il n y a pas d ambiguïté) si (1) f est compatible avec l addition : pour x et y vecteurs de E f(x + y) = f(x) + f(y). i=1

(2) f est compatible avec la multiplication par un scalaire : pour x vecteur de E et λ scalaire f(λx) = λf(x). On appelle noyau de f, l ensemble des solutions dans E de l équation f(x) = 0. On le note ker f : ker f := {x E f(x) = 0}. C est un sous-espace vectoriel de E. On appelle image de f et on note f(e), le sous-ensemble des vecteurs de F qui ont au moins un antécédent : C est un sous-espace vectoriel de E. f(e) := {y F x E, y = f(x)}. 10.7. Image inverse. On se donne une application f : E E. L image inverse d une partie G de F est l ensemble des antécédents des éléments de G, c est-à-dire f 1 (G) := {x E f(x) G}. On voit que f 1 (G) est une partie de E et non un élément. On considère alors E et F, espaces vectoriels sur K et f une application linéaire de E dans F. Lorsque G est réduit à l élément 0 de F, l image inverse f 1 (0) qui est alors le noyau de f, contient en général plus d un élément de E. On voit donc que écrire f 1 (0) ne suppose pas que f est bijective, ou que l application inverse de f existe. 10.8. Polynômes, racines. On considère un corps K et un polynôme P à coefficients dans K de degré d. Un tel polynôme a une écriture unique P (T ) = a d T d + a d 1 T d 1 +... + a 0 avec a d 0. On dit qu un scalaire λ de K est une racine de P si P (λ) = 0 dans K, autrement dit si P (λ) = a d λ d + a d 1 λ d 1 +... + a 0 = 0. Un théorème classique est le suivant : λ est racine de P si et seulement si T λ divise P (T ) dans K[T ]. On désigne par r un entier. On dit que λ est racine de multiplicité r de P si et seulement si (T λ) r divise P (T ) dans K[T ] et (T λ) r+1 ne divise pas P (T ) dans K[T ]. On dit qu un polynôme de K[T ] est scindé dans K[T ] s il est produit dans K[T ] de facteurs de degré 1. Le théorème de d Alembert-Gauss affirme que : un polynôme de degré d de C[T ] est scindé dans C[T ]. C est-à-dire : il existe des entiers m 1,..., m k tels que m 1 +...+m k = d et des complexes distincts deux à deux λ 1,..., λ k, racines de P de multiplicités respectives m 1,..., m k. On a donc P (T ) = a d k (T λ i ) m i. En particulier, un polynôme de degré non nul a au moins une racine complexe. i=1 39

40 10.9. Produit scalaire euclidien. On considère un espace vectoriel E sur le corps des réels R. et une application E E R (x, y) x y qui, pour mériter le nom de produit scalaire euclidien, doit vérifier les propriétés suivantes : pour tous x et y de E, pour tout λ scalaire réel, on a (1) Elle est bilinéaire x + x y = x y + x y x y + y = x y + x y λx y = λ x y x λy = λ x y (2) Elle est symétrique. (3) Elle est définie positive. x y = y x x x 0 et x x = 0 = x = 0. 10.10. Norme. On considère un espace vectoriel E sur R. Une application E R + x x est une norme si elle vérifie les axiomes suivants : (1) Homogénéité : pour λ scalaire et x vecteur, λx = λ x (2) Positivité stricte : pour x dans E, x 0 et x = 0 = x = 0. (3) Inégalité triangulaire : pour tous x et y vecteurs de E, x + y x + y. Un produit scalaire euclidien (voir 10.9) définit une norme, dite euclidienne. Pour x vecteur de E, on pose x := x x. Il existe cependant des normes qui ne proviennent pas d un produit scalaire : par exemple sur l espace vectoriel R 2 on considère l application est une norme (le vérifier). R 2 R + (x 1, x 2 ) sup x 1, x 2