3. Espaces préhilbertiens

Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

[ édité le 30 avril 2015 Enoncés 1

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Cours d Analyse. Fonctions de plusieurs variables

Chapitre 2. Matrices

3 Approximation de solutions d équations

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Fonctions de plusieurs variables

Fonctions de plusieurs variables et applications pour l ingénieur

Calcul différentiel sur R n Première partie

Pour l épreuve d algèbre, les calculatrices sont interdites.

Limites finies en un point

Différentiabilité ; Fonctions de plusieurs variables réelles

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Introduction à l étude des Corps Finis

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Capes Première épreuve

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Cours de mathématiques

NOTATIONS PRÉLIMINAIRES

Chapitre VI Fonctions de plusieurs variables

Dérivées d ordres supérieurs. Application à l étude d extrema.

Correction de l examen de la première session

I. Polynômes de Tchebychev

3. Conditionnement P (B)

Simulation de variables aléatoires

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

NOMBRES COMPLEXES. Exercice 1 :

Structures algébriques

Polynômes à plusieurs variables. Résultant

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

CCP PSI Mathématiques 1 : un corrigé

Géométrie dans l espace Produit scalaire et équations

1S Modèles de rédaction Enoncés

Programmation linéaire

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Cours 02 : Problème général de la programmation linéaire

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Continuité en un point

Intégration et probabilités TD1 Espaces mesurés Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Quelques contrôle de Première S

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Une forme générale de la conjecture abc

Chapitre 2 Le problème de l unicité des solutions

Angles orientés et trigonométrie

Calcul intégral élémentaire en plusieurs variables

Cours d analyse numérique SMI-S4

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

Calcul fonctionnel holomorphe dans les algèbres de Banach

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Calcul différentiel. Chapitre Différentiabilité

Fonctions de deux variables. Mai 2011

Résolution de systèmes linéaires par des méthodes directes

Correction du Baccalauréat S Amérique du Nord mai 2007

Fonctions de plusieurs variables. Sébastien Tordeux

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

1 Complément sur la projection du nuage des individus

Les travaux doivent être remis sous forme papier.

Image d un intervalle par une fonction continue

Problème 1 : applications du plan affine

Corrigé du baccalauréat S Asie 21 juin 2010

Commun à tous les candidats

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Théorème du point fixe - Théorème de l inversion locale

Programmation linéaire et Optimisation. Didier Smets

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Licence de Mathématiques 3

EXERCICE 4 (7 points ) (Commun à tous les candidats)

DOCM Solutions officielles = n 2 10.

Comparaison de fonctions Développements limités. Chapitre 10

Exercices Corrigés Premières notions sur les espaces vectoriels

Calcul Différentiel. I Fonctions différentiables 3

Programmes des classes préparatoires aux Grandes Ecoles

Fonctions de plusieurs variables

CHAPITRE 10. Jacobien, changement de coordonnées.

Logique. Plan du chapitre

Représentation géométrique d un nombre complexe

LE PRODUIT SCALAIRE ( En première S )

Extrait du poly de Stage de Grésillon 1, août 2010

Espérance conditionnelle

Continuité et dérivabilité d une fonction

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

1 Définition et premières propriétés des congruences

AOT 13. et Application au Contrôle Géométrique

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

La fonction exponentielle

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Moments des variables aléatoires réelles

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Équations non linéaires

Transcription:

3. Espaces préhilbertiens Exercice 3.1 Soit E un espace préhilbertien sur IK. Soient u, v deux vecteurs de E. On suppose que, pour tout λ de IK, u + λv u. Montrer que u et v sont orthogonaux. Exercice 3.2 Soit E un espace préhilbertien sur lc. Soit f L(E). Montrer que f = x E, < f(x), x > =. Exercice 3.3 Dans l espace E préhilbertien réel, soit f une application telle que f() = et (1) : x, y E, f(x) f(y) = x y. 1. Montrer que f conserve le produit scalaire. 2. En déduire que f est linéaire. Exercice 3.4 Soit E un espace préhilbertien sur lc. Montrer que (u, v) E 2, < u, v >= 1 [ u + v 2 + i u + iv 2 (1 + i) u 2 + v 2]. 2 Exercice 3.5 Soit E un espace préhilbertien, et soit f une application de E dans E telle que, pour tous vecteurs x et y : < f(x), y >=< x, f(y) >. Montrer que f est linéaire. Exercice 3.6 Soit E un espace vectoriel euclidien. Soit u L(E). On suppose que u u = u u. 1. Montrer que x E, u(x) = x. En déduire que Ker u = Ker u. 2. Montrer que Sp(u) =Sp(u ), et que pour toute valeur propre λ les sous-espaces propres de u et de u pour λ sont identiques. 3. Montrer que les sous-espaces propres de u sont orthogonaux deux à deux. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 1

Exercice 3.7 Déterminer les endomorphismes f de IR 3 euclidien orienté tels que : u, v E, f(u v) = f(u) f(v). Exercice 3.8 1 i 2 3 4 2 2 i 18 2 Montrer que A = est inversible. 3 18 1 i 1 4 2 1 3 i Exercice 3.9 1. Montrer que < A, B >= tr ( T A B) définit un produit scalaire sur M n (IR). 2. Pour quelles matrices M l application A AM est-elle alors orthogonale? Exercice 3.1 Soit A une matrice carrée symétrique, à coefficients réels. On suppose que A m = I, pour un certain entier m. Montrer que A 2 = I. Exercice 3.11 Soit F le sous-espace vectoriel de IR 4 (euclidien) d équations { x + y + z + t = x y + z t = Déterminer la projection orthogonale sur F, et calculer d(u, F ) si u IR 4. Exercice 3.12 Soit E un espace vectoriel euclidien. Montrer que pour tous x, y de E, 2 + x + y 2 2(1 + x 2 )(1 + y 2 ). Exercice 3.13 Calculer la valeur minimum de I a,b = et b ce minimum est atteint. Exercice 3.14 Soit E un espace vectoriel euclidien. (t ln t at b) 2 dt et dire pour quelles valeurs de a Soit f un endomorphisme de E qui conserve l orthogonalité, c est-à-dire tel que, pour tous vecteurs u et v de E, < u, v > = < f(u), f(v) > =. Montrer qu il existe un réel λ tel que, pour tout vecteur u de E, f(u) = λ u. Si λ >, on dit alors que f est une similitude de rapport λ. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 2

Exercice 3.15 Soit E un espace préhilbertien sur IR. On suppose qu il existe n vecteurs unitaires e 1, e 2,..., e n tels que, pour tout vecteur x de E, on ait x 2 = < e k, x > 2. k=1 1. Montrer que les vecteurs e k sont orthogonaux deux à deux. 2. Montrer que ces vecteurs forment une base orthonormée de E. Exercice 3.16 On munit E = IR[X] du produit scalaire < P, Q >= P (t)q(t) dt. Soit ϕ la forme linéaire sur E définie par ϕ(p ) = P (). Montrer qu il n existe pas de vecteur A de E tel que, pour tout P de E, ϕ(p ) = < A, P >. Exercice 3.17 Soient E un espace vectoriel euclidien et f un endomorphisme de E tel que f 2 =. Soit f l adjoint de f. Montrer que Ker (f + f ) = Ker (f) Ker (f ). Exercice 3.18 Soit E un espace préhilbertien sur IR. Soit p un projecteur de E. Montrer que les deux conditions suivantes sont équivalentes : a) Le noyau de p et l image de p sont deux sous-espaces orthogonaux. b) Pour tout vecteur x de E, p(x) x. Que devient ce résultat si E est euclidien, c est-à-dire si E est de dimension finie? Exercice 3.19 Soit A = (a ij ) une matrice orthogonale d ordre n. Prouver a ij n n et n a ij n. Exercice 3.2 Soit A une matrice de M n (IR). Montrer que les deux conditions suivantes sont équivalentes. a) Il existe M dans M n (IR) telle que A = T MM. b) La matrice A est symétrique et ses valeurs propres sont. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 3

Exercice 3.21 Soit A = (a ij ) une matrice symétrique réelle d ordre n, de valeurs propres λ 1,..., λ n. Montrer que a 2 ij = λ 2 k. Exercice 3.22 k=1 Soit A une matrice symétrique réelle d ordre n. On pose, pour toute matrice colonne X de M n,1 (IR), ϕ(x, Y ) = T XAY. 1. Exprimer ϕ(x, Y ) en fonction des composantes de X et de Y dans une base orthonormée de vecteurs propres de A, et en fonction des valeurs propres de A. 2. Montrer que l application (X, Y ) ϕ(x, Y ) définit un produit scalaire si et seulement si toutes les valeurs propres de A sont strictement positives. Exercice 3.23 On considère la matrice A carrée d ordre n, dont le terme général est a ij = Montrer que les valeurs propres de A sont strictement positives. Indication : pour tout vecteur propre X, considérer T XAX. Exercice 3.24 Montrer qu il existe dans M 2 (IR) une base formée de matrices orthogonales. Montrer que ce résultat reste vrai dans M n (IR). 1 i + j 1. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 4

Corrigé des exercices Corrigé de l exercice 3.1 En élevant au carré, u + λv 2 u 2. Autrement dit, pour tout λ de IK : 2Re (λ < u, v >) + λ 2 v 2. Choisissons λ = r < v, u >= r< u, v >, avec r réel, pour se débarrasser de la partie réelle. On obtient, pour tout réel non nul r : (2r + r 2 v 2 ) < u, v > 2. Si < u, v > n était pas nul, on en déduirait 2r + r 2 v 2 pour tout r non nul, ce qui est absurde car cette quantité est équivalente à 2r (donc change de signe) au voisinage de l origine. On a donc démontré que les vecteurs u et v sont orthogonaux. Corrigé de l exercice 3.2 Evidemment, si f =, on a < f(x), x > = pour tout x de E. Seule la réciproque est intéressante. On suppose donc que pour tout vecteur x de E, les vecteurs f(x) et x sont orthogonaux. Le fait que E soit un espace préhilbertien sur lc est très important. En effet si on considère une rotation r d angle π/2 dans IR 2, par exemple, alors on < r(x), x >= pour tout vecteur x, bien que r ne soit pas l application nulle. Soient x et y deux éléments quelconques de E. On va évaluer le produit scalaire de f(x + iy) et de x + iy (dont on sait qu il est nul) en utilisant l hypothèse faite sur f (et sa linéarité) et les propriétés du produit scalaire (linéarité à droite et semi-linéarité à gauche) : =< f(x + iy), x + iy > = < f(x) + if(y), x + iy > = i < f(x), y > i < f(y), x > Donc < f(x), y > = < f(y), x >. Appliquons la même idée au produit scalaire (nul) < f(x + y), x + y > : =< f(x + y), x + y > = < f(x) + f(y), x + y > = < f(x), y > + < f(y), x > Donc < f(x), y > = < f(y), x >. Les deux résultats obtenus montrent que pour tous x, y de E : < f(x), y > =. Cette égalité étant valable pour tout y, et notamment pour y = f(x), il en résulte f(x) =, pour tout x de E. L application f est donc bien l application nulle. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 5

Corrigé de l exercice 3.3 1. En faisant y = dans l hypothèse, on trouve : x E, f(x) = x. On élève l égalité (1) au carré et on trouve, pour tout vecteurs x, y de E : f(x) f(y) 2 = x y 2 f(x) 2 + f(y) 2 2 < f(x), f(y) > = x 2 + y 2 2 < x, y > < f(x), f(y) > = < x, y > L application f conserve donc le produit scalaire. 2. On se donne deux vecteurs quelconques x, y et deux scalaires quelconques α, β. On va développer f(αx + βy) αf(x) βf(y) 2 en utilisant les résultats précédents (conservation de la norme et du produit scalaire.) f(αx + βy) αf(x) βf(y) 2 = f(αx + βy) 2 + α 2 f(x) 2 + β 2 f(y) 2 2α < f(αx + βy), f(x) > 2 β < f(αx + βy), f(y) > + 2αβ < f(x), f(y) > = αx + βy 2 + α 2 x 2 + β 2 y 2 2α < αx + βy, x > 2β < αx + βy, y > + 2αβ < x, y > = αx + βy 2 + α 2 x 2 + β 2 y 2 2α 2 x 2 2β 2 y 2 4αβ < x, y > + 2αβ < x, y > = αx + βy 2 α 2 x 2 β 2 y 2 2αβ < x, y > = Ainsi f(αx + βy) αf(x) βf(y) =, pour tous α, β de IR et tous x, y de E ce qui prouve la linéarité de f. Si E est un espace euclidien, f est donc un automorphisme orthogonal de E. Corrigé de l exercice 3.4 On sait que u + v 2 = < u + v, u + v > = u 2 + 2Re < u, v > + v 2. De même : u + iv 2 = < u + iv, u + iv > = u 2 + 2Re ( i < u, v >) + v 2 = u 2 + 2Im < u, v > + v 2 On en déduit : u + v 2 + i u + iv 2 = (1 + i)( u 2 + v 2 ) + 2 < u, v > Autrement dit : < u, v > = 1 2 [ u + v 2 + i u + iv 2 (1 + i) u 2 + v 2] Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 6

Corrigé de l exercice 3.5 On se donne trois vecteurs quelconque x, y, z, et deux scalaires quelconques α et β. On écrit : < z, f(αx + βy) > = < f(z), αx + βy > = α < f(z), x > + β < f(z), y > = α < z, f(x) > + β < z, f(y) > = < z, αf(x) + βf(y) > Autrement dit la différence f(αx + βy) (αf(x) + βf(y)) est orthogonale à tout z de E. Il s ensuit que cette différence est nulle. Ainsi f(αx + βy) = αf(x) + βf(y), pour tous x, y de E et tous α, β de IK. Autrement dit f est linéaire. Si E est un espace euclidien, f est donc un endomorphisme symétrique de E. Corrigé de l exercice 3.6 1. Pour tout vecteur x de E : u(x) 2 = < u(x), u(x) > = < x, u u(x) > = < x, u u (x) > = < u (x), u (x) > = u (x) 2 On en déduit effectivement l égalité u(x) = u (x). Dans ces conditions : x Ker u u(x) = u (x) = x Ker u. Les deux applications u et u ont donc le même noyau. 2. Pour tout scalaire λ, l application v = u λid est telle que v = u λid. On a donc v v = v v ce qui entraîne Ker (v) = Ker (v ), c est-à-dire Ker (u λid) = Ker (u λid). Autrement dit, ces deux noyaux sont non réduits à { } en même temps, ce qui prouve que u et u ont les mêmes valeurs propres, et ces deux noyaux sont alors identiques, ce qui prouve que pour chaque valeur propre λ, u et u ont le même sous-espace propre. 3. Soient λ et µ deux valeurs propres distinctes de u (donc de u ). Soient x un vecteur propre de u (donc de u ) pour la valeur propre λ et y un vecteur propre de u (donc de u ) pour la valeur propre µ. Il faut montrer que x et y sont orthogonaux. { < u(x), y > = < λx, y > = λ < x, y > Or < u(x), y > = < x, u (y) > = < x, µy > = µ < x, y > On a ainsi l égalité λ < x, y >= µ < x, y >, avec λ µ. Il en résulte l orthogonalité des vecteurs x et y. On en déduit l orthogonalité des sous-espaces propres E λ et E µ. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 7

Corrigé de l exercice 3.7 Il est clair que l application nulle est solution. Dans la suite, nous supposerons f. Soit e 1, e 2, e 3 une base orthonormée directe de IR 3. e 1 = e 2 e 3 f(e 1 ) = f(e 2 e 3 ) = f(e 2 ) f(e 3 ) On constate que e 2 = e 3 e 1 f(e 2 ) = f(e 3 e 1 ) = f(e 3 ) f(e 1 ) e 3 = e 1 e 2 f(e 3 ) = f(e 1 e 2 ) = f(e 1 ) f(e 2 ) Les vecteurs f(e 1 ), f(e 2 ), f(e 3 ) sont donc orthogonaux deux à deux. f(e 1 ) = f(e 2 ) f(e 3 ) = f(e 2 ) f(e 3 ) Le système ci-dessus donne alors f(e 2 ) = f(e 3 ) f(e 1 ) = f(e 3 ) f(e 1 ) f(e 3 ) = f(e 1 ) f(e 2 ) = f(e 1 ) f(e 2 ) L application f n étant pas nulle, l un au moins des vecteurs f(e 1 ), f(e 2 ), f(e 3 ) est non nul. Le système ci-dessus montre alors que les trois vecteurs f(e 1 ), f(e 2 ), f(e 3 ) sont non nuls. Si on multiplie deux à deux ces égalités, on trouve f(e 1 ) 2 = f(e 2 ) 2 = f(e 3 ) 2 = 1. On sait donc maintenant que la famille f(e 1 ), f(e 2 ), f(e 3 ) est une base orthonormée de IR 3 (ce qui prouve que f est un automorphisme orthogonal). Enfin l égalité f(e 3 ) = f(e 1 ) f(e 2 ) prouve de plus que f(e 1 ), f(e 2 ), f(e 3 ) est une base orthonormée directe. L application f, qui transforme une base orthonormée directe en une base orthonormée directe est donc une rotation vectorielle de IR 3. Réciproquement, soit f la rotation vectorielle d angle θ (défini modulo 2π) autour d un vecteur unitaire ε 1. On complète ε 1 en une base orthonormée directe (ε) = ε 1, ε 2, ε 3. Soient u, v deux vecteurs quelconques de IR 3, de coordonnées (x, y, z) et (x, y, z ) dans (ε). En identifiant les éléments de IR 3 aux vecteurs colonnes de leurs coordonnées dans la base orthonormée (ε), on peut utiliser l expression usuelle du produit vectoriel et écrire : 1 x x f(u) = cos θ sin θ y = y cos θ z sin θ sin θ cos θ z y sin θ + z cos θ On en déduit : x x f(u) f(v) = y cos θ z sin θ y cos θ z sin θ y sin θ + z cos θ y sin θ + z cos θ yz zy = (yx xy ) sin θ + (zx xz ) cos θ (xy yx ) cos θ (xz zx ) sin θ x x yz zy yz zy Or u v = y y = zx xz et f(u v) = (zx xz ) cos θ (xy yx ) sin θ z z xy yx (zx xz ) sin θ + (xy yx ) cos θ On trouve bien l égalité f(u) f(v) = u v. Conclusion : les endomorphismes de l espace vectoriel euclidien orienté qui conservent le produit vectoriel sont l application nulle d une part et les automorphismes orthogonaux positifs (les rotations vectorielles) d autre part. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 8

Corrigé de l exercice 3.8 La matrice A s écrit A = S ii 4, où S est une matrice symétrique à coefficients réels. Dans ces conditions la matrice S est diagonalisable dans IR et ses valeurs propres sont donc toutes réelles. Il s ensuit que i ne peut pas être valeur propre de S. Ainsi det(s ii 4 ), ce qui signifie que A est inversible. Corrigé de l exercice 3.9 1. Notons a ij, b ij les coefficients respectifs de A et B. Pour tout i, le coefficient d indice (i, i) de T A B est a ki b ki. k=1 Ainsi < A, B > = a ki b ki. k=1 On reconnait le produit scalaire canonique de IR n2, une matrice étant identifiée à un n 2 -uplet par lecture de ses coefficients de gauche à droite et de haut en bas. 2. Soit M une matrice quelconque de M n (IR). L application A AM est orthogonale si et seulement si : (A, B) M n (IR) 2, < AM, BM > = < A, B > Cela équivaut à : tr ( T (AM)(BM)) = tr ( T AB) ou encore : tr ( T M T ABM) = tr ( T AB). Compte tenu de l égalité tr (XY ) = tr (Y X) valable pour toutes matrices X et Y, l égalité précédente s écrit tr ( T ABM T M) = tr ( T AB), et ceci quelque soient A et B. En choisissant B = I n, on en déduit tr ( T AN) =, c est-à-dire < A, N >=, avec N = M T M I n, et pour toute matrice A de M n (IR). Cela implique que la matrice N = M T M I n est nulle, c est-à-dire que M est une matrice orthogonale. La réciproque est évidente. Corrigé de l exercice 3.1 On sait que la matrice A est diagonalisable dans IR. Soit P une matrice de passage et D une matrice diagonale telles que D = P 1 AP. L hypothèse A m = I implique D m = P 1 A m P = I. Ainsi les coefficients diagonaux λ de D (donc les valeurs propres de A) vérifient λ m = 1. Mais on sait que les valeurs propres λ de A sont toutes réelles. On en déduit λ = ±1 et donc λ 2 = 1. Il en résulte D 2 = I puis A 2 = P D 2 P 1 = I. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 9

Corrigé de l exercice 3.11 Première méthode : Soit u = (x, y, z, t) un vecteur de IR 4, et v = (x, y, z, t ) sa projection orthogonale sur F. a = (1, 1, 1, 1) dirige la droite orthogonale à l hyperplan H d équation x + y + z + t =. Le vecteur b = (1, 1, 1, 1) dirige la droite orthogonale à l hyperplan K : x y +z t =. le plan engendré par a et b est constitué de vecteurs qui sont tous orthogonaux à F = H K. Puisque dim F = dim F = 2, L orthogonal de F est le plan de base a, b. Il existe donc λ, µ tels que v u = λa + µb, c est-à-dire On sait que le vecteur v appartient à F. Il suffit alors de reporter ces expresssions de x, y, z, t dans les équations des hyperplans H et K. On obtient { x + y + z + t + 4λ = x y + z t + 4µ = puis x = x + λ + µ y = y + λ µ z = z + λ + µ t = t + λ µ x = x + λ + µ = x 1(x + z) = 1 (x z) 2 2 y = y + λ µ = y 1(y + t) = 1 (y t) 2 2 z = z + λ + µ = z 1(x + z) = 1 ( x + z) 2 2 t = t + λ µ = t 1(y + t) = 1 ( y + t) 2 2 1 1 La matrice de la projection orthogonale sur F est donc M = 1 1 1 2 Soit d la distance de u à F. Alors d 2 = v u 2 = 2((λ + µ) 2 + (λ µ) 2 ) = 1 2 ((x + z)2 + (y + t) 2 ). v = p(u) =< c, u > c + < d, v > d = 1 (x z) 2 1 1 1 1 Deuxième méthode : { x + z = Un système d équations définissant F est aussi y + t = Les vecteurs c = 1 2 (1,, 1, ) et d = 1 2 (, 1,, 1) forment une base ortonormée de F. La projection v de u sur F est donc : 1 x z y t 1 + 1 1 (y t) 2 = 1 2 1 x + z y + t Remarque : On peut trouver d = d(u, F ) sans calculer la projection de u sur F. En effet si H est un hyperplan de IR n d équation a 1 x 1 + + a n x n =, la distance de 1 u(x 1, x 2,..., x n ) à H est h a 1x 1 + + a n x n, en notant h = (a 1, a 2,..., a n ). d 2 (u, H) = 1 (x + y + z + t)2 4 Avec les hyperplans H, K de la méthode 1, on trouve : d 2 (u, K) = 1 (x y + z t)2 4 Or H et K sont perpendiculaires, car a = (1, 1, 1, 1) et b = (1, 1, 1, 1) sont orthogonaux. On en déduit en utilisant le théorème de Pythagore : d 2 (u, F ) = d 2 (u, H)+d 2 (u, K) = 1 4 (x+y +z +t)2 + 1 4 (x y +z t)2 = 1 2 ((x+z)2 +(y +t) 2 ) Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 1

Corrigé de l exercice 3.12 On pose A = 2(1 + x 2 )(1 + y 2 ) et B = 2 + x + y 2. A B = 2(1 + x 2 )(1 + y 2 ) 2 x + y 2 = 2(1 + x 2 + y 2 + x 2 y 2 ) 2 x 2 y 2 2 < x, y > = 2 x 2 y 2 + x 2 + y 2 2 < x, y > = 2 x 2 y 2 + x y 2 Donc A B, ce qui prouve l inégalité demandée (et il n y a égalité que si x = y =.) Corrigé de l exercice 3.13 On définit un produit scalaire sur E = C([, 1], IR) en posant : < f, g > = Soit F le sous-espace de E formé des polynômes de degré inférieur ou égal à 1. Notons ϕ l application de E définie par ϕ(t) = t ln t, avec ϕ() =. f(t)g(t) dt. Le problème posé équivaut donc à la recherche de P dans F qui minimise la quantité ϕ P. On sait que ce problème a une solution unique : la projection orthogonale P de ϕ sur F. { < P ϕ, 1 > = Cette projection est l unique vecteur P (t) = a + bt de F tel que < P ϕ, t > = { < P, 1 > = < ϕ, 1 > Il s agit donc de résoudre le système (S) : < P, t > = < ϕ, t > Or < ϕ, 1 > = De même, < ϕ, t > = t ln t dt = [ t 2 2 ln t] 1 1 2 t 2 ln t dt = [ t 3 3 ln t] 1 t dt = 1 4. 1 3 t 2 dt = 1 9. Enfin, en posant P (t) = a + bt, < P, 1 > = a + b 2 et < P, t > = a 2 + b 3. Le système (S) est donc équivalent à : a + b 2 = 1 a = 1 4 3 a 2 + b 3 = 1 b = 1 9 6 Par Pythagore, le minimum recherché ϕ P est tel que ϕ P 2 = ϕ 2 P 2. Or ϕ 2 = t 2 (ln t) 2 dt = [ t 3 3 (ln t)2] 1 2 3 De même, P 2 = 1 ( 2 + t) 2 dt = 7 36 18. t 2 ln t dt = 2 3 t 2 ln t dt = 2 27. Le minimum m des I(a, b) vérifie donc m 2 = 2 27 7 18 = 1 18. Ainsi m = 1 18 = 3 18. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 11

Corrigé de l exercice 3.14 Soit (e) = e 1, e 2,..., e n une base orthonormée de E. Remarquons tout d abord que par hypothèse les vecteurs f(e j ) sont orthogonaux deux à deux. Nous allons montrer qu ils ont même norme. Soient i et j deux indices distincts de {1,..., n}. Les vecteurs e i + e j et e i e j sont orthogonaux car < e i + e j, e i e j >= e i 2 e j 2 =. On en déduit : = < f(e i + e j ), f(e i e j ) > = < f(e i ) + f(e j ), f(e i ) f(e j ) > = f(e i ) 2 f(e j ) 2 Autrement dit, pour tous indices i et j, f(e i ) = f(e j ). Ainsi il existe un scalaire λ tel que, pour tout i de {1,..., n}, f(e i ) = λ. Dans ces conditions, et pour tous vecteurs u = x i e i et v = y j e j : j=1 < f(u), f(v) > = < x i f(e i ), y j f(e j ) > = x i y j < f(e i ), f(e j ) > j=1 = x i y i f(e i ) 2 = λ 2 n x i y i = λ 2 < u, v > En particulier, pour tout vecteur u de E, f(u) = λ u. Corrigé de l exercice 3.15 1. Pour tout vecteur e j, on a : 1 = e j 2 = < e k, e j > 2 = 1 + < e k, e j > 2. k=1 k j On en déduit que pour indice j distinct de k, < e j, e k >=. Les vecteurs e k sont donc orthogonaux deux à deux. 2. Soit F le sous-espace de E engendré par les n vecteurs orthonormés e 1, e 2,..., e n. Soit p la projection orthogonale de E sur F. Pour tout u de E, p(u) = < e k, u > e k et donc p(u) 2 = < e k, u > 2 = u 2. k=1 k=1 On sait d autre part que u 2 = p(u) 2 + u p(u) 2 (Pythagore). On en déduit u p(u) =. Autrement dit, pour tout vecteur u de E, u = p(u) F. Cela siginifie que F = E. Les vecteurs e 1, e 2,..., e n forment donc une base orthonormée de E. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 12

Corrigé de l exercice 3.16 On raisonne par l absurde et on suppose qu un tel polynôme A existe. En utilisant P = XA, on alors < XA, A >= ϕ(xa) =, c est-à-dire ta 2 (t) dt =. Puisque l application t ta 2 (t) est continue, de signe constant et d intégrale nulle sur [, 1], cette application est identiquement nulle sur cet intervalle. Le polynôme A est donc nul sur ], 1], donc identiquement nul. La forme linéaire ϕ est donc nulle, ce qui est absurde car par exemple ϕ(1) = 1. Corrigé de l exercice 3.17 L inclusion Ker (f) Ker (f ) Ker (f + f ) est évidente car f(x) = f (x) = (f + f )(x) = Réciproquement, soit x un vecteur de Ker (f + f ) : il vérifie f (x) = f(x). f (x) 2 = < f (x), f (x) > = < f (x), f(x) > = < x, f 2 (x) >= < x, > = Ainsi le vecteur f (x) est nul. Mais dans l hypothèse sur x, les deux applications f et f jouent le même rôle, et on sait que l adjoint de f est f. On en déduit donc f(x) =. On a ainsi prouvé que x est dans Ker (f) Ker (f ), ce qui établit le résultat. Corrigé de l exercice 3.18 Supposons que l hypothèse (a) soit réalisée. Cela signifie que (Im p) Ker p. Pour tout vecteur x de E, on sait que x p(x) est dans Ker p. L égalité x = p(x) + (x p(x)) donne alors, par Pythagore : p(x) 2 = x 2 x p(x) 2 x 2, et donc p(x) x. Réciproquement, on suppose que pour tout x de E, p(x) x. Soient y = p(x) un élément de Im p (donc un vecteur invariant par p) et z un vecteur de Ker p. Il faut montrer que y et z sont orthogonaux. Pour tout scalaire λ, on a l inégalité p(λy + z) 2 λy + z 2. Or p(λy + z) = λp(y) + p(z) = λy, et λy + z 2 = λ 2 y 2 + 2λ < y, z > + z 2. On en déduit que la fonction affine λ 2λ < y, z > + z 2 reste positive ou nulle sur IR, ce qui n est possible que si le produit scalaire < y, z > est nul. On a donc démontré (a) (b). Si E est euclidien, les seules projections de E qui vérifient p(x) x pour tout x sont donc les projections orthogonales c est-à-dire les projections telles que Ker p = (Im p). Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 13

Corrigé de l exercice 3.19 On majore S = a ij = α ij β ij avec α ij = 1, β ij = a ij en utilisant Cauchy-Schwarz. i,j L ínégalité S 2 α 2 ij βij 2 s écrit ici : S 2 n 2 a 2 ij. Or ( a 2 n ) ij = a 2 ij = n. i,j i,j i,j i,j j=1 }{{} =1 On en déduit effectivement S 2 n 3, c est-à-dire S n n. Pour la deuxième majoration, posons T = n a ij, et soit f l endomorphisme orthogonal de IR n de matrice A dans la base canonique (e) = e 1, e 2,..., e n. On note u le vecteur de composantes 1, 1,..., 1 dans cette base. La somme T s écrit alors : ( n ) n T = a ij = < u, f(e j ) > = < u, f(e j ) > = < u, f(u) > j=1 j=1 j=1 On en déduit, par Cauchy-Schwarz : T u f(u), c est-à-dire T u 2. Or u 2 = n, ce qui donne le résultat attendu. Corrigé de l exercice 3.2 Si M telle que A = T MM, alors T A = T ( T MM) = T MM = A : A est donc symétrique. Soit λ l une de ses valeurs propres et X un vecteur propre associé. On a λx = AX = T MMX, puis T X T MMX = λ T XX = λ X 2. Mais T X T MMX = T (MX)MX = MX 2. Ainsi MX 2 = λ X 2 avec X 2 >. On en déduit que chaque valeur propre de A est positive ou nulle. Réciproquement : Puisque la matrice A est symétrique réelle, elle s écrit A = T P DP où P est orthogonale et D diagonale (de coefficients diagonaux successifs les valeurs propres λ 1,..., λ n de A, toutes positives ou nulles.) Pour tout indice k, on pose µ k = λ k. On désigne par la matrice diagonale dont les coefficients diagonaux successifs sont les µ k. On a 2 = D, puis A = T P 2 P = ( T P T ) P = T MM avec M = P. Corrigé de l exercice 3.21 ( On constate que a 2 n ) ij = a 2 n ( n ) ij = a ij a ji = tr (A 2 ). Or A est diagonalisable. j=1 j=1 Il en est donc de même de A 2, et les valeurs propres de A 2 sont λ 2 1,..., λ 2 n. L égalité demandée traduit alors le résultat bien connu selon lequel la trace d une matrice B diagonalisable (et plus généralement d une matrice dont le polynôme caractéristique est scindé) est égale à la somme de ses valeurs propres. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 14

Corrigé de l exercice 3.22 1. Soit (U) = U 1, U 2,..., U n une base orthonormée de vecteurs propres de A, pour les valeurs propres successives λ 1, λ 2,..., λ n. Soient x 1,..., x n et y 1,..., y n les coordonnées de X et de Y dans cette base. On exprime ϕ(x, Y ) en fonction des x i et des y j : ϕ(x, Y ) = T XAY = T( n ) ( n ) x i U i A y j U j = j=1 n x i y j T U i AU j { Or on peut écrire T U i AU j = T U i λ j U j = λ T λi si i = j j U i U j = λ j < U i, U j >= sinon On en déduit ϕ(x, Y ) = λ i x i y i. 2. Avec ce résultat il est évident que ϕ est une forme bilinéaire symétrique. Pour tout vecteur X de coordonnées x 1,..., x n dans la base (U), on a : ϕ(x, X) = λ i x 2 i Si les λ i sont tous strictement positifs, alors ϕ est définie positive. Réciproquement, on remarque que pour tout vecteur U i, ϕ(u i, U i ) = λ i. On en déduit que si ϕ est définie positive, alors tous les λ i sont strictement positifs. Corrigé de l exercice 3.23 Soit X un vecteur propre de A pour la valeur propre λ, de coefficients successifs x 1,..., x n. D une part T XAX = T X(λX) = λ T XX = λ X 2. D autre part : ( T n ) n 1 XAX = < X, AX > = x i a ij x j = j=1 i + j 1 x ix j On peut transformer le terme général de la somme précédente : 1 1 i + j 1 x ix j = x i x j t i+j 2 dt = (x i t i 1 )(x j t j 1 ) dt On en déduit une nouvelle expression de T XAX : T XAX = (x i t i 1 )(x j t j 1 ) dt = (x i t i 1 )(x j t j 1 ) dt = ( n x i t i 1) 2 dt Puisque le vecteur X est non nul, il en est de même du polynôme P (t) = x i t i 1. On en déduit T XAX >, ce qui implique λ >, car on a l égalité T XAX = λ X 2. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 15

Corrigé de l exercice 3.24 Dans M 2 (IR), on pose A = ( ) ( ) 1 1, B =, C = 1 1 ( ) 1 et D = 1 Ces quatre matrices sont orthogonales et linéairement indépendantes. ( ) a + b c d En effet : aa + bb + cc + dd = = a = b = c = d =. c + d a b On a donc obtenu une base de M 2 (IR) formée de matrices orthogonales. ( ) 1. 1 Pour la généralisation à M n (IR), remarquons que la réponse est évidente si n = 1 en prenant la matrice A = (1). On suppose donc n 2. On note comme d habitude E ij la matrice générique de la base canonique de M n (IR) (tous ses coefficients sont nuls sauf celui qui est situé en ligne i et colonne j et qui vaut 1.) Pour tout indice j compris entre 2 et n, soit F j = I n 2E jj la matrice diagonale dont tous les coefficients diagonaux valent 1 sauf le j-ème qui vaut 1. Pour tous indices i et j tels que i < j, on note G ij et H ij les matrices qui se déduisent respectivement de I n et de F j par échange des lignes d indice i et j. Par exemple, si n = 4 : 1 1 1 1 F 3 = 1 1, G 13 = 1 1, H 13 = 1 1, G 24 = 1 1 1 1 1 1 Il y a n 1 matrices F j, 1 2 n(n 1) matrices G ij et 1 2 n(n 1) matrices H ij. Si on y ajoute la matrice I n, on dispose ainsi de n 2 matrices de M n (IR), qui sont toutes orthogonales (vecteurs colonnes unitaires et orthogonaux deux à deux.) Pour démontrer que ces n 2 matrices forment une base de M n (IR), il suffit de prouver qu elles sont libres. On suppose donc qu on a l égalité : S = α 1 I n + α j F j + λ ij G ij + µ ij H ij =. j 2 i<j i<j Pour tout couple d indices i, j avec i < j, la composante de S sur la matrice E ij est λ ij µ ij et la composante de S sur E ji est λ ij + µ ij. Puisque S =, ces deux composantes sont nulles. Il en est donc de même des coefficients λ ij et µ ij. Il reste donc l égalité : = S = α 1 I n + α j F j = α 1 I n + α j (I n 2E jj ) = σi n 2 α j E jj, où σ = α j j 2 j 2 j 2 j 1 La composante de S sur la matrice E 11 est σ. On en déduit σ =. Il reste alors j 2 α j E jj =, ce qui implique α 2 =... = α n =. Conclusion : la famille formée par I n, les matrices F j (pour j 2) et les matrices G ij et H ij (pour j > i) est une base de M n (IR) formée de matrices orthogonales. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 16