3. Espaces préhilbertiens Exercice 3.1 Soit E un espace préhilbertien sur IK. Soient u, v deux vecteurs de E. On suppose que, pour tout λ de IK, u + λv u. Montrer que u et v sont orthogonaux. Exercice 3.2 Soit E un espace préhilbertien sur lc. Soit f L(E). Montrer que f = x E, < f(x), x > =. Exercice 3.3 Dans l espace E préhilbertien réel, soit f une application telle que f() = et (1) : x, y E, f(x) f(y) = x y. 1. Montrer que f conserve le produit scalaire. 2. En déduire que f est linéaire. Exercice 3.4 Soit E un espace préhilbertien sur lc. Montrer que (u, v) E 2, < u, v >= 1 [ u + v 2 + i u + iv 2 (1 + i) u 2 + v 2]. 2 Exercice 3.5 Soit E un espace préhilbertien, et soit f une application de E dans E telle que, pour tous vecteurs x et y : < f(x), y >=< x, f(y) >. Montrer que f est linéaire. Exercice 3.6 Soit E un espace vectoriel euclidien. Soit u L(E). On suppose que u u = u u. 1. Montrer que x E, u(x) = x. En déduire que Ker u = Ker u. 2. Montrer que Sp(u) =Sp(u ), et que pour toute valeur propre λ les sous-espaces propres de u et de u pour λ sont identiques. 3. Montrer que les sous-espaces propres de u sont orthogonaux deux à deux. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 1
Exercice 3.7 Déterminer les endomorphismes f de IR 3 euclidien orienté tels que : u, v E, f(u v) = f(u) f(v). Exercice 3.8 1 i 2 3 4 2 2 i 18 2 Montrer que A = est inversible. 3 18 1 i 1 4 2 1 3 i Exercice 3.9 1. Montrer que < A, B >= tr ( T A B) définit un produit scalaire sur M n (IR). 2. Pour quelles matrices M l application A AM est-elle alors orthogonale? Exercice 3.1 Soit A une matrice carrée symétrique, à coefficients réels. On suppose que A m = I, pour un certain entier m. Montrer que A 2 = I. Exercice 3.11 Soit F le sous-espace vectoriel de IR 4 (euclidien) d équations { x + y + z + t = x y + z t = Déterminer la projection orthogonale sur F, et calculer d(u, F ) si u IR 4. Exercice 3.12 Soit E un espace vectoriel euclidien. Montrer que pour tous x, y de E, 2 + x + y 2 2(1 + x 2 )(1 + y 2 ). Exercice 3.13 Calculer la valeur minimum de I a,b = et b ce minimum est atteint. Exercice 3.14 Soit E un espace vectoriel euclidien. (t ln t at b) 2 dt et dire pour quelles valeurs de a Soit f un endomorphisme de E qui conserve l orthogonalité, c est-à-dire tel que, pour tous vecteurs u et v de E, < u, v > = < f(u), f(v) > =. Montrer qu il existe un réel λ tel que, pour tout vecteur u de E, f(u) = λ u. Si λ >, on dit alors que f est une similitude de rapport λ. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 2
Exercice 3.15 Soit E un espace préhilbertien sur IR. On suppose qu il existe n vecteurs unitaires e 1, e 2,..., e n tels que, pour tout vecteur x de E, on ait x 2 = < e k, x > 2. k=1 1. Montrer que les vecteurs e k sont orthogonaux deux à deux. 2. Montrer que ces vecteurs forment une base orthonormée de E. Exercice 3.16 On munit E = IR[X] du produit scalaire < P, Q >= P (t)q(t) dt. Soit ϕ la forme linéaire sur E définie par ϕ(p ) = P (). Montrer qu il n existe pas de vecteur A de E tel que, pour tout P de E, ϕ(p ) = < A, P >. Exercice 3.17 Soient E un espace vectoriel euclidien et f un endomorphisme de E tel que f 2 =. Soit f l adjoint de f. Montrer que Ker (f + f ) = Ker (f) Ker (f ). Exercice 3.18 Soit E un espace préhilbertien sur IR. Soit p un projecteur de E. Montrer que les deux conditions suivantes sont équivalentes : a) Le noyau de p et l image de p sont deux sous-espaces orthogonaux. b) Pour tout vecteur x de E, p(x) x. Que devient ce résultat si E est euclidien, c est-à-dire si E est de dimension finie? Exercice 3.19 Soit A = (a ij ) une matrice orthogonale d ordre n. Prouver a ij n n et n a ij n. Exercice 3.2 Soit A une matrice de M n (IR). Montrer que les deux conditions suivantes sont équivalentes. a) Il existe M dans M n (IR) telle que A = T MM. b) La matrice A est symétrique et ses valeurs propres sont. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 3
Exercice 3.21 Soit A = (a ij ) une matrice symétrique réelle d ordre n, de valeurs propres λ 1,..., λ n. Montrer que a 2 ij = λ 2 k. Exercice 3.22 k=1 Soit A une matrice symétrique réelle d ordre n. On pose, pour toute matrice colonne X de M n,1 (IR), ϕ(x, Y ) = T XAY. 1. Exprimer ϕ(x, Y ) en fonction des composantes de X et de Y dans une base orthonormée de vecteurs propres de A, et en fonction des valeurs propres de A. 2. Montrer que l application (X, Y ) ϕ(x, Y ) définit un produit scalaire si et seulement si toutes les valeurs propres de A sont strictement positives. Exercice 3.23 On considère la matrice A carrée d ordre n, dont le terme général est a ij = Montrer que les valeurs propres de A sont strictement positives. Indication : pour tout vecteur propre X, considérer T XAX. Exercice 3.24 Montrer qu il existe dans M 2 (IR) une base formée de matrices orthogonales. Montrer que ce résultat reste vrai dans M n (IR). 1 i + j 1. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 4
Corrigé des exercices Corrigé de l exercice 3.1 En élevant au carré, u + λv 2 u 2. Autrement dit, pour tout λ de IK : 2Re (λ < u, v >) + λ 2 v 2. Choisissons λ = r < v, u >= r< u, v >, avec r réel, pour se débarrasser de la partie réelle. On obtient, pour tout réel non nul r : (2r + r 2 v 2 ) < u, v > 2. Si < u, v > n était pas nul, on en déduirait 2r + r 2 v 2 pour tout r non nul, ce qui est absurde car cette quantité est équivalente à 2r (donc change de signe) au voisinage de l origine. On a donc démontré que les vecteurs u et v sont orthogonaux. Corrigé de l exercice 3.2 Evidemment, si f =, on a < f(x), x > = pour tout x de E. Seule la réciproque est intéressante. On suppose donc que pour tout vecteur x de E, les vecteurs f(x) et x sont orthogonaux. Le fait que E soit un espace préhilbertien sur lc est très important. En effet si on considère une rotation r d angle π/2 dans IR 2, par exemple, alors on < r(x), x >= pour tout vecteur x, bien que r ne soit pas l application nulle. Soient x et y deux éléments quelconques de E. On va évaluer le produit scalaire de f(x + iy) et de x + iy (dont on sait qu il est nul) en utilisant l hypothèse faite sur f (et sa linéarité) et les propriétés du produit scalaire (linéarité à droite et semi-linéarité à gauche) : =< f(x + iy), x + iy > = < f(x) + if(y), x + iy > = i < f(x), y > i < f(y), x > Donc < f(x), y > = < f(y), x >. Appliquons la même idée au produit scalaire (nul) < f(x + y), x + y > : =< f(x + y), x + y > = < f(x) + f(y), x + y > = < f(x), y > + < f(y), x > Donc < f(x), y > = < f(y), x >. Les deux résultats obtenus montrent que pour tous x, y de E : < f(x), y > =. Cette égalité étant valable pour tout y, et notamment pour y = f(x), il en résulte f(x) =, pour tout x de E. L application f est donc bien l application nulle. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 5
Corrigé de l exercice 3.3 1. En faisant y = dans l hypothèse, on trouve : x E, f(x) = x. On élève l égalité (1) au carré et on trouve, pour tout vecteurs x, y de E : f(x) f(y) 2 = x y 2 f(x) 2 + f(y) 2 2 < f(x), f(y) > = x 2 + y 2 2 < x, y > < f(x), f(y) > = < x, y > L application f conserve donc le produit scalaire. 2. On se donne deux vecteurs quelconques x, y et deux scalaires quelconques α, β. On va développer f(αx + βy) αf(x) βf(y) 2 en utilisant les résultats précédents (conservation de la norme et du produit scalaire.) f(αx + βy) αf(x) βf(y) 2 = f(αx + βy) 2 + α 2 f(x) 2 + β 2 f(y) 2 2α < f(αx + βy), f(x) > 2 β < f(αx + βy), f(y) > + 2αβ < f(x), f(y) > = αx + βy 2 + α 2 x 2 + β 2 y 2 2α < αx + βy, x > 2β < αx + βy, y > + 2αβ < x, y > = αx + βy 2 + α 2 x 2 + β 2 y 2 2α 2 x 2 2β 2 y 2 4αβ < x, y > + 2αβ < x, y > = αx + βy 2 α 2 x 2 β 2 y 2 2αβ < x, y > = Ainsi f(αx + βy) αf(x) βf(y) =, pour tous α, β de IR et tous x, y de E ce qui prouve la linéarité de f. Si E est un espace euclidien, f est donc un automorphisme orthogonal de E. Corrigé de l exercice 3.4 On sait que u + v 2 = < u + v, u + v > = u 2 + 2Re < u, v > + v 2. De même : u + iv 2 = < u + iv, u + iv > = u 2 + 2Re ( i < u, v >) + v 2 = u 2 + 2Im < u, v > + v 2 On en déduit : u + v 2 + i u + iv 2 = (1 + i)( u 2 + v 2 ) + 2 < u, v > Autrement dit : < u, v > = 1 2 [ u + v 2 + i u + iv 2 (1 + i) u 2 + v 2] Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 6
Corrigé de l exercice 3.5 On se donne trois vecteurs quelconque x, y, z, et deux scalaires quelconques α et β. On écrit : < z, f(αx + βy) > = < f(z), αx + βy > = α < f(z), x > + β < f(z), y > = α < z, f(x) > + β < z, f(y) > = < z, αf(x) + βf(y) > Autrement dit la différence f(αx + βy) (αf(x) + βf(y)) est orthogonale à tout z de E. Il s ensuit que cette différence est nulle. Ainsi f(αx + βy) = αf(x) + βf(y), pour tous x, y de E et tous α, β de IK. Autrement dit f est linéaire. Si E est un espace euclidien, f est donc un endomorphisme symétrique de E. Corrigé de l exercice 3.6 1. Pour tout vecteur x de E : u(x) 2 = < u(x), u(x) > = < x, u u(x) > = < x, u u (x) > = < u (x), u (x) > = u (x) 2 On en déduit effectivement l égalité u(x) = u (x). Dans ces conditions : x Ker u u(x) = u (x) = x Ker u. Les deux applications u et u ont donc le même noyau. 2. Pour tout scalaire λ, l application v = u λid est telle que v = u λid. On a donc v v = v v ce qui entraîne Ker (v) = Ker (v ), c est-à-dire Ker (u λid) = Ker (u λid). Autrement dit, ces deux noyaux sont non réduits à { } en même temps, ce qui prouve que u et u ont les mêmes valeurs propres, et ces deux noyaux sont alors identiques, ce qui prouve que pour chaque valeur propre λ, u et u ont le même sous-espace propre. 3. Soient λ et µ deux valeurs propres distinctes de u (donc de u ). Soient x un vecteur propre de u (donc de u ) pour la valeur propre λ et y un vecteur propre de u (donc de u ) pour la valeur propre µ. Il faut montrer que x et y sont orthogonaux. { < u(x), y > = < λx, y > = λ < x, y > Or < u(x), y > = < x, u (y) > = < x, µy > = µ < x, y > On a ainsi l égalité λ < x, y >= µ < x, y >, avec λ µ. Il en résulte l orthogonalité des vecteurs x et y. On en déduit l orthogonalité des sous-espaces propres E λ et E µ. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 7
Corrigé de l exercice 3.7 Il est clair que l application nulle est solution. Dans la suite, nous supposerons f. Soit e 1, e 2, e 3 une base orthonormée directe de IR 3. e 1 = e 2 e 3 f(e 1 ) = f(e 2 e 3 ) = f(e 2 ) f(e 3 ) On constate que e 2 = e 3 e 1 f(e 2 ) = f(e 3 e 1 ) = f(e 3 ) f(e 1 ) e 3 = e 1 e 2 f(e 3 ) = f(e 1 e 2 ) = f(e 1 ) f(e 2 ) Les vecteurs f(e 1 ), f(e 2 ), f(e 3 ) sont donc orthogonaux deux à deux. f(e 1 ) = f(e 2 ) f(e 3 ) = f(e 2 ) f(e 3 ) Le système ci-dessus donne alors f(e 2 ) = f(e 3 ) f(e 1 ) = f(e 3 ) f(e 1 ) f(e 3 ) = f(e 1 ) f(e 2 ) = f(e 1 ) f(e 2 ) L application f n étant pas nulle, l un au moins des vecteurs f(e 1 ), f(e 2 ), f(e 3 ) est non nul. Le système ci-dessus montre alors que les trois vecteurs f(e 1 ), f(e 2 ), f(e 3 ) sont non nuls. Si on multiplie deux à deux ces égalités, on trouve f(e 1 ) 2 = f(e 2 ) 2 = f(e 3 ) 2 = 1. On sait donc maintenant que la famille f(e 1 ), f(e 2 ), f(e 3 ) est une base orthonormée de IR 3 (ce qui prouve que f est un automorphisme orthogonal). Enfin l égalité f(e 3 ) = f(e 1 ) f(e 2 ) prouve de plus que f(e 1 ), f(e 2 ), f(e 3 ) est une base orthonormée directe. L application f, qui transforme une base orthonormée directe en une base orthonormée directe est donc une rotation vectorielle de IR 3. Réciproquement, soit f la rotation vectorielle d angle θ (défini modulo 2π) autour d un vecteur unitaire ε 1. On complète ε 1 en une base orthonormée directe (ε) = ε 1, ε 2, ε 3. Soient u, v deux vecteurs quelconques de IR 3, de coordonnées (x, y, z) et (x, y, z ) dans (ε). En identifiant les éléments de IR 3 aux vecteurs colonnes de leurs coordonnées dans la base orthonormée (ε), on peut utiliser l expression usuelle du produit vectoriel et écrire : 1 x x f(u) = cos θ sin θ y = y cos θ z sin θ sin θ cos θ z y sin θ + z cos θ On en déduit : x x f(u) f(v) = y cos θ z sin θ y cos θ z sin θ y sin θ + z cos θ y sin θ + z cos θ yz zy = (yx xy ) sin θ + (zx xz ) cos θ (xy yx ) cos θ (xz zx ) sin θ x x yz zy yz zy Or u v = y y = zx xz et f(u v) = (zx xz ) cos θ (xy yx ) sin θ z z xy yx (zx xz ) sin θ + (xy yx ) cos θ On trouve bien l égalité f(u) f(v) = u v. Conclusion : les endomorphismes de l espace vectoriel euclidien orienté qui conservent le produit vectoriel sont l application nulle d une part et les automorphismes orthogonaux positifs (les rotations vectorielles) d autre part. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 8
Corrigé de l exercice 3.8 La matrice A s écrit A = S ii 4, où S est une matrice symétrique à coefficients réels. Dans ces conditions la matrice S est diagonalisable dans IR et ses valeurs propres sont donc toutes réelles. Il s ensuit que i ne peut pas être valeur propre de S. Ainsi det(s ii 4 ), ce qui signifie que A est inversible. Corrigé de l exercice 3.9 1. Notons a ij, b ij les coefficients respectifs de A et B. Pour tout i, le coefficient d indice (i, i) de T A B est a ki b ki. k=1 Ainsi < A, B > = a ki b ki. k=1 On reconnait le produit scalaire canonique de IR n2, une matrice étant identifiée à un n 2 -uplet par lecture de ses coefficients de gauche à droite et de haut en bas. 2. Soit M une matrice quelconque de M n (IR). L application A AM est orthogonale si et seulement si : (A, B) M n (IR) 2, < AM, BM > = < A, B > Cela équivaut à : tr ( T (AM)(BM)) = tr ( T AB) ou encore : tr ( T M T ABM) = tr ( T AB). Compte tenu de l égalité tr (XY ) = tr (Y X) valable pour toutes matrices X et Y, l égalité précédente s écrit tr ( T ABM T M) = tr ( T AB), et ceci quelque soient A et B. En choisissant B = I n, on en déduit tr ( T AN) =, c est-à-dire < A, N >=, avec N = M T M I n, et pour toute matrice A de M n (IR). Cela implique que la matrice N = M T M I n est nulle, c est-à-dire que M est une matrice orthogonale. La réciproque est évidente. Corrigé de l exercice 3.1 On sait que la matrice A est diagonalisable dans IR. Soit P une matrice de passage et D une matrice diagonale telles que D = P 1 AP. L hypothèse A m = I implique D m = P 1 A m P = I. Ainsi les coefficients diagonaux λ de D (donc les valeurs propres de A) vérifient λ m = 1. Mais on sait que les valeurs propres λ de A sont toutes réelles. On en déduit λ = ±1 et donc λ 2 = 1. Il en résulte D 2 = I puis A 2 = P D 2 P 1 = I. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 9
Corrigé de l exercice 3.11 Première méthode : Soit u = (x, y, z, t) un vecteur de IR 4, et v = (x, y, z, t ) sa projection orthogonale sur F. a = (1, 1, 1, 1) dirige la droite orthogonale à l hyperplan H d équation x + y + z + t =. Le vecteur b = (1, 1, 1, 1) dirige la droite orthogonale à l hyperplan K : x y +z t =. le plan engendré par a et b est constitué de vecteurs qui sont tous orthogonaux à F = H K. Puisque dim F = dim F = 2, L orthogonal de F est le plan de base a, b. Il existe donc λ, µ tels que v u = λa + µb, c est-à-dire On sait que le vecteur v appartient à F. Il suffit alors de reporter ces expresssions de x, y, z, t dans les équations des hyperplans H et K. On obtient { x + y + z + t + 4λ = x y + z t + 4µ = puis x = x + λ + µ y = y + λ µ z = z + λ + µ t = t + λ µ x = x + λ + µ = x 1(x + z) = 1 (x z) 2 2 y = y + λ µ = y 1(y + t) = 1 (y t) 2 2 z = z + λ + µ = z 1(x + z) = 1 ( x + z) 2 2 t = t + λ µ = t 1(y + t) = 1 ( y + t) 2 2 1 1 La matrice de la projection orthogonale sur F est donc M = 1 1 1 2 Soit d la distance de u à F. Alors d 2 = v u 2 = 2((λ + µ) 2 + (λ µ) 2 ) = 1 2 ((x + z)2 + (y + t) 2 ). v = p(u) =< c, u > c + < d, v > d = 1 (x z) 2 1 1 1 1 Deuxième méthode : { x + z = Un système d équations définissant F est aussi y + t = Les vecteurs c = 1 2 (1,, 1, ) et d = 1 2 (, 1,, 1) forment une base ortonormée de F. La projection v de u sur F est donc : 1 x z y t 1 + 1 1 (y t) 2 = 1 2 1 x + z y + t Remarque : On peut trouver d = d(u, F ) sans calculer la projection de u sur F. En effet si H est un hyperplan de IR n d équation a 1 x 1 + + a n x n =, la distance de 1 u(x 1, x 2,..., x n ) à H est h a 1x 1 + + a n x n, en notant h = (a 1, a 2,..., a n ). d 2 (u, H) = 1 (x + y + z + t)2 4 Avec les hyperplans H, K de la méthode 1, on trouve : d 2 (u, K) = 1 (x y + z t)2 4 Or H et K sont perpendiculaires, car a = (1, 1, 1, 1) et b = (1, 1, 1, 1) sont orthogonaux. On en déduit en utilisant le théorème de Pythagore : d 2 (u, F ) = d 2 (u, H)+d 2 (u, K) = 1 4 (x+y +z +t)2 + 1 4 (x y +z t)2 = 1 2 ((x+z)2 +(y +t) 2 ) Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 1
Corrigé de l exercice 3.12 On pose A = 2(1 + x 2 )(1 + y 2 ) et B = 2 + x + y 2. A B = 2(1 + x 2 )(1 + y 2 ) 2 x + y 2 = 2(1 + x 2 + y 2 + x 2 y 2 ) 2 x 2 y 2 2 < x, y > = 2 x 2 y 2 + x 2 + y 2 2 < x, y > = 2 x 2 y 2 + x y 2 Donc A B, ce qui prouve l inégalité demandée (et il n y a égalité que si x = y =.) Corrigé de l exercice 3.13 On définit un produit scalaire sur E = C([, 1], IR) en posant : < f, g > = Soit F le sous-espace de E formé des polynômes de degré inférieur ou égal à 1. Notons ϕ l application de E définie par ϕ(t) = t ln t, avec ϕ() =. f(t)g(t) dt. Le problème posé équivaut donc à la recherche de P dans F qui minimise la quantité ϕ P. On sait que ce problème a une solution unique : la projection orthogonale P de ϕ sur F. { < P ϕ, 1 > = Cette projection est l unique vecteur P (t) = a + bt de F tel que < P ϕ, t > = { < P, 1 > = < ϕ, 1 > Il s agit donc de résoudre le système (S) : < P, t > = < ϕ, t > Or < ϕ, 1 > = De même, < ϕ, t > = t ln t dt = [ t 2 2 ln t] 1 1 2 t 2 ln t dt = [ t 3 3 ln t] 1 t dt = 1 4. 1 3 t 2 dt = 1 9. Enfin, en posant P (t) = a + bt, < P, 1 > = a + b 2 et < P, t > = a 2 + b 3. Le système (S) est donc équivalent à : a + b 2 = 1 a = 1 4 3 a 2 + b 3 = 1 b = 1 9 6 Par Pythagore, le minimum recherché ϕ P est tel que ϕ P 2 = ϕ 2 P 2. Or ϕ 2 = t 2 (ln t) 2 dt = [ t 3 3 (ln t)2] 1 2 3 De même, P 2 = 1 ( 2 + t) 2 dt = 7 36 18. t 2 ln t dt = 2 3 t 2 ln t dt = 2 27. Le minimum m des I(a, b) vérifie donc m 2 = 2 27 7 18 = 1 18. Ainsi m = 1 18 = 3 18. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 11
Corrigé de l exercice 3.14 Soit (e) = e 1, e 2,..., e n une base orthonormée de E. Remarquons tout d abord que par hypothèse les vecteurs f(e j ) sont orthogonaux deux à deux. Nous allons montrer qu ils ont même norme. Soient i et j deux indices distincts de {1,..., n}. Les vecteurs e i + e j et e i e j sont orthogonaux car < e i + e j, e i e j >= e i 2 e j 2 =. On en déduit : = < f(e i + e j ), f(e i e j ) > = < f(e i ) + f(e j ), f(e i ) f(e j ) > = f(e i ) 2 f(e j ) 2 Autrement dit, pour tous indices i et j, f(e i ) = f(e j ). Ainsi il existe un scalaire λ tel que, pour tout i de {1,..., n}, f(e i ) = λ. Dans ces conditions, et pour tous vecteurs u = x i e i et v = y j e j : j=1 < f(u), f(v) > = < x i f(e i ), y j f(e j ) > = x i y j < f(e i ), f(e j ) > j=1 = x i y i f(e i ) 2 = λ 2 n x i y i = λ 2 < u, v > En particulier, pour tout vecteur u de E, f(u) = λ u. Corrigé de l exercice 3.15 1. Pour tout vecteur e j, on a : 1 = e j 2 = < e k, e j > 2 = 1 + < e k, e j > 2. k=1 k j On en déduit que pour indice j distinct de k, < e j, e k >=. Les vecteurs e k sont donc orthogonaux deux à deux. 2. Soit F le sous-espace de E engendré par les n vecteurs orthonormés e 1, e 2,..., e n. Soit p la projection orthogonale de E sur F. Pour tout u de E, p(u) = < e k, u > e k et donc p(u) 2 = < e k, u > 2 = u 2. k=1 k=1 On sait d autre part que u 2 = p(u) 2 + u p(u) 2 (Pythagore). On en déduit u p(u) =. Autrement dit, pour tout vecteur u de E, u = p(u) F. Cela siginifie que F = E. Les vecteurs e 1, e 2,..., e n forment donc une base orthonormée de E. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 12
Corrigé de l exercice 3.16 On raisonne par l absurde et on suppose qu un tel polynôme A existe. En utilisant P = XA, on alors < XA, A >= ϕ(xa) =, c est-à-dire ta 2 (t) dt =. Puisque l application t ta 2 (t) est continue, de signe constant et d intégrale nulle sur [, 1], cette application est identiquement nulle sur cet intervalle. Le polynôme A est donc nul sur ], 1], donc identiquement nul. La forme linéaire ϕ est donc nulle, ce qui est absurde car par exemple ϕ(1) = 1. Corrigé de l exercice 3.17 L inclusion Ker (f) Ker (f ) Ker (f + f ) est évidente car f(x) = f (x) = (f + f )(x) = Réciproquement, soit x un vecteur de Ker (f + f ) : il vérifie f (x) = f(x). f (x) 2 = < f (x), f (x) > = < f (x), f(x) > = < x, f 2 (x) >= < x, > = Ainsi le vecteur f (x) est nul. Mais dans l hypothèse sur x, les deux applications f et f jouent le même rôle, et on sait que l adjoint de f est f. On en déduit donc f(x) =. On a ainsi prouvé que x est dans Ker (f) Ker (f ), ce qui établit le résultat. Corrigé de l exercice 3.18 Supposons que l hypothèse (a) soit réalisée. Cela signifie que (Im p) Ker p. Pour tout vecteur x de E, on sait que x p(x) est dans Ker p. L égalité x = p(x) + (x p(x)) donne alors, par Pythagore : p(x) 2 = x 2 x p(x) 2 x 2, et donc p(x) x. Réciproquement, on suppose que pour tout x de E, p(x) x. Soient y = p(x) un élément de Im p (donc un vecteur invariant par p) et z un vecteur de Ker p. Il faut montrer que y et z sont orthogonaux. Pour tout scalaire λ, on a l inégalité p(λy + z) 2 λy + z 2. Or p(λy + z) = λp(y) + p(z) = λy, et λy + z 2 = λ 2 y 2 + 2λ < y, z > + z 2. On en déduit que la fonction affine λ 2λ < y, z > + z 2 reste positive ou nulle sur IR, ce qui n est possible que si le produit scalaire < y, z > est nul. On a donc démontré (a) (b). Si E est euclidien, les seules projections de E qui vérifient p(x) x pour tout x sont donc les projections orthogonales c est-à-dire les projections telles que Ker p = (Im p). Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 13
Corrigé de l exercice 3.19 On majore S = a ij = α ij β ij avec α ij = 1, β ij = a ij en utilisant Cauchy-Schwarz. i,j L ínégalité S 2 α 2 ij βij 2 s écrit ici : S 2 n 2 a 2 ij. Or ( a 2 n ) ij = a 2 ij = n. i,j i,j i,j i,j j=1 }{{} =1 On en déduit effectivement S 2 n 3, c est-à-dire S n n. Pour la deuxième majoration, posons T = n a ij, et soit f l endomorphisme orthogonal de IR n de matrice A dans la base canonique (e) = e 1, e 2,..., e n. On note u le vecteur de composantes 1, 1,..., 1 dans cette base. La somme T s écrit alors : ( n ) n T = a ij = < u, f(e j ) > = < u, f(e j ) > = < u, f(u) > j=1 j=1 j=1 On en déduit, par Cauchy-Schwarz : T u f(u), c est-à-dire T u 2. Or u 2 = n, ce qui donne le résultat attendu. Corrigé de l exercice 3.2 Si M telle que A = T MM, alors T A = T ( T MM) = T MM = A : A est donc symétrique. Soit λ l une de ses valeurs propres et X un vecteur propre associé. On a λx = AX = T MMX, puis T X T MMX = λ T XX = λ X 2. Mais T X T MMX = T (MX)MX = MX 2. Ainsi MX 2 = λ X 2 avec X 2 >. On en déduit que chaque valeur propre de A est positive ou nulle. Réciproquement : Puisque la matrice A est symétrique réelle, elle s écrit A = T P DP où P est orthogonale et D diagonale (de coefficients diagonaux successifs les valeurs propres λ 1,..., λ n de A, toutes positives ou nulles.) Pour tout indice k, on pose µ k = λ k. On désigne par la matrice diagonale dont les coefficients diagonaux successifs sont les µ k. On a 2 = D, puis A = T P 2 P = ( T P T ) P = T MM avec M = P. Corrigé de l exercice 3.21 ( On constate que a 2 n ) ij = a 2 n ( n ) ij = a ij a ji = tr (A 2 ). Or A est diagonalisable. j=1 j=1 Il en est donc de même de A 2, et les valeurs propres de A 2 sont λ 2 1,..., λ 2 n. L égalité demandée traduit alors le résultat bien connu selon lequel la trace d une matrice B diagonalisable (et plus généralement d une matrice dont le polynôme caractéristique est scindé) est égale à la somme de ses valeurs propres. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 14
Corrigé de l exercice 3.22 1. Soit (U) = U 1, U 2,..., U n une base orthonormée de vecteurs propres de A, pour les valeurs propres successives λ 1, λ 2,..., λ n. Soient x 1,..., x n et y 1,..., y n les coordonnées de X et de Y dans cette base. On exprime ϕ(x, Y ) en fonction des x i et des y j : ϕ(x, Y ) = T XAY = T( n ) ( n ) x i U i A y j U j = j=1 n x i y j T U i AU j { Or on peut écrire T U i AU j = T U i λ j U j = λ T λi si i = j j U i U j = λ j < U i, U j >= sinon On en déduit ϕ(x, Y ) = λ i x i y i. 2. Avec ce résultat il est évident que ϕ est une forme bilinéaire symétrique. Pour tout vecteur X de coordonnées x 1,..., x n dans la base (U), on a : ϕ(x, X) = λ i x 2 i Si les λ i sont tous strictement positifs, alors ϕ est définie positive. Réciproquement, on remarque que pour tout vecteur U i, ϕ(u i, U i ) = λ i. On en déduit que si ϕ est définie positive, alors tous les λ i sont strictement positifs. Corrigé de l exercice 3.23 Soit X un vecteur propre de A pour la valeur propre λ, de coefficients successifs x 1,..., x n. D une part T XAX = T X(λX) = λ T XX = λ X 2. D autre part : ( T n ) n 1 XAX = < X, AX > = x i a ij x j = j=1 i + j 1 x ix j On peut transformer le terme général de la somme précédente : 1 1 i + j 1 x ix j = x i x j t i+j 2 dt = (x i t i 1 )(x j t j 1 ) dt On en déduit une nouvelle expression de T XAX : T XAX = (x i t i 1 )(x j t j 1 ) dt = (x i t i 1 )(x j t j 1 ) dt = ( n x i t i 1) 2 dt Puisque le vecteur X est non nul, il en est de même du polynôme P (t) = x i t i 1. On en déduit T XAX >, ce qui implique λ >, car on a l égalité T XAX = λ X 2. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 15
Corrigé de l exercice 3.24 Dans M 2 (IR), on pose A = ( ) ( ) 1 1, B =, C = 1 1 ( ) 1 et D = 1 Ces quatre matrices sont orthogonales et linéairement indépendantes. ( ) a + b c d En effet : aa + bb + cc + dd = = a = b = c = d =. c + d a b On a donc obtenu une base de M 2 (IR) formée de matrices orthogonales. ( ) 1. 1 Pour la généralisation à M n (IR), remarquons que la réponse est évidente si n = 1 en prenant la matrice A = (1). On suppose donc n 2. On note comme d habitude E ij la matrice générique de la base canonique de M n (IR) (tous ses coefficients sont nuls sauf celui qui est situé en ligne i et colonne j et qui vaut 1.) Pour tout indice j compris entre 2 et n, soit F j = I n 2E jj la matrice diagonale dont tous les coefficients diagonaux valent 1 sauf le j-ème qui vaut 1. Pour tous indices i et j tels que i < j, on note G ij et H ij les matrices qui se déduisent respectivement de I n et de F j par échange des lignes d indice i et j. Par exemple, si n = 4 : 1 1 1 1 F 3 = 1 1, G 13 = 1 1, H 13 = 1 1, G 24 = 1 1 1 1 1 1 Il y a n 1 matrices F j, 1 2 n(n 1) matrices G ij et 1 2 n(n 1) matrices H ij. Si on y ajoute la matrice I n, on dispose ainsi de n 2 matrices de M n (IR), qui sont toutes orthogonales (vecteurs colonnes unitaires et orthogonaux deux à deux.) Pour démontrer que ces n 2 matrices forment une base de M n (IR), il suffit de prouver qu elles sont libres. On suppose donc qu on a l égalité : S = α 1 I n + α j F j + λ ij G ij + µ ij H ij =. j 2 i<j i<j Pour tout couple d indices i, j avec i < j, la composante de S sur la matrice E ij est λ ij µ ij et la composante de S sur E ji est λ ij + µ ij. Puisque S =, ces deux composantes sont nulles. Il en est donc de même des coefficients λ ij et µ ij. Il reste donc l égalité : = S = α 1 I n + α j F j = α 1 I n + α j (I n 2E jj ) = σi n 2 α j E jj, où σ = α j j 2 j 2 j 2 j 1 La composante de S sur la matrice E 11 est σ. On en déduit σ =. Il reste alors j 2 α j E jj =, ce qui implique α 2 =... = α n =. Conclusion : la famille formée par I n, les matrices F j (pour j 2) et les matrices G ij et H ij (pour j > i) est une base de M n (IR) formée de matrices orthogonales. Jean-Michel.Ferrard @ ac-lyon.fr, 23 mai 2 Page 16