Espaces vectoriels euclidiens. Groupe orthogonal



Documents pareils
Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

NOTATIONS PRÉLIMINAIRES

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

I. Polynômes de Tchebychev

Structures algébriques

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Limites finies en un point

3 Approximation de solutions d équations

Cours d Analyse. Fonctions de plusieurs variables

Le produit semi-direct

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Image d un intervalle par une fonction continue

Programme de la classe de première année MPSI

Développement décimal d un réel

Résolution de systèmes linéaires par des méthodes directes

Cours de mathématiques

Différentiabilité ; Fonctions de plusieurs variables réelles

Théorème du point fixe - Théorème de l inversion locale

[ édité le 30 avril 2015 Enoncés 1

Calcul différentiel. Chapitre Différentiabilité

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Groupe symétrique. Chapitre II. 1 Définitions et généralités

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que


Calcul différentiel sur R n Première partie

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

Programmes des classes préparatoires aux Grandes Ecoles

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Fonctions de plusieurs variables

Capes Première épreuve

3. Conditionnement P (B)

Chapitre 2. Matrices

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Cours 02 : Problème général de la programmation linéaire

Angles orientés et trigonométrie

Construction de l'intégrale de Lebesgue

Produit semi-direct. Table des matières. 1 Produit de sous-groupes 2. 2 Produit semi-direct de sous-groupes 3. 3 Produit semi-direct de groupes 4

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

1 Complément sur la projection du nuage des individus

Date : Tangram en carré page

Intégration et probabilités TD1 Espaces mesurés Corrigé

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Correction de l examen de la première session

Planche n o 22. Fonctions de plusieurs variables. Corrigé

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Cours d analyse numérique SMI-S4

Problème 1 : applications du plan affine

Mesures gaussiennes et espaces de Fock

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Géométrie dans l espace Produit scalaire et équations

CCP PSI Mathématiques 1 : un corrigé

Simulation de variables aléatoires

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Exercices Corrigés Premières notions sur les espaces vectoriels

Mathématiques Algèbre et géométrie

Continuité en un point

Axiomatique de N, construction de Z

Proposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5.

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Dérivées d ordres supérieurs. Application à l étude d extrema.

Logique. Plan du chapitre

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Chapitre VI Fonctions de plusieurs variables

Calcul intégral élémentaire en plusieurs variables

Calcul fonctionnel holomorphe dans les algèbres de Banach

Cours de Mécanique du point matériel

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

I. Ensemble de définition d'une fonction

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Approximations variationelles des EDP Notes du Cours de M2

F411 - Courbes Paramétrées, Polaires

Représentation géométrique d un nombre complexe

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

chapitre 4 Nombres de Catalan

Relation d ordre. Manipulation des relations d ordre. Lycée Pierre de Fermat 2012/2013 Feuille d exercices

Programmation linéaire et Optimisation. Didier Smets

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Fonctions de plusieurs variables

Correction du Baccalauréat S Amérique du Nord mai 2007

Problèmes de Mathématiques Filtres et ultrafiltres

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

Calcul Différentiel. I Fonctions différentiables 3

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Moments des variables aléatoires réelles

Intégration et probabilités TD1 Espaces mesurés

Résumé du cours d algèbre 1, Sandra Rozensztajn. UMPA, ENS de Lyon, sandra.rozensztajn@ens-lyon.fr

Continuité d une fonction de plusieurs variables

Chapitre 1. Une porte doit être ouverte et fermée. 1.1 Les enjeux de l'informatique quantique

Transcription:

19 Espaces vectoriels euclidiens. Groupe orthogonal Dans un premier temps, E est un espace vectoriel réel de dimension n 1. 19.1 Espaces vectoriels euclidiens Dénition 19.1 On dit qu'une forme bilinéaire symétrique φ : E E R est : positive si φ (x, x) 0 pour tout x dans E ; dénie si pour x dans E l'égalité φ (x, x) = 0 équivaut à x = 0. Dénition 19. On appelle produit scalaire sur E toute forme bilinéaire symétrique dénie positive. Dénition 19.3 Un espace euclidien est un espace vectoriel réel de dimension nie muni d'un produit scalaire. De manière plus générale, un espace vectoriel réel de dimension nie ou innie muni d'un produit scalaire est dit préhilbertien (voir le chapitre 47 pour une étude plus détaillée). Dans ce qui suit E est un espace euclidien de dimension n 1. On notera, quand il n'y a pas d'ambiguïté : (x, y) x y un produit scalaire sur E et pour y = x, on note : x = x x La norme euclidienne sur E induit une norme sur l'espace L (E) des endomorphismes de E en posant : u (x) u L (E), u = sup x E\{0} x Les trois égalités qui suivent, expressions de la forme polaire d'une forme quadratique, sont utiles en pratique. 481

48 Espaces vectoriels euclidiens. Groupe orthogonal Théorème 19.1 Pour tous x, y dans E on a : x y = 1 ( x + y x y ) = 1 ( x + y x y ) 4 x + y + x y = ( x + y ) Théorème 19. (Inégalité de Cauchy-Schwarz) Pour tous x, y dans E on a : x y x y, l'égalité étant réalisée si, et seulement si, x et y sont liés. Démonstration. Voir le théorème 47.1. Une conséquence importante de l'inégalité de Cauchy-Schwarz est l'inégalité triangulaire de Minkowski. Théorème 19.3 (Inégalité de Minkowski) Pour tous x, y dans E on a : x + y x + y l'égalité étant réalisée si, et seulement si, x = 0 ou x 0 et y = λx avec λ 0 (on dit que x et y sont positivement liés). Démonstration. Voir le théorème 47.. 19. Mesures d'angles géométriques L'inégalité de Cauchy-Schwarz nous dit que pour tous vecteurs x et y non nuls dans E, on a : x y 1 x y 1 ce qui implique qu'il existe un unique réel θ dans [0, π] tel que : x y = cos (θ) x y (la fonction cos étant dénie en analyse à partir d'une série entière). Le réel θ est la mesure dans [0, π] de l'angle géométrique (ou angle non orienté) que font les vecteurs x et y dans E {0}. On note (x, y) cette mesure. On a donc : ( ) (x, x y y) = arccos [0, π] x y Pour θ {0, π}, on a x y = x y, ce qui équivaut à dire que les vecteurs x et y sont liés (cas d'égalité dans l'inégalité de Cauchy-Schwarz). Pour θ = π, on a x y = 0 et les vecteurs x, y sont dits orthogonaux. De manière générale, on a : x + y = x + cos (θ) x y + y

Isométries d'un espace euclidien 483 où θ est la mesure dans [0, π] de l'angle géométrique que font les vecteurs non nuls x et y. On peut remarquer que si λ, µ sont deux réels strictement positifs, on a alors : ( ) (λx, x y µy) = arccos = (x, x y y) ce qui permet de dénir la mesure dans [0, π] de l'angle géométrique de deux demi-droites 1 = R + x 1 et = R + x par : ( 1, ) = (x 1, x ) où x 1 est un vecteur directeur de 1 et x un vecteur directeur de. On dit parfois que ( 1, ) est l'angle géométrique ou l'écart angulaire de 1 et. 19.3 Isométries d'un espace euclidien Dénition 19.4 Une isométrie (ou application orthogonale) de E est une application u : E E qui conserve le produit scalaire, c'est-à-dire que : (x, y) E E, u (x) u (y) = x y On note O (E) l'ensemble des isométries de E. Exemple 19.1 Les seules homothéties x λx qui sont des isométries sont Id et Id. En eet pour e E de norme égale à 1, on a 1 = e = u (e) = λ et λ = ±1. Exemple 19. Pour E de dimension 1, on a O (E) = { Id, Id}. Remarque 19.1 Une isométrie conserve l'orthogonalité, c'est-à-dire que pour tous x, y dans E, on a : x y = 0 u (x) u (y) = 0 mais une application qui conserve l'orthogonalité n'est pas nécessairement une isométrie comme le montre l'exemple d'une homothétie de rapport λ / { 1, 1}. Remarque 19. Comme une isométrie conserve l'orthogonalité, elle conserve les mesures d'angles géométriques. En eet, pour x, y non nuls dans E, on a : ( ) ( ) (x, x y u (x) u (y) y) = arccos = arccos = (u (x), u (y)) x y u (x) u (y) Exercice 19.1 Soient n, B = (e i ) 1 i n une base orthonormée de E et u une application linéaire de E dans E qui conserve l'orthogonalité. 1. Montrer que u (e i ) = u (e j ) pour tous i, j compris entre 1 et n. On notera λ cette valeur commune.. Montrer que u (x) = λ x pour tout x E (pour λ > 0, on dit que u est une similitude de rapport λ). Solution 19.1

484 Espaces vectoriels euclidiens. Groupe orthogonal 1. Pour 1 i, j n, on vérie facilement que les vecteurs e i e j et e i +e j sont orthogonaux, donc : u (e i e j ) u (e i + e j ) = 0 et avec : u (e i e j ) u (e i + e j ) = u (e i ) u (e j ) u (e i ) + u (e j ) on déduit que u (e i ) = u (e j ). On note λ la valeur commune des u (e i ).. Pour tout vecteur x = n x i e i, on a u (x) = n u (x) = = = u (e i ) u (e j ) x i u (e i ) et : n x i u (e i ) + x i x j u (e i ) u (e j ) n x i u (e i ) = λ ( e i e j = 0 pour i j u (e i ) u (e j ) = 0). 1 i<j n x i = λ x Théorème 19.4 Une application u : E E est une isométrie si, et seulement si, elle est linéaire et conserve la norme, c'est-à-dire que : x E, u (x) = x Démonstration. Si u est linéaire et conserve la norme, on déduit alors de l'identité de polarisation qu'elle conserve le produit scalaire et c'est une isométrie. En eet, pour tous x, y dans E, on a : u (x) u (y) = 1 ( u (x) + u (y) u (x) u (y) ) 4 = 1 ( u (x + y) u (x y) ) (linéarité) 4 = 1 ( x + y x y ) (conservation de la norme) 4 = x y Réciproquement, si u est une application de E dans E qui conserve le produit scalaire, il est clair qu'elle conserve la norme. Il nous reste à montrer qu'elle est linéaire. Pour x, y dans E et λ dans R, on a : u (x + λy) u (x) λu (y) = u (x + λy) + u (x) + λ u (y) +λ x y = 0 ( u (x + λy) u (x) + λ u (x + λy) u (y) ) + λ u (x) u (y) = x + λy + x + λ y ( x + λy x + λ x + λy y ) + λ x y = x + λ y + λ x y x 4λ x y λ y

Isométries d'un espace euclidien 485 ce qui équivaut à u (x + λy) = u (x) + λu (y) et u est linéaire. On peut aussi utiliser une base orthonormée (e i ) 1 i n de E. Comme u conserve le produit scalaire, la famille (u (e i )) 1 i n est orthonormée et c'est une base de E. Pour tout x E, on a alors : n n u (x) = u (x) u (e i ) u (e i ) = x e i u (e i ) et la linéarité des applications x x e i entraîne celle de u. Remarque 19.3 On déduit du théorème précédent que les seules valeurs propres réelles possibles d'une isométrie sont 1 et 1. Remarque 19.4 Une application u : E E qui conserve la norme n'est pas nécessairement linéaire et n'est donc pas une isométrie en général. Par exemple pour e E de norme égale à 1, l'application u : x x e conserve la norme et n'est pas linéaire (u ( x) = u (x) u (x) pour x 0). Exercice 19. Soit u une application de E dans E qui conserve les distances, c'est-à-dire telle que : (x, y) E E, u (x) u (y) = x y Montrer qu'il existe un vecteur a E et une isométrie v de E tels que u (x) = a + v (x) pour tout x E (on dit que u est une isométrie ane). Solution 19. Soient a = u (0) (si a existe, c'est la seule possibilité) et v : E E dénie par v (x) = u (x) a, pour tout x E. Pour tous x, y dans E, on a : soit : v (x) = u (x) u (0) = x 0 = x v (x) v (y) = u (x) u (y) = x y v (x) v (x) v (y) + v (y) = x x y + y et en conséquence v (x) v (y) = x y. Donc v est une isométrie. Théorème 19.5 Une isométrie est un automorphisme de E et O (E) est un sous-groupe de GL (E). Démonstration. Soit u O (E). Pour x ker (u), on a 0 = u (x) = x et x = 0. Donc ker (u) = {0} et u est injective, ce qui équivaut à dire que u est un automorphisme de E puisqu'on est en dimension nie. On a Id O (E) et pour u, v dans O (E), x dans E, on a : u v (x) = u (v (x)) = v (x) = x u 1 (x) = u ( u 1 (x) ) = x donc u v et u 1 sont dans O (E). L'ensemble O (E) est donc bien un sous-groupe de GL (E). On dit, dans le cas où E est de dimension nie, que O (E) est le groupe orthogonal de E.

486 Espaces vectoriels euclidiens. Groupe orthogonal Remarque 19.5 Si E est de dimension innie, une isométrie est toujours injective (son noyau est réduit à {0}), mais n'est pas nécessairement surjective. Donc, dans le cas de la dimension innie, O (E) n'est pas nécessairement un groupe. Considérons par exemple un espace préhilbertien E de dimension innie dénombrable (par exemple E = R [x] muni du produit scalaire (P, Q) 1 0 P (x) Q (x) dx.). On se donne une base orthonormée (e n ) n N (le procédé de Gram-Schmidt vu au paragraphe 47.4 nous permet de construire une telle base) et on dénit l'endomorphisme u par u (e n ) = e n+1 pour tout entier n x n x n x n 0. Pour x = x k e k dans E, on a u (x) = x k e k+1 et u (x) = x k = x, k=0 donc u est une isométrie. Comme Im (u) = Vect {e k k N } = E, cette application n'est pas surjective. Remarque 19.6 On peut donner, dans un espace préhilbertien, la dénition suivante d'une isométrie : une isométrie est un automorphisme qui conserve la norme et dans ce cas O (E) est un sous-groupe de GL (E). De l'injectivité et de la conservation de l'orthogonalité par une isométrie, on déduit le résultat suivant. Théorème 19.6 Soit u une isométrie de E. Si F est un sous-espace vectoriel de E stable par u, alors son orthogonal F est aussi stable par u. Démonstration. Comme u est injective, on a dim (u (F )) = dim (F ) et avec u (F ) F, on déduit que u (F ) = F. Pour x F et y F, on a : donc u (x) (u (F )) = F. k=0 u (x) u (y) = x y = 0 Remarque 19.7 Le théorème précédent est encore valable pour F sous-espace de dimension nie d'un espace préhilbertien E. Théorème 19.7 Soient B = (e i ) 1 i n une base orthonormée de E et u une application linéaire de E dans E. L'application u est une isométrie si, et seulement si, elle transforme B en une base orthonormée de E. Démonstration. Supposons que u O (E). Avec u (e i ) u (e j ) = e i e j = δ ij pour 1 i, j n, on déduit que u (B) = (u (e i )) 1 i n est orthonormé. Il en résulte que u (B) est libre et c'est une base puisque formé de n = dim (E) vecteurs. Réciproquement supposons que u L (E) transforme B en une base orthonormée de E. On a alors pour tout x = n x i e i dans E : et u O (E). u (x) n = x i u (e i ) = n x i = x k=0

Symétries orthogonales dans les espaces euclidiens 487 Théorème 19.8 O (E) est une partie compacte de L (E). Démonstration. Pour toute isométrie u O (E), on a u (x) = x pour tout vecteur x et donc u = 1, c'est-à-dire que O (E) est contenu dans la sphère unité de L (E), c'est donc une partie bornée. Si (u p ) p N est une suite d'éléments de O (E) qui converge vers u L (E), pour tout x E, on a alors : u (x) u p (x) = (u u p ) (x) u u p x 0 p + donc lim p + u p (x) = u (x) et : u (x) = lim u p (x) = lim x = x p + p + et u O (E). L'ensemble O (E) est donc fermé L (E). En dénitive O (E) est fermé borné dans L (E), ce qui équivaut à dire qu'il est compact puisque L (E) est un espace normé de dimension nie. 19.4 Symétries orthogonales dans les espaces euclidiens Pour tout sous-espace vectoriel F de E, on note p F la projection orthogonale sur F (voir le paragraphe 47.5. Dénition 19.5 Si F est un sous-espace vectoriel de E, la symétrie orthogonale par rapport à F est l'application dénie sur E par : (gure 19.1). x E, s F (x) = p F (x) p F (x). p F (x) x p F (x) s F (x) Figure 19.1 Comme les applications p F et p F, l'application s F est linéaire. Remarque 19.8 Pour F = {0}, on a s F = Id et pour F = E, s F = Id. On supposera a priori que F distinct de {0} et de E (F est un sous-espace vectoriel propre de E).

488 Espaces vectoriels euclidiens. Groupe orthogonal De p F + p F = Id, on déduit que s F est aussi dénie par : x E, s F (x) = p F (x) x = x p F (x). Si D = Ra est une droite vectorielle, on a alors : Si H = D est un hyperplan, on a alors : x a s D (x) = p D (x) x = a a x. x a s H (x) = p H (x) x = x a a. Dénition 19.6 On appelle réexion une symétrie orthogonale par rapport à un hyperplan et demi-tour ou retournement une symétrie orthogonale par rapport à une droite. Exercice 19.3 Soient a un vecteur non nul dans E, α un réel et u l'application linéaire dénie par : x E, u (x) = x + α x a a Déterminer les valeurs de α pour lesquelles u est une isométrie. Solution 19.3 Pour α = 0, u est l'identité et c'est une isométrie. Pour α 0 et x E, on a : u (x) = x a a α + x a α + x Si u est une isométrie, on a alors u (x) = x pour tout x E, ce qui équivaut à : x a ( a α + ) = 0 ou encore à a α + = 0 et donne α = a. Réciproquement, si α =, l'application u est dénie par : a x E, u (x) = x x a a a et u est la réexion par rapport à l'hyperplan orthogonal au vecteur a. Exercice 19.4 Soient a un vecteur non nul dans E, α un réel et u l'application linéaire dénie par : x E, u (x) = α x a a x Déterminer les valeurs de α pour lesquelles u est une isométrie. Solution 19.4 Pour α = 0, u est l'homothétie de rapport 1 (u = Id) et c'est une isométrie. Pour α 0 et x E, on a : u (x) = x a a α x a α + x

Symétries orthogonales dans les espaces euclidiens 489 Si u est une isométrie, on a alors u (x) = x pour tout x E, ce qui équivaut à : x a ( a α ) = 0 ou encore à a α = 0 et donne α = a. Réciproquement, si α =, l'application u est dénie par : a x E, u (x) = x a a a x et u est le demi-tour par rapport à la droite dirigée par a. Des propriétés des projections orthogonales, on déduit le résultat suivant. Théorème 19.9 Soit F un sous espace vectoriel de E. 1. Pour x E, on a x F si, et seulement si, s F (x) = x et x F si, et seulement si, s F (x) = x.. s F s F = Id (s F est involutive). Une symétrie orthogonale est donc un automorphisme de E avec s 1 F = s F. 3. Pour tous x, y dans E, on a : (s F est auto-adjoint). 4. Pour tous x, y dans E, on a : s F (x) y = x s F (y) s F (x) s F (y) = x y (s F est une isométrie). 5. On a s F + s F = 0 et s F s F = s F s F = Id. 6. Si F est de dimension p {1,(, n 1}, il ) existe alors une base orthonormée de E dans Ip 0 laquelle la matrice de s F est et det (s 0 I F ) = ( 1) n p. n p Démonstration. 1. On a : et :. On a : x F p F (x) = x s F (x) = x x F p F (x) = x s F (x) = x s F s F = (p F p F ) (p F p F ) = p F p F p F p F p F p F + p F p F = p F + p F = Id

490 Espaces vectoriels euclidiens. Groupe orthogonal 3. On a : 4. On a : 5. On a : et : s F (x) y = p F (x) y x y = x p F (y) x y = x p F (y) x y = x s F (y) s F (x) s F (y) = x s F s F (y) = x y s F + s F = (p F p F ) + (p F p F ) = 0 s F s F = (p F p F ) (p F p F ) = p F p F p F p F p F p F + p F p F = p F p F = Id. 6. Il sut de se placer dans une base formée de la réunion d'une base orthonormée de F et d'une base orthonormée de F. Exemple 19.3 Si s H est une réexion, on a det (s H ) = 1 et si s D est un demi-tour, on a det (s D ) = ( 1) n 1. Théorème 19.10 Pour n = dim (E), le groupe O (E) est engendré par l'ensemble des réexions. Précisément, toute isométrie de E peut s'écrire comme le produit d'au plus n ré- exions. Démonstration. On procède par récurrence sur n. Pour n =, pour toute rotation ρ O + (E) et toute réexion σ O (E), on a det (σ ρ) = 1, donc σ 1 = σ ρ est une réexion (voir le paragraphe 1.1), ce qui nous donne ρ = σ 1 σ 1 = σ σ 1 et ρ est produit de deux réexions. Les isométries négatives étant des réexions, on en déduit que toute isométrie de E est produit d'une ou deux réexions. Supposons le résultat acquis pour les espaces euclidiens de dimension n 1 et soit u O (E) avec E de dimension n. Si u = Id, elle s'écrit u = σ, où σ est une réexion quelconque. Si u Id, il existe un vecteur non nul x tel que u (x) x. On désigne alors par H l'hyperplan orthogonal à u (x) x et par σ H la réexion par rapport à H. Comme u (x) x H, on a σ H (u (x) x) = x u (x). De plus, avec : u (x) x u (x) + x = u (x) x = 0 on déduit que u (x) + x H et σ H (u (x) + x) = u (x) + x, ce qui nous donne : σ H (x) = σ H (u (x) + x) σ H (u (x) x) = u (x) soit σ H (x) = u (x) (H est l'hyperplan médiateur de x et u (x)) et σ H u (x) = x, c'est-à-dire que l'isométrie σ H u laisse stable la droite D dirigée par x et aussi l'hyperplan D. La restriction de σ H u à D s'écrit alors comme le produit σ 1 σ p de p réexions de D avec 1 p n 1. Les applications σ 1,, σ p dénies par σ k (x) = σ k (x) pour x D et σ k (x) = x pour x D sont alors des réexions de E telles que σ H u = σ 1 σ p et u = σ H σ 1 σ p. Remarque 19.9 Dans le cas où E est de dimension 1, on a O (E) = { Id, Id}, σ = Id étant l'unique réexion avec σ = Id et O (E) est engendré par { Id}.

Matrices réelles orthogonales 491 19.5 Matrices réelles orthogonales Le théorème 19.7 va nous donner une caractérisation des matrices d'isométries dans une base orthonormée de E. En munissant R n de sa structure euclidienne canonique et en notant pour toute matrice réelle A = ((a ij )) 1 i,j n par C j = (a ij ) 1 i n R n la colonne numéro j {1,, n} de A, on a : t AA = ((α ij )) 1 i,j n avec : α ij = ( ligne i de t A ) (colonne j de A) = t C i C j a 1j n = (a 1i,, a ni ). = a ki a kj = C i C j. a k=1 nj De plus si B = (e i ) 1 i n est une base orthonormée de E, en notant pour tout x = n x i e i dans E, X = (x i ) 1 i n R n le vecteur colonne formé des composantes de X dans B, on a pour tous x, y dans E : n x y = x k y k = X Y le produit scalaire de gauche étant celui de E et celui de droite celui de R n. k=1 Théorème 19.11 Soient B = (e i ) 1 i n une base orthonormée de E et u une application linéaire de E dans E de matrice A dans B. L'application u est une isométrie si, et seulement si, t AA = A t A = I n. Démonstration. Supposons que u O (E). En notant t AA = ((α ij )) 1 i,j n et en utilisant les notations qui précèdent, on a, pour 1 i, j n : α ij = C i C j = u (e i ) u (e j ) = e i e j = δ ij ce qui signie que t AA = I n. La matrice A est donc inversible d'inverse t A et en conséquence, on a aussi A t A = I n. Réciproquement, si t AA = A t A = I n, on a alors pour 1 i, j n : u (e i ) u (e j ) = C i C j = δ ij ce qui signie que u (B) est une base orthonormée de E et u O (E). Dénition 19.7 On appelle matrice orthogonale, une matrice réelle A telle que t AA = A t A = I n. On note O n (R) l'ensemble des matrices orthogonales. Il revient au même de dire qu'une matrice orthogonale est une matrice inversible A d'inverse t A. Le théorème précédent nous dit qu'une application linéaire u de E dans E est une isométrie si, et seulement si, sa matrice dans une base orthonormée quelconque de E est orthogonale. Mais attention, ce résultat est faux pour une base non orthonormée. Par exemple l'application (x, y) ( x, y) est orthogonale et sa matrice dans la base ( ) ( ) 1 1 A = est non orthogonale ( 0 1 t AA = I 5 ). (( 1 0 ), ( 1 1 )) est

49 Espaces vectoriels euclidiens. Groupe orthogonal Théorème 19.1 Pour toute matrice A dans O n (R), on a det (A) = ±1 et O n (R) est un sous-groupe de GL n (R). Démonstration. De det (A) = det ( t A) pour toute matrice A M n (R) et t AA = A t A = I n pour A O n (R), on déduit que (det (A)) = 1 et det (A) = ±1. Il en résulte que O n (R) GL n (R). Comme I n O n (R) et pour A, B dans O n (R), on a : ( A 1 ) 1 = ( t A ) 1 = t A 1 (AB) 1 = B 1 A 1 = t B t A = t (AB) on en déduit que O n (R) est un sous-groupe de GL n (R). On note : O + n (R) = {A O n (R) det (A) = 1} O n (R) = {A O n (R) det (A) = 1} et on dit que les éléments de O + n (R) sont les matrices orthogonales positives et les éléments de O n (R) sont les matrices orthogonales négative. On rappelle que si A = ((a ij )) 1 i,j n est une matrice carrée d'ordre n, la matrice des cofacteurs de A est la matrice C = ((c ij )) 1 i,j n, où c ij = ( 1) i+j det (A ij ) en notant A ij la matrice carrée d'ordre n 1 déduite de A en supprimant la ligne numéro i et la colonne numéro j. On a alors : A tc = t C A = det (A) I n et dans le cas où A est inversible, A 1 = 1 det (A) Théorème 19.13 Si A O + n (R) [resp. A O n (R)], on a alors A = C [resp. A = C], où C est la matrice des cofacteurs de A. Démonstration. Résulte de : pour A O ± n (R). A 1 = 1 det (A) t C. t C = ± t C = t A 19.6 Isométries directes, indirectes Théorème 19.14 Pour toute isométrie u O (E), on a det (u) = ±1. Démonstration. On a det (u) = det (A) où A est la matrice de u dans une base orthonormée et u O (E) si, et seulement si, A O n (R), ce qui entraîne det (A) = ±1. On note : O + (E) = {u O (E) det (u) = 1} O (E) = {u O (E) det (u) = 1} et on dit que les éléments de O + (E) sont les automorphismes orthogonaux positifs ou les isométries directes ou les rotations vectorielles et les éléments de O (E) sont des automorphismes orthogonaux négatifs.

Réduction des endomorphismes orthogonaux 493 Théorème 19.15 O + (E) [resp. O + n (R)] est un sous-groupe distingué de O (E) [resp. de O n (R)] d'indice. Démonstration. Voir l'exercice 1.9. Comme le déterminant d'une réexion vaut 1 et celui d'une isométrie directe vaut 1, le théorème 19.10 nous dit que toute isométrie directe est produit d'un nombre pair de réexions et toute isométrie indirecte est produit d'un nombre impair de réexions. De ce théorème, on peut aussi déduire le résultat suivant. Théorème 19.16 Les composantes connexes de O (E) sont O + (E) et O (E). Démonstration. Il s'agit de montrer que O + (E) et O (E) sont connexes dans L (E). Pour ce faire, on remarque que l'application φ x qui associe à tout vecteur x S 1 (la sphère unité de E) la réexion s x par rapport à l'hyperplan H x = (Rx) est continue. On rappelle que cette réexion est dénie par s x (y) = y x y x et pour tous x, x dans S 1 et tout y E, on a : s x (y) s x (y) = x y x x y x = x x y x + x y (x x ) x x y + x y x x x x y + y x x = 3 x x y ce qui nous dit que s x s x 3 x x. L'application x s x est donc continue de S 1 dans L (E) et il en est de même de l'application : φ : (S 1 ) n L (E) (x 1,, x n ) s x1 s xn En eet, pour x = (x 1,, x n ), x = (x 1,, x n) dans (S 1 ) n et y E, on a : φ (x) (y) φ (x ) (y) = s x (y) s x (y) 3 n x 1 x 1 x n x n y et φ (x) φ (x ) 3 n ( x 1 x 1 x n x n. Comme S 1 est connexe, il en est de même de (S 1 ) n et O + (E) = φ (S 1 ) n) est connexe comme image d'un connexe par une application continue. On procède de manière analogue pour O (E) en utilisant l'application ψ : (x 1,, x n+1 ) s x1 s xn+1. Avec le corollaire 19., on propose une autre démonstration de ce résultat. 19.7 Réduction des endomorphismes orthogonaux On sait déjà que le déterminant d'une isométrie vaut ±1. Pour ce qui est des valeurs propres réelles, on a le résultat suivant. Lemme 19.1 Les seules valeurs propres réelles possibles d'une isométrie sont 1 et 1. Démonstration. Si λ est une valeur propre réelle de u O (E) et x E un vecteur propre associé unitaire, de l'égalité u (x) = x, on déduit alors que λ = ±1.

494 Espaces vectoriels euclidiens. Groupe orthogonal Lemme 19. Soit u O (E). Il existe des sous espaces vectoriels de E, P 1,, P r, de dimension égale à 1 ou, deux à deux orthogonaux, stables par u et tels que E = r P j. j=1 Démonstration. On procède par récurrence sur la dimension n 1 de E. Pour n = 1 ou, le résultat est évident. Supposons le acquis pour tout endomorphisme orthogonal sur un espace vectoriel euclidien de dimension p comprise entre 1 et n 1, avec n 3. Si P 1 est un sous espace vectoriel de E non réduit à {0} de dimension au plus égale à stable par u O (E) (lemme 17.7) alors P1 est stable par u (théorème 19.6). Comme 1 n dim ( ) P1 n 1, on peut trouver des sous espaces vectoriels de E, P,, P r, de dimension au plus, deux à deux orthogonaux et stables par la restriction de u à P1, donc par u, tels que P1 = r P j. On a alors E = P 1 P1 = r P j. j= j=1 Dans le cas où n ( =, la forme ) des matrices orthogonales est particulièrement simple (théorème 1.1) : si A = O a b c d (R), il existe alors un unique réel θ [0, π[ tel que : ( ) ( ) cos (θ) sin (θ) cos (θ) sin (θ) A = ou A = sin (θ) cos (θ) sin (θ) cos (θ) et dans le deuxième cas, A est orthogonalement semblable à vérier avec : ( ( cos θ ) ( sin θ ) sin ( ) θ cos ( ) θ ( 1 0 0 1 ), ce que l'on peut ) ( ) ( ( 1 0 cos θ ) sin ( ) ) ( ) θ 0 1 sin ( ( θ ) cos θ ) cos (θ) sin (θ) = sin (θ) cos (θ) On peut aussi dire que A est symétrique et orthogonale, donc A = A t A = I n et elle est diagonalisable puisque annulée par X 1 qui( est scindé ) à racines simples dans R. Comme 1 0 A ±I n, elle est orthogonalement semblable à. 0 1 Théorème 19.17 Soit u O (E) avec n. Il existe une base orthonormée B de E dans laquelle la matrice de u s'écrit : I p 0 0 0 0 0 I q 0. 0 0 R D = 1 0 0 0 0 R 0. 0 0 0 0 0 R r où, pour tout k {1,, r}, on a noté : ( cos (θk ) sin (θ R k = k ) sin (θ k ) cos (θ k ) ) avec θ k ]0, π[ {π} et p, q, r sont des entiers naturels tels p + q + r = n (si l'un de ces entiers est nul, les blocs de matrices correspondants n'existent pas).

Réduction des endomorphismes orthogonaux 495 Démonstration. On procède par récurrence sur la dimension n de E. Pour n =, c'est fait avec le lemme précédent. Supposons le résultat acquis pour les endomorphismes orthogonaux sur les espaces euclidiens de dimension p comprise entre et n 1 et soit u O (E) avec n = dim (E) 3. Si u admet 1 ou 1 comme valeur propre, pour tout vecteur propre unitaire e 1 associé à cette valeur propre, le sous espace vectoriel H = (Rx) est stable par u (pour y H, on a u (y) e 1 = ± u (y) u (e 1 ) = ± y e 1 = 0) et il existe alors une base orthonormée B 1 de H dans laquelle la matrice de la restriction de u à H est de la forme : I p 0 0 0 0 0 I q 0. 0 0 R A 1 = 1 0 0. 0 0 R 0. 0 0 0 0 0 R r ( ) ±1 0 Dans la base orthonormée {e 1 } B 1 la matrice de u est A =, qui se ramène 0 A 1 bien à la forme souhaitée en permutant au besoin e 1 avec l'un des vecteurs de B 1. Si toutes les valeurs propres de u sont complexes non réelles, on a alors une décomposition E = r P k où les P k sont de dimension deux à deux orthogonaux et stables par u. L'étude du k=1 cas n = nous dit alors qu'il existe, pour tout k compris entre 1 et r, une base orthonormée B k de P k dans laquelle la matrice de u est de la forme : ( ) cos (θk ) sin (θ R k = k ), sin (θ k ) cos (θ k ) avec θ k ]0, π[ {π} (la restriction de u à P k est dans O (P k )). En réunissant toutes ces bases, on obtient une base orthonormée de E dans laquelle la matrice de u est : R 1 0 0 0 R A =.. 0. 0 0 R r Remarque 19.10 On a p = dim (ker (u Id)) et q = dim (ker (u + Id)) avec p + q + r = n. De plus u O + (E) [resp. u O (E)] si et seulement si q est pair [resp. impair]. Corollaire 19.1 Soit A O n (R) avec n. Il existe une matrice P O n (R) telle que : I p 0 0 0 0 0 I q 0. t 0 0 R P AP = 1 0 0, 0 0 R 0. 0 0 0 0 0 R r

496 Espaces vectoriels euclidiens. Groupe orthogonal Démonstration. A est la matrice dans la base canonique R n d'un endomorphisme orthogonal u et la matrice de passage P de la base canonique à une base orthonormée dans laquelle la matrice de u à la forme indiquée est orthogonale, donc telle que P 1 = t P. Exercice 19.5 Soit G un sous-ensemble de O (E). Montrer que s'il existe m N tel que u m = Id pour tout u G (dans le cas où G est un groupe, on dit qu'il est d'exposant ni), alors l'ensemble : tr (G) = {tr (u) u G} est ni. Solution 19.5 On sait qu'il existe une base orthonormée de E dans laquelle la matrice de u G est diagonale par blocs de la forme : D = diag (I p, I q, R 1,, R r ) ( ) cos (θk ) sin (θ où R k = k ) avec θ sin (θ k ) cos (θ k ) k ]0, π[ {π}. Dans le cas où toutes les matrices des éléments de G sont de la forme diag (I p, I q ), on a : tr (G) { p q (p, q) N et p + q = n } et cet ensemble est ni. S'il existe u G et une base orthonormée dans laquelle la matrice de u est de la forme D = diag (I p, I q, R 1,, R r ), alors la matrice de u m dans cette base : D m = diag (I p, ( 1) m I q, R (mθ 1 ),, R (mθ r )) et la condition u m = Id impose mθ k ]0, mπ[ πz, ce qui entraîne que les θ k ne prennent qu'un nombre ni de valeurs et : { } r tr (G) p q + cos (θ k ) p + q + r = n, mθ k ]0, mπ[ πz est ni. k=1 Le théorème de réduction des endomorphismes orthogonaux nous permet de retrouver le théorème 19.16. Corollaire 19. Les composantes connexes de O (E) sont les fermés O + (E) et O (E). Démonstration. Montrons que O + (E) est connexe par arcs (donc connexe) dans L (E). Soient u O + (E) et B = (e i ) 1 i n une base orthonormée de E dans laquelle la matrice de u est de la forme : I p 0 0 0 0 I q 0. D = 0 0 R (θ 1 ) 0,. 0 0 0 0 R (θ r )

Réduction des endomorphismes orthogonaux 497 ( ) cos (θk ) sin (θ où pour tout k {1,, r}, R (θ k ) = k ) avec θ sin (θ k ) cos (θ k ) k dans ]0, π[ {π}. Comme u O + (E), on a det (u) = 1, donc q est pair et la matrice D peut s'écrire : I p 0 0 D = 0 D 1 0, 0 0 D avec : R (α 1 ) 0 0 R (θ 1 ) 0 0 0 R (α D 1 = ).. 0, D 0 R (θ = ).. 0, 0 0 R (α q ) 0 0 R (θ r ) avec α j = π pour tout j. Pour tout t [0, 1], on désigne par γ (t) l'isométrie directe de matrice dans B : I p 0 0 D (t) = 0 D 1 (t) 0 0 0 D (t) où : D 1 (t) = D (t) = R (tα 1 ) 0 0 0 R (tα ).. 0, 0 0 R (tα q ) R (tθ 1 ) 0 0 0 R (tθ ).. 0, 0 0 R (tθ r ) L'application γ dénit alors un chemin continu dans O + (E) qui relie Id et u. Ce qui sut à prouver la connexité par arcs de O + (E). ( ) Pour toute isométrie indirecte v O In 1 0 (E) (par exemple v de matrice dans 0 1 une base orthonormée B), l'application u v u réalisant un homéomorphisme de O + (E) sur O (E), on en déduit alors que O (E) est aussi connexe par arcs. On a O (E) = O + (E) O (E), avec O + (E) et O (E) fermés (images réciproques de 1 et 1 respectivement par l'application déterminant) connexes disjoints dans O (E). Ce sont donc les composantes connexes de O (E).

498 Espaces vectoriels euclidiens. Groupe orthogonal