LES ROTATIONS DE R 3 : VERSION MATRICIELLE



Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Cours d Analyse. Fonctions de plusieurs variables

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Exercices Corrigés Premières notions sur les espaces vectoriels

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Chapitre 2. Matrices

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Fonctions de plusieurs variables

Structures algébriques

Calcul intégral élémentaire en plusieurs variables

Le produit semi-direct

1 Complément sur la projection du nuage des individus

Programmation linéaire et Optimisation. Didier Smets

Calcul différentiel sur R n Première partie

3 Approximation de solutions d équations

DOCM Solutions officielles = n 2 10.

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Résolution de systèmes linéaires par des méthodes directes

NOTATIONS PRÉLIMINAIRES

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Cours d analyse numérique SMI-S4

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

I. Polynômes de Tchebychev

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Correction de l examen de la première session

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Limites finies en un point

Fonctions de plusieurs variables

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Cours de Mécanique du point matériel

CHAPITRE 10. Jacobien, changement de coordonnées.

Simulation de variables aléatoires

[ édité le 30 avril 2015 Enoncés 1

Problème 1 : applications du plan affine

Cours 02 : Problème général de la programmation linéaire

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

Représentation géométrique d un nombre complexe

Programme de la classe de première année MPSI

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

Vecteurs. I Translation. 1. Définition :

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Capes Première épreuve

Géométrie dans l espace Produit scalaire et équations

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

Chapitre 0 Introduction à la cinématique

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Optimisation, traitement d image et éclipse de Soleil

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Théorème du point fixe - Théorème de l inversion locale

F411 - Courbes Paramétrées, Polaires

1 Définition et premières propriétés des congruences

Calcul différentiel. Chapitre Différentiabilité

Université Paris-Dauphine DUMI2E 1ère année, Applications

Pour l épreuve d algèbre, les calculatrices sont interdites.

Chapitre 2 Le problème de l unicité des solutions

Fonctions de plusieurs variables. Sébastien Tordeux

Résumé du cours d algèbre 1, Sandra Rozensztajn. UMPA, ENS de Lyon, sandra.rozensztajn@ens-lyon.fr

Introduction à l étude des Corps Finis

1S Modèles de rédaction Enoncés

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Continuité en un point

3. Conditionnement P (B)

NOMBRES COMPLEXES. Exercice 1 :

Approximations variationelles des EDP Notes du Cours de M2

Exercice 1 Trouver l équation du plan tangent pour chaque surface ci-dessous, au point (x 0,y 0,z 0 ) donné :

aux différences est appelé équation aux différences d ordre n en forme normale.

Angles orientés et trigonométrie

Différentiabilité ; Fonctions de plusieurs variables réelles

Programmes des classes préparatoires aux Grandes Ecoles

Angles orientés et fonctions circulaires ( En première S )

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

I. Ensemble de définition d'une fonction

Premiers exercices d Algèbre. Anne-Marie Simon

Chapitre VI Fonctions de plusieurs variables

Cours de mathématiques

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

Programmation linéaire

DURÉE DU JOUR EN FONCTION DE LA DATE ET DE LA LATITUDE

1 Définition. 2 Systèmes matériels et solides. 3 Les actions mécaniques. Le système matériel : Il peut être un ensemble.un sous-ensemble..

Cours 7 : Utilisation de modules sous python

Dérivées d ordres supérieurs. Application à l étude d extrema.

Mathématiques appliquées à l'économie et à la Gestion

Corrigé du baccalauréat S Asie 21 juin 2010

Intégration et probabilités TD1 Espaces mesurés Corrigé

Chapitre. Chapitre 12. Fonctions de plusieurs variables. 1. Fonctions à valeurs réelles. 1.1 Définition. 1.2 Calcul de dérivées partielles

Transcription:

LES ROTATIONS DE R : VERSION MATRICIELLE. L espace R n Les structures dont R n est muni appartiennent à quatre niveaux : Structure vectorielle: Vecteur. Combinaison linéaire. Familles libres et liées. Sousespaces vectoriels et affines. Base. Dimension. Matrice associée à une application linéaire. Le groupe linéaire général GL n (R. Structure euclidienne: Produit scalaire. Norme euclidienne. Angle non signé entre vecteurs. Orthogonalité. Bases orthogonales et orthonormées. Isométries. Symétries orthogonales. Rotations. Projections orthogonales. Le groupe orthogonal O n (R. Structure orientée: Déterminant. Aire et volume signés. Eléments d aire et de volume pour les intégrales multiples. Orientation. Bases directes et indirectes. Le groupe linéaire spécial SL n (R. Structure euclidienne orientée: Angle signé entre vecteurs dans R. Produit vectoriel dans R. Bases orthonormées directes. Rotations d un angle signé donné. Le groupe orthogonal spécial SO n (R. Notre étudierons les rotations. En principe elles apparaissent déjà au niveau de la structure euclidienne de R ou R. Mais pour distinguer entre les rotations d angle θ et d angle θ on a besoin d orientations aussi. Rappelons les produits scalaire et vectoriel, le déterminant (de matrices et et quelques autres notions liées. Le produit scalaire de deux vecteurs u = (u, u, u et v = (v, v, v dans R est u v = u v + u v + u v. (. Ce produit est bilinéaire, c est à dire pour u, v, w R et r R on a ( u + v w = u w + v w, u ( v + w = u v + u w, (r u w = r( u w, u (r v = r( u v. C est aussi symétrique, c-à-d vérifiant u v = v u. La norme euclidienne d un vecteur est u = u u = u + u + u. (. Pour r un réel on a r u = r u. On a u 0 pour tout u R, et on a u > 0 pour tout u 0. On a les inégalités de Cauchy-Schwarz et du triangle u v u v, u + v u + v. (. L inégalité de Cauchy-Schwarz permet de définir l angle entre deux vecteurs non nuls par 0 θ π et u v cos θ = u v. (.4

LES ROTATIONS DE R : VERSION MATRICIELLE Deux vecteurs u et v sont orthogonaux s ils vérifient u v = 0, ou équivalemment si l angle entre eux est θ = π. Définition.. Une base orthogonale de R est une famille de trois vecteurs { u, v, w} non nuls avec u v = u w = v w = 0. (. Une telle famille est toujours libre et ainsi une base de R. Une base orthonormée de R est une famille de trois vecteurs { u, v, w} avec u = v = w =, u v = u w = v w = 0. (.6 C est une base orthogonale dont tous les membres sont de norme. La base canonique de R est orthonormée. Nous la noterons i, j, k avec i = (, 0, 0, j = (0,, 0, k = (0, 0,. (.7 La base canonique de R, notée i = (, 0, j = (0, est aussi orthonormée. Il y a une infinité d autres bases orthonormées. Par exemple u = (,, 0, u = (,,, u = 6 (,, (.8 est orthonormée parce qu on a bien u i u j = 0 pour tout i j mais u i u i = pour tout i. Pour les mêmes raisons v = (,,, v = (,,, v = (,, (.9 est une base orthonormée de R. Les coordonnées d un vecteur par rapport à une base orthonormée sont particulièrement facile à calculer. Proposition.. Soit u, u, u une base orthonormée de R. Pour x R on a x = a u + a u + a u avec a i = u i x pour i =,,. Donc par exemple pour x = (,, et la base orthonormée u, u, u de (.8 on a u x = et u x = et u x = 6. Donc on a x = u + u 6 u par la proposition.. Pour le même x = (,, et la base orthonormée v, v, v de (.9 on a v x = et v x = et v x =. Donc on a x = v + v + v par la proposition.. Preuve de la proposition.. Comme u, u, u est une base de R il existe a, a, a tels qu on ait x = a u + a u + a u. On a alors u x = u (a u + a u + a u = a ( u u + a ( u u + a ( u u = a + a 0 + a 0 = a. On a similairement u x = a 0+a +a 0 = a et on a u x = a 0+a 0+a = a. Le produit scalaire se calcule en utilisant les coördonnées par rapport à une base orthonormée quelconque. Proposition.. Soit { u, v, w} une base orthonormée de R et x = a u + a v + a w et y = b u + b v + b w des vecteurs. Alors on a x y = a b + a b + a b.. L argument est le suivant. Soit u, v, w des vecteurs non nuls vérifiant (., et soit r, s, t des réels avec r u + s v + t w = 0. Alors on a 0 = u 0 = u (r u + s v + t w = r u. Mais on a u 0 et ainsi u > 0. D où r = 0. En faisant les produits scalaires de r u + s v + t w = 0 avec v 0 et w 0, on déduit s = 0 et t = 0.

Preuve. On développe LES ROTATIONS DE R : VERSION MATRICIELLE x y = (a u + a v + a w (b u + b v + b w = a b u u + a b u v + a b u w + a b v u + a b v v + a b v w + a b w u + a b w v + a b w w = a b + a b 0 + a b 0 + a b 0 + a b + a b 0 + a b 0 + a b 0 + a b = a b + a b + a b. Définition.4. Le supplément orthogonal d un sous-espace vectoriel E R est E = { v R e v = 0 pour tout e E}. Par exemple ( R(,, = {(x, y, z R r(,, (x, y, z = 0 pour tout r R} = {(x, y, z R x + y + z = 0}. Plus généralement, pour un vecteur (a, b, c dans R on ( R(a, b, c = {(x, y, z R r(a, b, c (x, y, z = 0 pour tout r R} = {(x, y, z R ax + by + cz = 0}. C est à dire, le supplément orthogonal de la droite vectorielle engendrée par (a, b, c est le plan vectoriel d équation ax + by + cz = 0. Proposition.. Soit { u, v, w} une base orthonormée de R. Alors on a ( R u = R v + R w, ( R v + R w = R u. (.0 Preuve. Exercice.. Le déterminant, le produit vectoriel, et orientations Définition.. Le déterminant d une matrice est ( u v det = u v u v u v = u v u v. (. Notation. Quand on entoure un tableau rectangulaire de parenthèses ( [ ] ou de crochets c est une matrice. Quand on entoure un tableau carré de lignes verticales, c est un déterminant. Noter que quand on permute les deux colonnes de la matrice son déterminant change de signe. Idem quand on permute les deux lignes v u v u = v u v u = u v u v, u v u v = u v u v. Le déterminant d une matrice est apparu dans le premier cours d algèbre linéaire comme une quantité qui est 0 si et seulement si la matrice est inversible, et alors on a ( ( a b d b =. (. c d ad bc c a

4 LES ROTATIONS DE R : VERSION MATRICIELLE Définition.. Le produit vectoriel de u = (u, u, u et v = (v, v, v est ( u u v = (u v u v, u v u v, u v u v = v u v, u v u v, u v u v. (. Certains écrivent u v au lieu de u v. Le produit vectoriel est bilinéaire : il vérifie des formules analogues à (.. Il est antisymétrique dans le sens qu on a Le produit vectoriel vérifie aussi u v = v u, u u = 0. u ( u v = 0, v ( u v = 0, u v = u v sin θ. (.4 Les deux premières formules de (.4 se vérifient par substitution. Pour la troisième on vérifie la formule u v = u v ( u v par substitution. Par (.4 on a donc avec θ dans un intervalle où sin θ 0. u v = u v ( cos θ = u v sin θ Proposition.. Une famille { u, v} de deux vecteurs dans R est libre si et seulement si on a u v 0. Quand ceci est vérifié, le plan vectoriel orthogonal à u v est le plan engendré par u et v : R u + R v = { x R ( u v x = 0}. (. Preuve. Montrons que les vecteurs u, v sont liés ssi u v = 0. Il y a deux cas : (i Si u = 0 ou v = 0, alors u, v sont liés et satisfont à u v = 0. (ii Si u 0 et v 0, alors ils sont liés ssi il existe r R non nul avec u = r v. Et par (.4 ils satisfont à u v = 0 ssi on a sin θ = 0, qui signifie θ = 0 ou θ = π et donc u = r v avec r > 0 ou r < 0. Les deux conditions sont équivalentes. Les formules (.4 montrent qu on a ( u v (r u + s v = 0 pour tout r, s R. Donc on a l inclusion dans (.. Quand u, v sont libres et donc u v 0, l ensemble à gauche est un espace vectoriel de dimension, et l ensemble à droite est un sous-espace vectoriel de R ne contenant pas u v (on a ( u v ( u v = u v > 0. Donc l ensemble à droite est un sous-espace vectoriel de R de dimension <. Donc l inclusion est une égalité =. Proposition.4. Une famille { u, v, w} de trois vecteurs est une base orthonormée de R si et seulement si elle satisfait à u = v =, u v = 0, w = ± u v. (.6 Preuve. ( Pour trois vecteurs vérifiant (.6, l angle θ entre u et v vérifie 0 θ π et cos θ = 0 par la formule (.4. Par conséquent sin θ =. Les formules (.4 donnent les conditions manquantes de la définition d une base orthonormée u w = ± u ( u v = 0, v w = ± v ( u v = 0, w = ± u v = u v sin θ = =. ( Soit { u, v, w} une base orthonormée de R. Par le ( ci-dessus { u, v, u v} est une base orthonormée de R. Par conséquent w et u v sont tous les deux orthogonaux à u et à v et de norme. Ils sont donc des générateurs de norme de la droite vectorielle orthogonale au plan vectoriel R u + R v. Il y a exactement deux tels générateurs, qui sont opposés. Par conséquent w et u v sont égaux ou opposés.

LES ROTATIONS DE R : VERSION MATRICIELLE Définition.. Le déterminant d une matrice est det u v w u v w = u v w u v w + u v w u v w + u v w u v w. (.7 u v w Pour trois vecteurs u = (u, u, u, v = (v, v, v et w = (w, w, w de R notons P ( u, v, w = u v w u v w. u v w Donc (.7 est une formule pour det P ( u, v, w. En groupant les termes dans des différentes façons, on voit qu on a det P ( u, v, w = ( v w u = ( w u v = ( u v w. (.8 On en déduit que le déterminant est invariant quand on fait une permutation cyclique des colonnes det P ( u, v, w = det P ( v, w, u = det P ( w, u, v. En revanche l anti-symétrie du produit vectoriel implique que le déterminant change de signe quand on échange deux colonnes det P ( u, v, w = det P ( v, u, w = det P ( w, v, u = det P ( u, w, v. Proposition.6. Une famille de trois vecteurs { u, v, w} dans R est une base de R si et seulement si on a det P ( u, v, w 0. Preuve. Montrons que c est une base ssi ( u v w 0. C est équivalent par (.8. Les trois vecteurs sont libres ssi { u, v} est libre et w R u + R v. Par la proposition. ces conditions sont équivalentes à u v 0 et ( u v w 0. Et ces deux conditions sont équivalentes à la seule ( u v w 0. Définition.7. Une famille ordonnée de trois vecteurs { u, v, w} dans R est une base directe de R si on a det P ( u, v, w > 0. C est une base indirecte si on a det P ( u, v, w < 0. (C est une famille liée si on a det P ( u, v, w = 0. Proposition.8. Une base orthonormée { u, v, w} satisfaisant à w = u v dans (.6 est directe. Elle satisfait aussi à u = v w et v = w u. Une base orthonormée satisfaisant à w = u v est indirecte. Preuve. Une base orthonormée satisfaisant à (.6 avec w = u v vérifie det P ( u, v, w = ( u v w = w w =. Une base orthonormée avec w = u v vérifie det P ( u, v, w = w w =. La base canonique { i, j, k} avec i = (, 0, 0, j = (0,, 0, k = (0, 0, (.9 est une base orthonormée directe de R, ainsi que {(, 0, 0, (0, cos θ, sin θ, (0, sin θ, cos θ} Corollaire.9. Soit { u, v, w} une base orthonormée directe de R. Alors { v, w, u}, { w, u, v} sont aussi des bases orthonormées directes de R, comme aussi { u, v, w} et { v, u, w}. Mais { v, u, w}, { u, w, v}, { w, v, u}, { u, v, w} et { u, v, w} sont des bases orthonormées indirectes.

6 LES ROTATIONS DE R : VERSION MATRICIELLE Proposition.0. Soit u un vecteur de R avec u =. Alors il existe vecteurs v et w tels que { u, v, w} soit une base orthonormée directe de R. Preuve. On choisit un vecteur s = (x, y, z (0, 0, 0 avec u s = u x + u y + u z = 0, et on pose t = u s et puis v = s s et w = t. Cela suffit par la proposition.4. t Le produit vectoriel se calcule en utilisant les coördonnées par rapport à une base orthonormée directe quelconque. Proposition.. Soit { u, v, w} une base orthonormée directe de R et r = a u+a v+a w et s = b u + b v + b w des vecteurs. Alors r s = (a b a b u + (a b a b v + (a b a b w. Cette proposition se démontre par des substitutions comme la proposition. et en utilisant les formules u v = w, v w = u et w u = v de la proposition.8. Maintenant regardons les matrices A M (R qui induisent des isométries linéaires sur R. Définition.. La transposée d une matrice A est la matrice t A obtenue en échangeant les lignes et les colonnes de A. C est à dire si A = (a ij et t A = (b ij avec a ij et b ij les coefficient dans la i-ème ligne et j-ème colonne, alors on a b ij = a ji. Par exemple A = 0 0, 0 0 t A = 0 0 0. 0 Quand on travaille avec ( des matrices, souvent on identifie les vecteurs u = (u, u, u R u avec les colonnes u =. Le produit scalaire devient u u v = u v + u v + u v = ( u u u v = t uv (.0 Pour les produits de matrices on a v v t (AB = t B t A (. parce que le coefficient dans la i-ème ligne et j-ème colonne de t (AB comme de t B t A est le produit (scalaire de la j-ème ligne de A et de la i-ème colonne de B. Les propriétés de base de déterminants sont les suivantes. Elles sont valables pour les déterminants de matrices carrées de toute taille, non seulement les déterminants de matrices et que nous traitons ici. Théorème.. (a Le déterminant d une matrice identité vaut : det I n =. (b Pour une matrice carrée A on a det A = det t A. (c Pour A et B des matrices carrées de la même taille, on a det AB = (det A(det B.

LES ROTATIONS DE R : VERSION MATRICIELLE 7 (d On a det A 0 ssi A est inversible. Ceci est aussi équivalent à ce que le système linéaire de n équations en n inconnus (pour A = (a ij a x + a x + + a n x n = b, a x + a x + + a n x n = b,. a n x + a n x + + a nn x n = b n. ait une solution unique (x,..., x n pour tout (b,..., b n. Quand A est inversible, on a det A = det A. Les parties (a et (b du théorème sont faciles à vérifier pour les matrices et à partir des formules (. et (.7. Pour les parties (c et (d voir les cours d algèbre linéaire.. Le groupe orthogonal O(n, R Définition.. Une matrice carrée A M n (R est orthogonale si elle satisfait à t AA = I n. La condition d être orthogonale s écrit aussi L ensemble t A = A. (. O(n, R = {A M n (R A est orthogonale} (. s appelle le groupe orthogonal. Le mot groupe signifie que O(n, R contient l identité I n et qu il est stable sous la multiplication de matrices et sous l inverse de matrices. (La loi de groupe est la multiplication de matrices. Voir le théorème.4. L ensemble est le groupe orthogonal spécial. SO(n, R = {A M n (R A est orthogonale et det A = } (. Théorème.. Une matrice à coefficients réels A = u v w u v w u v w est dans O(, R si et seulement si ses colonnes u, v, w forment une base orthonormée de R. Elle est dans SO(, R si et seulement si ses colonnes u, v, w forment une base orthonormée directe de R. Preuve. Les lignes de t A sont t u, t v et t w. Donc t u t uu t uv t uw t AA = t v u v w = t vu t vv t vw = u u u v u w v u v v v w t w t wu t wv t ww w u w v w w Cette matrice est égale à la matrice identité I si et seulement si u, v, w satisfont à u u = v v = w w =, u v = u w = v w = 0, (.4 qui sont les conditions (.6 définissant une base orthonormée. Donc A est orthogonale si et seulement si u, v, w est une base orthonormée.

8 LES ROTATIONS DE R : VERSION MATRICIELLE La matrice A est spéciale orthogonale si en plus det A = det(u, v, w est égal à. Mais cette condition caractérise les bases orthonormées qui sont directes (voir (.8. Par exemple les deux matrices A = 0 0 9 4 0 0, B = 6, 0 0 4 0 sont orthogonales parce que leurs colonnes u, v, w sont des bases orthonormées de R. Mais A n est pas dans SO(, R parce que pour ses colonnes on a w = u v. En revanche B est dans SO(, R parce que ses colonnes vérifient w = u v. Théorème.. Soit A M (R. Les conditions suivantes sont équivalentes : (a A est une matrice orthogonale. (b On a u v = Au Av pour tout u, v R. (c On a u = Au pour tout u R. Donc les matrices orthogonales sont les matrices des isométries linéaires, c est à dire des isométries fixant l origine. Elles préservent les normes de vecteurs et les angles entre vecteurs. Preuve. (a (b : Par les formules (.0 et (. on a u v = t u v = t u I v, Au Av = t (Au(Av = t u t AAv. Ces deux quantités sont égales pour tout u, v R si et seulement si on a I = t AA, ce qui caractérise les matrices orthogonales. (b (c : Les produits scalaires déterminent les normes et vice-versa par les formules u = u u u v = ( u + v u v. De cela on déduit facilement qu une matrice préserve les normes ssi elle préserve les produits scalaires. Théorème.4. (a La matrice I est dans O(, R. De plus, si A et B sont dans O(, R, alors A et AB sont dans O(, R. (b La matrice I est dans SO(, R. De plus, si A et B sont dans SO(, R, alors A et AB sont dans SO(, R. Preuve. (a On a t I I = I I = I. Donc on a I O(, R. De plus si on a t AA = I et t BB = I, alors on a t (ABAB = t B t AAB = t BI B = I. Donc si A et B sont dans O(, R alors AB est dans O(, R. Enfin si t AA = I alors A est inversible avec inverse A = t A, et donc on a aussi A t A = I. Mais comme tt A = A, on a alors tt A t A = I. D où, si A est dans O(, R, alors t A = A est aussi dans O(, R. (b La partie (b se déduit de la partie (a et du théorème.. Les détails sont laissés au lecteur.

LES ROTATIONS DE R : VERSION MATRICIELLE 9 4. Les isométries linéaires du plan R La distance euclidienne entre deux point x = (x,..., x n et y = (y,..., y n de R n est dist(x, y = x y = (x y + + (x n y n. Définition 4.. Une isométrie de l espace euclidien R n est une application f : R n R n telle que les distances euclidiennes satisfont à pour tout x, y dans R n. dist(x, y = dist(f(x, f(y Théorème 4.. Une application f : R n R n est une isométrie de l espace euclidien R n si et seulement si il existe A O(n, R and b R n tels qu on ait f(x = Ax + b pour tout x R n. C est à dire : Les isométries de l espace euclidien R n sont les compositions de translations y y + b et d applications linéaires x Ax associées à des matrices orthogonales A. Définition 4.. Une isométrie f(x = Ax+b de l espace euclidien R n est directe si la matrice A O(n, R satisfait à det A =, et c est indirecte si elle satisfait à det A =. Regardons maintenant les isométries linéaires du plan R. Ce sont les f(x = Ax avec A O(, R. Alors on a ( u v A = u v avec { u = (u, u, v = (v, v } une base orthonormée de R par l analogue pour n = du théorème.. Que { u, v} soit une base orthonormée de R signifie qu on a u + u =, v + v =, u v + u v = 0. (4. Rappelons qu un vecteur du plan a une forme polaire (x, y = (r cos θ, r sin θ. Les deux premières conditions sur u et v signifient alors qu il existe α et β avec u = (cos α, sin α et v = (cos β, sin β. La troisième condition est alors 0 = cos α cos β + sin α sin β = cos(α β. On trouve alors que α β ± π (mod πz. On a deux cas. Dans le premier cas β = α + π : On a u = (cos α, sin α et v = (cos β, sin β = (cos(α + π, sin(α + π = (cos α cos π sin α sin π, sin α cos π + cos α sin π = ( sin α, cos α. (4. parce qu on a (cos π, sin π = (0,. Dans ce cas la matrice est ( cos α sin α A = R α =. (4. sin α cos α On a det R α = donc l isométrie est directe. Dans le deuxième cas β = α π : On a u = (cos α, sin α et v = (cos β, sin β = (cos(α π, sin(α π = (cos α cos π + sin α sin π, sin α cos π cos α sin π = (sin α, cos α. (4.4

0 LES ROTATIONS DE R : VERSION MATRICIELLE Dans ce cas la matrice est On a det R α =, donc l isométrie est indirecte. ( cos α sin α A = S α =. (4. sin α cos α Théorème 4.4. Soit f : R R une isométrie linéaire directe dont la matrice est le R α de (4.. Alors f est la rotation d angle α centrée à l origine. Preuve. Ecrivons (x, y = (r cos θ, r sin θ. Alors f envoye ( ( ( ( r cos θ cos α sin α r cos θ r(cos α cos θ sin α sin θ = = r sin θ sin α cos α r sin θ r(sin α cos θ + cos α sin θ ( r cos(θ + α r sin(θ + α Donc la norme r du vecteur est inchangé, mais l action sur l argument est θ θ + α. C est l action de la rotation d angle α centrée à l origine. Théorème 4.. Soit g : R R une isométrie linéaire indirecte dont la matrice est le S α de (4.. Alors g est la symétrie orthogonale par rapport à la droite vectorielle D α/ = R(cos α, sin α. Preuve. Il faut montrer que la restriction de g à D α/ est Id Dα/, et que sa restriction au supplément orthogonal D α/ = R( sin α, cos α est Id D α/. Mais g envoye ( ( ( r cos α cos α sin α r cos α r sin α sin α cos α r sin α = et il envoye ( ( ( r sin α cos α sin α r sin α r cos α sin α cos α r cos α = ( r(cos α cos α + sin α sin α r(sin α cos α cos α sin α = ( r cos(α α r sin(α α = ( r(sin α cos α cos α sin α r(cos α cos α + sin α sin α = ( r sin(α α r cos(α α = ( r cos α r sin α ( r sin α r cos α. Donc c est bien l identité sur R(cos α, sin α, et Id sur son supplément orthogonal.. Les rotations dans R Il y a deux notions de rotations dans R n en utilisation. Pour les distinguer on les appelera rotations et isométries directes. Nous regarderons seulement les rotations linéaires, qui sont celles qui fixent l origine 0 = (0, 0,..., 0. On verra que les deux notions sont équivalentes pour R [et R ] mais pas pour R n avec n 4. Informellement : Rotation: Une rotation fixe un sous-espace (affine ou vectoriel de dimension n dans R n appelé l axe une droite dans R, ou un point dans R et agit sur les plans orthogonaux à l axe dans la même manière qu une rotation du plan. Isométrie directe: Une isométrie directe linéaire est une application linéaire f : R n R n correspondant à un changement du système de coordonnées des coordonnées usuelles (x, y, z (ou (x, x,..., x n vers les coordonnées par rapport à une base orthonormée directe de R n.

LES ROTATIONS DE R : VERSION MATRICIELLE Nous étudions les rotations dans R autour d axes passant par l origine 0 = (0, 0, 0. Ces rotations-là envoyent 0 0 et sont des applications linéaires de f : R R. Pour décrire une telle application linéaire, il suffit de choisir une base { u, v, w} de R et donner f( u, f( v et f( w parce qu un membre général de R s écrit r u + s v + t w avec r, s, t R, et son image serait f(r u + s v + t w = rf( u + sf( v + tf( w. (. Maintenant soit { u, v, w} une base orthonormée directe de R. La rotation d angle autour de u (c est à dire autour de l axe R u devrait ( fixer l axe R u, et ( agir sur le plan vectoriel orthogonal à u dans la même façon qu une rotation du plan R d angle θ centrée à l origine. Ce plan orthogonal à u est R v + R w. Soit e = (, 0 et e = (0, les membres de la base canonique de R. Alors la rotation de R d angle θ centrée à l origine est l application linéaire Rot θ avec Ceci motive la définition suivante. Rot θ ( e = cos θ e + sin θ e, Rot θ ( e = sin θ e + cos θ e. (. Définition.. Soit u R un vecteur avec u =. Par la proposition.0 il existe v, w R avec { u, v, w} une base orthonormée directe de R. Soit θ R. La rotation d angle θ autour de u est l application linéaire Rot u,θ : R R avec Rot u,θ ( u = u Rot u,θ ( v = Rot u,θ ( w = cos θ v + sin θ w, sin θ v + cos θ w. (. Donc la matrice de l application linéaire Rot u,θ dans la base { u, v, w} de R est A θ = 0 0 0 cos θ sin θ. (.4 0 sin θ cos θ Noter que les coefficients dans les lignes de (. deviennent les coefficients dans les colonnes de (.4. Proposition.. (a La rotation Rot u,θ d angle θ autour de u ne dépend pas du choix de v, w complétant la base orthonormée directe { u, v, w}. (b Les rotations Rot u,θ et Rot u, θ coïncident. (c Les rotations d angles θ et θ + πn avec n Z coïncident. Comme u et u engendrent le même axe R u, une rotation autour de l un est aussi une rotation autour de l autre, mais dans le sens opposé. La démonstration usuelle de cette proposition utilise des matrices de passage pour les changements de base. Nous allons démontrer plusieurs formules pour les matrices et quaternions associées à des rotations où il sera immédiatement visible que la rotation ne dépend que de θ et u, et qu on a Rot u,θ = Rot u, θ. La proposition se vérifie par des calculs avec des matrices de passage pour des changements de base. Mais on peut éviter ces calculs-là en notant que dans (.9 ci-dessous on a une formule pour Rot u,θ qui ne dépend que de u et θ. Donc (a. De plus cette formule (.9 est invariante quand on y substitue ( u, θ pour ( u, θ. Donc (b.

LES ROTATIONS DE R : VERSION MATRICIELLE Théorème.. Les rotations de R autour d un u fixé vérifient : Rot u,0 = Id R, Rot u,θ Rot u,φ = Rot u,θ+φ, Rot u,θ = Rot u, θ. (. Preuve. La formule Rot u,0 = Id R est valide parce qu en substituant θ = 0 dans (.4 on trouve la matrice identité I = I. La formule Rot u,θ Rot u,φ = Rot u,θ+φ est valide parce que le produit de matrices 0 0 0 cos θ sin θ 0 0 0 cos φ sin φ 0 sin θ cos θ 0 sin φ cos φ vaut 0 0 0 cos θ cos φ sin θ sin φ cos θ sin φ sin θ cos φ = 0 0 0 cos(θ + φ sin(θ + φ. 0 cos θ sin φ + sin θ cos φ cos θ cos φ sin θ sin φ 0 sin(θ + φ cos(θ + φ La formule pour Rot u,θ se déduit des deux autres. La matrice (.4 décrit l action de Rot u,θ sur les coördonnées d un vecteur par rapport à la base orthonormée directe { u, v, w}. En principe la matrice de Rot u,θ par rapport à la base canonique { i, j, k} de (.9 et les coördonnées usuelles se calcule dans la manière suivante. ( u, v = u Théorème.4. Soit M M (R et soit {u, v, w} une base de R avec u = ( w et w =. Supposons qu on a w Soit Alors on a M = P AP. Mu = a u + a v + a w, Mv = b u + b v + b w, Mw = c u + c v + c w. P = u v w u v w, A = a b c a b c. u v w a b c ( v v Preuve. Les trois colonnes du produit MP sont Mu, Mv et Mw. Les trois colonnes de P A sont a u + a v + a w, b u + b v + b w et c u + c v + c w. Les équations (.6 sont ainsi équivalentes à MP = P A. On en déduit M = MP P = P AP. (.6 Maintenant écrivons u = (u, u, u, v = (v, v, v et w = (w, w, w. Soit P = u v w u v w. (.7 u v w Soit A θ la matrice de (.4. Selon le théorème.4 la matrice de Rot u,θ dans la base canonique est alors R u,θ = P A θ P. (.8 Cette formule a son intérêt, mais beaucoup de calculs on utilise une autre formule.

LES ROTATIONS DE R : VERSION MATRICIELLE Théorème. (Formule de Rodrigues. Pour tout x R on a Rot u,θ ( x = cos θ x + ( cos θ( u x u + sin θ u x. (.9 Preuve. Soit f( x le membre de droite de l équation (.9. Alors l application f : R R est une combinaison linéaire de trois applications linéaires. L application x x envoye u u, v v et w w. L application x ( u x u envoye u u, v 0 et w 0. L application x u x envoye u 0, v w et w v. La matrice de f dans la base { u, v, w} est alors cos θ 0 0 0 0 + ( cos θ 0 0 0 0 0 + sin θ 0 0 0 0 0, 0 0 0 0 0 0 0 et c est la même que (.4. La formule de Rodrigues (.9 permet de calculer les images des vecteurs i = (, 0, 0, j = (0,, 0 et k = (0, 0, et donc la matrice R u,θ de Rot u,θ par rapport à la base canonique. Théorème.6. Soit u = (u, u, u R avec u =, et soit θ R. Alors la matrice de la rotation Rot u,θ dans la base canonique de R est R u,θ = cos θ 0 0 0 0 + ( cos θ u u u u u u u u u u + sin θ 0 u u u 0 u. 0 0 u u u u u u u 0 (.0 Preuve. Par la formule de Rodrigues l application Rot u,θ est la combinaison linéaire de trois applications linéaires. La matrice de la première application x x est la matrice identité. La deuxième application envoye i = (, 0, 0 ( u i u = u (u, u, u = (u, u u, u u. Donc la première colonne de la deuxième matrice est ( u. La troisième application envoye u u i u i = (0, u, u. ( 0u Donc la première colonne de la troisième matrice est. Les autres colonnes se calculent u similairement en utilisant j et k. Exemple.7. Quelle est la matrice E de la rotation d angle θ = π autour de v = (,,? On remarque d abord que v = + + =. Le u parallèle avec u = est v v = (,,. On a cos θ =, cos θ = et sin θ =. Donc la matrice est E = 0 0 0 0 + + 0 0 = 0 0 0

4 LES ROTATIONS DE R : VERSION MATRICIELLE 6. Déduire ( u, θ de la matrice d une rotation Supposons que A est une matrice spéciale orthogonale. Alors A est la matrice d une rotation. Mais comment trouve-t-on l axe u et l angle θ de cette rotation? Une complication : vu que les matrices de rotations satisfont à R u,θ = R u, θ, R u, θ = R u,θ = t R u,θ = R u,θ le vecteur u et l angle θ sont bien définis seulement à signe près, et les différents choix de signes ± u et ±θ correspondent à deux matrices spéciales différentes (sauf quand θ = 0 ou θ = π qui sont inverses. Définition 6.. La trace d une matrice dans M (R est la somme de ses coefficients diagonaux Tr A = Tr a a a a a a def = a + a + a. a a a Par exemple pour les trois matrices apparaissant dans la version matricielle (.9 de la formule de Rodrigues on a Tr I = Tr 0 0 0 0 = + + =, 0 0 Tr u u u u u u u u u u = u u u u u u + u + u = u =, (6. Tr 0 u u u 0 u = 0 + 0 + 0 = 0. u u 0 et on a aussi Tr A θ = 0 0 0 cos θ sin θ = + cos θ + cos θ = + cos θ. (6. 0 sin θ cos θ Les propriétés élémentaires de la trace sont bien connues. Théorème 6.. Soit A, B, P M (R avec P inversible, et soit r R. (a On a Tr(A + B = Tr A + Tr B, et on a Tr(rA = r Tr A, et aussi Tr t A = Tr A. (b On a Tr(AB = Tr(BA et on a Tr(P AP = Tr A. Preuve. Exercice. Théorème 6.. Soit A = R u,θ SO(, R la matrice d une rotation d angle θ. Alors θ satisfait à Tr A = + cos θ et donc θ ± arccos Tr(A (mod π.

Preuve. La première formule se déduit soit de soit de (.0 et (6. et donc LES ROTATIONS DE R : VERSION MATRICIELLE Tr A = Tr R u,θ = Tr(P A θ P = Tr A θ = + cos θ, Tr A = Tr R u,θ = cos θ + ( cos θ + sin θ 0 = + cos θ. La deuxième formule se déduit de la première. Par exemple pour la matrice B = 9 4 4 6 0 on a Tr B = 9 + 6 Tr(B + 0 =. Donc cos θ = = 0 et θ ± π, (6. (mod π. Théorème 6.4. Soit A = R u,θ la matrice d une rotation non triviale (A I autour de l axe engendré par un u R avec u =. Soit x R un vecteur non nul satisfaisant à (A Ix = 0. Alors on a u = ± x x. (A Ix = 0 et x 0, u = ± x x. Pour la matrice B ci-dessus on a 9 4 B I = 6 0 0 6 4 0 0 = 4 9. 0 0 0 4 ( xy Donc on cherche les x = tels que z 6 4 9 4 x y = 0 0. z 0 C est le système linéaire 6 x + y 4 z = 0, x 9 y + z = 0, 4 x y z = 0. En remplaçant les deuxième et troisième équations par (E = (E + 4 (E et (E = (E + 4 (E, on trouve un système linéaire équivalent 6 x + y 4 z = 0, 0 = 0, z = 0. On peut prendre y comme variable libre, et on trouve z = 0 et x = 4y. Donc x = (, 4, 0 est une solution non nulle, et l axe de la rotation de matrice B est engendré par le vecteur de norme u = ± + 4 + 0 (, 4, 0 = ±(, 4, 0.

6 LES ROTATIONS DE R : VERSION MATRICIELLE Alors B est la matrice de la rotation d angle π ou π autour de u = (, 4, 0. Mais quel est le signe de l angle (en fixant u? Pour répondre, on a besoin de quelques notions. Définition 6.. Une matrice A M (R est symétrique si elle satisfait à A = t A. Une matrice B M (R est anti-symétrique si elle satisfait à B = t B. De telles matrices ont les formes A = a r s r b t, B = 0 w v w 0 u. s t c v u 0 Théorème 6.6. Soit A M (R une matrice. Alors A sym = (A + t A A anti = (A t A (6.4 sont respectivement symétrique et anti-symétrique et satisfont à A = A sym + A anti. C est le seul couple de matrices symétrique et anti-symétrique dont la somme est A. Preuve. Exercice. Définition 6.7. On appelle A sym = (A + t A la partie symétrique de A et A anti = (A t A la partie anti-symétrique. Les matrices R et R = t R des rotations d angles ±θ autour de ± u sont transposées. Par conséquent, elles ont les mêmes parties symétriques, mais des parties anti-symétriques opposées (R + t R = ( t R + R, (R t R = ( t R R Donc pour déterminer le signe de θ avec u fixé (ou vice-versa, on peut regarder la partie anti-symétrique de la matrice de rotation. La forme matricielle (.0 de la formule de Rodrigues écrit la matrice de rotation R u,θ comme une combinaison linéaire de trois matrices. Les deux premières sont des matrices symétriques. La troisième est anti-symétrique. Donc la partie symétrique de R u,θ est (R u,θ + t R u,θ = cos θ 0 0 0 0 + ( cos θ u u u u u u u u u u. 0 0 u u u u u La partie anti-symétrique de R u,θ est (R u,θ t R u,θ = sin θ 0 u u u 0 u. u u 0 Théorème 6.8. Soit A = R ( u,θ la matrice de la rotation d angle θ autour de u = (u, u, u R a avec u =. Soit A =. Alors on a a a a sin θ (u, u, u = ( a a, a a, a a. (6. Comme on a u =, cela nous donne une formule ( sin θ = a a, a a, a a (6.6 en plus de la formule sin θ = cos θ.

LES ROTATIONS DE R : VERSION MATRICIELLE 7 La matrice B ci-dessus se décompose en parties symétrique et anti-symétrique 9 4 9 0 0 0 4 B = 6 = 6 4 0 + 0 0, 4 0 0 0 0 0 On déduit qu on a sin θ (u, u, u = (, 4, 0. On a sin θ = (, 4, 0 = (mais on a déjà vu qu on a cos θ = 0, et cela implique sin θ =. En prenant sin θ =, on déduit que B est la matrice de la rotation d angle π autour de (, 4, 0. Exemple 6.9. La matrice C = 0 0 0 0 0 0 est dans SO(, R et est donc une matrice de rotation. On a Tr(C = 0. Donc l angle θ de la rotation satisfait à cos θ = Tr(C =. On a donc θ = ± π. Aussi sin θ =. La partie anti-symétrique de C est C anti = C t C = 0 0 0 0 0 0 0 0 0 = 0. 0 0 0 0 0 L angle et le vecteur u avec u = dans l axe de la rotation satisfont alors à (sin θ u = (,,. Si on choisit le signe sin θ =, alors u = (,, = (,,. Donc C est la matrice de la rotation d angle π autour de (,, (ou autour du vecteur parallèle (,,. Dans l exemple.7 on a calculé la matrice E de la rotation d angle π avec le même axe. Comme l angle de l exemple actuel est le double de l angle précédent, on devrait avoir E = C. Ceci se confirme par calcul. Exemple 6.0. La matrice D = est dans SO(, R. Sa trace est Tr(D =, donc on a cos θ = Tr(D = et θ = π. On a sin θ = 0. La matrice D est symétrique. Sa partie anti-symétrique est 0, et elle nous fournit l information (sin θ u = 0 et donc sin θ = 0 = 0, mais elle ne nous fournit pas l axe. Pour l axe on cherche un x 0 avec (D I x = 0. Donc on résout le système 4 4 4 x y = 0 0. z 0 Les solutions sont les (x, y, z multiples de (,,. Donc on a encore u = (,,. Les signes ne sont pas importants cette fois parce que les rotations d angles π et π autour du même axe coïncident. En comparant aux exemples précédents on a E = EC = CE = D.

8 LES ROTATIONS DE R : VERSION MATRICIELLE 7. Isométries linéaires indirectes de R Définition 7.. Soit { u, v, w} une base orthonormée directe de R. Alors l anti-rotation d angle θ autour de u est l application linéaire g : R R avec g( u = u g( v = g( w = cos θ v + sin θ w, sin θ v + cos θ w. Donc la matrice de g dans la base orthonormée directe { u, v, w} est G θ = 0 0 0 cos θ sin θ 0 sin θ cos θ Deux cas importants sont θ = π et θ = 0. Alors les matrices sont G π = 0 0 0 0 = I, G 0 = 0 0 0 0. 0 0 0 0 Alors G π = I est la matrice de l application linéaire x x, qui est la symétrie par rapport à l origine 0. Mais G 0 est la matrice de l application linéaire qui sur le plan R v + R w est l identité b v + c w b v + c w, mais qui sur le supplément orthogonal R u = ( R v + R w est l opposé de l identité a u a u. Donc G 0 est la matrice dans la base { u, v, w} de la symétrie orthogonale (ou réflexion de R par rapport au plan R v + R w. Noter que G θ = 0 0 0 0 0 0 0 cos θ sin θ = 0 0 0 cos θ sin θ 0 0 0 0 0 0 0 sin θ cos θ 0 sin θ cos θ 0 0 Donc l anti-rotation d angle θ autour de u est la composition de la rotation d angle θ autour de u et de la réflexion (ou symétrie orthogonale par rapport au plan R v + R w = ( R u orthogonal à u. L ordre de la composition n est pas important parce que les deux opérations commutent. Etant donné une matrice orthogonale B O(, R avec det B =, on peut trouver le u et θ tel que B soit la matrice de l anti-rotation d angle θ autour de u. Il y a quelques détails légèrement différents des rotations. D abord on a Tr B = Tr G θ = + cos θ, d où θ = arccos Tr B +. (7. Deuxièmement les vecteurs dans l axe ne sont pas fixes mais sont envoyés par B en leurs opposés. D où on a B u = u et (B + I u = 0, u =. (7. Mais on a toujours ( B t B = sin θ 0 u u u 0 u. (7. u u 0

Exemple 7.. Soit LES ROTATIONS DE R : VERSION MATRICIELLE 9 B = Les trois colonnes u, v, w vérifient u v = u w = v w = 0 et u u = v v = w w =, donc B est orthogonale. Mais on a w = u v, donc { u, v, w} est une base orthonormée indirecte de R, et on a det B =. On a Tr B = + cos θ =, donc θ = 0, et B est la matrice d une symétrie orthogonale. Pour trouver l axe, qui est l orthogonal du plan de la symétrie, on cherche les (x, y, z tels qu on ait (B + I x y = z x y = 0 0 z 0 On résout le système et on trouve (x, y, z = z(,,. Donc on a u = 6 (,,, et B est la matrice de la symétrie orthogonal par rapport au plan (R u = {(x, y, z x+y+z = 0}. Exemple 7.. Soit C = Les trois colonnes sont encore orthonormées avec w = u v. Donc C est la matrice d une anti-rotation. L angle vérifie + cos θ = Tr C =, donc on a cos θ = et θ = arccos. Pour trouver le u engendrant l axe, on résout (C + I x y = z 4 x y = 0 0 z 0 On trouve (x, y, z = y(0,,, et u = (0,,. Finalement la partie anti-symétrique de C est ( C t C = 0 0 0 0 0 = sin θ 0 u u u 0 u. u u 0 On trouve sin θ u = (0,, et ainsi sin θ = > 0. Donc on a θ = arccos > 0. Donc C est la matrice de la composition de la rotation d angle θ = arccos autour de l axe engendré par u = (0,, et de la symétrie orthogonale par rapport au plan vectoriel orthogonal à u, qui est {(x, y, z R y z = 0}. 8. Vecteurs propres Théorème 8.. Soit A M (R. Alors A est la matrice d une rotation si et seulement si A est dans SO(, R. Pour démontrer ce théorème il faut connaitre aussi les notions de valeur propre et de vecteur propre.

0 LES ROTATIONS DE R : VERSION MATRICIELLE Définition 8.. Soit A M n (C une matrice carrée à coefficients complexes. Un nombre complexe λ est une valeur propre de A si la matrice A λi n n est pas inversible. Pour une valeur propre λ de A le sous-espace E λ (A = ker(a λi n C n n est pas réduit à {0}. Il s appelle l espace propre de A associé à la valeur propre λ. Ses membres sont les vecteurs propres associés à la valeur propre λ. Quand on a A M n (R et λ R, le sous-espace réel E λ (A = ker(a λi n R n est aussi appelé l espace propre de A associé à λ. Un vecteur propre v de A associé à la valeur propre λ satisfait à (A λi n v = Av λv = 0. Donc il vérifie Av = λv (8. avec A M n (C, λ C et 0 v C n. Cette équation est souvent appelée l équation des valeurs propres. Proposition 8.. Soit R u,θ la matrice de la rotation d angle θ autour de u R. Supposons R u,θ I (c est à dire θ 0 mod π. Alors λ = est une valeur propre de R u,θ, et les vecteurs propres associés sont les ru avec r R. Preuve. Pour λ = l équation des valeurs propres est R u,θ x = x, et ceci est vérifié pour les x qui sont fixés par R u,θ. Pour une rotation non triviale ce sont exactement les vecteurs dans l axe Ru de la rotation. La clé du théorème 8. est le lemme suivant, qui sera démontré dans le paragraphe suivant. Lemme 8.4. Soit A dans SO(, R. Alors λ = est une valeur propre de A. Preuve du théorème 8.. ( Soit R u,θ la matrice de la rotation d angle θ autour d un u R avec u =. Soit u, v, w la base orthonormée directe de R de la définition.. Soit A θ et P les matrices de (.4 et (.7. Par (.8 on a R u,θ = P A θ P. Or P est dans SO(, R parce que ses colonnes u, v, w forment une base orthonormée directe de R. Et A θ et dans SO(, R parce que ses colonnes ( 0 0, ( 0 cos θ sin θ, ( 0 sin θ cos θ sont aussi une base orthonormée directe de R. Par le théorème.4 les matrices P et R u,θ = P A θ P sont aussi dans SO(, R. ( Comme I est une matrice de rotation (d angle 0, il suffit de montrer que tout A I dans SO(, R est une matrice de rotation. Par le lemme 8.4 une telle A a λ = comme une valeur propre. Soit z un vecteur propre non nul associé (donc vérifiant Az = z et z 0. En posant u = z z, on trouve un vecteur propre vérifiant Au = u et u =. Par la proposition.0 on peut compléter u en une base orthonormée directe u, v, w de R. On a Au = u. Par la proposition. on a Ax Ay = x y pour tout x, u R. On en déduit qu on a u Av = Au Av = u v = 0 et u Aw = Au Aw = u w = 0. Donc Av et Aw sont orthogonaux à u. Mais v et w engendrent le plan vectoriel orthogonal à u. Donc il existe a, b, c, d R avec Av = av + bw et Aw = cv + dw. Mais par les propositions. et. on a aussi = v v = Av Av = (av + bw (av + bw = a + b, 0 = v w = Av Aw = (av + bw (cv + dw = ac + bd, = v v = Av Av = (cv + dw (cv + dw = c + d.

LES ROTATIONS DE R : VERSION MATRICIELLE Donc les vecteurs (a, b, (c, d R sont sur le cercle unité du plan R et sont orthogonaux. Il existe donc θ R avec (a, b = (cos θ, sin θ et (c, d = ±( sin θ, cos θ. On a ainsi Au = u Av = cos θ v + sin θ w, Aw = ±( sin θ v + cos θ w. La matrice dans la base u, v, w de l application linéaire R R envoyant x Ax est donc une des matrices suivantes A θ = 0 0 0 cos θ sin θ, B θ = 0 0 0 cos θ sin θ. 0 sin θ cos θ 0 sin θ cos θ Si P est la matrice de colonnes u, v, w, alors on a A = P A θ P ou A = P B θ P. On a det A = parce que A est dans SO(, R, mais par le théorème. on a det P B θ P = (det P (det B θ det P = det B θ = cos θ sin θ =. Donc on a A P B θ P. Par conséquent A = P A θ P, et A est la matrice de la rotation d angle θ autour de u. 9. Annexe : l existence de vecteurs propres pour λ = ± pour A O(, R Dans ce paragraphe on démontre le lemme 8.4. On utilise la notion suivante. Définition 9.. Soit A M (C. Soit T un indéterminé, et C[T ] l anneau de polynômes en T à coefficients dans C. Le polynôme caractéristique de A est le déterminant a T a a P A (T = det(a T I = a a T a a a a T = det A c (AT + Tr(AT T En développant on trouve un polynôme de degré dont les coefficients dépendent des coefficients de A. Le terme de degré est T. Le terme constant se calcule en posant T = 0, et donc P A (0 = det(a 0I = det A. Les coefficients de T et de T nous intéresse moins ici. Or un polynôme de degré dans C[T ] se factorise comme P (T = a(t λ (T λ (T λ avec a C, et avec λ, λ, λ C les racines de P (T, les seuls nombres complexes vérifiant P (λ i = 0. Pour le polynôme caractéristique de A M (C comme ci-dessus on a a =. Théorème 9.. Soit A M (C et soit λ, λ, λ les racines du polynôme caractéristique de A tel qu il y ait une factorisation P A (T = (λ T (λ T (λ T. Alors λ, λ, λ sont les valeurs propres de A, et on a λ λ λ = det A. Preuve. Les λ i sont les nombres complexes λ vérifiant P A (λ = det(a λi = 0. Mais le déterminant d une matrice est 0 ssi la matrice est non inversible, et les λ C tels que A λi est non inversible sont par définition les valeurs propres de A. Pour la dernière partie de l énoncé : les deux formules pour P A (T donnent P A (0 = det(a 0I = det A et P A (0 = (λ 0(λ 0(λ 0 = λ λ λ. Donc on a det A = λ λ λ.

LES ROTATIONS DE R : VERSION MATRICIELLE Théorème 9.. Soit A M (R. Si µ C est une valeur propre (non réelle de A, alors son conjugué µ est aussi une valeur propre de A. Preuve. Pour A M (R le polynôme caractéristique P A (T = det(a T I = a 0 + a T + a T + a T a des coefficients réels donc vérifiant a i = a i. On en déduit que pour tout nombre complexe µ on a P A (µ = P A (µ. Donc si on a P A (µ = 0 on a aussi P A (µ = P A (µ = 0. Comme les racines de P A (T sont les valeurs propres de A, cela démontre le théorème. Théorème 9.4. Soit A O(, R et λ un valeur propre réelle de A. Alors λ = ±. Preuve. Les vecteurs propres x associées aux valeurs propres réelles λ d une matrice réelle A sont les solutions non nulles du système linéaire (A λi x = 0 à coefficients réels, et on peut trouver des solutions réelles. Donc il y a un vecteur propre x R avec Ax = λx et x 0. Par le théorème. on a x = Ax = λx = λ x. En divisant par x 0 on trouve λ =. Preuve du lemme 8.4. Soit A SO(, R, et soient λ, λ, λ les trois racines de son polynôme caractéristique. Par le théorème 9. on a λ λ λ = det A =. Il faut montrer qu au moins une des λ i vaut. On distingue deux cas. Cas. Si toutes les valeurs propres λ i sont réelles, alors elles valent toutes ou par le théorème 9.4. Comme leur produit est on a soit λ = λ = λ = soit λ = et λ = λ = à ordre près. Dans les deux sous-cas, est parmi les valeurs propres de A, comme on avait à démontrer. Cas. Si une des valeurs propres est non réelle, disons λ = µ C R, alors son conjugué est aussi une valeur propre, disons λ = µ. Soit λ = λ la troisième valeur propre. On a = det A = λ λ λ = µµλ = µ λ. On en déduit que λ est réelle et positive. Par le théorème 9.4 on a donc λ =. Donc est encore parmi les valeurs propres de A.