Recherche des valeurs et vecteurs propres

Documents pareils
Cours d analyse numérique SMI-S4

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Chapitre 2. Matrices

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

Limites finies en un point

I. Polynômes de Tchebychev

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

LE PRODUIT SCALAIRE ( En première S )

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

F411 - Courbes Paramétrées, Polaires

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Résolution d équations non linéaires

CHAPITRE IV Oscillations libres des systèmes à plusieurs degrés de liberté

Résolution de systèmes linéaires par des méthodes directes

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Continuité et dérivabilité d une fonction

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

Algorithmes pour la planification de mouvements en robotique non-holonome

Cours 02 : Problème général de la programmation linéaire

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours.

Cours d Analyse. Fonctions de plusieurs variables

Partie 1 - Séquence 3 Original d une fonction

3 Approximation de solutions d équations

Angles orientés et fonctions circulaires ( En première S )

Théorème du point fixe - Théorème de l inversion locale

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Image d un intervalle par une fonction continue

Polynômes à plusieurs variables. Résultant

Pour l épreuve d algèbre, les calculatrices sont interdites.

Programmation linéaire

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Chapitre 6. Fonction réelle d une variable réelle

aux différences est appelé équation aux différences d ordre n en forme normale.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Correction de l examen de la première session

Exercices Corrigés Premières notions sur les espaces vectoriels

Comparaison de fonctions Développements limités. Chapitre 10

1 Complément sur la projection du nuage des individus

Représentation géométrique d un nombre complexe

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

EXERCICE 4 (7 points ) (Commun à tous les candidats)

NOMBRES COMPLEXES. Exercice 1 :

Chp. 4. Minimisation d une fonction d une variable

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Développements limités. Notion de développement limité

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Simulation de variables aléatoires

Fonctions de plusieurs variables

Programmes des classes préparatoires aux Grandes Ecoles

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET

Capes Première épreuve

Programmation linéaire et Optimisation. Didier Smets

Calcul différentiel sur R n Première partie

Quelques tests de primalité

Fonctions de plusieurs variables. Sébastien Tordeux

CHAPITRE 10. Jacobien, changement de coordonnées.

Mesure d angles et trigonométrie

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

CCP PSI Mathématiques 1 : un corrigé

Problème 1 : applications du plan affine

Fonctions de plusieurs variables et applications pour l ingénieur

Continuité d une fonction de plusieurs variables

Quelques contrôle de Première S

[ édité le 30 avril 2015 Enoncés 1

IV- Equations, inéquations dans R, Systèmes d équations

Chapitre 1 Régime transitoire dans les systèmes physiques

I. Ensemble de définition d'une fonction

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Introduction à l étude des Corps Finis

Mathématiques appliquées à l'économie et à la Gestion

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

C f tracée ci- contre est la représentation graphique d une

Angles orientés et trigonométrie

Cours 7 : Utilisation de modules sous python

Analyse en Composantes Principales

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Annexe 1 Programmes des classes préparatoires aux Grandes Ecoles

Programmation linéaire

1S Modèles de rédaction Enoncés

LES MÉTHODES DE POINT INTÉRIEUR 1

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Structures algébriques

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Cours de mathématiques

Raisonnement par récurrence Suites numériques

Fonctions de deux variables. Mai 2011

Équations non linéaires

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Complément d information concernant la fiche de concordance

Les indices à surplus constant

Continuité en un point

Calculer avec Sage. Revision : 417 du 1 er juillet 2010

Transcription:

Recherche des valeurs et vecteurs propres A la fin du chapitre, l étudiant doit être capable de: Décrire la méthode de la puissance itérée pour la détermination des vecteurs propres Décrire l algorithme de Jacobi pour la diagonalisation des matrices et expliquer ses faiblesses 3 Définir la transformation de Householder pour l annulation de presque toutes les composantes d un vecteur quelconque 4 Expliquer comment les transformations de Housholder peuvent être utiliser pour réaliser la factorisation QR d une matrice, pour obtenir la forme Hessenberg d une matrice 5 Décrire l algorithme QR pour la détermination des valeurs propres d une matrice 6 Faire un choix éclairé entre les méthodes du cours pour la résolution d un problème donné

Introduction Deux grandes classes de problèmes en algèbre linéaire : Résoudre un système linéaire d équations AX = b Déjà vu au chapitre précédent Trouver les éléments propres d une matrices X: vecteur propre λ: valeur propre L objectif de ce chapitre AX =λx

Pourquoi faire? La détermination des éléments propres d une matrice carrée a de multiples applications: résonnance (balançoire, pont), traitement d image, géométrie, recherche sur le web, Vibration (voiture, bruit de cabine,) marché financier, résolution de certaines équations aux dérivées partielles (équation de la chaleur), des systèmes d équations différentielles ordinaires (EDO),

Résolution de AX=λX Rappel du cours sur les systèmes linéaires: MX = b avec M matrice carrée admet : -solution unique si : det(m) - ou une infinité de solutions si : det(m) = Dans le cas det(m) =, on dit que M est singulière Conséquence pour le problème aux valeurs propres: Puisque X = est toujours solution de det ( A λi) des solutions X, on se place dans le cas où M = A λi est singulière Autrement dit on cherche les valeurs propresλ de A en résolvant l'équation : ( A λi) = X = et que l'on cherche

Résolution de AX=λX Théoriquement, elle se fait en 3 étapes systématiques: Calcul du déterminant de A-λI Détermination des racines du polynôme caractéristique obtenu en écrivant : det(a-λi)= 3 Pour chaque racine (chaque valeur propre), résoudre le système linéaire AX=λX afin de déterminer le ou les vecteurs propres associés

Quelques résultats à connaître Théorème : Si A et T sont des matrices carrées d ordre n et si T est inversible, alors la matrice B = T - AT a les mêmes valeurs propres que la matrice A et si X est le vecteur propre de A attaché à λ, le vecteur propre de B attaché à cette même valeur propre est Z = T - X Cas particulier important : T = R orthogonale (R - = R T ) Théorème : La somme des carrés des éléments d une matrice symétrique est égale à la somme des carrés de ses valeurs propres (nd invariant) Théorème 3 : Si A est diagonale, les valeurs propres de A sont égales aux coefficients sur la diagonale

Recherche des valeurs et vecteurs propres En pratique, cette démarche n est pas exploitable pour les systèmes de taille supérieure à 4 ou 5 car le calcul formel de det(a-λi) est rapidement monstrueux On préfère donc les méthodes itératives dans lesquelles on s approche pas à pas des valeurs propres Dans ce cours : Puissance itérée: la plus simple, mais aussi très limitée Méthode de Jacobi: très lente et non pratique pour des problèmes de taille supérieure à Algorithme QR: la méthode de référence pour des problèmes de taille inférieure à quelques milliers

Recherche des valeurs et vecteurs propres I- Méthode de la puissance itérée et de déflation I- Puissance itérée Matrice A réelle quelconque diagonalisable On note λ λ < ses valeurs propres et V, V,, L λ n λ n V n-, V n les vecteurs propres associés On se donne un vecteur initial X non nul Ce vecteur peut s exprimer dans la base propre de A: X = c V + c V + L+ c V n n Si l on calcule X = A X, on obtient un vecteur qui s écrit: X = c λ V + c λ V + L+ c n λ V n n

Plus généralement, le ème itéré X = A X - s exprime de la manière suivante dans la base propre de A: Deux utilisations possibles de la puissance itérée: Si la valeur propre λ n est déjà connue (calculée par une autre méthode comme QR), la suite des vecteurs tend vers n n n V c V c V c X λ λ λ + + + = L n X λ / un vecteur colinéaire au vecteur propre V n car: Dans le cas contraire, la suite des vecteurs tend vers un vecteur unitaire, colinéaire au vecteur propre La valeur propre est la limite de la suite n n n n n n n n n V c V c V c V c X + + + + = λ λ λ λ λ λ λ L n X X / / X AX X

I- Exemple A = 9 Les valeurs propres sont λ = et λ =, et les vecteurs propres associés sont respectivement V = (,) t et V = (,-) t, On choisit X = (,) t et on obtient: Itération () X / X AX X / X 447 8944-8 89-5735 685 3 778-6963 349 4 78-76 35 5 77-77 3 6 77-77 7 77-77

Remarques La convergence est d autant plus rapide que le rapport λ n /λ n- est grand La méthode nécessite un produit matrice-vecteur à chaque itération; A doit donc de préférence être de faible dimension, ou très creuse La convergence peut être accélérer en utilisant la méthode «shifted inverse» dans laquelle on applique la puissance itérée à la matrice (A-αI) -, où α est une (bonne) approximation de la valeur propre recherchée Malgré ces améliorations, la puissance itérée conserve le défaut principal de ne converger que vers une seule valeur propre à la fois (même si une technique appelée déflation permet d éliminer la convergence vers la valeur propre de plus grand module)

Principes de base des méthodes de calcul des valeurs propres Deux matrices semblables partagent les mêmes valeurs propres Les valeurs propres d une matrice triangulaire sont ses éléments diagonaux Idée générale: Faire apparaître, à l aide d une succession de transformations élémentaires, des zéros sur les éléments extradiagonaux et obtenir: B = T - A T avec D matrice triangulaire (supérieure) et T inversible Pour se faciliter les choses, on demande également que T soit orthogonale de sorte que son inversion ne coûte rien On a alors: B = T t A T La méthode de Jacobi est la plus simple des méthodes de cette catégorie

Principe de la méthode de Jacobi (sur une matrice 3 3) L idée est d éliminer rotation après rotation, les «poids» hors diagonale Comme le poids global se conserve, tout ce qui disparaît hors diagonal a des chances de se retrouver sur la diagonale par exemple, a 3 est le terme hors diagonal le plus «lourd»; la rotation R associée s écrit : a a a3 A = R = cos θ sinθ a a a3 a sinθ cosθ 3 a3 a 33 on calcule alors B = T R AR T R = cos sin θ θ sinθ cosθ a a cosθ a3 sinθ a sinθ + a3 cosθ ( a a33 ) B = a cosθ a3 sinθ a cos θ a3 sin θ + a33 sin θ a3 cos θ + sin θ ( a a33 ) a sinθ + a3 cosθ a3 cos θ + sin θ a sin θ + a3 sin θ + a33 cos θ

b ( a a33 ) = a cosθ + sinθ 3 3 et on détermine alors θ pour que b 3 = tgθ = a 3 ( a a ) 33 en fait, on a seulement besoin de connaître cosθ et sinθ pour construire R π On pose alors : π π π 4 ν = a 3 ( ) µ = a a 33 = µ ν tan θ R θ 4 4 ν µ + ν + tg θ = = + = cos θ µ µ π π 4

D où cosθ = sin θ = µ µ + ν ν µ + ν et comme sgnµ = ω cos θ + sin θ = Or : θ = + θ = + θ = + ω cos ( cos ) ( sin ) ( ) ( ) cos θ = + ω Par ailleurs, sinθ = sinθcos θ, on obtient : sinθ = ω ( ) + ω

b cas général Les calculs précédents se généralisent aux cas n n A chaque nouvelle itération (r), on veut éliminer le terme hors diagonale de plus fort poids ( r ) ( r) Soit, apq ce terme hors diagonaleon construit alors R ( pq) ( r ) R ( pq) L L L cosθ sinθ L L L p M L L M = M L L O L L M M -sinθ L L cosθ L M q L L L L O L L L p q

Dans le cas général, on peut montrer que dans le produit ( r + ) T( r ) ( r ) ( r ) A = R A R ( pq) ( pq) les coefficients de A (r+) ne diffèrent de ceux de A (r) que dans les lignes et les colonnes p, q ( r + ) A ( r ) ( r a L L L L L a ) ( r + ) ( r + M a L L a ) L M M O L L L M = M L L O L L M ( r + ) ( r + M a L L a ) L M M L L L L O L ( r ) ( r a a ) L L L L L p q On retrouve en particulier un résultat de la forme : ( r ) ( r ) ( r + ) ( r ) ( app aqq ) apq = apq cosθ + sinθ p q

( A ) 6 7 6 3 8 = 7 3 4 9 8 4 5 9 5 ( 3 A ) 66 594 46 = 3 6

Détermination des vecteurs propres : Il existe deux stratégies possibles: Utiliser la méthode de la puissance itérée en mode «shift and invert» pour déterminer les vecteurs propres associés à chaque valeur propre Poursuivre l algorithme de Jacobi jusqu à obtenir une matrice diagonale semblable à A: D = T t A T, avec D matrice diagonale Les vecteurs propres sont alors les colonnes de T

Remarques Chaque rotation modifie certains des coefficients précédemment annulés puisque l ensemble des entrées des lignes et colonnes p et q est modifié Globalement la contribution des termes extra-diagonaux diminue donc l algorithme converge On ne sait cependant pas dire a priori combien de rotations devront être faites pour obtenir une matrice triangulaire de la matrice Pour éviter ce problème, et pour gagner en efficacité, une autre stratégie consiste à ne pas annuler les entrées les unes après les autres, mais plutôt colonne (ou bout de colonne) par colonne

Transformation de Householder Une transformation orthogonale permet en un seul coup de faire apparaître des zéros sur toute une colonne: c est la transformation de Householder Pour X vecteur j quelconque de taille m, on définit: H t VV = I avec V = X + X e, où e = V (,,,, ) t 443 L m composantes On vérifie facilement que H=H t puis que HH t = I Par suite, on obtient H - =H t et donc H est bien orthogonale en plus d être symétrique Un calcul simple permet alors de vérifier que: HX = X e = ( X,,, L,) t

Factoristion QR Partant d une matrice A quelconque, on peut faire apparaître les vecteurs colonnes suivants Les vecteurs colonne X, X,,X, et X n- ont pour taille n, n-,, n-+, et respectivement, L idée est d appliquer une transformation de Householder adéquate successivement à chacun de ces vecteurs afin d annuler tous les termes sous diagonaux X X X X n- X n- Plus précisément

Factoristion QR Pour annuler les n- dernières composantes de X : H avec V = X où VV = I V e = + (,,,,) t L n composantes t X 443 e, = U Pour annuler les n- dernières composantes du nouveau X : H avec où VV = I V e V = X + (,,,,) t = 443 L n composantes U t X e, =

Factoristion QR Pour annuler les n- dernières composantes du nouveau X : O t VV H = I V = avec V = X + X e, où e = ( ) t 443 n composantes U Au final, après avoir appliqué n- transformations de Householder bien choisies on obtient (en posant Q t = U n- U n- U U ) la factorisation QR de la matrice A: A = QR avec Q matrice orthogonale et R matrice triangulaire supérieure

Exemple sur une matrice de taille 4: On fait d abord apparaitre des zéros sur la première colonne: A = 3 3 4 X = V = X + X = 46458 U = H = I V V t V - 7559-378 378 378-378 986 84 84 = 378 84 986-84 378 84-84 986 U A = - 6458-4576 4593 547-4593 5695 435 3435 378 866 339 4339

Exemple sur une matrice de taille 4: On procède de la même manière pour les colonnes et 3 avec: U X 4593-4593 345-4593 = 547 V = X + X = 547 H = I = H V V - 6458-4576 378 = - 845 57 U A 945 576 363 464 U V t X 945 = 363 = + 6437 = 363 3 V3 X3 X3 H3 = I V V 3 V 3 t 3 U 3 = H 3 U3U U 443 Q t A - 6458-4576 378-845 57 = - 446-446 4 8974 4444444 4444443 R

Remarques sur la factorisation QR Toute matrice peut être écrite sous la forme QR On utilise pour cela une combinaison de transformations de Householder Cette factorisation est très importante en analyse linéaire (un peu comme la factorisation LU) Comme det(q)=±, elle permet notamment de calculer le déterminant de A comme le produit des termes diagonaux de R Pour le calcul des valeurs propres, elle est à la base d un algorithme très performant: l algorithme QR

La suite Partant de A on a donc obtenu par transformations orthogonale une matrice R dont les valeurs propres se calculent de manière immédiate (les termes diagonaux de R) Oui mais les valeurs propres de A et de R ne sont pas les mêmes car ces matrices ne sont pas semblables! Pour obtenir une matrice semblable à A il faut une matrice de la forme Q t AQ Avec A = QR on obtient facilement: RQ = Q t AQ Donc A est semblable à RQ, qui n est pas triangulaire!! Le problème est que la multiplication à droite par la transformation Q détruit la triangularisation obtenue par Q t

La suite Pour surmonter cette difficulté, l idée consiste à être un petit peu moins ambitieux et générer des zéros en dessous de la sous diagonale Par exemple pour la première colonne de A, on ne cherche à annuler que les n- dernières composantes en excluant le terme diagonal du vecteur colonne Y sur lequel est basé la transformation de Householder : H avec V = Y + où VV = I V e (,,,,) t = 443 L n composantes t Y e, = W Y

Forme de Hessenberg d un matrice On procède alors comme pour la factorisation QR, en traitant successivement toutes les colonnes de A mais en excluant tous les termes diagonaux pour construire les transformations de Householder successives W,W, et W n- En posant T t = W n- W W on définit donc une transformation orthogonale telle que A = TB où B est une matrice dont tous les coefficients en dessous de la sous-diagonale sont nuls C est une matrice de Hessenberg L intérêt est que la matrice K = BT = T t AT est semblable à A tout en conservant une forme de Hessenberg Evidemment, l intérêt est que A et K sont semblables et qu elles partagent les mêmes valeurs propres, avec K ayant presque tous ses éléments sous diagonaux égaux à zéros

Forme de Hessenberg d un matrice Pour résumer: Matrice A Forme de Hessenberg K = T t AT n- transformations de Housholder T=T t =T - sous diagonale (n- termes) Les matrices de Hessenberg ne sont pas triangulaires et l on ne connait donc pas directement leur valeurs propres Leur intérêt réside dans le fait que l on peut facilement les rendre triangulaire avec une méthode déjà rencontrée: la méthode de Jacobi

Factorisation QR Partant d une matrice de Hessenberg, il faut exactement n- rotations pour générer une matrice triangulaire: sous diagonale (n- termes) Hessenberg Triangulaire supérieure n- rotations C est un processus rapide puisque nécessitant O(n) opérations arithmétiques On obtient alors la factorisation QR de la matrice de Hessenberg K = QR avec K Hessenberg, Q orthogonale, R triangulaire supérieure

Algorithme QR L idée de base est très simple: Partant de K = QR on obtient R=Q t K puis RQ=Q t KQ Autrement dit la factorisation QR de K permet de produire une matrice semblable à K, soit la matrice RQ L algorithme est alors le suivant: K () = Q () R () K (+) = R () Q () A convergence, les valeurs propres de K sont les termes diagonaux de R