Mots-clefs Valeurs propres, vecteurs propres, matrice, système linéaire, méthodes de projection, espace
|
|
|
- Aimé Paré
- il y a 10 ans
- Total affichages :
Transcription
1 Résumé La méthode d Arnoldi est une méthode de projection de type Krylov qui permet, entre autres, de résoudre un problème important dans le calcul scientifique : déterminer le spectre d une matrice de très grande taille. Cette thèse est centrée sur l arrêt de l algorithme de cette méthode d Arnoldi dû à une division impossible par. Afin de mener cette étude de manière théorique et pratique, les principaux concepts d analyse inverse des erreurs sont rappelés en distinguant les perturbations normwise (aucune hypothèse sur les perturbations A admissibles de la matrice A, seule A est bornée) des perturbations homotopiques (structure de cette perturbation connue A te, E fixe et t lc). Pour le cas homotopique, le rang et la norme de E jouent un rôle important. L erreur inverse homotopique ainsi définie permet d introduire l erreur de méthode d Arnoldi, nulle lors de l arrêt heureux de l algorithme à l itération k. Un lien théorique entre le vecteur initial de l espace de Krylov et k est établi. A l aide de la détermination des pseudo-spectres, l approche homotopique permet, dans certains cas, de récuperer une information sur le spectre de la matrice plus fine que l approche normwise. Les valeurs propres approchées par la méthode d Arnoldi sont valeurs propres exactes d une matrice A te où le rang et la norme de E sont égaux à : elles appartiennent à un seul pseudo-spectre homotopique. Une étude plus large des perturbations homotopiques est menée, centrée sur les lignes et les courbes spectrales d une famille homotopique de matrices A te, t t e iθ lc, où le rang de E joue un rôle important. Des expérimentations numériques utilisant la méthode d Arnoldi en précision finie sont réalisées qui distinguent trois procédés d orthogonalisation pour réaliser la factorisation QR, identiques en arithmétique exacte mais de comportements différents en précision finie. Ces expérimentations permettent de mettre en évidence la difficulté de détecter un arrêt heureux théorique. Une approche heuristique pour le détecter est proposée ainsi que des comparaisons avec les expérimentations effectuées grâce au logiciel PRECISE. Mots-clefs Valeurs propres, vecteurs propres, matrice, système linéaire, méthodes de projection, espace de Krylov, méthode GMRES, méthode d Arnoldi, perturbation en norme, perturbation homotopique, lignes spectrales, courbe spectrale, erreur inverse, pseudo-spectre, précision finie.
2 2 Abstract The Arnoldi method is a Krylov based method which enables the solution of a major problem in Scientific Computing : the determination of the spectrum of a large matrix. This thesis focuses on when to stop the Arnoldi algorithm, and in particular, on the breakdown due to the forbidden division by. In order to perform both a theoretical and an experimental analyses, the main notions of backward error analysis are recalled, distinguishing between normwise perturbations (no hypothesis on the perturbation A, A is only bounded) and homotopic perturbations (prescribed structure A te, E fixed and t lc). For the homotopic case, the rank and the norm of the matrix E play an important role. The homotopic backward error allows us to define the backward error of the Arnoldi method, which is equal to at iteration k when the happy breakdown of the algorithm takes place. A theoretical link between the initial vector of the Krylov space and k is established. Thanks to the corresponding pseudo-spectrum, the homotopic analysis allows us in some cases to recover better information on the spectrum of the matrix than the normwise analysis. The eigenvalues approximated by the Arnoldi method are exact for the matrix A te where E is a rank one matrix of norm equal to : the approximated eigenvalues of A belong to only one homotopic pseudo-spectrum. The use of homotopic perturbations is studied in detail, using spectral lines and curves of a homotopic family of matrices A te, t t e iθ lc, where the rank of E plays an important role. Numerical experiments using the Arnoldi method in finite precision are given, with three orthogonalisation processes to perform the QR factorisation, which are identical in exact arithmetic but differ in finite precision. These experiments show the difficulty in detecting the theoretical happy breakdown in finite precision. A heuristic for detecting it is proposed together with a comparison with experiments performed using the PRECISE software. Discipline Mathématiques appliquées Intitulé et adresse du laboratoire de recherche C.E.R.F.A.C.S., 42, avenue Gustave Coriolis, 357 Toulouse Cedex.
3 Remerciements Je tiens à remercier Madame le Professeur Jacqueline Fleckinger d avoir accepté de présider ce jury. Qu elle veuille bien trouver ici le témoignage de mon profond respect. Je remercie Monsieur le Professeur Pierre Charrier et Madame le Professeur Filomena Dias d Almeida d avoir accepté de rapporter sur ce travail. Leurs critiques et leurs commentaires m ont permis d affiner la présentation de ce travail. Je tiens à leur exprimer ma plus profonde reconnaissance. Je remercie le Docteur Abderrazak Ilahi de me faire l honneur de faire parti de ce jury, pour son aide précieuse tout au long de cette thèse ainsi que pour son amitié. Je remercie Monsieur le Professeur Beresford N. Parlett d avoir accepté de faire parti du jury, de s être alors déplacé depuis San Francisco et d avoir apporté tant d attention à mon travail. C est un honneur pour moi de vous compter parmi les membres du jury. Je remercie Monsieur Iain Duff de m avoir accueillie dans son Projet, d avoir rendu cette thèse possible et de faire parti du jury. Merci pour l interḙt que vous portez à mon travail. Il y a maintenant 4 ans, alors que je m obstinais à chercher 25, j ai emprunté le livre bleu et je me laissais imaginer rencontrer son auteur... Madame le Professeur Françoise Chaitin-Chatelin, je tiens à vous remercier trés sincerement de m avoir accueillie dans votre Groupe, d avoir cru en moi et en mes capacités, de m avoir conduit tout au long de cette thèse... Merci encore très profondément. Je remercie Monsieur Jean-Claude André, Directeur du CERFACS, de m avoir permis d effectuer cette thèse dans de telles conditions. Je voudrais surtout ne pas oublier Mademoiselle le Docteur Valerie Frayssé, pour ses précieux conseils, sa disponibilité à tout moment, sa gentillesse. Tu vas bien me manquer... Durant cette thèse, j ai rarement été peu entourée. 3
4 4 Merci à Laurent, Vincent, Serge, Amina, Ahmed, Luc, Dominique, Simon, Ali, Brigitte, Michèle, l équipe CSG... Un grand Merci pour le grand réconfort constant de toute ma famille, Tanguy et Séverine. Le dernier remerciement mais qui n est pas le moindre revient à mon cher époux Mario qui a toujours été présent, patient, chaleureux et encourageant. A Tía, por muchos años.
5 Table des matières Remerciements 3 Notations 9 Introduction Rappels et préliminaires 3. Définitions Valeurs propres et vecteurs propres d une matrice A Décomposition sous forme de Jordan d une matrice Polynôme minimal Degré du polynôme minimal et structure du vecteur Analyse inverse des erreurs : état de l art Classe de perturbations Norme Exemples Erreurs inverses pour des perturbations de type normwise Calcul asymptotique et calcul incertain Calcul asymptotique : structure de A connue Un exemple : le virus V IF Courbe Γ associée au couple A E Exemple fondamental Illustration Courbe Γ et systèmes linéaires A te zi y t b Perspective Calcul incertain : norme de A connue Conclusion : comparaison autorisée? Erreurs inverses et pseudo-spectres 5 3. Erreur inverse homotopique : cas du problème standard
6 6 TABLE DES MATIÈRES 3.. Définition de l erreur inverse homotopique pour le calcul de valeurs propres Comparaison entre l erreur inverse homotopique et l erreur inverse normwise Erreur inverse homotopique : cas du problème généralisé Différentes définitions des erreurs inverses homotopiques associées à une valeur propre Comparaisons autorisées entre les deux erreurs inverses homotopiques et l erreur inverse normwise Pseudo-spectre d une matrice pour des perturbations normwise Définitions Portraits spectraux normwise de matrices Pseudo-spectre d une matrice pour des perturbations homotopiques Définitions Portraits spectraux homotopiques de matrices Comparaison autorisée des pseudo-spectres normwise et homotopiques Conditions imposées Illustrations Conclusion Application aux méthodes de Krylov Décompositions de Hessenberg en arithmétique exacte Définition d une matrice de Hessenberg supérieure Présentation des décompositions de Hessenberg Méthode d Arnoldi pour la décomposition incomplète de Hessenberg Principe de l algorithme d Arnoldi : effectuer une factorisation QR Trois façons classiques de réaliser la factorisation QR Méthode GMRES de base Principe de la méthode GMRES (utilisation de H) Arrḙt heureux et solution du système linéaire par la méthode GMRES Remarques Erreur inverse associée à la solution x k du système linéaire donnée par la méthode GMRES Méthode d Arnoldi de base pour le calcul approché d éléments propres Présentation de la méthode d Arnoldi pour le calcul d éléments propres (utilisation de H) Erreur de méthode d Arnoldi Erreurs inverses associées aux solutions ν et z du problème d éléments propres fournie par la méthode d Arnoldi Comparaisons des deux erreurs inverses de méthode et de calcul. 88
7 TABLE DES MATIÈRES Calcul d éléments propres et arrḙt heureux Vecteur initial v et itération d arrêt k Conclusion et perspectives Lignes et courbes spectrales pour le champ de singularités de A E Perturbations homotopiques A te, t d argument fixe Perturbations homotopiques A te, t de module fixe Valeurs propres de A te et pseudo-spectre homotopique Un exemple : la méthode d Arnoldi Courbe Γ et valeurs propres de A et de A E Expérimentations numériques Protocole expérimental Matrice E de rang Matrice E de rang Courbe Γ et précision finie Conclusion : Lien avec PRECISE Illustrations par le calcul en précision finie Algorithme d Arnoldi en précision finie pour la décomposition incomplète de Hessenberg Comparaison algorithmique entre CGS et MGS Analyse de la fiabilité de H k et de V k Expérimentations numériques Méthode GMRES de base en précision finie Qualité des solutions calculées par l algorithme GMRES suivant l orthogonalisation de Householder, Gram Schmidt classique et Gram Schmidt modifiée Défaut d orthogonalité et erreur inverse Conclusion générale Méthode d Arnoldi pour le calcul d éléments propres implantée en précision finie Etude expérimentale de la méthode d Arnoldi à partir d un vecteur initial Valeurs propres de H k pour k k Commentaires et lien avec PRECISE Conclusion 5 Bibliographie 53
8 8 TABLE DES MATIÈRES
9 Notations x est la norme euclidienne de x lc n A est la norme induite par la norme euclidienne de A lc n n Sp A est le spectre de A Re A est le complémentaire de Sp A dans lc = ensemble résolvant de A ρ A est la valeur du plus grand module des valeurs propres de A P A est le polynôme minimal associé à A P A v est le polynôme minimal associé à A et à v d o P est le degré du polynôme P Si A lc n n, A H est la transposée conjuguée de A Si A IR n n, A T est la transposée de A Les lignes spectrales Λ associées à A E sont l ensemble des valeurs propres de A te, t IR La courbe spectrale Γ associée à A E est l ensemble z Re A ;ρ E A zi ã représente la quantité a calculée en précision finie ω Ṽ est le défaut d orthogonalité de Ṽ C n m, m n ω Ṽ min Ṽ Q, Q orthonormale dans C n m ) γ Ṽ Ṽ H Ṽ I m, Ṽ C n m, est une estimation de ω Ṽ 9
10
11 Introduction Le problème de la détermination du spectre d une matrice A joue un rôle important dans différentes branches des Sciences en raison de l information qu il peut apporter sur la stabilité du problème considéré ou sur la convergence des méthodes numériques utilisées, entre autres. Souvent, la matrice A concernée est de très grande taille. On peut alors utiliser une des méthodes basées sur une projection sur un espace de Krylov. Dans cette thèse, nous nous intéressons plus principalement à la méthode d Arnoldi de base. L algorithme d Arnoldi consiste à calculer recursivement la mise de A sous la représen- tation unitairement semblable H, H de type Hessenberg, soit A VHV H. Il est mathématiquement équivalent à la factorisation QR de la matrice K m v Av Av m où V m v v m est la base de Krylov de taille n m, m n. Si aucune hypothèse restrictive n est faite sur A, la matrice H n est pas toujours irréductible. C est le cas en particulier si A est défective et dérogatoire. Loin de considérer ce cas comme une difficulté à éliminer par hypothèse (l algorithme exact s arrête), nous concentrons notre étude sur ce cas dit arrêt heureux (happy breakdown) puisque l information recueillie est exacte. Afin de mener notre étude de manière pratique et théorique, nous faisons une analyse inverse fondée sur les perturbations homotopiques te, t lc, de A, supposant ainsi que la structure E de la matrice de perturbation est connue. Ce document intitulé Sur le déploiement du champ spectral d une matrice est composé de 6 chapitres. Dans le chapitre, nous introduisons des notions de base afin de mieux comprendre l arrêt de l algorithme de la méthode d Arnoldi. Nous faisons également l état de l art de l analyse inverse des erreurs associées au calcul approché d éléments
12 2 propres en insistant sur le choix important du type et de la norme de la perturbation. Nous rappelons les erreurs inverses pour des perturbations de type normwise. Dans le chapitre 2, nous décrivons le calcul inexact pour lequel la perturbation est de structure connue. Un des deux exemples présentés de calcul inexact nous permettra de mieux comprendre la méthode d Arnoldi. Nous décrivons ensuite le calcul incertain pour lequel seule la norme de la perturbation est connue. Il est possible de comparer ces deux modes de calculs entre eux, en prenant certaines précautions. La valeur de la norme de la matrice de perturbation joue un rôle important. C est pour cela que nous introduirons les facteurs de normalisation. Dans le chapitre 3, nous introduisons les notions d erreur inverse homotopique et de pseudo-spectre homotopique liées au calcul inexact. Nous insisterons sur l importance de facteurs de normalisation afin de comparer des erreurs inverses et des pseudo-spectres entre eux ainsi qu avec ceux issus de perturbations normwise. Dans le chapitre 4, nous cherchons à analyser l algorithme d Arnoldi et à déterminer, grâce aux perturbations homotopiques, la qualité de l information spectrale fournie par la matrice H ainsi que ses limites. Nous établissons également un lien entre le vecteur initial choisi et le numéro de l itération d arrêt de l algorithme d Arnoldi. Dans le chapitre 5, nous nous intéressons à la localisation des valeurs propres d une famille de matrices A t A te, avec E la matrice de structure des perturbations homotopiques, et t lc. Nous distinguons le cas où t est de module fixe du cas où l argument de t est fixe. Nous insisterons sur le rôle du rang de la matrice E. Nous montrerons l apport supplémentaire d information lorsque le rang de E est égal à, ce qui est le cas lorsque l on utilise la méthode d Arnoldi. Dans le chapitre 6, nous étudions le comportement de la méthode d Arnoldi lors de calculs effectués en précision finie à l aide d une approche qualitative. Nous étudions à travers des expérimentations numériques l impact de la précision finie sur l arrêt heureux et sur l orthogonalité de la base construite. Cette étude expérimentale nous conduira à établir un lien avec le logiciel PRECISE.
13 Chapitre Rappels et préliminaires. Définitions.. Valeurs propres et vecteurs propres d une matrice A Soit le problème P : trouver λ lc, x lc n tels que Ax λx. Le scalaire λ est appelé valeur propre de la matrice A carrée d ordre n, à composantes réelles ou complexes, et x est un vecteur propre associé. Le nombre complexe λ est une valeur propre de A si et seulement si ce nombre est un zéro du polynôme caractéristique π x det xi A, où det désigne le déterminant. Ce polynôme admet n zéros dans lc, distincts ou non, qui forment le spectre de A : Sp A! λ lc : λ est valeur propre de A" L ensemble Re A des points z de lc où A zi # existe s appelle l ensemble résolvant de A : c est le complémentaire dans lc de Sp A. Le rayon spectral de A, noté ρ A, est la valeur du plus grand module des valeurs propres de A. La multiplicité géométrique de λ, notée g λ, est le nombre maximal de vecteurs propres indépendants qu on peut lui associer : g λ dim Ker A λi. La multiplicité algébrique de λ, notée m λ est égale à sa multiplicité en tant que racine du polynôme caractéristique π x. De manière générale, pour une valeur propre λ, g λ $ m λ. Une valeur propre λ de multiplicité algébrique m λ est dite simple, sinon elle est dite multiple. Une valeur propre multiple (de multiplicité m λ ) est dite semi simple si et seulement si elle admet m λ vecteurs propres indépendants, sinon elle est dite défective. La matrice A est donc diagonalisable si et seulement si ses valeurs propres sont simples ou semi-simples ou encore, si et seulement si ses vecteurs propres peuvent être choisis indépendants. Si A est non diagonalisable, elle est appelée défective. Si la matrice A n est pas diagonalisable, elle admet une décomposition bidiagonale sous forme de Jordan. 3
14 4 CHAPITRE. RAPPELS ET PRÉLIMINAIRES..2 Décomposition sous forme de Jordan d une matrice Théorème.. [3, 4] Étant donné une matrice A lc n n, il existe une matrice régulière X telle que X AX diag J i j où J i j λ i I E i j, E i j est une matrice d ordre k i j avec I E i j ki j pour j 2 g i et où λ i est une valeur propre distincte de A, i d n. La forme de Jordan d une matrice A est unique à l ordre des blocs près. Le jème bloc de Jordan J i j associé à la valeur propre λ i est de la forme : J i j λ i λ i λ i I E i j La matrice J i j λ i I est identique à la matrice E i j, qui est une matrice de taille k i j et dont la sur-diagonale est formée de k i j uns consécutifs. L ensemble des blocs de Jordan J i j, j g i, associés à la même valeur propre λ i constitue la boîte de Jordan B i associée à λ i. Cette boîte de Jordan B i est de taille m i et contient g i blocs, chacun de taille k i j. Ainsi, on peut écrire que g i $ m i. La boîte B i associée à la valeur propre λ i est de la forme suivante : J i... B i J i j... On appelle indice de λ i, noté l i, la dimension du plus grand bloc de Jordan associé à la valeur propre λ i c est à dire l i max k j% '&(&(&( i j g i Dans le chapitre 4, nous sommes amenés à utiliser très souvent la notion de polynôme minimal. Nous développons donc à présent cette notion. J igi..3 Polynôme minimal Deux sortes de polynômes minimaux [7] sont utiles par la suite, celui associé à une matrice et celui associé à une matrice et un vecteur. Commençons d abord par étudier la notion de polynôme minimal associé à une matrice.
15 .. DÉFINITIONS 5 Polynôme minimal associé à une matrice Parmi tous les polynômes moniques (de coefficient de tête égal à ) P de la forme P x i β i x i, β max) i*, tels que P A β i A i i le polynôme minimal de A est le polynôme monique P de plus petit degré [29]. On le note P A x. Polynôme minimal associé à une matrice et un vecteur Parmi tous les polynômes moniques P de la forme P x β i x i i β max) i*, tels que P A c β i A i c i le polynôme minimal de A associé à c est le polynôme monique P de plus petit degré. On le note P A c x. Relation entre le polynôme minimal associé à une matrice et le polynôme minimal associé à une matrice et un vecteur Pour une matrice A et un vecteur c, le polynôme P A x appliqué à A est nul tandis que le polynôme P A c x appliqué à A et multiplié à droite par c est nul. Ainsi, le degré de P A c x est inférieur ou égal à celui de P A x. Cherchons à savoir si P A c x divise P A x. De manière générale, on peut trouver deux polynômes r et q tels que Si x P A x q x P A c x + r x et d o r, d o P A c. A et que l on multiplie à droite par c l égalité précédente, alors P A A c q A P A c A c r A c Or P A A - et P A c A c. Ainsi, r A c Comme P A c est le polynôme monique de plus petit degré parmi tous les polynômes moniques P x qui vérifient P A c, et que d o r. d o P A c, alors r. P A c x divise donc P A x. Si λ λ d sont les valeurs propres distinctes de A et l l d leur indice respectif alors, d après [7], P A x x λ l / x λd l d d l x λ i i i%
16 6 CHAPITRE. RAPPELS ET PRÉLIMINAIRES Comme P A c x divise P A x, P A c x d x λ i i% l i où, pour i d, l i $ l i. Lemme.. Si A est une matrice diagonalisable possédant d valeurs propres distinctes, alors le degré du polynˆome minimal associé à A et à tout vecteur c est inférieur ou égal à d. Preuve Si A est une matrice diagonalisable possédant d valeurs propres distinctes, alors les indices l i, pour i d, sont égaux à. Le polynôme P A de degré d est donc de la forme d i% x λ i. Le degré de P A c x est inférieur ou égal au degré de P A x, donc inférieur ou égal à d. Pour mieux aborder le chapitre 4, nous allons insister sur cette notion de polynôme minimal associé à une matrice et à un vecteur. Le but est, pour une matrice A donnée, de relier la structure du vecteur c et l expression du polynôme minimal associé à la matrice A et au vecteur c...4 Degré du polynôme minimal et structure du vecteur Le polynôme P A c x, d i% x λ i vérifie P A c A c. Ainsi, d A λ i I i% l i est le polynôme minimal associé à A et c qui La quantité d i% l i est égale au degré du polynôme minimal associé à A et à c. Sans perte d information pour la suite du développement et pour mieux comprendre le phénomène, nous allons supposer que la matrice A est réduite à une forme de Jordan. Supposons dans un premier temps que A est réduite à un bloc de Jordan noté J, de taille k, associé à la valeur propre λ. Deux questions peuvent être posées.. A quelle puissance doit-on élever A λi J λi pour obtenir une matrice nulle? Autrement dit, quel est le degré du polynôme minimal associé à la matrice A J? La matrice J λi est égale à une matrice formée d une sur-diagonale composée de k uns consécutifs. Il est donc nécessaire d élever à la puissance k la matrice J λi afin d obtenir une matrice nulle de taille k. Le polynôme minimal associé à la matrice A est donc de degré k, la taille du bloc de Jordan. Cette valeur k est l indice de la valeur propre λ. l i c
17 5.. DÉFINITIONS 7 2. Soit un vecteur colonne c de taille k. Sachant que A est un bloc de Jordan de taille k, le polynôme minimal associé à A J et c est de la forme x λ Quelle doit être la plus petite puissance l de la matrice A λi telle que A λi J λi qui soit l c? Il est clair que les composantes du vecteur c jouent ici un rôle très important. La matrice A λi est une matrice de taille k qui admet une sur-diagonale composée de k uns consécutifs. Le produit de A λi l par c peut être schématisé de la façon suivante : l. A λi l c l c.. c k l c l c, c est à l soit le polynôme minimal associé à A et c, il est nécessaire que Pour que l égalité A λi soit vérifiée et que A λi dire que x λ c l et pour tout k l, c k!. c est à dire que l max k2+3 ;k 4 k;c k " Pour un tel vecteur c et une telle matrice A, le polynôme minimal associé à A et à c est bien de degré l. Nous pouvons prendre un exemple pour illustrer ce propos. Soit λ λ A et c λ λ c c 2 c 3 c 4 Toutes les valeurs c k, k 4, sont importantes et impliquent la valeur du degré du polynôme minimal, qui ne peut excéder la valeur 4, car l indice de la valeur propre λ est égale à 4. C est ce qui est montré dans le tableau suivant : c c 2 c 3 c 4 deg P A c où le signe 5 indique une valeur quelconque complexe pour la composante c k, k 4, correspondante., alors le degré du polynôme minimal associé à A et à c est égal à 4 même, alors le degré de P A v égal à l vaut Si c 4 si c 4 tend vers sans l atteindre. Si c 4 6
18 7 8 8 CHAPITRE. RAPPELS ET PRÉLIMINAIRES ~ >? 9 : ; < = FIG.. Valeur de l en fonction de c 4 3 si c 3 et est strictement inférieur à 3 si c 3. C est ce que montre la figure. suivante en supposant que c Cette situation peut être comparée à un cas particulier [9] de l étude géométrique d une équation de degré 4 du type x 4 ax 3 bx 2 cx d Nous avons utilisé le fait que les valeurs de x solutions de l équation de degré 4 sont les abscisses des points d intersection entre la parabole d équation y x 2 et l hyperbole d équation y 2 A ax b y cx d. Nous avons étudié l hyperbole suivant les paramètres a, b, c et d, et nous avons remarqué que les paramètres a et c jouaient un rôle important car ils étaient les coefficients de la variable x dans l équation de l hyperbole. C est ainsi que nous avons étudié l allure de l hyperbole lorsque a c! et lorsque a et c tendent tous les deux vers. Dans le cas où on considère que le rapport a c est différent de 2 b, on remarque que si a c! B, alors l hyperbole est réduite à une demi-droite définie sur IR ou sur IR si a et c tendent tous les deux vers, l hyperbole est réduite à une droite. Il y a discontinuité du domaine de définition de l hyperbole suivant les valeurs de a c. Nous avons établi le lien entre la structure du vecteur c et l expression du polynôme minimal associé à A et à c pour cette matrice A donnée. Cette matrice étudiée était simple, semblable à un bloc de Jordan. A présent, supposons que la matrice A est une boîte de Jordan associée à une valeur propre λ. On suppose que cette boîte est de taille m et comporte g blocs de Jordan notés J j, j g et chacun de taille k j. Schématiquement,
19 .. DÉFINITIONS 9 la matrice A est de la forme suivante : A B J... avec J j λ λ J j... de taille k j, pour j les mêmes questions que précédemment. J g g. Lorsque la matrice A est de cette forme, on peut alors poser. A quelle puissance doit-on élever A λi B λi pour obtenir une matrice nulle? Autrement dit, quel est le degré du polynôme minimal associé à la matrice A B? La matrice B λi est égale à une matrice formée d une sur-diagonale composée de g blocs de uns consécutifs. Le nombre de uns consécutifs dépend du bloc de Jordan J j, j g, associé. On rappelle que l est l indice de la valeur propre λ c est à dire que l max k j% (&(&'&( j g Comme le nombre consécutif de uns sur la sur-diagonale de A est au plus égal à l, il est donc nécessaire d élever à la puissance l la matrice A λi afin d obtenir une matrice nulle de taille m. Le polynôme minimal associé à la matrice A est donc de degré égal à l indice l de la valeur propre λ. 2. Soit un vecteur colonne c de taille m que l on note c c H c H 2 c H g H avec c j un vecteur colonne de taille k j, j g. Sachant que A est supposée être une boîte de Jordan de taille m, le polynôme minimal associé à A et à c est de la forme x λ l. Quelle doit être la plus petite puissance l de la matrice A λi B λi qui soit telle que A λi l c et A λi l c? Il est clair que toutes les composantes du vecteur c jouent ici un rôle très important. La matrice A λi est une matrice de taille m qui admet une sur-diagonale composée d au plus l uns consécutifs. Le produit de A λi l par c peut être schématisé de la façon suivante : A λi l c E... l c E j.... c j. E g c g
20 5 2 CHAPITRE. RAPPELS ET PRÉLIMINAIRES avec E j pour j g Ainsi, l c l c, c est à l soit le polynôme minimal associé à A et à c, il est nécessaire que Pour que l égalité A λi soit vérifiée et que A λi dire que x λ (a) pour tout k l, c j k, j g, (b) il existe une valeur j C ;g telle que c j l D c est à dire que l max j2+3 g 4 ξ j avec ξ j max k2+3 ;k j4 k;c j k D sous la convention : si c j, alors ξ j. Nous prenons un exemple pour illustrer ce propos. On choisit pour la matrice A une boîte de Jordan de taille 8 composée de 4 blocs de Jordan associés à la valeur propre λ. La matrice A et le vecteur c sont les suivants : A λ λ λ λ λ λ λ λ et c c c 2 c 2 2 c 3 c 3 2 c 3 3 c 4 c 4 2 Toutes les composantes du vecteur c sont importantes et impliquent la valeur du degré du polynôme minimal, qui ne peut excéder la valeur 3, car l indice de la valeur propre λ est égal à 3. C est ce qui est montré dans le tableau suivant : 4 i% E c i E 4 i% 2 E c i 2 E c 3 3 deg P A c où le signe 5 indique une valeur quelconque complexe de la somme correspondante. pour une telle matrice A et quelque soit v, d o P A v $ 3.
21 .. DÉFINITIONS 2 Nous avons traité le cas où A est égale à un bloc de Jordan et le cas où A est égale à une boîte de Jordan. Maintenant, traitons le cas où A est une matrice composée de plusieurs boîtes B i de Jordan, i d, associées à des valeurs propres distinctes λ i, i d. La matrice A est donc supposée de la forme suivante : B... A B i... Nous allons à présent essayer de répondre aux mêmes questions que précédemment.. Quel est l expression du polynôme minimal associé à la matrice A? Par définition, le polynôme minimal associé à la matrice A est d i% x λ l i où l i est l indice de la valeur propre λ i, i d. 2. Soit un vecteur colonne c de taille n que l on note c c H c H 2 c H d H avec c i c H i c H i2 c H ig i H de taille m i, et c i j un vecteur colonne de taille k i j, i d, j g i. Le polynôme minimal associé à A et à c est de la forme d i% x λ i l i. Quelles sont les conditions nécessaires sur les valeurs de l i, i d, et les composantes du vecteur c pour que d i% x λ i l i soit le polynôme minimal associé à A et à c? Autrement dit, quelles sont les conditions nécessaires sur les valeurs de l i, i d, et les composantes du vecteur c pour que d i% A λ i I l i c et l i par c peut être schématisé d i% A λ i I de la façon suivante : B d l i c? Le produit de d i% A λ i I d i% B λ i I l i... c d i% B j λ i I l i... d i% B d λ i I l i. c j. c d Résoudre d i% A λ i I l i c équivaut à résoudre d i% B λ i I l i c d i% B j λ i I.... l i c j d i% B d λ i I l i c d..
22 22 CHAPITRE. RAPPELS ET PRÉLIMINAIRES Comme les matrices B j λ i I, pour i et j allant de à d, i elles et sont inversibles, le problème d i% A λ i I l i c B λ I. B j λ j I. B d λ d I l c.. l j c j.. l d c d j, commutent entre est équivalent à Ce système est équivalent à d systèmes déjà étudiés c est à dire lorsque la matrice A l i c est réduite à une boîte de Jordan. Ainsi, pour obtenir l égalité d i% A λ i I en considérant d i% A λ i I l i c, il est nécessaire que, pour i d, avec ξ i j l i max k2+3 k i j4 max ξ j2+3 i j g i4 k c i j k D sous la convention : si c i j, alors ξ i j. Pour la suite du développement, lorsque nous définirons la quantité ξ i j, nous admettrons cette convention. Le degré du polynôme minimal associé à A et à c est égal à d i% l i. Nous prenons un exemple pour illustrer ce propos. Nous choisissons, pour matrice A, une boîte de Jordan de taille composée de 4 blocs de Jordan, un associé à la valeur propre λ, deux associés à la valeur propre λ 2 et un associé à la valeur propre λ 3. La matrice A et le vecteur c sont les suivants : A λ λ λ 2 λ 2 λ 2 λ 2 λ 2 λ 3 λ 3 λ 3 avec c c c 2 c 2 c 2 c 2 2 c 2 3 c 22 c 22 2 c 3 et c c 3 c 3 2 c 3 3 c c 2 c 3
23 DÉFINITIONS 23 Toutes les composantes du vecteur c sont importantes et impliquent la valeur du degré du polynôme minimal, qui ne peut excéder la valeur 8, car la somme des indices des valeurs propres λ λ 2 et λ 3 est 8. C est ce qui est montré dans le tableau suivant, sachant que le degré du polynôme minimal associé à A et à c est égal à l l 2 l 3 : c c 2 l 2 E c 2 E E c 22 E E c 2 2 E E c 22 2 E c 22 3 l Ainsi, c 3 c 3 2 c 3 3 l où le signe 5 implique une valeur quelconque complexe de la quantité correspondante. pour une telle matrice A et quelque soit v d o P A v $ 8. Dans tout ce qui précède, nous avons supposé que la matrice A était réduite à une forme de Jordan. Abordons maintenant le cas où la matrice A est une matrice quelconque de la forme XJX, en rapport avec le théorème... Enonçons le lemme suivant qui va nous permettre de généraliser la notion de polynôme minimal associé à une matrice et à un vecteur. Lemme..2 Soit A XJX une décomposition sous forme de Jordan de A et soit v Xc. Le polynˆome minimal associé à A et à v est égal au polynˆome minimal associé à J et à c. Preuve On suppose que A admet d valeurs propres notées λ i, d indice l i, i d. Le polynôme minimal associé à A et v noté P A v est égal à d i% x λ i I l i. Comme on sait que A XJX et que v Xc, alors P A v A v d i% A λ i I X d i% J λ i I X d i% J λ i I l i v l i X Xc l i c
24 B CHAPITRE. RAPPELS ET PRÉLIMINAIRES On a P A v A v si et seulement si d J λ i I i% Ainsi, on peut écrire que P A v est aussi le polynôme minimal associé à J et à c. l i c Grâce à ce lemme, on peut énoncer la proposition suivante : Proposition.. Si on connaˆıt. une décomposition sous forme de Jordan d une matrice A c est à dire les matrices X et J telles que A XJX avec J B i... et B d J i... B i J i j... chaque B i étant de taille m i, pour i d, X une base de Jordan de A, 2. les composantes du vecteur v dans cette base de Jordan X c est à dire le vecteur c sous la forme c c H c H 2 c H d H avec c i c H i c H i2 c H ig i H de taille m i, et c i j un vecteur colonne de taille k i j, i d, j g i, alors, on peut déterminer le polynˆome minimal associé à la matrice A et au vecteur v. Ce polynˆome minimal est de la forme J igi avec et ξ i j P A v x l i max k2+3 k i j4 d x λ i i% max ξ j2+3 i j g i4 l i k c i j k D "
25 .. DÉFINITIONS 25 Cette construction du polynôme minimal associé à une matrice et à un vecteur est très importante pour la suite du développement. Nous pouvons donc admettre théoriquement que l on a accès au polynôme minimal associé à une matrice (resp. associé à une matrice et un vecteur) lorsque les données sont suffisantes. Pour pouvoir apporter des réponses théoriques aux problèmes posés dans le chapitre 4, pour une valeur de p entière positive il est important de remarquer que P A v A p v lorsque P A v est le polynôme minimal associé à A et à v. A présent, énonçons le lemme suivant qui nous permettra de calculer P A v A p v. Lemme..3 Soit P A v x F d i% x λ i Alors, pour tout vecteur v 2 lc n, si Preuve du lemme Soit l i le polynˆome minimal associé à A et à v. P A v A v 2 alors P A v A Av 2 P A v x d i% x λ i l i le polynôme minimal associé à A et à v, v Xc ) * où c ) * a été partitionné de la même façon que pour la proposition.., v 2 Xc ) 2* où c ) 2* admet la même partition que c ) *, Av Xc ) 3* où c ) 3* admet la même partition que c ) *, ξ ) * i j max k2+3 k i j4 k;c ) * i j k D et l ) * i max j2+3 g i4 ξ ) * ξ ) 2* i j max k2+3 k i j4 k;c ) 2* i j k D et l ) 2* i max j2+3 g i4 ξ ) 2* ξ ) 3* i j max k2+3 k i j4 k;c ) 3* i j k D et l ) 3* i max j2+3 g i4 ξ ) 3* Si P A v A v 2, alors pour i d, j g i, ξ ) 2* i j $ ξ ) * i j et l ) 2* i $ l ) * i. On utilise les notations du théorème... On pose x ) k* i j i j, i j, i j. le kème vecteur associé au bloc de Jordan J i j de la valeur propre λ i pour i d, j g i et k n i j. Si le vecteur v 2 admet une composante non nulle dans la direction de x ) k* i j, c est à dire si c ) 2* i j k G, alors Av 2 admettra une composante non nulle dans la direction de x ) k* i j, si k et λ i, de x ) k*, i j et x ) k * i j si k et λ i de x ) k * i j si k et λ i, ou sera égal au vecteur nul si k et λ i. Ainsi, on peut affirmer que, pour i d, j g i, ξ ) 3* i j $ ξ ) 2* i j et l ) 3* i $ l ) 2* i. Comme on sait que, si P A v A v 2, alors pour i d, j g i, ξ ) 2* i j $ ξ ) * i j et l ) 2* i $ l ) * i.
26 26 CHAPITRE. RAPPELS ET PRÉLIMINAIRES on peut donc en déduire que ξ ) 3* i j $ ξ ) * i j et l ) 3* i $ et que P A v A Av 2. Ceci finit la preuve. l ) * i Lemme..4 Si P A v x d x λ i i% est le polynˆome minimal associé à A et à v alors l i P A v A A p v pour une valeur de p entière positive quelconque. Preuve du lemme Démontrons ce lemme par récurrence. A-t-on P A v A A p v lorsque p? C est à dire a-t-on P A v A v? Oui, par définition du polynôme minimal associé à la matrice A et au vecteur v. Supposons que P A v A A p v. A-t-on P A v A A p v? D après le lemme..3, on sait que si P A v A v 2, alors P A v A Av 2. En posant v 2 A p v, on affirme que si P A v A A p v, alors P A v A A p v. Si P A v A A p v, alors P A v A A p v. Comme P A v A v, on peut en déduire que pour tout p entier positif, P A v A A p v. Les notions importantes portant sur les notions de valeurs propres et de polynômes minimaux ont donc été abordées dans cette section et nous aiderons à apporter une réponse aux questions posées dans les chapitres 4. A présent, intéressons nous à la puissante notion d analyse inverse des erreurs et énonçons toutes les formules qui vont nous être utiles..2 Analyse inverse des erreurs : état de l art Lorsque l on effectue des calculs sur ordinateur, le résultat obtenu est une estimation du calcul exact du fait de l arithmétique finie de l ordinateur. Connaissant ce phénomène, il est important de pouvoir estimer la validité de la solution obtenue calculée en précision finie. Ce problème peut être traité par la théorie des perturbations grâce à la notion d erreur inverse développée par Wilkinson [43] et aussi grâce à l idée du conditionnement
27 .2. ANALYSE INVERSE DES ERREURS : ÉTAT DE L ART 27 introduit par Turing. Dans ce cas précis de calculs sur ordinateur, les erreurs inverses s exprimeront sous une formulation relative car elles admettent comme jauge la précision machine ψ H qui est une quantité relative. De manière similaire, en arithmétique exacte, lorsque un opérateur est, par exemple, remplacé par une approximation discrète, on voudrait aussi estimer la validité de la solution approchée (calculée exactement) à l égard de l erreur de troncature. La notion d erreur inverse peut de même estimer la validité de cette solution approchée. Dans ce cas précis, la formulation de l erreur inverse peut être absolue (convergence vers ) ou relative à l incertitude sur les données. A l aide des facteurs de normalisation, on laisse ainsi le choix à l utilisateur du type de la formulation qu il juge pertinente. Dans ce développement, nous ne nous intéressons qu à l erreur inverse. Plus de précisions à propos du conditionnement peuvent être trouvées dans [5, 2]. Nous allons à présent rappeler les notions fondamentales établies sur les erreurs inverses. Ces erreurs inverses sont établies dans le cas où le calcul est un calcul approché et dépendent d un ou de plusieurs facteurs de normalisation. Ces erreurs inverses s appliquent encore lorsque l on effectue des calculs à précision finie. Seule la formulation relative est alors à considérer. Notre présentation est adaptée de [5]. Soit le problème P F x y P avec la classe de perturbations admissibles sur F et/ou sur y notée par τ, et mesurée par. La solution approchée x est la solution exacte d un ou plusieurs problèmes perturbés Q de type P, c est à dire, F F I x y y Q de F y dans τ satisfaisant Q n est pas vide. Quand en supposant que l ensemble J l ensemble J n est pas vide, l erreur inverse associée à la solution approchée x est alors définie par η x min K F y L F y. τ tel que F F I x y y" Pour vérifier la validité de x en tant qu approximation de x, nous comparons l erreur inverse η x avec la précision de l ordinateur dans le cas d un calcul en précision finie, avec le niveau de l erreur de méthode (erreur de troncature) ou avec le niveau d incertitude sur les données pour des applications pratiques. Grâce à la notion d erreur inverse, nous pouvons définir l ensemble des ε pseudo-solutions [5] pour F x y par Σ ε P! z lc;η z $ ε
28 28 CHAPITRE. RAPPELS ET PRÉLIMINAIRES relative à τ et à la norme : toutes les ε pseudo-solutions correspondent à une erreur inverse d au plus de taille ε. Cet ensemble n est autre que le domaine d incertitude [42]. Comme exemple de pseudo-solutions, nous pouvons citer les pseudo-trajectoires de l équation de logistique [5], pseudo-zéros de polynômes [5, 33], et pseudo-spectres de matrices [5, 34, 35, 4]. Accomplir une analyse inverse de stabilité correcte est une tâche qui est loin d être évidente. Le choix des données à perturber, le choix de la perturbation à considérer et enfin le choix de la norme pour mesurer les données et les perturbations sont les clefs qui influent sur la pertinence de l analyse de stabilité. Ainsi, la classe de perturbation et la norme doivent être choisies aussi correctement que possible..2. Classe de perturbations La validité des conclusions de n importe laquelle des analyses inverses de stabilité dépend fortement de la capacité de la classe de perturbations considérées à représenter le phénomène analysé. Pour illustrer ce fait, nous considérons l exemple d un système linéaire Ax b. Plusieurs classes de perturbations peuvent être considérées. Les perturbations peuvent affecter A ou b séparément ou A et b ensemble. Tandis que les professionnels du logiciel s interessent plutôt à la classe de perturbations qui représentera au mieux les perturbations générées par le calcul à précision finie, les physiciens, eux, sont plus intéressés par la mesure des incertitudes sur les données ou par la variation de paramètres spécifiques du modèle..2.2 Norme Après avoir choisi les données à perturber et la classe de perturbations à appliquer, nous devons choisir une norme pour mesurer les perturbations sur les données et leur effet sur la solution. En mathématiques exactes, la distance entre la solution approchée x et la solution exacte x est mesurée par l erreur absolue x x x, l idéal de la convergence étant que x DM. D autre part, les numériciens ou les physiciens considèrent le plus souvent une formulation relative de l erreur x ONF x ou x ONF x (avec x ou x fixé) au lieu de x qu ils comparent à une précision relative unité dont ils disposent (précision machine ψ P 5 ou instrument de mesure). Pourquoi cela? Parce que, dans les logiciels numériques ou dans la Physique, c est souvent une estimation relative de la solution approchée qui a du sens, et non une estimation absolue. Par exemple, pour les calculs à précision finie, on compare deux estimations relatives entre elles, c est à dire une estimation relative de la solution avec la précision de l ordinateur. Dans [5], pages 4-43, quelques exemples illustrent comment tenir compte des facteurs de normalisation dans les ensembles de données et/ou les solutions provenant
29 .2. ANALYSE INVERSE DES ERREURS : ÉTAT DE L ART 29 de l utilisation de logiciels..2.3 Exemples Comme exemple, nous décrivons deux classes de perturbations, elles sont appelées composante à composante et en norme mais nous utiliserons plutôt l appellation anglophone componentwise et normwise, couramment utilisées en analyse numérique. Considérons une matrice A lc n n et sa perturbation A. Pour le cas componentwise, A lc n n avec la norme calibrée satisfait A RQ max i j E a i j E e i j où E S e i j est une matrice ayant une structure précise (e i j T et si e i j alors a i j ). La formulation est absolue quand la matrice E est telle que e i j si a i j et e i j sinon. La formulation est relative si la matrice E est telle que E E A E. Pour le cas normwise, A lc n n avec la norme calibrée satisfait A VU où est une norme subordonnée. La formulation est absolue si α et est relative si α A. Par exemple, une perturbation normwise telle que A U ε peut être obtenue avec a i j εα qui est le cas où toutes les composantes de A peuvent être perturbées. A présent, nous allons traiter seulement les perturbations de type normwise. Nous énonçons les erreurs inverses utiles associées à la solution d un système linéaire et d un problème d éléments propres..2.4 Erreurs inverses pour des perturbations de type normwise Enonçons dans un premier temps l erreur inverse associée à l approximation y de la solution d un système linéaire. A α Erreur inverse associée à la résolution d un système linéaire On suppose que y est la solution approchée du problème Ax b. Pour calculer l erreur inverse, on cherche la taille minimale des perturbations A et b telles que : A A y b b
30 3 CHAPITRE. RAPPELS ET PRÉLIMINAIRES On a le résidu associé à y : r b Ay Pour des perturbations relatives en norme, l erreur inverse associée à l approximation y est : η y min ε ; A $ εα b $ εβ et A A y b b W r (Rigal and Gaches (967)) α y β Le cas classique est lorsque α A et β b. Analyse inverse associée à une solution approchée du problème standard de valeurs propres [5] Nous associons des erreurs inverses au type de perturbations présenté en.2.3. Elles diffèrent par le type d information approchée disponible, c est à dire l approximation ν de la valeur propre λ de A impliquant l erreur inverse η U ν, l approximation y du vecteur propre x de A impliquant l erreur inverse η U y 2, l approximation ν y du couple d éléments propres λ x de A impliquant l erreur inverse η U 3 ν y. Definition.2. Soit ν lc une valeur propre approchée et y lc n un vecteur propre approché pour le problème standard de valeurs propres Ax U normwise U ηi, i 2 3, sont définies respectivement par i) η ν! min ε ;X u Y A A u νu tel que A U $ ε ii) η U y! min 2 ε ;X µ lc Y A A y µy tel que A U $ ε iii) η U ν y min 3 ε ; A A y νy tel que A U $ ε λx. Les erreurs inverses Par défaut, en l absence d exposant, η i représente l erreur inverse de cette section. Lemme.2. Les erreurs inverses normwise peuvent ḙtre respectivement calculées de la manière suivante : η U ν! N U α A νi, η y [Z Ay µy 2 Z α Z y avec µ Z ν y! Z Ay νy Z. η U 3 α Z y Z y H Ay y H y, La preuve du lemme est facile, voir [5] pour plus de détails. Nous rappelons que la formulation est absolue si α et relative si α A. Si nous comparons les erreurs inverses entre elles, nous obtenons les deux propriétés : η U 2 y η U ν! min ν ηu 3 min y\ % ηu 3 ν y (.) ν y (.2)
31 U.2. ANALYSE INVERSE DES ERREURS : ÉTAT DE L ART 3 La notion d erreur inverse normwise habituellement utilisée pour le calcul d éléments propres est η U 3 ν y associée au couple d éléments propres. Cependant, il a été reconnu depuis quelques années [5, U 6, 35, 37] que les deux autres erreurs inverses sont tout aussi utiles. L erreur inverse η est présentée en [6, 35] sous le nom d erreur inverse optimale à cause de la relation (.2). Elle représente la distance normwise de A νi à la singularité pour la classe des perturbations normwise [5]. L erreur inverse η U 2 y est utile lorsque on s intéresse à l évaluation du vecteur propre calculé y. Cependant, elle est du même ordre que η U U ν y 3. L erreur inverse ηu ν peut être significativement plus petite que η ν y 3. Mais, ηu ν est plus onéreux à calculer que ηu y 2 ou ηu 3 ν y. Nous avons donné les erreurs inverses pour des perturbations de type normwise pour le problème standard de valeurs propres. Enonçons maintenant les erreurs inverses pour des perturbations de type normwise pour le problème généralisé de valeurs propres. Analyse inverse du problème généralisé de valeurs propres [6] Le problème généralisé de valeurs propres est le problème (P) : Ax λbx où A et B sont deux matrices de lc n n. Le couple A B est appelé faisceau de matrices. Ce faisceau est régulier si et seulement si X z lc tel que det(a zb ]. On dit que le problème (P) est régulier si le le faisceau A B est régulier. La distance relative entre deux paires de matrices A B et A B est définie par d min ε ; A A $ ε A et B B $ ε B " En arithmétique exacte, les solutions de (P) sont les couples d éléments propres λ i x i i% &'& n. Si (P) est résolu par approximation, les éléments propres approchés sont notés ν i y i i% &(& n et l on pose r i Ay i ν i By i i% &(& n les résidus associés à ces couples d éléments propres. L idée de base de l analyse inverse des erreurs est de considérer que les couples ν i y i i% &'& n sont les solutions, en arithmétique exacte, d un problème voisin de même type P défini par P : Ay νby où les matrices A A A et B B A ne sont jamais entièrement connues explicitement. Toute analyse de stabilité implique un choix de perturbations sur les données et une norme. Si on considère le cas où les perturbations sur les données sont considérées de type normwise, les matrices A lc n n et B lc n n avec leur norme calibrée satisfont A B max Z A Z α ; Z B Z β où désigne une norme subordonnée. La formulation est absolue si α β et relative si α A et β B.
32 U U 32 CHAPITRE. RAPPELS ET PRÉLIMINAIRES Nous pouvons définir trois erreurs inverses ω U i, i 2 3 pour le problème généralisé d éléments propres. Definition.2.2 Soit ν lc une valeur propre approchée et y lc n un vecteur propre approché pour le problème généralisé de valeurs propres Ax λbx. Les erreurs inverses U normwise U ωi, i 2 3, sont définies respectivement par i) ω ν min U ε ;X u ; A A u ν B B u A B $ ε" ii) ω y min WU 2 U ε ;X µ lc; A A y µ B B y A B $ ε" iii) ω ν y! min 3 ε ; A A y ν B B y A B $ ε" U Lemme.2.2 Les erreurs inverses ωi, i 2 3, pour le problème généralisé de valeurs propres peuvent ḙtre respectivement calculées de la manière suivante : ω U ν N α E ν E β A νb, ω U 2 ν Ay µby α Z y Z β ω U 3 ν y! ^Z Ay νby Z α Z y Z avec µ y β. H B H Ay y H B H By si By, Nous laissons le lecteur se reporter à [6] pour plus de détails dans la preuve. Si nous comparons entre elles les erreurs inverses pour le problème généralisé, nous obtenons à nouveau les deux relations : ω U 2 y min ν ωu 3 ν y et ωu ν! min y\ % ωu 3 ν y W
33 Chapitre 2 Calcul asymptotique et calcul incertain Soit une matrice A lc n n et λ une valeur propre multiple de A, de multiplicité m λ. Lorsque l on calcule la valeur propre λ en précision finie ou avec incertitude sur les données, le résultat obtenu n est pas exactement λ, de multiplicité m λ, mais un ensemble de m λ valeurs propres λ i, i m λ. Ces valeurs propres λ i, i m λ, sont considérées comme valeurs propres de la matrice A A, matrice voisine de A. Quelles informations a-t-on sur l ensemble des valeurs propres λ i, i m λ, lorsque l on connaˆıt A et partiellement A? La matrice A est connue mais nous ne connaissons pas toujours la matrice A. En effet, nous pouvons connaître soit sa structure, c est à dire qu il existe une matrice dite de structure ou de déviation que l on note E et un paramètre t lc qui soient tels que A soit sa norme A. Dans le cas où l on connaît la structure de A te, te, effectuer des calculs sur A A est du calcul asymptotique à l aide du paramètre t (par exemple, calculer λ t et x t éléments propres de A t A te). Dans le cas où l on ne connaît que la norme de la matrice A, ces calculs constituent le calcul incertain c est à dire des calculs en présence d incertitude sur les données. A présent, nous allons chercher l information que l on peut obtenir sur les valeurs propres de A A lorsque l on effectue du calcul asymptotique c est à dire lorsque A est de la forme A te. Cette idée a été déjà développée dans différents travaux de F. Chaitin-Chatelin. Nous citons pour exemple l approximation numérique d un opérateur linéaire T [2] et la perturbation homotopique A te de la matrice A [3]. Voir aussi [, 4]. 33
34 34 CHAPITRE 2. CALCUL ASYMPTOTIQUE ET CALCUL INCERTAIN 2. Calcul asymptotique : structure de A connue Avant de passer à la théorie du calcul asymptotique, nous souhaitons motiver le lecteur sur l importance de ce calcul en donnant un exemple issu de la dynamique des populations [25]. Nous allons étudier la propagation du virus V IF (Virus Immuno déficience Féline) dans une population de chats domestiques. Ce virus est plus souvent appelé sida des chats. 2.. Un exemple : le virus V IF Étudions dans un premier temps l évolution du virus V IF. Description et évolution du virus V IF Le virus V IF se développe dans une population de chats domestiques. Il se transmet par la salive lors d une morsure profonde. L échange peut s établir entre chats de même sexe, dit échange homosexuel, lors de la dominance des mâles ou les combats entre femelles pour obtenir de la nourriture pour leurs petits. L échange peut aussi s établir entre chats de sexes différents, dit échange hétérosexuel, pendant l accouplement, lorsque le mâle attrape la nuque de la femelle. Actuellement, il n existe pas de vaccin pour lutter contre ce virus donc tous les chats peuvent être atteints un jour de ce virus. Parmi une population de chats pouvant être atteinte par ce virus, nous distinguons plusieurs groupes de chats suivant l état avancé de la contamination. Nous distinguons les chats : sensibles. Ces chats ne sont pas atteints par le virus mais peuvent l être à tout moment. exposés. Ces chats sont atteints par le virus mais ne sont pas contagieux. La période où les chats sont dits exposés est d environ 4 à 8 semaines. asymptomatiques. Ces chats sont contagieux, mais paraissent normaux. Les tests sanguins sont positifs et les chats se détériorent intérieurement pendant une durée de 6 à 7 ans. sans défense. Cet état ne dure que 2 mois maximum. Afin de mieux comprendre l évolution de cette population de chats domestiques pouvant être atteints du virus V IF, nous représentons ces différentes catégories de chats en schémas par boite. Nous supposons que l ensemble de tous les chats distingués suivant leur contamination par le virus constitue la population totale des chats étudiés, l évolution de la population suit un schéma de Verhulst (838), c est à dire que la variation de population P des chats à un instant donné est exprimée de la façon
35 2.. CALCUL ASYMPTOTIQUE : STRUCTURE DE A CONNUE 35 natalite γ λ X Y Z mortalite FIG. 2. Schéma en boite de l évolution du virus VIF suivante : P_" S b m b m P P k où b est le taux de natalité, m est le taux de mortalité et k est la capacité d accueil maximale de cette population de chats domestiques. La quantité b m P modélise l évolution de la démographie de la population de chats et la quantité b m k P 2 l apport et la dispersion de cette même population, les chats sans défense sont tellement malades qu ils ne peuvent plus se reproduire ni se battre. Nous formons à présent trois ensembles de chats notés : X : les chats sensibles, Y : les chats infectés, contagieux ou pas, Z : les chats sans défense. Le schéma par boite est représenté par la figure 2.. La couleur des flèches dans ce schéma décrivent les relations entre chats X, Y et/ou Z ou bien des événements naturels. En effet, on peut relier une flèche de couleur bleue à la mortalité naturelle, notée m violette à la mortalité dûe au virus, verte à la natalité ne donnant que des chats sensibles, notée b rouge à contamination d un chat sensible devenant ainsi infecté. L incidence ou le nombre d infectés par unité de temps est notée γ. jaune au passage d un chat infecté à son dernier état de la contamination entraînant la mort du chat. Le nombre de chats infectés devenant sans défense par unité de temps est noté par λ.
36 36 CHAPITRE 2. CALCUL ASYMPTOTIQUE ET CALCUL INCERTAIN Les quantités b m λ et γ sont toutes comprises entre et. Nous pouvons à présent construire le modèle de la contamination d une population de chats par le virus VIF. Modèle du virus VIF Le modèle est le suivant : X_ γxy bx by ` m b m k X Y X Y_ γxy λy ` m b m k X Y Y Z_ λy ` m b m k X Y Z où X_, Y_ et Z_ sont les variations des quantités X, Y et Z pour une durée donnée. La variation de la quantité de chats Z se déduit de X, Y et Z mais la quantité de chats Z n a pas d influence sur les chats X et Y. La somme des quantités X, Y et Z est égale à la population totale P de chats et suit correctement un schéma de Verhulst. Le modèle implique un système différentiel qui n est pas linéaire. Toutes les hypothèses établies permettent d assurer une existence globale des solutions. Nous nous intéressons à présent aux états d équilibre et à leur stabilité. Existe-t-il des états d équilibre? États d équilibre et stabilité de ces états A présent, nous cherchons à savoir s il existe des valeurs XaR Y av ZaV, qui sont appelés état d équilibre, de telle sorte que X_, Y_ et Z_. Quelles conditions doit vérifier ce système différentiel pour pouvoir conclure sur la stabilité d un état d équilibre? A présent, énonçons certains rappels afin de répondre correctement à cette question. Commençons par définir la matrice Jacobienne d un système différentiel non linéaire. Definition 2.. Soit le système différentiel non linéaire suivant : X_ F X Y Z Y_ F 2 X Y Z Z_ F 3 X Y Z La matrice Jacobienne de ce système différentiel est la suivante : Jac X Y Z! F ) X Y Z* X F 2 ) X Y Z* X F 3 ) X Y Z* X F ) XY Z* Y F 2 ) XY Z* Y F 3 ) XY Z* Y F ) XY Z* Z F 2 ) XY Z* Z F 3 ) XY Z* Z Le théorème suivant va nous permettre de conclure sur la stabilité d un état d équilibre.
37 2.. CALCUL ASYMPTOTIQUE : STRUCTURE DE A CONNUE 37 Théorème 2.. L état d équilibre XaR Y aw ZaR est localement asymptotiquement stable (LAS) si et seulement si les valeurs propres de la Jacobienne évaluée au point d équilibre Xa Y a Za sont réelles strictement négatives ou à parties réelles strictement négatives. Par conséquent, le théorème précédent nous permet de conclure sur la stabilité des états d équilibre que le système différentiel résultant du modèle du virus V IF peut admettre. Il existe trois états d équilibre provenant du système du modèle du virus. Nous nous intéressons à l état d équilibre Xa Y a Za b k. Cette situation peut avoir lieu lorsque la population de chats n est composée que de chats sensibles et que cette population est au maximum de sa capacité d accueil. Comme on autorise le transfert de population, on conçoit que le virus peut se propager par l intrusion d un chat contaminé parmi cette population de sensibles. Le problème qui se pose à présent est, pour des valeurs de m, b, k et γ données, comment peut varier la quantité λ de telle sorte que le point Xa Y a Za F k soit localement asymptotiquement stable? C est à dire, pour quelles valeurs de λ, la population de chats étudiée reste quasiment composée de k chats sensibles, impliquant une épidémie ne se propageant pas? Pour cela, nous calculons la Jacobienne de l équation différentielle provenant du modèle de la propagation du virus VIF. Cette Jacobienne est la suivante : Jac Xa Y a Za b m γk m b γk λ λ λ b Comme nous supposons que les valeurs de m, b, k et γ sont données, nous pouvons exprimer Jac Xa Y ar Za par la somme d une matrice dont les composantes sont connues et d une matrice dont les composantes sont fonction de λ, l inconnue. Ce qui nous permet d écrire Jac Xa Y a Za On introduit les matrices suivantes b m γk m b γk b λ A b m γk m b γk b et E La matrice Jac X a Y ar Za est une matrice A perturbée notée A A dont on connaît explicitement, dans ce cas précis, la perturbation A. Un seul paramètre noté λ est inconnu
38 38 CHAPITRE 2. CALCUL ASYMPTOTIQUE ET CALCUL INCERTAIN FIG. 2.2 Plus grande valeur propre de Jac X Y Z en fonction de λ parmi les composantes de la matrice A et il intervient linéairement. C est pour cela que nous caractérisons cette perturbation par l appellation de perturbation homotopique. La perturbation A λe est une perturbation qui a une direction ou structure fixe, seule la norme de cette perturbation varie proportionnellement au coefficient λ. La perturbation A est nulle si et seulement si la valeur λ est nulle, c est à dire lorsque les chats infectés ne deviennent pas des chats sans défense, et qu aucun chat ne disparaît à cause du virus. Pour ce cas de figure où les paramètres du modèle m, b, k et γ sont donnés, les valeurs propres de la Jacobienne Jac XaR Y av Zac vont dépendre de la quantité λ et ainsi on va pouvoir déterminer pour quelles valeurs de λ, le point d équilibre choisi k est localement asymptotiquement stable, c est à dire si le virus va faire disparaître toute la population de chats étudiée. Les valeurs propres de Jac Xa Y aw Zac sont fonction de γ 2 k 2 2γkλ 5λ 2. Si γ 2 k 2 2γkλ 5λ 2, les valeurs propres de Jac Xa Y ar Za seront toutes réelles. On pose 3 k 2, m, b 25 et γ 6. Ainsi, les valeurs propres de Jac k dépendent de λ 9 5 5λ 2. Cette quantité est toujours positive pour des valeurs de λ comprises entre et. Ainsi, à présent, nous calculons la plus grande valeur propre de la matrice Jac XaV Y av Zac A λe considérée comme une perturbation homotopique de la matrice A. C est ce que nous représentons par le graphique de la figure 2.2, où l axe des abscisses correspond aux valeurs de λ qui varie de à et l axe des ordonnées correspond à la plus grande valeur propre de la Jacobienne. On remarque que la plus grande valeur propre de la Jacobienne change de signe pour une valeur de λ de l ordre de 4 2, et
39 h 2.. CALCUL ASYMPTOTIQUE : STRUCTURE DE A CONNUE 39 plus précisément, pour une valeur λ 2 égale à a 5 5d. Une méthode pour calculer le 5 nombre de solutions λ existantes et leurs expressions sera développée dans le chapitre 5. a 3 Par conséquent, nous pouvons affirmer que pour k 2, m, b 25 et γ 6, si λ λ, alors le point d équilibre est localement asymptotiquement stable, et donc le a virus ne se propage pas. Par cette étude de l évolution de la population de chats face à la présence du virus V IF dit sida de chats, nous avons pu montrer qu il est possible de travailler sur une matrice de perturbation dont on connaît la structure. Nous avons pu ainsi calculer des valeurs propres d une matrice A perturbée suivant une direction fixe. De manière générale, où se situent les valeurs propres de A A avec A structurée? 2..2 Courbe Γ associée au couple e Af Eg Comme la matrice A est une matrice de structure E, nous choisissons t un paramètre complexe non nul et nous posons A de la forme A te. Nous supposons que les valeurs propres de A A appartiennent toutes à la résolvante Re A de A, ainsi t ne peut être nul. Où se situent les valeurs propres de A A A te avec E t E $? Enonçons un premier lemme afin de pouvoir ensuite répondre à cette question. Lemme 2.. z Re A valeur propre de A te t h t valeur propre de E A zi W Preuve z Re A valeur propre de A te h Il existe u lc n tel que t A zi u Eu h En posant w S A zi u t w E A zi W w t valeur propre de E A zi # A partir de ce lemme, nous pouvons énoncer la proposition suivante et ainsi répondre à la question posée. Proposition 2.. L ensemble des z Re A qui sont valeurs propres de A A t non nul de module inférieur ou égal à, est l ensemble z Re A tels que ρ E A zi T " A te, Preuve Si z Re A est valeur propre de A te, alors t est valeur propre de E A zi #. Ainsi, par définition du rayon spectral ρ, ρ E A zi T E t E
40 4 CHAPITRE 2. CALCUL ASYMPTOTIQUE ET CALCUL INCERTAIN Comme on suppose que E t E $, on peut alors affirmer que ρ E A zi T Grâce à la proposition 2.., il est possible de pouvoir délimiter dans le plan complexe les valeurs propres d une famille de matrices A t A te, avec E t E $ ( A $ E ). Ces valeurs propres appartiennent à l ensemble z Re A tels que ρ E A zi T,i Sp A W Cet ensemble est appelé -pseudo-spectre absolu homotopique noté σj perturbations dans la direction de E comme nous le verrons dans le chapitre 3. ) E* A pour des A présent, énonçons une remarque qui restera importante tout au long de ce développement. L ensemble σj ) E* A est l ensemble des valeurs z Re A qui sont valeurs propres de A A A te, avec E t E $, c est à dire avec A $ E. L ensemble z lc;z valeur propre de A A A $ ) E* est différent de l ensemble σj A si E. Notons bien ici l importance de E. Lorsque nous allons essayer de comparer l ensemble σj ) E* A avec un tout autre pseudospectre (comme dans le cas du calcul incertain), il sera nécessaire de considérer le rôle de E. La frontière de l ensemble σj ) E* A est à remarquer également. Nous notons cette frontière par la lettre grecque Γ et nous disons que la frontière du -pseudo-spectre absolu homotopique est la courbe Γ associée au couple de matrices A E. La courbe Γ associée à A E est donc l ensemble z Re A tels que ρ E A zi L union de Γ et de l intérieur de Γ définie par z Re A tels que ρ E A zi 6,i Sp A forme le -pseudo-spectre absolu homotopique de A pour des perturbations dans la direction de E. Donnons à présent un exemple fondamental qui sera repris tout au long de ce développement, et en particulier lorsque nous traiterons de la méthode d Arnoldi. "
41 2.. CALCUL ASYMPTOTIQUE : STRUCTURE DE A CONNUE Exemple fondamental On considère A lc n n, V v v k, et v k où v v k sont des vecteurs orthonormaux de lc n, H lc k k, h IR et on suppose que AV V H hv k e T k (2.) avec e k le k ième vecteur de la matrice identité de taille k. En supposant que les matrices A et H n admettent pas de valeurs propres en commun, peut-on penser que les valeurs propres de H approchent les valeurs propres de A dans un certain sens? Spectre de H et spectre de A Puisque v k Ve k et V H V I k, alors v H k et k V H et donc v H k V et k peut ainsi s écrire [32] où E v k v H k. L égalité (2.) A he V VH (2.2) est matrice de rang et de norme. Ainsi Sp H 6k Sp A he V Les valeurs propres de H sont des valeurs approchées des valeurs propres de A au sens suivant : elles sont des valeurs propres de A modifiée par la perturbation homotopique dans la direction he. La matrice H est de taille k qui peut être inférieure à la taille n de la matrice A he W Avons-nous une information à propos des n k autres valeurs propres de la matrice A he? Du fait que V soit une matrice formée de k vecteurs colonnes orthonormaux, nous introduisons la matrice C n k afin de compléter la base et construire Q V C n k, une matrice orthonormale de taille n. Nous savons que, quelle que soit la matrice orthonormale Q, la matrice A he admet en arithmétique exacte les mêmes éléments propres que la matrice Q H A he Q. A présent, cherchons à calculer Q H A he Q en fonction de H. Q H A he Q V H C H n k A he V C n k V H A he V V H A he C n k C H n k A he V CH n k A he C n k H V H A he C n k C H n k V H H CH n k A he C n k V H A he C n k C H n k A he C n k
42 42 CHAPITRE 2. CALCUL ASYMPTOTIQUE ET CALCUL INCERTAIN Ainsi, les valeurs propres de A he sont composées des valeurs propres de H et des valeurs propres de C H n k A he C n k. Grâce à ce qui précède, nous pouvons affirmer qu il existe une matrice de déviation E et un scalaire h tels que toutes les valeurs propres de H soient des valeurs propres d une même matrice A he. A chaque valeur propre de H correspond la même valeur h. Est-ce que ce scalaire h est unique? Peut-il exister une autre valeur t telle que une valeur propre de H soit aussi valeur propre de A the? V H, avec V orthonormale et E de rang, alors il n existe qu une seule valeur t telle que les valeurs propres de H soient toutes des valeurs propres de A the. Cette unique valeur de t est égale à. Lemme 2..2 Si A he V Preuve Soit z Re A valeur propre de H. On suppose qu il existe deux valeurs t et t 2 dans lc différentes et non nulles telles que z Re A soit valeur propre de A t he et de A t 2 he. En utilisant le lemme 2.., on affirme que t et t 2 sont des valeurs propres non nulles de he A zi #. La matrice E est une matrice de rang, ainsi la matrice he A zi # est également une matrice de rang qui n admet qu une seule valeur propre non nulle. Les quantités t et V H, avec V orthonormale, on peut t 2 sont obligatoirement égales. Comme A he V affirmer que ν est aussi valeur propre de A he. Ainsi, t t 2. Grâce à ce lemme, nous pouvons établir un lien entre les valeurs propres de H et la courbe Γ. Spectre de H et courbe Γ Ce lien est donné à travers la proposition suivante. V H, avec V orthonormale et E de rang, alors l ensemble des n valeurs propres de A he (comprenant les k valeurs propres de H) est situé Proposition 2..2 Si A he V sur la courbe Γ associée au couple de matrice A he définie par Γ z Re A ;ρ he A zi qui équivaut à Γ z Re A ; ρ E A zi La preuve est directe utilisant le lemme h" On remarque que ρ E A zi # E v H k A zi W v k E. Ainsi, nous pouvons donc insister sur le fait que :
43 2.. CALCUL ASYMPTOTIQUE : STRUCTURE DE A CONNUE 43 Si A he V V H, avec V orthonormale, z Re A et E de rang alors z Sp H.k Sp A he.k Γ avec Γ z Re A ; ρ) E) A zi*ml * h" Nous sommes donc en possession d un exemple fondamental où A he V VH, avec V orthonormale et E de rang qui nous permet d affirmer que les valeurs propres ν Re A de H approchent les valeurs propres de A à l aide de la perturbation he. Nous savons de plus à quel ensemble ces valeurs ν appartiennent. Cet ensemble est la courbe Γ associée au couple A he. La matrice E est de norme donc l importance de la norme de E n était pas remarquée. Elle joue tout de même un rôle décisif comme cela sera expliqué dans le chapitre 3. Nous nous inspirerons de cet exemple fondamental pour introduire l erreur de méthode d Arnoldi dans le chapitre 4. La matrice H sera une matrice de Hessenberg. Comment se comporte la courbe Γ? Est-elle composée d une seule courbe fermée? La fonction ρ E A zi est une fonction semi-continue supérieurement de z dans Re A (Prop p. 56 [3]) mais n est pas forcément monotone en z. Ainsi, pour quatre points z i, i 4, consécutifs et alignés il se peut que ρ E A z I # $, ρ E A z 3 I # $ et ρ E A z 2 I # T, ρ E A z 4 I # T. La courbe Γ peut ne pas être réduite à une seule courbe fermée. La courbe Γ peut être composée de plusieurs courbes fermées se croisant ou pas comme nous pouvons l illustrer à travers l exemple suivant Illustration Nous choisissons pour matrice A la matrice compagne dite La Rose dont le polynôme caractéristique est P x x 3 x 2 3 x 3 3 x 4 W Cette matrice admet 3 valeurs propres de multiplicité 3 égales à, 2 et 3 défectives et une valeur propre simple égale à 4. Pour matrice E, nous choisissons une matrice E de rang obtenue à partir d un processus d Arnoldi utilisée dans le chapitre 5. La courbe Γ associée à ce couple de matrices est la courbe noire illustrée sur la figure 2.3. L intérieur du -pseudo-spectre homotopique de A est colorié en vert. A première vue, la courbe Γ associée à A E est une seule courbe fermée. Mais, non loin du point 65 se trouvent également des points qui se situent sur Γ. En effectuant un zoom autour de ce point, nous nous apercevons qu il existe une zone composée de points de Γ ainsi que des points qui n appartiennent pas au -pseudo-spectre absolu homotopique de A. C est ce que nous remarquons sur la figure 2.4.
44 44 CHAPITRE 2. CALCUL ASYMPTOTIQUE ET CALCUL INCERTAIN FIG. 2.3 Illustration de la courbe Γ et du -pseudo-spectre homotopique de A L utilisation de la courbe Γ associée à un couple de matrices peut intervenir dans différents domaines. Nous présentons ici l utilisation de cette courbe pour la résolution de systèmes linéaires Courbe Γ et systèmes linéaires e A n te zig ye tg]o b On se donne z Re A et b IR n ou lc n. On suppose que l on est capable d effectuer l application G A définie par G) M A* z b p A zi b De ce fait, nous sommes capables de résoudre le système linéaire A zi x b quelle que soit la valeur de z Re A. On suppose de plus que l on connaisse la matrice E de déviation et on pose alors B A E. Peut-on, à l aide de G A, résoudre le système B zi y b? On construit la famille de matrices A t - A te. Ainsi, A! B. Pour tout z Re A, où M z A t q zi I te A zi # I A zi A t q zi I r tm z A zi E A zi W. La série de Neumann formelle y t A zi s tm z k b k%
45 2.. CALCUL ASYMPTOTIQUE : STRUCTURE DE A CONNUE FIG. 2.4 Illustration d une portion de la courbe Γ zoomée converge quel que soit le vecteur b, pour E t E $, si et seulement si ρ M z : la solution y t peut être obtenue à partir de b par récurrence. Ainsi la solution du système linéaire B zi y b peut donc être obtenue dans le cas où z n appartient pas au -pseudo-spectre absolu homotopique de A. De manière générale, quel que soit b, la courbe Γ délimite le cas où la solution y t peut être obtenue à partir de b par récurrence du cas où cela n est pas possible car la série de Neumann n est pas convergente (ρ M z T ). Il se peut que la série de Neumann converge pour z situé à l intérieur de Γ pour un choix approprié du vecteur b, comme dans le cas où le vecteur b filtre les plus grandes valeurs propres de E A zi M z Perspective t L ensemble des valeurs propres de A A, A connue et A de la forme te avec E t E $,, est délimité par la courbe Γ associée à A E définie par z Re A tels que ρ E A zi Cet ensemble permet de savoir si l on peut obtenir par récurrence la solution d un système linéaire. Comme cet ensemble a son importance, peut-il être défini par l ensemble z Re A ;z valeur propre de A te E t E? Nous ne répondrons pas tout de suite à cette question. Nous la laissons en suspens. Nous essayerons d y répondre dans le chapitre 5. "
46 T T T 46 CHAPITRE 2. CALCUL ASYMPTOTIQUE ET CALCUL INCERTAIN Considérons à présent que nous ne connaissons pas la structure de la matrice A, mais seulement sa norme. Que peut-on dire des valeurs propres de A A? Ceci est un cas particulier du calcul asymptotique. Il est appelé calcul incertain. 2.2 Calcul incertain : norme de A connue Nous ne connaissons que la norme de la matrice de perturbations A sur A. Dans ce cas précis, où se situent les valeurs propres z lc de A A, A $? Afin de répondre à cette question, nous allons nous inspirer des travaux présentés dans [5, 35] et énoncer ainsi le lemme suivant qui nous permettra de répondre à la question posée. Lemme 2.2. z lc valeur propre de A A A $ h A zi # Preuve [35] Si z lc est valeur propre de A A, A $, alors il existe un vecteur u lc n tel que A A u zu, ce qui peut s écrire u S A zi Au Par passage à la norme, on a u $ A zi A zi u, u et A partir de ce lemme, nous pouvons répondre à la question posée. Proposition 2.2. L ensemble des valeurs propres z lc de A A, A $, est l ensemble z lc A zi Cet ensemble est appelé -pseudo-spectre absolu normwise de A comme nous le verrons dans le chapitre 3 et il est noté σ U A. Il est donc possible de délimiter dans le plan complexe la localisation de l ensemble des valeurs propres de A A, A $. Notons bien ici que cet ensemble considère des matrices de perturbations dont on ne connaît que la norme et que cette norme est inférieure ou égale à, et pas à une autre quantité. La frontière de σ U A est la courbe notée ϒ définie par z lc; A zi " "
47 T 2.2. CALCUL INCERTAIN : NORME DE A CONNUE FIG. 2.5 Illustration de la courbe ϒ et du -pseudo-spectre normwise de A L union de ϒ et de l intérieur de ϒ définie par z lc; A zi constitue le -pseudo-spectre absolu normwise de A. La fonction A zi # n étant pas une fonction monotone en z dans Re A, la courbe ϒ, comme dans le cas de Γ du calcul asymptotique, peut être composée d un nombre fini de courbes fermées se croisant ou pas. Nous illustrons ce propos à l aide de la matrice A suivante A Sur la figure 2.5, nous avons tracé en noir la courbe ϒ et colorié en vert l intérieur de σ U A. On remarque que, pour cette matrice A, la courbe ϒ de A est formée de deux courbes fermées distinctes du plan complexe. L une des deux courbes fermées n appartient pas à l intérieur de l autre courbe comme pour l exemple traité dans la partie du calcul asymptotique. Un autre cas de figure de courbe ϒ formées de plusieurs courbes fermées sera remarqué sur la figure 3.3 du chapitre 3 lorsque l on considérera le 6 - pseudo-spectre normwise de la matrice A dite La Rose.
48 48 CHAPITRE 2. CALCUL ASYMPTOTIQUE ET CALCUL INCERTAIN 2.3 Conclusion : comparaison autorisée? Nous avons cherché un moyen d obtenir de l information sur les valeurs propres de A A dans les cas où A admet une structure E connue, A admet seulement une norme connue. Dans le premier cas, nous avons supposé que A est de la forme te avec E t E $ et nous avons introduit la courbe Γ associée à A E. Nous avons démontré que toutes les valeurs propres de A A, A te, E t E $ se situent dans le -pseudo-spectre absolu homotopique de A pour des perturbations dans la direction de E de frontière Γ z Re A ;ρ E A zi Il faut bien remarquer que cet ensemble contient les valeurs propres associées à une matrice de perturbation A telle que A $ E. Dans le deuxième cas, nous avons supposé que A est telle que A $ et nous ne possédons que cette information. Nous avons démontré que les valeurs propres de A A pour de telles matrices de perturbation A appartiennent au -pseudo-spectre absolu normwise de A de frontière ϒ z Re A ; A zi " Nous pouvons donc donner de l information sur la localisation des valeurs propres de A A dans le cas où A est structure connue ou de norme connue. Pouvons nous comparer ces deux -pseudo-spectres absolus? La réponse n est pas directe. On peut penser que, parce que le cas où seule la norme de A est connue est un cas particulier du cas où la structure E de A est connue, le -pseudo-spectre absolu homotopique de A pour des perturbations dans la direction de E est inclus dans le -pseudo-spectre absolu normwise de A. Cela ne résiste pas à l examen. Dans toute analyse de perturbations, il faut spécifier le type de perturbations et le choix de la norme de cette perturbation. Or, dans le premier cas, on s intéresse à des perturbations A qui sont telles que A $ E et dans le deuxième cas, à des perturbations A qui sont telles que A $. Le choix de la norme est différent dans le cas où E, il l est donc dans le cas général. On ne peut donc pas comparer ces deux -pseudo-spectres absolus directement. Si nous désirons quand même comparer ces deux -pseudo-spectres absolu, que peuton faire? Il faut se donner un choix de calibrage de la norme de la perturbation. Il faut introduire un facteur de normalisation afin de permettre à l expérimentateur de comparer entre eux les différents pseudo-spectres qui peuvent exister. Dans le chapitre suivant, nous allons énoncer les différentes définitions des erreurs inverses associées aux problèmes de valeurs propres pour des perturbations homotopiques ainsi que les pseudospectres associés et pour chacune de ces notions, nous introduirons un ou deux facteurs de normalisation afin de "
49 2.3. CONCLUSION : COMPARAISON AUTORISÉE? 49 pouvoir donner une formulation adaptée au choix de l utilisateur suivant si les calculs ont été faits sur ordinateur (formulation relative) ou en arithmétique exacte mais de manière approchée (formulation absolue ou dépendante de l incertitude sur les données) pouvoir adapter les facteurs de normalisation pour faire une comparaison correcte entre chacun des pseudo-spectres.
50 5 CHAPITRE 2. CALCUL ASYMPTOTIQUE ET CALCUL INCERTAIN
51 Z Chapitre 3 Erreurs inverses et pseudo-spectres 3. Erreur inverse homotopique : cas du problème standard Soit E une matrice considérée comme matrice de déviation pour les perturbations homotopiques. Pour différencier les perturbations homotopiques des perturbations normwise développées dans le chapitre, nous utilisons la notation tb E ou H apposée en exposant ou en indice des symboles. La classe des perturbations homotopiques est τj ) E* A te t lc, c est à dire que nous considérons l ensemble des matrices perturbées de la forme A te, t lc. La taille de la perturbation A est mesurée par la quantité A j ) E* αh E t E. Le paramètre α H est le facteur de normalisation. Si la formulation est absolue, alors α H. Si elle est relative, alors α H Z A Z E. Z Dans tout ce qui suit, lorsque nous parlerons de l erreur inverse homotopique ηj ) E* λ, ) E* et à la norme j ) E*. nous supposerons que cette erreur inverse est relative à τj Enonçons à présent la définition de l erreur inverse homotopique pour le calcul de valeurs propres. 3.. Définition de l erreur inverse homotopique pour le calcul de valeurs propres Soit λ lc une valeur propre approchée du problème standard Ax λx. ) E* λ relative à τj ) E* et à la norme j ) E* est définie par Definition 3.. L erreur inverse homotopique ηj ηj ) E* λ min α H E t E t lc X u Y A A u λu tel que A te" 5
52 52 ERREUR INVERSE HOMOTOPIQUE : PROBLÈME STANDARD Lemme 3.. Cette quantité peut ḙtre calculée de la façon suivante : où ρ représente le rayon spectral. ηj ) E* λ! α H ρ E A λi Preuve du lemme On suppose que λ n est pas une valeur propre de A. On peut alors considérer le problème standard suivant : E A λi u i µ i u i u i i n (3.) Par définition du rayon spectral, on a ρ E A λi #! max E µ i E µ i lc; X u i satisfaisant (3.). Si on pose v i S A λi # u i, alors l équation (3.) peut s écrire de la façon suivante et encore Ev i A µ i A λi vi µ i E v i λvi (3.2) De l équation (3.2), on peut déduire que λ est une valeur propre exacte d au plus n matrices perturbées A µi E où les µ i i% (&(&(&' n sont n les valeurs propres de E A λi #. Par conséquent, par définition de l erreur inverse homotopique, ηj ) E* λ u min α H E µ i E µ i valeur propre de E A λi N α H ρ E A λi # W Nous savons que, dans cette définition d erreur inverse homotopique, nous ne considérons que les matrices de perturbations A qui sont dans la direction d une matrice notée E. Parce que τj ) E* est de dimension, nous ne pouvons définir que l erreur inverse homotopique associée au calcul d une valeur propre d une matrice. L analogie avec les erreurs inverses pour des perturbations normwise associées au calcul d un couple d éléments propres ou d un vecteur propre d une matrice ne peut pas être établie pour cette approche homotopique. Si on se place dans le cas de l exemple fondamental du chapitre 2, où A he V VH, alors, parce que E est une matrice de rang, soit E uv H, la quantité ρ E A zi est égale à E v H A zi W u E pour tout z Re A valeur propre de H V H A he V. Nous nous inspirerons de cette remarque pour introduire, dans le chapitre 4, l erreur de méthode d Arnoldi à partir de l erreur inverse homotopique ηj ) E* z. Il est important de comprendre qu une erreur inverse associée à un calcul de valeur propre nécessite
53 ERREUR INVERSE HOMOTOPIQUE : PROBLÈME STANDARD 53 i) le choix d un type de perturbations (ici dans la direction de la matrice E) et ii) un choix de facteur de normalisation α H. Il est nécessaire de considérer ces deux choix pour pouvoir comparer deux erreurs inverses. Soit β un paramètre réel non nul. L ensemble des matrices de la forme A te, t C, est identique à l ensemble des matrices de la forme A tβe, t C. Que peut-on dire alors des erreurs inverses associées au calcul d une valeur propre de A pour des perturbations de la forme te et tβe? Peut-on dire qu elles sont identiques? A présent, nous pouvons énoncer le lemme suivant qui va nous permettre de répondre à cette question. Lemme 3..2 On considère les deux erreurs inverses homotopiques suivantes : ηj ) E* λ! α min E t E t C 6X u F A A u λu tel que A te" ηjv ) βe* λ α2 min E t E t C.X u F A A u λu tel que A tβe" Si α 2 α β, alors ηj ) E* λ η j v ) βe* λ V Preuve La preuve est directe à partir du lemme 3.. qui nous permet d obtenir que α 2 βηj v ) βe* λ α ηj ) E* λ W Ainsi, si α 2 α β, alors ηj ) E* λ η j v ) βe* λ V Les perturbations considérées peuvent être dans la même direction mais cela n implique pas que les erreurs inverses considérant ces perturbations sont égales. Il est nécessaire d analyser les facteurs de normalisation avant d énoncer toute conclusion. Généralement, lorsque l on effectue des calculs à précision finie ou avec incertitudes, l erreur inverse utilisée afin de tester la pertinence des résultats est l erreur inverse normwise introduite dans le chapitre car, d une part, on ne possède en général aucune information sur la structure de la matrice de perturbations, et d autre part, cette erreur inverse considère l ensemble des pires perturbations qu une matrice puisse admettre, c est à dire des perturbations normwise. Nous rappelons que la taille des perturbations normwise est mesurée par A U Z où α est le paramètre de normalisation pour ce type de perturbation normwise. A Z α ) E* précédemment développée Nous remarquons que l erreur inverse homotopique ηj considère une majoration du module du terme t de la matrice de perturbation A et non
54 54 ERREUR INVERSE HOMOTOPIQUE : PROBLÈME STANDARD une majoration de A comme pour l erreur inverse normwise. Peut-on cependant effectuer une comparaison entre l erreur inverse normwise η U et l erreur inverse homotopique ηj ) E*? 3..2 Comparaison entre l erreur inverse homotopique et l erreur inverse normwise ) E* Afin de mieux comprendre la comparaison entre l erreur inverse homotopique ηj et l erreur inverse normwise η U, nous allons introduire une nouvelle erreur inverse, également homotopique, mais formulée comme l erreur inverse normwise en gardant le fait que la perturbation A est une perturbation homotopique de direction E. Cette erreur inverse est notée par ηj ) E* pour la différencier de l erreur inverse homotopique précédemment développée. La classe de perturbations homotopiques τj ) E* de cette erreur inverse est égale à τj ) E* mais la taille de perturbation A est mesurée par A j ) E* Z A α h Z. Les normes j ) E* et j ) E* diffèrent bien l une de l autre. L erreur inverse homotopique ηj ) E* est définie de la façon suivante. Definition 3..2 Soit λ lc une valeur propre approchée du problème standard Ax λx. L erreur inverse homotopique ηj ) E* λ relative à τj ) E* et à la norme j ) E* est définie par ηj ) E* λ min ε ;X u lc n X t lc Y A A u λu A te A α h $ ε" Cette définition est une restriction de la définition de l erreur inverse normwise : A est dans la direction de E. La valeur du paramètre α h est égale à A lorsque la formulation est relative et est égale à lorsque la formulation est absolue. Lemme 3..3 L erreur inverse homotopique ηj ) E* λ relative à E est égale à : ηj ) E* λ E α h ρ E A λi Effectuons d abord une comparaison entre l erreur inverse homotopique ηj ) E* λ et l erreur inverse normwise η U λ. Comparaison entre η U λ et ηj ) E* λ Soit t tel que min E t E E E t E E tw A% ηj ) E* λ W te α h α h
55 Z ERREUR INVERSE HOMOTOPIQUE : PROBLÈME STANDARD 55 La matrice A t E vérifie : X u lc n ; A A u λu donc Ainsi, η U λ $ A α η U λ $ E t E E α α h α η j ) E* λ W α h α η j ) E* λ W De cette manière, nous ne pouvons pas affirmer que pour le calcul d une valeur propre, l erreur inverse homotopique est plus grande que l erreur inverse normwise. Ceci dépend de la formulation employée lors de la définition de chacune d entre elles, c est à dire, des deux facteurs de normalisation α h et α. Ce n est que lorsque α h que α $ η U λ $ ηj ) E* λ et seulement dans ce cas précis. Lorsque la formulation est relative, c est à dire lorsque α h α A, alors l inégalité η U λ $ ηj ) E* λ est vraie. En nous inspirant de la manière utilisée pour comparer ηj ) E* λ avec η U λ, nous allons établir une comparaison entre ηj E I λ et η U λ. Comparaison entre η U λ et ηj ) E* λ Soit t tel que min tw A% E t tα H E E t E E ηj ) E* λ W La matrice A t α H E vérifie : X u lc n ; A A u λu donc Ainsi, η U λ $ A α η U E t E α H E α λ $ α H E α ηj α H E α ) E* λ W ηj ) E* λ W De même que pour l erreur inverse homotopique ηj ) E* λ, nous ne pouvons pas affirmer ) E* λ est plus grande que l erreur inverse η U λ. que l erreur inverse ηj Ce n est que α H Z E α Z $ que η U λ $ ηj ) E* λ et seulement dans ce cas précis. Lorsque la formulation est relative, c est à dire lorsque α A et α H Z A U Z E, alors l inégalité η λ $ ηj ) E* λ est vraie. Lorsque la formulation est absolue, l affirmation Z n est pas directe comme on a pu le remarquer dans le
56 Z 56 ERREUR INVERSE HOMOTOPIQUE : PROBLÈME STANDARD chapitre 2. Dans ce cas, α H α on obtient η U λ $ E ηj ) E* λ qui peut se démontrer mathématiquement, car pour tout z Re A, toutes matrices E et A, ρ E A zi $ E A zi Le rôle de la norme de E est primordial car il permet ici de pourvoir comparer les deux erreurs inverses qui admettent une formulation absolue. Par conséquent, les deux erreurs inverses homotopiques peuvent être comparées à l erreur inverse normwise sous certaines conditions. Comparons à présent ces deux erreurs inverses homotopiques entre elles. Comparaison entre ηj ) E* λ et ηj ) E* λ D après le lemme 3.., les erreurs inverses ηj ) E* λ et ηj ) E* λ peuvent s écrire de la façon suivante Ainsi, ηj ) E* λ u ε ;X u lc n Y A A u λu A te E t E $ ε α E h Z ηj ) E* λ u min ε ;X u lc n Y A A u λu A te t lc E t E $ εα H " De plus, Si α h Z E Z min α h E η j ) E* λ αh ηj α h α H E η j ) α H E* λ η j ) E* λ W ) E* λ V α H comme pour une formulation relative, alors ηj ) α H E* λ ηj ) E* λ. Il est donc faux que ces deux erreurs inverse homotopiques soient égales pour tout choix de normalisation. Les deux erreurs inverses homotopiques sont identiques à un choix de normalisation près. On peut considérer l une ou l autre des définitions et utiliser les comparaisons effectuées avec l erreur inverse normwise. Nous considérerons l erreur inverse ηj ) E* λ comme erreur inverse homotopique associée au calcul d une valeur propre d un problème standard dans la suite du développement. Notons bien que ηj ) E* λ x αh min E t E t lc X u Y A A u λu tel que A te min ε ;X u lc n Y A A u λu A te t lc E t E $ εα H " min ε ;X u lc n Y A A u λu A te t lc A $ εα H E "
57 Z Z Z 3.2. ERREUR INVERSE HOMOTOPIQUE : CAS DU PROBLÈME GÉNÉRALISÉ 57 Cette discussion entre ces deux définitions de l erreur inverse homotopique est directe pour le problème standard de valeurs propres. Elle a été faite ici pour insister sur deux points :. l importance du choix de la normalisation lorsque l on établit une erreur inverse 2. remarquer cette importance pour le problème standard de valeur propre afin de mieux aborder le problème généralisé [36] car la discussion devient plus délicate dans ce cas. 3.2 Erreur inverse homotopique : cas du problème généralisé Lorsque nous abordons le concept de l erreur inverse homotopique associée à une valeur propre pour le problème généralisé, nous nous rendons compte que deux définitions peuvent être établies suivant le choix de la perturbation et de la normalisation Différentes définitions des erreurs inverses homotopiques associées à une valeur propre Ces deux erreurs inverses sont notées ωj ) E F* λ et ωj 2) E F* λ et seront toutes les deux relatives aux matrices E et F, c est à dire que la matrice A sera perturbée dans la direction de la matrice E et la matrice B sera perturbée dans la direction de la matrice F. En effet, à un choix de normalisation près, nous considérons que la matrice de perturbation A de A (resp. B de B) s écrit A te (resp. B tf). Le coefficient de E dans l expression de A est le même que le coefficient de F dans l expression de B à un choix de normalisation près. Ces deux erreurs inverses homotopiques considèrent des perturbations dont les coefficients des matrices de déviation sont égaux ou proportionnels. La première erreur inverse homotopique, que l on note ωj admet i) la classe de perturbations τj ) E F* ii) la norme A B j E t E. Elle est définie de la façon suivante. A tα H E B tβ H F t lc, et Definition 3.2. Soit λ lc une valeur propre approchée du problème généralisé Ax λbx. L erreur inverse homotopique ωj relative à τj ) E F* et à la norme A B j est définie par ωj ) E F* λ u min ε ;X u lc n # A A u λ B B u A tα H E B tβ H F E t E $ ε" Lorsque la formulation est absolue, les valeurs de α H et β H sont toutes les deux égales à et β H., et lorsque la formulation est relative, alors α H Z A Z E Z B Z F Z
58 E 58 ERREUR INVERSE HOMOTOPIQUE : PROBLÈME GÉNÉRALISÉ Dans cette définition, nous considérons que les coefficients de E et F sont différents pour A et B, si α H β H mais sont contrôlables car ces coefficients sont proportionnels. On remarque que où c est une constante. A B α H E β H F c Lemme 3.2. L erreur inverse homotopique ωj ) E F* λ relative à τj ) E F* et à la norme A B j est égale à : où ρ représente le rayon spectral. ωj ) E F* λ ρ α H E λβh F I A λb Dans tout ce qui suit, lorsque nous parlerons de l erreur inverse homotopique ωj ) E F* λ, nous supposerons que cette erreur inverse est relative à τj ) E F* et à la norme j ) E F*. Remarquons que les coefficients α H et β H sont présents dans l expression du rayon spectral à calculer. Il existe ici une sorte de calibrage ou de balance. L expérimentateur peut ainsi choisir de donner autant d importance qu il le souhaite à la perturbation A ou B grâce aux paramètres α H et β H. Preuve du lemme Considérons Par définition, ρ α H E λβh F I A λb α H E λβh F y A λb u i µ i u i i n (3.3) En posant v i A λb u i, l équation (3.3) peut s écrire A max E µ i E µ i lc;x u i lc n satisfaisant 3 3 R" α H E v i λ B β H F v i (3.4) µ i µ i De l équation (3.4), on peut déduire que λ est une valeur propre d au plus n couples de matrices A µi αe B µi β H F où µ i i% &(&'& n sont les valeurs propres de α H E λβ H F I A λb #. Par conséquent, par définition de l erreur inverse homotopique ωj ) E F* λ, ωj ) E F* λ u µ i E µ i σ α H E λβh F I A λb # V ρ)z) α HE λβ H F*{) A λb* l * min
59 Z Z ERREUR INVERSE HOMOTOPIQUE : PROBLÈME GÉNÉRALISÉ 59 Les perturbations qui sont considérées ici sont telles que le rapport entre A E t E α H E et B E t E β H F soit constant et la majoration se fait sur le module du paramètre t. A présent, énonçons la définition de l erreur inverse homotopique pour le calcul d une valeur propre du problème généralisé pour laquelle la majoration se fait sur la norme de A et sur la norme de B, comme pour l erreur inverse normwise introduite dans le chapitre. Cette erreur inverse admet la classe de perturbation τj 2) E F* A te B tf t lc et A B j 2) E F* max Z ; Z. Les normes j ) E F* et j 2) E F* sont bien différentes l une de l autre. A Z α h B Z β h Definition Soit λ lc une valeur propre approchée du problème généralisé Ax λbx. L erreur inverse homotopique 2 ωj relative à τj 2) E F* et à la norme j 2) E F* est définie par : ωj 2) E F* λ u min ε ;X u lc n X t lc Y A A u λ B B u A te B tf A $ εα h B $ εβ h " Cette définition est une restriction de l erreur inverse normwise : A (resp. B) est dans la direction de E (resp. dans la direction de F). Lorsque la formulation est absolue, alors α h β h et lorsqu elle est relative, alors α h Z A Z et β h }Z B Z. E Z F Z Remarquons bien dans cette définition que nous ne considérons que les matrices de perturbations A de la forme te et les matrices B de la forme tf. Ainsi, les coefficients homotopiques E et F sont les mêmes pour A et B. On remarque de plus que, où c 2 est une constante. A B E F c 2 Lemme L erreur inverse homotopique ωj 2) E F* λ relative à τj 2) E F* et à la norme j 2) E F* est égale à : ωj 2) E F* λ max E α h ; F β h ρ E λf I A λb La preuve du lemme est directe, semblable à la preuve du lemme précédent. Dans tout ce qui suit, lorsque nous parlerons de l erreur inverse homotopique ωj 2) E F* λ, nous supposerons que cette erreur inverse est relative à τj 2) E F* et à la norme j 2) E F*. Remarquons cependant l importance du coefficient max Z E α h Z ; Z F β h Z. Il n y a pas de qualibrage comme pour l erreur inverse homotopique précédente. La normalisation se fait de
60 Z 6 ERREUR INVERSE HOMOTOPIQUE : PROBLÈME GÉNÉRALISÉ manière totale, l une ou l autre des quantités Z E α h Z ou Z F β h Z va en quelque sorte disparaître par la pensée car on ne tiendra en compte que la valeur maximale des deux quantités. Comparons maintenant entre elles les deux erreurs inverses homotopiques et normwise pour le calcul d une valeur propre Comparaisons autorisées entre les deux erreurs inverses homotopiques et l erreur inverse normwise Comparons d abord l erreur inverse homotopique ωj ) E F* λ avec l erreur inverse normwise ω U λ introduite dans la section.2.4 du chapitre pour le calcul d une valeur propre d un problème généralisé. Comparaison entre ωj ) E F* λ et ω U λ On considère t tel que ωj ) E F* λ q E t E. Les matrices A t α H E et B t β H F vérifient : X u lc n Y A A u λ B B u, donc et ω U λ $ A α Z et ω U λ $ Z B β Z ω U λ $ min Z A α Z ; Z B β Z $ min ~ t ~ α H Z E α Z ; ~ t ~ β H βz $ E t E min α H Z E α Z ; β H βz $ ωj ) E F* α λ min H Z F Z F Z E α Z ; β H Z F β Z " Comme dans le problème standard, pour le problème généralisé de valeurs propres, nous ne pouvons U pas affirmer que l erreur inverse ωj ) E F* λ est plus grande que l erreur inverse ω α λ. Seulement dans le cas où min H Z E α Z ; β H Z F β Z $, comme lors d une formulation relative, et seulement dans ce cas. ω U λ $ ωj ) E F* λ Effectuons à présent une comparaison entre l erreur inverse homotopique ωj 2) E F* λ et l erreur inverse normwise ω U λ.
61 Z Z ERREUR INVERSE HOMOTOPIQUE : PROBLÈME GÉNÉRALISÉ 6 Comparaison entre ωj 2) E F* λ et ω U λ On considère t tel que A t E et B t F et ωj 2) E F* λ x A α h Z E t E max Z max ; Z B β h Z E α h Z ; Z F β h Z Les matrices A et B vérifient : X u lc n Y A A u λ B B u Ainsi, donc ω U λ $ A α Z et ω U λ $ Z B β Z U ω λ $ min Z A α Z ; Z B β Z $ E t E min Z E α Z ; Z F βz $ ωj 2) E F* min E α λ ; F max E α h ; F β β h Nous ne pouvons pas affirmer que l erreur inverse homotopique ωj 2) E F* λ est plus grande que l erreur inverse normwise ω U min E λ ; F. Seulement si α β max E α h ; F $ comme lors de la formulation relative, et seulement dans ce cas. ω U λ $ ωj 2) E F* λ Après avoir comparé ces deux premières erreurs inverses homotopiques avec l erreur inverse normwise, nous souhaitons comparer à présent ces deux erreurs inverses entre elles afin de savoir s il est possible d employer l une ou l autre des deux erreurs inverses homotopiques. β h Comparaison entre ωj ) E F* λ et ωj 2) E F* λ Il est important de remarquer que ces deux erreurs inverses ne s appuient pas sur les même matrices de perturbations A et B. Quelles sont les conditions à établir afin que les deux erreurs inverses homotopiques soient comparées correctement? Pour comparer les deux erreurs inverses homotopiques, il est nécessaire que les deux ensembles de perturbations soient comparables, c est à dire que c c 2, ce qui est équivalent
62 Z Z 62 ERREUR INVERSE HOMOTOPIQUE : PROBLÈME GÉNÉRALISÉ à dire que α H β H. Dans ce cas là, min ωj 2) E F* λ u ε ;X u lc n Y A A u λ B B u A te B tf ƒz A α h Z $ ε "Z B β h Z $ ε min ε ;X u lc n Y A A u λ B B u ~ A te B tf t~ E ~ α h Z $ ε t~ F β h Z $ ε min ε ;X u lc n Y A A u λ B B u A te B tf E t E max Z E α h Z ; Z F β h Z $ ε max Z E α h Z ; Z F β h Z min ε ;X u lc n Y A A u λ B B u A te B tf E t E $ ε max Z E α h Z ; Z F β h Z min ε ;X u lc n Y A A u λ B B u A t α H E B t α H F α H E t E $ ε α H max Z E α h Z ; Z F β h Z ωj ) E F* λ Si on désire garder les valeurs α H et β H différents, alors ces deux erreurs inverses relatives chacune d elle à E et F ne peuvent être pas comparées. Par contre, on peut comparer l erreur inverse homotopique ωj 2) α H E β H F* avec l erreur inverse ωj ) E F* λ, car dans ce cas là, c c 2. Comparaison entre ωj 2) α H E β H F* λ et ωj ) E F* λ Dans ce cas là, la matrice A sera de la forme tα H E dans les deux cas ainsi que la matrice B qui sera de la forme tβ H F. En effet, min ω H 2) α H E β H F* λ u ε ;X u lc n Y A A u λ B B u A tα H E B tβ H F Z A α h Z $ ε ƒz B β h Z $ ε min ε ;X u lc n Y A A u λ B B u A tα H E B tβ H F E t E max α H Z E α h Z ; β H Z F β h Z $ ε max α H Z E α h Z ; β H Z F β h Z min ε ;X u lc n Y A A u λ B B u A tα H E B tβ H F E t E $ ε max α H Z E Z ; β H Z F Z ω H ) E F* λ α h β h En considérant des matrices de déviation dont les coefficients sont proportionnels, les erreurs inverses homotopiques peuvent être comparées. On peut donc utiliser l une ou l autre des erreurs inverses dans le cas où les couples de matrices de perturbations s expriment de la façon suivante : A te B tf ou A tα H E B tβ H F
63 Z 3.3. PSEUDO-SPECTRE D UNE MATRICE POUR DES PERTURBATIONS NORMW ISE63 avec α H, β H, E et F connus à l avance. Ainsi, les rapports Z A Z B Z sont constants. Lors de résolutions de problèmes sur ordinateur ou de calculs avec incertitude, l expérimentateur, qu il soit ingénieur, physicien ou mathématicien, est souvent amené à s interroger sur la qualité et la fiabilité des résultats fournis. Des outils théoriques peuvent renseigner l expérimentateur mais ces outils théoriques ne sont plus valides au voisinage immédiat d une singularité. Il est donc indispensable de posséder des outils simples à mettre en oeuvre et capables de fournir une information aussi riche que possible et facilement interprétable, même au voisinage des singularités. La boîte à outils PRECISE, développée au sein du groupe Qualitative Computing au CER- FACS, met à la disposition des ingénieurs numériciens de très nombreux outils pour mieux comprendre et contrôler la fiabilité de leurs simulations sur ordinateur et est accessible en f reeware au CERFACS à l adresse internet htt p : N"N www cer f acs f r N algor N So fts N PRECISE N index html. La boîte à outils PRECISE en Fortran a été développée dans le projet européen PINEAPL à vocation industrielle [5, 27]. Parmi tous les concepts utilisés, PRECISE reprend la notion de pseudosolutions [42] d une équation de type F x y (3.5) Les problèmes (3.5) qui peuvent être liés à des problèmes mettant en jeu des valeurs propres ou des vecteurs propres sont ceux qui retiennent notre attention dans ce document. Dans [35], deux outils de PRECISE ont été étudiés en détail : les spectres perturbés et les portraits spectraux de matrices. Nous ne nous consacrerons ici qu aux portraits spectraux de matrices. Nous savons que la notion de portrait spectral d une matrice est étroitement liée à la notion de pseudo-spectre. 3.3 Pseudo-spectre d une matrice pour des perturbations normwise Un pseudo-spectre implique un choix de mesure et un choix de type de perturbation. Dans un premier temps, nous ferons un rappel de ce qui a été établi dans [35] pour les pseudo-spectres et portraits spectraux de matrices pour des perturbations de type normwise Définitions Les définitions de pseudo-spectres sont nombreuses mais elles sont toutes équivalentes. Comme dans [35], nous choisissons de donner la définition des pseudo-spectres utilisant la notion de pseudo-valeurs propres de matrices.
64 64 PSEUDO-SPECTRE NORMWISE D UNE MATRICE Definition 3.3. La valeur z C est une ε-pseudo-valeur propre normwise de la matrice A si z est une valeur propre d une matrice de la forme A A avec A $ εα. Definition L ε-pseudo-spectre normwise de A est défini par : σε) U α* A = z C ;z est une valeur propre de A A, A $ εα = z C ; ) A zi*/l $ εα. L ε-pseudo-spectre normwise de A dépend d un facteur de normalisation noté α très important. C est pour cela que dès à présent, on notera, σε) U α* A, l ε-pseudo-spectre normwise de A. Dépendant du choix de la norme, cette formulation peut être relative ou absolue. En effet, si α alors on dit que la formulation est absolue. Par contre, si α A alors on dit que la formulation est relative. Le pseudo-spectre est utilisé pour évaluer le calcul d une valeur propre et pour analyser la sensibilité spectrale d une matrice A [4] avec la formulation relative posant α A. Nous avons ainsi rappelé la notion de pseudo-valeurs propres et la notion de ε-pseudospectre normwise d une matrice. A présent, introduisons la notion de portraits spectraux de matrices pour des perturbations normwise. L utilisateur se fixe une région du plan complexe et visualise ainsi pour cette région les pseudo-spectres qu elles contient pour des perturbations normwise Portraits spectraux normwise de matrices Description Comme cela est décrit en [35], les portraits spectraux d une matrice A pour des perturbations normwise sont une représentation dans une région du plan complexe de la fonction z M log A zi On rappelle que la quantité A zi # 2 α est l inverse de l erreur inverse normwise z développée dans le chapitre. Les principales étapes du calcul (dite optimale) η U d un portrait spectral d une matrice pour des perturbations normwise sont :. choix d une région du plan complexe, 2. discrétisation de la région choisie, 2 α 3. pour chaque point z de la région discrétisée, calcul de φ z! α A zi log α σ min A zi où σ min A zi est la plus petite valeur singulière de A zi, 4. interface graphique pour la visualisation. Rappelons plusieurs remarques citées dans [35].
65 PSEUDO-SPECTRE NORMWISE D UNE MATRICE 65 Remarques Les valeurs propres distinctes λ i, i d, de A vérifient E λ i E $ A c est-à-dire que toutes les valeurs propres λ i, i d, appartiennent à la boule de centre O et de rayon A. Ainsi, lorsque l on ne sait rien sur la localisation des valeurs propres de A, et pour une étude correcte de l ensemble du spectre de la matrice A, l utilisateur devra prendre soin de choisir une région, comme cela est stipulé dans l étape, qui contienne la boule de centre O et de rayon A. Ce choix est très important car il permet de rendre compte d une diffusion possible des valeurs propres calculées à l extérieur du cercle de rayon ρ A, comme cela est illustré, pour une matrice provenant d un problème d électromagnétisme, dans [35]. Si la matrice A est une matrice réelle, alors son spectre est symétrique par rapport à l axe réel. Ainsi, l utilisateur peut choisir pour le calcul du portrait spectral seulement le demi-plan supérieur ou inférieur. Si z est une valeur propre de A, alors A zi est infini et ses variations au voisinage de z sont brutales. Pour plus de lisibilité, l interface graphique utilisera une échelle logarithmique. Trois interfaces graphiques peuvent donner lieu à des portraits spectraux. Interfaces graphiques possibles des portraits spectraux Soit A la matrice compagne dite La Rose de taille associée au polynôme caractéristique P x x 3 x 2 3 x 3 3 x 4 W Nous illustrons ces trois interfaces en utilisant comme matrice la matrice La Rose et une région carrée de centre 2 5 et de longueur 5 et en prenant une formulation relative. Malgré le fait que cette région ne contienne pas la boule de centre O et de rayon A P 3 4, nous avons la possibilité ici de choisir cette région carrée de centre 2 5 et de longueur 5 étant donné que, par construction, nous connaissons d avance la localisation des valeurs propres de A. La figure 3. représente le portrait spectral en deux dimensions de la matrice A. A chaque point z du portrait correspond une couleur. Cette couleur est associée à une valeur p sur l échelle qui se trouve à droite de la figure ce qui donne la valeur de φ z égale à p. Le point considéré est inclus dans le ε-pseudo-spectre de A pour des perturbations normwise tels que ε $ p. La figure 3.2 représente le portrait spectral en trois dimensions. Les deux axes horizontaux correspondent aux parties réelles et imaginaires de z et l axe vertical correspond à la valeur de φ z. Comme pour le cas de deux dimensions, on peut établir une relation entre la couleur représentée par le point z et la valeur de p telle que φ z soit égale à p. Il est également possible de ne représenter que les frontières de ε-pseudo-spectres contenus dans la région choisie à partir de l étape 3. On peut les superposer à un portrait spectral
66 66 PSEUDO-SPECTRE NORMWISE D UNE MATRICE FIG. 3. Portrait spectral 2D de La Rose FIG. 3.2 Portrait spectral 3D de La Rose
67 PSEUDO-SPECTRE NORMWISE D UNE MATRICE FIG. 3.3 Frontières des ε-pseudo-spectres de La Rose, ε p p D. Sur la figure 3.3, on a représenté la frontière de pseudo-spectres pour les valeurs de ε p, avec p dans un domaine plus large que pour la représentation en 3 dimensions. Ces frontières sont repérées par l opposé du logarithme en base de la valeur de ε correspondante, soit p log p. Ces différents ε-pseudo-spectres pour ε p p et 4 contiennent tous par définition les valeurs propres de A. Pourtant la frontière du 6 -pseudo-spectre normwise de A admet une courbe fermée qui s étend dans le demi-plan des réels négatifs. Ce cas est analogue à celui expliqué dans le chapitre. En effet, la frontière du 6 -pseudo-spectre normwise de A est une courbe composée ici de deux courbes fermées. Sur le domaine concerné, il n est possible que de visualiser une seule de ces deux courbes. C est ce que nous remarquons dans la figure 3.4 : l intérieur du 6 -pseudo-spectre normwise de A est colorié en vert et sa frontière en noir. Le 6 -pseudo-spectre contient bien les valeurs propres de A mais pas, par exemple, le point r 2. A présent, nous allons présenter la définition d un ε-pseudo-spectre homotopique d une matrice pour des perturbations dans la direction d une matrice E.
68 Z 68 PSEUDO-SPECTRE HOMOTOPIQUE D UNE MATRICE FIG pseudo-spectre normwise de A 3.4 Pseudo-spectre d une matrice pour des perturbations homotopiques Comme dans [8], nous nous intéressons à l ensemble des matrices de perturbations A de la forme te, t C, où E est la matrice de déviation Définitions L ε-pseudo-spectre homotopique d une matrice est défini de la manière suivante : est une ε-pseudo-valeur propre homotopique de la ma- E E $ Definition 3.4. La valeur z C trice A si z est une valeur propre d une matrice de la forme A A A te avec t εα H. Definition L ε-pseudo-spectre homotopique de A est défini par : σj ) E* ε) α H * A! z C ;z est une valeur propre de A A A te, E t E $ εα H. Comme pour les perturbations normwise, le facteur de normalisation est très important. On le note α H. Dépendant du choix de la norme, cette formulation de l ε-pseudo-spectre peut être relative ou absolue. En effet, si α H, on dit que la formulation est absolue. Par contre, si α H Z A Z E, on dit que la formulation est relative. Remarquons Z que l ε-pseudo-spectre homotopique de A peut être défini par
69 * Z * * Z Z Z PSEUDO-SPECTRE HOMOTOPIQUE D UNE MATRICE 69 σj ) E* ε) α h * A! z C ;z est une valeur propre de A A A te, A $ εα h. ) E* ε) α H * A et σj ) E* ε) α h * A sont égaux à condition que α h α H E. On Ces deux ensembles σj peut utiliser l un ou l autre de ces ensembles. Nous choisissons la définition Il est possible d utiliser les pseudo-spectres homotopiques pour analyser la sensibilité spectrale d une matrice A à des perturbations dans la direction de la matrice E. A présent, il est important d énoncer le lemme suivant. Lemme 3.4. Soient le facteur de normalisation α H, et E une matrice de déviation. Alors, Preuve σj ) E* ε) α H * ) E σj ) E* ε) α H * A! σj E ε) α H Z E Z * A W z C 6X u C n ˆ A A u zu A te E t E $ εα H z C 6X u C n t t ˆ A A u zu A E E Z E E Z E $ εα H z C 6X u C n ˆ A A u zu A t E E t E $ εα H E ) E σj E ε) α H Z E Z * Ce lemme est très important car il nous permet encore de montrer le rôle du choix du type de perturbations et du choix de la norme lorsque l on fait une étude de sensibilité. En effet, pour tout ζ lc, on a ) ζe* σj α ε) Hζ * ) E σj E ε) α H Z L ε-pseudo-spectre de A pour des perturbations dans la direction de E peut être égal à l ε-pseudo-spectre de A pour des perturbations dans la direction de ζe, ζ lc, tant que les facteurs de normalisation sont cohérents. C est le cas lorsque l on utilise une formulation absolue (α H ) ou relative (α H Z A Z E ). Nous avons ainsi rappelé la notion de ε-pseudo-spectre homotopique d une matrice AZ pour des perturbations de déviation E. A présent, introduisons la notion de portraits spectraux de matrices pour des perturbations homotopiques. L utilisateur se fixe une région du plan complexe et visualise ainsi pour cette région les pseudo-spectres qu elle contient pour des perturbations homotopiques Portraits spectraux homotopiques de matrices Description La marche à suivre pour construire un portrait spectral d une matrice A pour des perturbations homotopiques dans la direction de la matrice E est semblable à celle décrite E Z * E Z
70 Z Z Z 7 COMPARAISON AUTORISÉE dans pour le cas des perturbations normwise. La seule différence est dans la fonction φ z qui ici est égale à log α H ρ E A zi #. Remarque Il est nécessaire de choisir une région incluse dans la boule de centre O et de rayon A lorsque nous ne possédons aucune information sur la localisation des valeurs propres de la matrice A. Pour des matrices A et E réelles, le portrait spectral est symétrique par rapport à l axe réel. L échelle sera également logarithmique. Les interfaces possibles pour représenter un portrait spectral d une matrice A pour des perturbations homotopiques sont les mêmes que celles décrites pour les perturbations normwise. Exemples E E Z Soit A la matrice transposée de la matrice La Rose et E une matrice de la forme où E est une matrice triangulaire inférieure stricte de composantes égales à sauf E 3, E 6 4 et E 9 7 qui sont nulles, et dont la diagonale est composée de -49. Nous considérons la formulation relative c est à dire que nous posons α H A Z E. Donnons à présent une illustration du portrait spectral de cette matrice A pour des perturbations Z homotopiques dans la direction de la matrice E. Nous utilisons une représentation en deux dimensions pour la figure 3.5, en trois dimensions pour la figure 3.6 et dans la figure 3.7, nous ne présentons que les frontières des p -pseudo-spectres de A pour des perturbations dans la direction de E pour des valeurs de p égales à 6, 8,, 2 et 4. Nous avons ainsi défini le pseudo-spectre d une matrice A pour des perturbations homotopiques dans une direction E. Nous avons donc présenté les pseudo-spectres et les portraits spectraux d une matrice A pour des perturbations normwise et pour de perturbations homotopiques dans la direction d une matrice E de même taille que la matrice A. A présent, cherchons à comparer les pseudo-spectres pour ces deux types de perturbations. 3.5 Comparaison autorisée des pseudo-spectres normwise et homotopiques 3.5. Conditions imposées Pour les perturbations normwise, on s intéresse aux matrices A telles que, pour une valeur de ε,
71 COMPARAISON AUTORISÉE FIG. 3.5 Représentation d un portrait spectral 2D homotopique de La Rose FIG. 3.6 Représentation d un portrait spectral 3D homotopique de La Rose
72 72 COMPARAISON AUTORISÉE FIG. 3.7 Représentation des frontières des p -pseudo-spectres homotopiques de la Rose pour p et 4 λ est une valeur propre de A A, A $ εα. Pour les perturbations homotopiques, on s intéresse aux matrices A telles que, pour une valeur de ε, λ est une valeur propre de A A, A te, t C E t E $ εα H. Si on s intéresse à l ensemble de toutes les matrices A telles que z soit une valeur propre de A A, alors on sait que les matrices A dans la direction de la matrice E en est un sous ensemble. Peut-on alors affirmer que, pour une valeur de ε, l ε-pseudo-spectre homotopique de A est inclus dans l ε-pseudo-spectre normwise de A? Cette question a déjà été posée pour une formulation absolue des -pseudo-spectres dans le chapitre 2. Toute notion d erreur inverse ou de pseudo-spectre doit imposer un type de perturbation et de normalisation pour être définie. Il est donc nécessaire d analyser les facteurs de normalisation avant de donner toute conclusion. Donnons à présent un premier lemme qui nous permettra de répondre à la question posée. Lemme 3.5. Si α H E $ α, alors on peut affirmer que σj ) E* ε) α H * A.k U σε) α* A W,
73 Z Z COMPARAISON AUTORISÉE 73 Preuve L ensemble σj ) E* ε) α H * A peut être défini par σj ) E* ε) α H * A Si α H E $ α, alors z lc; z valeur propre de A A A $ α H E " σj ) E* ε) α H * A,k σj ) E* ε) α* A 6k σε) U α* A ce qui permet de terminer la preuve du lemme. Si α H E T α, on ne peut rien affirmer. Dans le cas où la formulation des pseudo-spectres est relative c est à dire pour α A et α H Z A Z E, alors on peut affirmer que, quelle que soit la valeur de ε, l ε-pseudo-spectre homotopique Z de A est inclus dans l ε-pseudospectre normwise de A. Dans le cas où la formulation est absolue, quelle que soit la valeur de ε, pour toute matrice E, on ne peut rien dire sur la position des ε-pseudo-spectres normwise et homotopiques de A. A présent, nous illustrons ces propos à travers des expérimentations numériques Illustrations Dans un premier temps, nous allons illustrer le lemme On choisit comme matrice A La Rose et comme matrice E la matrice décrite dans la section La figure 3.8 représente la frontière du -pseudo-spectre normwise de la matrice A (ligne rouge) pour un facteur de normalisation égal à α A et la frontière du - pseudo-spectre homotopique de la matrice A pour des perturbations dans la direction de la matrice E avec un facteur de normalisation Z A Z (ligne verte). La formulation est ainsi choisie de manière relative. Le -pseudo-spectre homotopique de la matrice A pour des perturbations dans la direction de la matrice E est inclus dans le -pseudo-spectre normwise de la matrice A. Comme la formulation est relative (avec α H E α), cet exemple où ε, illustre bien σ U ε) α* A.k E Z σj ) E* ε) α H * A W A présent, nous allons donner un exemple où la formulation n est pas relative et où α H E T α. On choisit pour α la valeur et pour α H la valeur 5 5. Nous gardons les mêmes matrices A et E. La figure 3.9 représente la frontière du 7 -pseudo-spectre normwise de la matrice A avec un facteur de normalisation α (ligne rouge) et la frontière du 7 -pseudo-spectre homotopique de A pour des perturbations dans la direction de la matrice E avec un facteur de normalisation α H (ligne verte). Dans ce cas, nous re-
74 Z 74 COMPARAISON AUTORISÉE FIG. 3.8 Représentation des frontières des -pseudo-spectres normwise (rouge) et homotopique (vert) - Matrice la Rose - α A - α H Z A Z E Z FIG. 3.9 Représentation des frontières des 7 -pseudo-spectres normwise (rouge) et homotopique (vert) (α H E T α) - α α H 5 5, E
75 3.6. CONCLUSION 75 U marquons que nous ne pouvons rien dire sur σε) α* A, α, et σj ε) α H * A, α H 5 5. Cet exemple illustre bien le fait que l un des deux pseudo-spectres n est pas inclus dans l autre. 3.6 Conclusion Dans cette section, nous avons considéré les perturbations A sur la matrice A considérées comme des perturbations homotopiques c est à dire les perturbations de la forme A te. Nous avons introduit la notion d erreur inverse homotopique associé à une valeur propre pour de telles perturbations. Comme toute définition d erreur inverse, nous avons introduit un facteur de normalisation α H. Nous avons comparé l erreur inverse homotopique avec l erreur inverse normwise (admettant un facteur de normalisation α) associée à une valeur propre développée dans [35]. Nous avons déduit qu il était nécessaire que α H E $ α pour affirmer que l erreur inverse normwise est inférieure ou égale à l erreur inverse homotopique. Suite à l introduction de l erreur inverse homotopique, nous avons défini les pseudospectres homotopiques et nous avons cherché à les comparer avec les pseudo-spectres normwise. A l inverse des erreurs inverses, il est nécessaire que α H E $ α pour affirmer que, pour une valeur de ε donnée, l ε-pseudo-spectre homotopique de A est inclus dans l ε-pseudo-spectre normwise de A. ) E* Lorsque l on connaît la direction des perturbations engendrées et si α H E $ α, comme c est le cas lorsque la formulation est relative, alors la notion de pseudo-spectre homotopique peut souvent nous donner une bien meilleure information sur la localisation des valeurs propres d une matrice A que la notion de pseudo-spectre normwise.
76 76 CONCLUSION
77 Chapitre 4 Application aux méthodes de Krylov 4. Décompositions de Hessenberg en arithmétique exacte 4.. Définition d une matrice de Hessenberg supérieure La matrice H C n n est sous forme Hessenberg supérieure si et seulement si h i j pour i j. Cette matrice est dite irréductible si et seulement si h i i pour i n. On appelle matrice non dérogatoire une matrice dont l indice de toute valeur propre est égal à sa multiplicité algébrique. En se référant à [], exercice 5.. p.72, on peut affirmer qu une matrice de Hessenberg irréductible est non dérogatoire. Donnons un exemple d une matrice de Hessenberg irréductible donc non dérogatoire. Exemple Soit P x x n a n x n Š a. La matrice compagne associée à P est la matrice de Hessenberg irréductible C a a a 2... a n.. Si P admet d racines distinctes notées λ i d alors C admet λ i d comme valeurs propres. Si, pour i d, λ i est de multiplicité l i, alors l unique bloc de Jordan associé à la valeur propre λ i est de taille l i. L indice de la valeur propre λ i et la multiplicité algébrique de λ i sont égaux. La matrice C dite compagne est bien une matrice non dérogatoire. 77
78 78 DÉCOMPOSITION DE HESSENBERG 4..2 Présentation des décompositions de Hessenberg Une décomposition de Hessenberg d une matrice A C n n consiste à trouver deux matrices Q unitaire et H de forme de Hessenberg telles que A QHQ H Les matrices A et H sont unitairement équivalentes. Il n y a pas unicité de la décomposition de Hessenberg. Enonçons alors le très important théorème qui clarifie la non-unicité de la décomposition de Hessenberg sur IR n n. Théorème 4.. (Implicit Q Theorem) sur lc n n (réf [8] p. 367) : Supposons que Q Œ q q n et V Œ v v n sont deux matrices unitaires telles que Q H AQ H et V H AV G soient deux matrices de Hessenberg supérieures avec A lc n n. Soit k le plus petit entier positif pour lequel h k k, sous la convention que k n si H est irréductible. Si v q, alors v i e iθ q i, $ θ $ 2π et E h i i E E g i i E pour i 2 k. De plus, si k n, alors g k k. L idée principale de ce théorème est que, si Q H AQ H et Z H AZ G sont chacune une matrice de Hessenberg supérieure irréductible et si Q et Z ont la même première colonne, alors G et H sont essentiellement égales dans le sens que G D HD où D diag e iθ k, k n. Sur IR n n, D serait une diagonale réelle diag r. Il existe plusieurs familles de méthodes de décomposition de Hessenberg. Durant cette étude, nous nous intéressons principalement à la méthode itérative d Arnoldi pour obtenir une décomposition de Hessenberg. Elle effectue une projection orthogonale de A sur le sous-espace lin v Av A i v, dit espace de Krylov engendré par v, i n. A l étape i, on obtient la matrice V i que l on note V i v v i. La matrice Vi H AV i H i est une matrice de Hessenberg d ordre i. La matrice H i Vi H AV i d ordre i s obtient en rajoutant une colonne puis une ligne à H i : H i H i.... Il existe plusieurs manières de calculer la base V i dans la méthode d Arnoldi en utilisant essentiellement la factorisation QR à l aide d une des trois implantations : Gram Schmidt classique, Gram Schmidt modifiée et Householder (réf. : [5] chap. 5 et ). Exposons le procédé de décomposition de Hessenberg par la méthode d Arnoldi.
79 DÉCOMPOSITION DE HESSENBERG Méthode d Arnoldi pour la décomposition incomplète de Hessenberg Cette méthode associe à une matrice A IR n n une base orthonormale V k K k A v v v k du sous-espace de Krylov lin v Av A k v et une matrice H k de taille k k qui a pour bloc principal une matrice de Hessenberg supérieure H k, et qui est augmentée d une ligne supplémentaire dont le seul élément non nul est h k k. La matrice H k a donc la forme suivante : H k h u Ž h k. h 2... h Hk h kk h kk h k k... h k k On montre que, à l itération k de l algorithme d Arnoldi, les matrices A, V k et H k vérifient l égalité [3] : AV k V k H k h k kv k e T k (4.) où le vecteur e k est le k ième vecteur colonne de la matrice identité d ordre n. Cette égalité peut également s écrire : AV k V k H k En multipliant l égalité (4.) à gauche par Vk H, nous pouvons écrire V H k AV k H k est la matrice quotient de Rayleigh de A par V k. C est une autre manière de voir que H k est la matrice de l application A projetée orthogonalement sur K k dans la base V k.. La matrice V k est alors une base d un sous espace invariant associé à A [3]. Cela se produit pour k $ n lorsque le polynôme L algorithme d Arnoldi s arrête lorsque h k k H k
80 8 DÉCOMPOSITION DE HESSENBERG minimal de A associé à v est de degré k. Si k n, la matrice H n est non irréductible. On a alors (d après 4.) : AV k V k H k Nous qualifierons le phénomène h k k à l itération k k par le terme d arrḙt heureux, qui est traduit du terme anglais utilisé : happy breakdown. Nous justifierons cette appellation aux sections 4.2 et 4.3. Pour k T k, on a K k A v K k A v. Plus précisément, pour k k rg K k! k pour k T k rg K k! k où on note rg K k le rang de K k. Remarquons [32] que, lorsque k avec E k k, l égalité (4.) peut s écrire A h k ke k V k V k H k (4.2) v k v H k. La matrice V k est alors une base d un sous-espace invariant associé à A h k ke k. D après le théorème 4.., pour une même matrice A et un même vecteur v, les algorithmes de Gram Schmidt classique, Gram Schmidt modifié et Householder [5] permettent de calculer la base orthonormale v v k du sous espace de Krylov K k et la matrice H k à chaque itération k et donnent les mêmes résultats en arithmétique exacte. Nous pouvons donc choisir l un ou l autre des ces trois algorithmes pour effectuer une décomposition de Hessenberg par la méthode d Arnoldi. Une distinction entre ces trois algorithmes existe cependant lorsqu on les utilise en précision finie lors de calculs sur ordinateur. Ces trois algorithmes ne fournissent pas les mêmes résultats. C est ce que nous étudierons dans le chapitre 6. Nous choisissons, dans un premier temps, d expliquer le principe de l algorithme d Arnoldi Principe de l algorithme d Arnoldi : effectuer une factorisation QR L algorithme d Arnoldi effectue une factorisation QR récursive de la matrice v Av Av m v AV m pour m n : v AV m V m H m V m R m avec R m la matrice triangulaire supérieure d ordre m. Ainsi, tant que h m m, pour m 2 n, AV m V m H m
81 DÉCOMPOSITION DE HESSENBERG 8 Pour m n, se situe un arrêt mathématique qui correspondrait à h n n et AV n V n H n h A V n H n V H n 4..5 Trois façons classiques de réaliser la factorisation QR Nous donnons trois façons classiques de réaliser cette factorisation QR équivalentes en arithmétique exacte avant l arrêt. Algorithme de Arnoldi-Gram Schmidt classique (CGS) Choisir un vecteur v de norme ; Pour k n Calculer h ik S Av k v i pour i k Calculer w k Av k k i% h ikv i h k k w k Si h k k, Arrêt. w v k k h kh k Fin Pour Algorithme de Arnoldi-Gram Schmidt modifié (MGS) La variante MGS qui est présentée comme une modification de l algorithme de Gram Schmidt classique (fin du 9ème siècle) a en fait été utilisée directement par le Marquis Pierre Simon de Laplace [26] dès le début du 9ème siècle, lors de ses calculs astronomiques de moindres carrés [4]. Choisir un vecteur v de norme ; Pour k n w ) * k Av k Pour i k calculer h ik w ) i* k v i ) i * w k w ) i* k h ik v i Fin Pour h k k ) k * w k Si h k k, Arrêt. k v k w H k h kh k Fin Pour
82 82 DÉCOMPOSITION DE HESSENBERG Algorithme de Arnoldi-Householder (H) Pour cet algorithme, le calcul de V m v v m utilise des matrices P i, i n, hermitiennes unitaires (donc carrées n n) construites à partir de matrices de Householder.. Choisir un vecteur v de norme et calculer P tel que P v e. 2. Pour m 2 n z m P m P Av m Partitionner z m en z m S z ) * m T z ) 2* m T T avec z ) * m de taille m. Si z ) 2* m, P m I n h m z m Arrêt des itérations ou continuation par P m I n et v m P P m e m. Sinon Calculer P m à partir de z ) 2* h m P m z m v m P P m e m 3. h n P n P Av n m. Il existe également d autres techniques d orthogonalisation, telles que la méthode de Givens (GA) [8], mais nous avons choisi de ne pas les présenter car elles se basent sur des techniques semblables à celles employées par ces trois algorithmes. Nous savons que le terme h k k est le critère d arrêt de la décomposition de Hessenberg par la méthode d Arnoldi. Lorsque ce terme est nul à l itération k k, algorithmiquement, le vecteur v k peut ne pas être construit et l algorithme d Arnoldi exact s arrête s il en est ainsi. Supposons que h k k ε avec ε petit. Le vecteur Av k peut être calculé algorithmiquement mais sera presque linéairement dépendant des vecteurs v i, i k, précédents. Les vecteurs v i, i k, forment une base unitaire mais les vecteurs calculés v i, i k, ne forment plus une base unitaire : il y a perte d orthogonalité de la matrice V k. Cette perte d orthogonalité est le phénomène flagrant qui se produit lorsque l on effectue une décomposition de Hessenberg par la méthode d Arnoldi en précision finie, la précision finie occulte l arrêt heureux : la valeur de h k k calculée est non nulle et égale à un ε petit. La perte d orthogonalité de la matrice Ṽ k se manifeste à l itération qui succède l arrḙt heureux de l algorithme d Arnoldi en arithmétique exacte. Ce phénomène sera étudié dans le chapitre 6. Il a été mis en évidence pour la méthode de Lanczos symétrique par Parlett dans les années 7 [28, 3, ].
83 4.2. MÉTHODE GMRES DE BASE 83 Un grand intérêt de cette méthode pour les très grandes matrices (n 3 ) est de pouvoir stopper le processus au pas m n et de travailler avec H (respectivement H) de taille m m (respectivement m m). Cela s appelle une décomposition incomplète de Hessenberg. On rappelle que H est la matrice qui représente la projection orthogonale de A sur le sous-espace de Krylov dans la base V m. Est-il possible de faire en sorte que, par un choix approprié de vecteur de départ v, le sous-espace de Krylov soit tel que H (ou H) contienne assez d informations sur A pour que les deux problèmes fondamentaux de l Algèbre Linéaire. Ax b ou 2. Ax λx associés à A d ordre n puissent être approchés par les solutions de et 2 associées à H ou H de taille m n? Plus précisément, on peut penser à approcher. par.bis. Hy c (moindres carrés) 2. par 2.bis. Hy µy (valeurs propres) où z Vy approche x et µ approche λ? On définit les vecteurs résiduels associés Az b et Az µz. En pratique, on impose une valeur maximale pour m n, et si les vecteurs résiduels sont trop grands, on itère en repartant d un nouveau vecteur v déterminé à partir de z. Il n existe pas de théorème de convergence des méthodes citées avec ré-itération du vecteur de départ ( restart en anglais) ni en arithmétique exacte, ni en précision finie. Durant notre étude, nous nous intéressons particulièrement aux méthodes sans ré-itération où l on déroule l algorithme de l itération k à l itération k n ou k k n. Ce sont les méthodes de Krylov de base. La méthode d approximation des solutions de. par celles de.bis en arithmétique exacte est la méthode GMRES (Generalized Minimal Residual method) que nous présentons. 4.2 Méthode GMRES de base Soit le problème P : résoudre le système linéaire Ax b 4.2. Principe de la méthode GMRES (utilisation de H) Le principe de la méthode de GMRES [3] de base consiste à approcher x par un vecteur de la forme x z du problème P où
84 Z Z 84 MÉTHODE GMRES DE BASE x est un vecteur initial choisi par l utilisateur, z K k A r q lin r Ar A k r, un sous-espace de Krylov avec r b Ax le résidu initial et k le numéro de l itération. Pour se faire,. on construit une base orthonormale V k v v k de l espace de Krylov K k A r et une matrice H k C k k provenant d une décomposition de Hessenberg. Cette décomposition s effectue par la méthode d Arnoldi étudiée dans la section précédente. r Pour un vecteur v choisi tel que v r, les méthodes de GMRES suivant le principe d Arnoldi de décomposition incomplète Z de Hessenberg par orthogonalisation de Householder, Gram Schmidt classique et Gram Schmidt modifiée seront équivalentes en arithmétique exacte. On rappelle que les matrices A V k et H k satisfont la relation AV k V k H k 2. A chaque étape, on résout le problème de moindres carrés c est à dire min b A x z2 z K k min r z2 Az K k Si on pose z V k y K k, alors on peut écrire r Az r ) * y avec r ) * y! βv AV k y où on a posé v r r Z, β r (le signe de β dépend de l orthogonalisation utilisée par la méthode GMRES : positif pour Gram Schmidt, résultant de P z βe pour Householder [3]). On peut encore écrire que βv AV k y r ) 2* y avec r ) 2* y! V k βe H k y où e est la première colonne de la matrice identité appartenant à IR ) k * ) k *. Puisque V k est orthonormal, il vient que V k βe H k y r ) 3* y avec La solution approchée du problème r ) 3* y βe H k y min x b Ax
85 Z Z Z Z Z Z Z Z Z MÉTHODE GMRES DE BASE 85 est donnée par x k x V k y k où y k minimise la fonction r ) 3* y βe H k y avec y k C k. 3, nous pouvons établir les erreurs inverses Des trois formules r ) i* y, i η ) i* x k associées à la solution x k approchée du système linéaire Ax b : η ) * x k u η ) 2* x k u η ) 3* x k u βv AV k y Z A x ZcZ k Z b V kh ) βe H k y* Z A x ZcZ k Z b βe H k y Z A x ZcZ k Z b Z Les trois erreurs inverses η ) i* Ax x k, i 2 3, et η x k q Z k b Z A x ZcZ k Z en arithmétique exacte. b Z sont équivalentes Quand peut-on affirmer que la solution approchée x k est solution du problème P en arithmétique exacte? Arrêt heureux et solution du système linéaire par la méthode GMRES L algorithme d Arnoldi s arrête à l itération k $ n telle que h k k. Est-on sûr que x k est solution de P? Grâce à la proposition établie par Y. Saad [3], nous pouvons répondre à cette question. Elle est la suivante : Proposition 4.2. [3] Soit A une matrice non singulière. Alors, l algorithme GMRES s arrḙte à l étape k, c est à dire lorsque h k k (arrḙt heureux), si et seulement si x k est solution exacte du système Ax b. Cette proposition justifie le terme d arrḙt heureux. La procédure d Arnoldi s arrête en fournissant la solution x k de P. En pratique, on s arrête à une itération k n ou bien on réitère ( restart ) Remarques. En arithmétique exacte et à chaque itération k, nous avons égalité entre les différents résidus r ) i*, i 2 3. Plus précisément, soit y ) 3* minimisant r ) 3* y. Alors r ) * y ) 3* q r ) 2* y ) 3* r ) 3* y ) 3* et de même pour les erreurs inverses η ) i*, i En arithmétique exacte, la solution approchée x k x ) 3* V k y ) 3* à l itération k du problème P est identique pour les trois implantations de GMRES par Householder, MGS et CGS.
86 86 METHODE D ARNOLDI Erreur inverse associée à la solution x k du système linéaire donnée par la méthode GMRES On suppose la solution x k donnée par GMRES calculée exactement. Sa qualité en tant qu approximation de la solution x est donnée par l erreur inverse qui est de la forme d un résidu normalisé : ω A x k! βe H k y k A " x k b r ) 3* y k A " x k b où y k minimise le résidu r ) 3* y βe H k y au sens des moindres carrés. La méthode d approximation des solutions de 2. par celles de 2.bis en arithmétique exacte est la méthode d Arnoldi pour le calcul d éléments propres. 4.3 Méthode d Arnoldi de base pour le calcul approché d éléments propres 4.3. Présentation de la méthode d Arnoldi pour le calcul d éléments propres (utilisation de H) Le principe de la méthode d Arnoldi pour le calcul d éléments propres consiste à : choisir un vecteur v de norme ; Pour k n construire les matrices H k et V k par un processus d Arnoldi : V H k AV k H k ; calculer les paires d éléments propres ν ) i* y ) i* de H, pour i k ; poser λ ) i* ν ) i* et x ) i* Vk Hy) i* ; arrêter l itération si λ ) i* x ) i*, i k sont k éléments propres de A ; fin Pour Lorsque l on traitera de problème d éléments propres et seulement ce problème, on parlera de la méthode d Arnoldi de calcul d éléments propres. Introduisons maintenant deux notions d erreur. La première est appelée erreur de méthode d Arnoldi Erreur de méthode d Arnoldi Grâce à l équation (4.2) et à l exemple fondamental du chapitre 2, nous pouvons affirmer que, à l itération k k, les k valeurs propres de H k sont k valeurs propres de A h k ke k avec E k v k v H k de rang. Toutes les valeurs propres ν Re A de H k
87 Z METHODE D ARNOLDI 87 sont telles que ρ E k A νi W L h kh. Ainsi, l erreur inverse homotopique pour des k perturbations dans la direction de E k associée à chaque valeur propre ν de H k notée ηj ) E k * ν L ρ) E) A νi* l * est égale à ηj une formulation relative, nous noterons cette erreur ηj de la valeur propre ν de H et ne dépend que du processus A M plus de dépendance en ν. Cette quantité ηj d Arnoldi. ) E k * ν h k k en formulation absolue. Dans ) E k * h kh k : elle est indépendante A Z H. Nous n indiquons donc ) E k * est donc appelée erreur de méthode Elle est basée sur la quantité h k k qui est le critère d arrêt (exact) de la méthode d Arnoldi en arithmétique exacte. Ainsi, parce qu on utilise la méthode d Arnoldi, l expression de ηj ) E k * ν dépendant dans le cas général de A, H k et E k est, après simplification, égale à un scalaire positif h k k dépendant seulement de H k. On peut ainsi quantifier d une manière directe la qualité des valeurs propres de H k en tant que valeurs propres approchées de la matrice A pour des perturbations dans la direction de E k. Ceci est valable pour l itération k, et nous ne pouvons pas, grâce à cet outil, comparer la qualité des valeurs propres de H k avec celles de H k étant donnée que les directions des perturbations homotopiques considérées ne sont pas égales. On peut cependant avoir une estimation globale de la qualité des valeurs propres de H k en tant que valeurs propres de A étant donné que ηj ) E k * est une borne supérieure de l erreur inverse normwise associée à ν ( E k ) pour une formulation absolue. C est le cas en arithmétique exacte, mais pas en précision finie. Ceci est une façon de quantifier la qualité de toutes les valeurs propres de H k en tant que valeurs propres de A. Qu en est-il pour le couple d éléments propres ν z de H k en tant qu éléments propres de A? Erreurs inverses associées aux solutions ν et z du problème d éléments propres fournie par la méthode d Arnoldi Le résidu associé au couple d éléments propres approchés ν et z V k y est : r ) * ν z! Az νz Grâce à l équation (4.), r ) * ν z peut s écrire en posant y k e T k y, ce qui équivaut à r ) 2* ν z! h k k E y k E V k r ) 3* ν z h k k E y k E où y k est la k ième composante du vecteur y. Ces trois résidus sont égaux en arithmétique exacte à l itération k. Ils donnent lieu à deux
88 Z Z Z Z 88 METHODE D ARNOLDI formulations d erreur inverse normwise : η ) * ν z η ) 2* ν z Az νz Z A Z Z z Z η ) 3* ν z h kh ~ k y k ~ A ZcZ y Z où η ) * ν z est l erreur inverse classique (normwise) notée η U 3 ν z dans le chapitre. L erreur inverse η ) 3* ν z est appelée l erreur inverse d Arnoldi associée à un couple d éléments propres et est notée η A ν z. Pour la distinguer de l erreur de méthode ηj ) E k *, nous l appelerons erreur de calcul. Les formulations de η ) * ν z et η ) 3* ν z sont différentes mais η ) * ν z! η ) 3* ν z ( z V k y y ) : ceci est seulement vrai en arithmétique exacte, ce ne l est forcément plus en précision finie [5]. En formulation absolue, il est intéressant de remarquer que, parce qu on utilise la méthode d Arnoldi, l erreur inverse η ) * ν z dépendant de A, z et ν est simplifiée en η ) 3* ν z qui ne dépend que d une composante de H k et d une composante du vecteur y Comparaisons des deux erreurs inverses de méthode et de calcul Pour une formulation relative, l erreur inverse de méthode d Arnoldi est ηj ) E k * h k k A et l erreur inverse d Arnoldi (pour le calcul d un couple d éléments propres ν z ) est η A ν z! h k k E y k E A y Comme y k est une composante du vecteur y, le rapport ξ k Notons que ξ k h y e k. Ainsi, et h k k T h k k E y k E y η A ν z $ En arithmétique exacte, l erreur de méthode ηj η U ν $ η A ν z $ ηj h k kξ k ~ y k ~ Z y Z ηj ) E k * ) E k * est telle que ) E k * est inférieur ou égal à. U avec η ν l erreur inverse normwise relative à A associée à ν soit A Z ) A zi* l. Quand ν z est un couple d éléments propres de H k, l erreur de méthode ηj ) E k * est une borne supérieure des erreurs inverses η ν et η 3 ν z! η A ν z.
89 METHODE D ARNOLDI Calcul d éléments propres et arrêt heureux La relation entre le calcul d éléments propres de la matrice A par la méthode d Arnoldi et l arrêt heureux peut être vue de deux manières : soit à partir de l erreur inverse associée à la solution ν z du problème d éléments propres soit à partir de l erreur inverse de méthode issue de l équation (4.). Ces deux manières sont intéressantes et nous les décrivons à présent. Information donnée par h k kξ k Lors d un arrêt heureux, la valeur h k k est nulle. Ainsi, pour les k couples d éléments propres approchés de A, l erreur inverse η A ν z est nulle et les k couples approchés ν z sont k couples exacts d éléments propres de la matrice A. A présent, essayons de mieux comprendre un phénomène noté en précision finie dans le chapitre 6. Soient les deux matrices H ) * et H ) 2* telles : H ) 2* H ) * u... h avec H ) 2* lc k k, H ) * lc k k, u lc k non nul et h lc. On pose y B x H α H, x lc k, α lc et on suppose que y est vecteur propre de H ) 2*. Que peut-on affirmer sur x et sur α? Soit ν lc la valeur propre de A telle que H ) 2* y νy. Alors H ) 2* y H ) * x αu hα ν x α ce qui équivaut à Deux cas sont alors possibles : H ) * x αu νx hα να. Si h ν alors on ne peut rien affirmer sur α et x. 2. Si h ν, la quantité α est donc nulle. Le vecteur x est un vecteur propre de H ) * associé à ν et y x H H est un vecteur propre de H ) 2* associé à ν. Si la composante en position k k de H ) 2* est non nulle et petite, alors on peut comprendre que les k ème composantes des vecteurs propres de H ) 2* associés à une valeur propre différente de h sont de l ordre d un ε avec ε petit. Cette étude de H ) * et H ) 2* nous permet de comprendre ce qui se passe pour la méthode d Arnoldi implantée en précision finie. En effet, comme on le verra dans le chapitre 6, la
90 9 METHODE D ARNOLDI quantité h k k calculée en précision finie n est pas exactement nulle à l itération k k. La matrice calculée H k peut se schématiser de la façon suivante : H k H k u avec h ε h h k k et ε petit. On peut donc comprendre dans ce cas que les k ème composantes des vecteurs propres associés à une valeur propre différente de h h k k de H k calculée en précision finie seront de l ordre d un ε avec ε petit. Ainsi, si aux itérations k et k, ν ) k* y ) k* est un couple d élément propres de H k, avec ν ) k* h k k, z ) k* V k y ) k* et y ) k* k est la kème composante de y ) k* ν ) k * y ) k * est un couple d élément propres de H k, z ) k * V k y ) k * ) k * et y k est la k ème composante de y ) k * alors, l erreur de calcul η A ν ) k* z ) k* admettra le terme h k k de l ordre de ε et E y ) k* k E quelconque tandis que l erreur de calcul au pas suivant η A ν ) k * z ) k * admettra le terme ) k * h k 2 k quelconque et E y k E de l ordre de ε, avec ε petit. Information donnée par l erreur de méthode d Arnoldi = h k k L équation (4.) ou l équation (4.2) AV k V k H k h k kv k e T k A h k ke k V k V k H k implique qu à l itération k k où h k k, AV k V k H k L erreur de méthode d Arnoldi est nulle et les éléments propres de H k sont des éléments propres exacts de A. Ceci constitue une nouvelle justification du terme arrḙt heureux. Nous savons que le terme h k k est le critère mathématique d arrêt du calcul de la décomposition de Hessenberg par la méthode d Arnoldi. Lorsque ce terme est nul à l itération k k, le vecteur v k peut ne pas être construit théoriquement et l algorithme d Arnoldi exact s arrête s il en est ainsi. Ce terme h k k ne dépend que de A et du choix du vecteur initial v. Pour une valeur de k fixée inférieure ou égale à la taille n de la matrice A, que doivent vérifier la matrice A et le vecteur initial v pour que le sous-espace invariant K A v soit de taille k?
91 METHODE D ARNOLDI Vecteur initial v et itération d arrêt k. Soit v le vecteur initial choisi par l utilisateur et k l itération pour laquelle h k k Proposition 4.3. [29] L algorithme d Arnoldi s arrḙte à l itération k c est à dire lorsque h k k si et seulement si le polynˆome minimal associé à A et à v est de degré k. En s inspirant de la section..4, nous pouvons affirmer que, pour une matrice A et un vecteur initial v, parce que le degré du polynôme minimal associé à A et à v est inférieur ou égal à n, il existe une valeur k $ n telle que h k k. Il existe donc une relation entre le degré du polynôme minimal associé à la matrice A et au vecteur v et l itération k de l arrêt de l algorithme d Arnoldi [39]. Lorsque l on connaît la décomposition A XJX sous forme de Jordan de A et les composantes de v dans la base de Jordan X de A, peut-on relier la structure du vecteur initial v avec la valeur k? La proposition suivante va nous permettre de répondre à cette question. Proposition Soit A XJX une décomposition sous forme de Jordan de la matrice A avec les notations du théorème... Soit un vecteur v de norme de la forme v Xc avec c c c d H, où chaque c i, i d, est de la mḙme taille que la boˆıte de Jordan associée à la valeur propre λ i, et pour i d, c i c H i c H ig i H où g i est la multiplicité géométrique de λ i et c i j est un vecteur dont le nombre de lignes est égal à la taille k i j de la matrice J i j. Pour i d et j g i, on pose sous la convention : ξ i j max k2+3 ;k i j4 k;c i j k D si c i j, alors ξ i j. La valeur de k telle que h k k (entraˆınant l arrḙt de l algorithme d Arnoldi) est k d max ξ i% j2+3 i j ;g i4 Preuve On considère les hypothèses de la proposition sur la matrice A et sur le vecteur v qui sont les mêmes que celles de la proposition... La proposition.. nous permet de trouver l expression du polynôme minimal associé à la matrice A et au vecteur v. Ce polynôme minimal est de la forme avec P A v x l i d x λ i i% max ξ j2+3 i j g i4 l i
92 92 METHODE D ARNOLDI et ξ i j max k2+3 k i j4 Le degré de ce polynôme minimal est alors égal à deg P A v d l i i% k c i j k D " d max ξ i% j2+3 i j g i4 D après la proposition 4.3., le degré du polynôme minimal associé à A et à v est égal à l itération k pour laquelle h k k. Ainsi, La valeur de k est telle que k d max ξ i% j2+3 i j ;g i4 Lorsque l on connaît la décomposition A XJX sous forme de Jordan de A et les composantes de v dans la base de Jordan X de A, on peut donc relier la structure du vecteur initial v avec la valeur k. Dans la littérature, une étude du lien entre le vecteur initial choisi et la valeur de l itération où l algorithme d Arnoldi s arrête a été réalisée par M. Arioli, V. Pták et Z. Strako s dans [3]. Les auteurs démontrent que l algorithme d Arnoldi s arrête à une itération qui est inférieure au degré du polynôme minimal associé à la matrice A et que, de plus, il existe un vecteur initial pour lequel l algorithme d Arnoldi s arrête exactement à l itération de numéro égal au degré du polynôme minimal associé à A. Dans la preuve, ils choisissent une matrice A dont la décomposition sous forme de Jordan est A XJX avec J une matrice non dérogatoire. La matrice J admet donc qu un seul bloc de Jordan par valeur propre, le nombre de bloc de Jordan total étant égal à d. Ils choisissent un vecteur initial que l on peut noter v et dont on suppose que ses composantes c dans la base de Jordan de A admettent la même partition que dans la proposition... Ce vecteur initial choisi admet une valeur non nulle comme composante c i l i, i d et pour toutes les autres. D après la proposition.., on vérifie d une autre manière que l algorithme d Arnoldi pour un vecteur initial de cette forme va s arrêter à l itération de numéro égal au degré du polynôme minimal associé à A. Cependant, les auteurs ne précisent pas le lien entre l itération k d arrêt du processus d Arnoldi et la structure du vecteur v (à l aide de la matrice A) dans le cas le plus général. Si on se donne un vecteur v, combinaison linéaire de certains vecteurs de la base X, peut-on alors connaître les valeurs propres de H k en théorie sans construire H k? La proposition suivante va nous permettre de répondre à cette question.
93 METHODE D ARNOLDI 93 Lemme 4.3. Soit P A v x F d i% x λ i l i le polynˆome minimal associé à A et à v. Le polynˆome P A v x est identique au polynˆome P Hk x. La matrice H k admet alors l i valeurs propres λ i, pour i d. Preuve du lemme D après le lemme..4, si P A v x, d i% x λ i l i, alors d i% A λ i l i A p v pour une valeur entière positive p. De plus, on sait que, pour i k, si v i est le ième vecteur de la base orthonormale V k, alors v i est combinaison linéaire de v, Av,..., A i v. Donc quelque soit i k, on peut écrire que et ainsi écrire que c est à dire que Comme H k V H k AV k alors d A λ i I i% v H i V H k d d A λ i I i% d i% A λ i I l i v i Vk H AV k λ i I i% d H k λ i I i% l i v i l i V k Ceci montre que le polynôme minimal P A v x s annule en H k. On rappelle que d i% l i k. Soit d H le nombre de valeurs propres distinctes de H k et d µ i H les valeurs propres de H k d indices respectifs p i, i d H. Le polynôme minimal associé à H k est alors de la forme d H p x µ i i avec i% l i l i d H p i i% Comme on sait que d i% H k λ i I l i, on a obligatoirement d d H, λ i µ i, l i p i pour i d. Ainsi, P Hk x. d i% x λ i l i. Les polynômes P A v x et P Hk x sont donc identiques. La valeur propre λ i de H k est d indice l i, i d. Comme H k est une matrice de Hessenberg, elle est non dérogatoire : la multiplicité algébrique et l indice de chaque valeur propre de H k sont donc égales. La matrice H k admet alors l i valeurs propres λ i pour i d. k
94 METHODE D ARNOLDI A présent, prenons un exemple afin d illustrer ce lemme. Prenons la matrice A XJX et le vecteur v Xc utilisés dans le chapitre où J λ λ λ 2 λ 2 λ 2 λ 2 λ 2 λ 3 λ 3 λ 3 avec c c c 2 c 2 c 2 c 2 2 c 2 3 c 22 c 22 2 c 3 et c c 3 c 3 2 c 3 3 D après le lemme 4.3. et la proposition.., on peut affirmer que, si H k est la matrice de Hessenberg obtenu par un processus d Arnoldi, alors H k admet alors un bloc de Jordan de taille l i pour la valeur propre λ i, i 2 3 où les quantités l i, i 2 3, sont données dans les tableaux suivants, dépendant des composantes du vecteur c. c c 2 l 2 E c 2 E E c 22 E E c 2 2 E E c 22 2 E c 2 3 l c 3 c 3 2 c 3 3 l c c 2 c 3 3 où le signe 5 implique une valeur quelconque complexe de la quantité correspondante. Pour une telle matrice A, quelque soit v, k $ 8 n et H k admet, au plus, 8 valeurs propres de A.
95 M 4.4. CONCLUSION ET PERSPECTIVES Conclusion et perspectives A partir d une matrice A et d un vecteur v de norme, la méthode d Arnoldi permet d effectuer une décomposition sous forme de Hessenberg de la matrice A. A partir de cette décomposition, il est possible de résoudre un système linéaire de type Ax b (méthode GMRES) et de calculer des éléments propres de la matrice A (méthode d Arnoldi pour le calcul d éléments propres). En arithmétique exacte, le critère de convergence de ces méthodes est le terme h k k. Lorsqu il est nul à l itération notée k, on dit que la méthode a convergé : on peut obtenir la solution exacte du système linéaire et obtenir des éléments propres de la matrice A. Lorsque l on connaît la décomposition sous forme de Jordan de la matrice A ainsi que les composantes de v dans la base de Jordan de A, grâce à la relation entre v et k établie, il est possible de savoir à présent à quelle itération k l algorithme d Arnoldi s arrête. Pour utiliser la relation établie dans ce chapitre entre v et k, il est nécessaire de connaître la décomposition sous forme de Jordan de A. En pratique, il est impossible de connaître la valeur k pour un vecteur v donné car l expérimentateur n a aucune information sur la matrice A. Cependant, cette relation entre le vecteur v et la valeur de k va nous permettre de générer des cas tests à convergence connue en arithmétique exacte afin d étudier la décomposition de Hessenberg par la méthode d Arnoldi et ses applications implantées en précision finie. C est ce que nous étudierons dans le chapitre 6. Dans ce chapitre 4, nous avons montré que les valeurs propres de H k calculée par la méthode d Arnoldi sont k valeurs propres de la matrice A h k ke k soit k valeurs propres d une matrice de la forme A te où t C est fixe. Intéressons-nous maintenant à la fonction t C p λ t valeur propre de A te pour A et E données. Cette fonction est appelée champ spectral de la matrice A. C est ce que nous allons étudier dans le chapitre suivant.
96 96 CONCLUSION ET PERSPECTIVES
97 Chapitre 5 Lignes et courbes spectrales pour le champ de singularités de A E Dans le chapitre, nous nous sommes intéressés à la localisation des valeurs propres de A A où la matrice A admet soit une norme connue, soit une structure connue. Dans le second cas, on note E la matrice de structure (ou de déviation) de la matrice A, et on pose A te, avec t lc. Si on désire plus principalement s intéresser à ce cas, que peut-on dire de plus que les valeurs propres de A te pour E t E $ α H sont dans le -pseudo-spectre homotopique de A pour ces perturbations dans la direction de E défini par z Re A W α H ρ E A zi T,i Sp A W La valeur t est une valeur complexe donc il existe t IR et θ 2π telle que t t e iθ. La valeur t supposée strictement positive donne le module de t et θ (mod 2π) donne l argument de t. Pour t variant de t à t 2, t t 2, et pour θ variant de à 2π, comment varient les valeurs propres de A te, t t e iθ, qui définissent de champ de singularités de A? Nous ne pouvons pas répondre directement à cette question ni imaginer une représentation de cette variation dans IR 3. En effet, t varie dans le plan complexe et les valeurs propres de A te varient également dans le plan complexe. On ne peut donc faire varier les valeurs propres de A te dans un plan complexe en fonction de t admettant deux paramètres variables. Il est donc utile de distinguer deux cas. variation de t à θ fixé. On choisit par exemple t variant dans. 2. variation de t à t E t E fixé. On fait varier θ de à 2π par exemple. C est ce qui consiste le déploiement du champ spectral de A. Ces deux modes de variation de t admettent une image physique associée donnée qui est le champ électrique. En effet, les lignes de courant peuvent être vues comme les valeurs propres de A te, avec t admettant un module qui varie mais un argument fixe. Les équipotentielles peuvent être 97
98 98 PERTURBATIONS HOMOTOPIQUES A te, θ FIXE vues comme les valeurs propres de A te, avec t admettant un module fixe égal à t et un argument qui varie. Elles correspondent à la frontière de l ensemble des points qui sont vus comme singuliers avec une intensité inférieure ou égale à t. Le champ de singularités ou champ spectral d une matrice peut être vu comme un analogue au plan du calcul de la notion de champ électrique en physique. Nous allons à présent nous intéresser au premier cas de variation de t c est à dire lorsque t admet un argument fixe mais un module qui varie. 5. Perturbations homotopiques A te, t d argument fixe En nous inspirant principalement des travaux de A. Ilahi [24], nous pouvons énoncer que, pour t réel positif suffisamment petit et E une matrice complexe, les valeurs propres λ t d une famille de matrices de la forme A t L A te peuvent donner des renseignements précis sur la structure de Jordan de A. Donnons un exemple motivant avant de rappeler des notions théoriques. Nous reprenons l exemple..2 de [24]. Soit la matrice J suivante J Cette matrice admet comme valeur propre simple et de multiplicité 5. La boîte de Jordan associée à la valeur propre est composée de deux blocs de Jordan, un de taille 2 et un autre de taille 3. En affichant dans le plan complexe les valeurs propres d une famille de matrices J t J te, t Š 9, avec E, une matrice complexe arbitraire de norme, nous constatons que le nombre, la disposition géométrique et la grandeur des segments visualisés sur la figure avec des zooms respectant une échelle carrée reflète bien la structure de Jordan exacte de la matrice J et indépendamment de la matrice E. En effet, sur la figure 5., nous avons, sur la vue, trois segments issus de, uniformément pivotés d un angle de 2π 3 et 9 d ordre de grandeur 3 3, ce qui correspond au bloc de Jordan de taille 3 associé à la valeur propre. sur la vue 2, à une échelle plus petite, deux segments issus de, symétriquement
99 PERTURBATIONS HOMOTOPIQUES A t e iθ E, θ FIXE 99 9 opposés par rapport à et d ordre de grandeur 2 P 4 5 ce qui correspond au bloc de Jordan de taille 2 associé à la valeur propre. sur la vue 3, à l aide d un zoom respectant une échelle carrée, nous voyons qu un seul segment issu de et d ordre de grandeur 9 ce qui correspond au fait que est une valeur propre simple de J. 5 x 4 vue 2 x 5 vue 2 5 x vue x x 5 5 FIG. 5. Valeurs propres de J te, t š 9 En utilisant les notions développées dans [24], nous pouvons énoncer que. le nombre de valeurs propres distinctes d une famille de matrices A t A te est une constante s $ n (indépendante de t) sauf en un nombre fini de valeurs exceptionnelles de t où ce nombre peut diminuer. Ces valeurs du paramètre t sont appelées des points exceptionnels : ils sont isolés et en nombre fini dans un compact de lc. 2. La notion de points exceptionnels permet d énoncer les résultats suivants : Si le paramètre t varie dans un domaine D simplement connexe, ne contenant aucun point exceptionnel, alors les valeurs propres de A t peuvent s écrire λ t W λ 2 t V λ s t W s $ s, distinctes et holomorphes sur le do- avec toutes les fonctions λ k t, k maine D. Soit D le disque de centre et de rayon E t E, où t est le point exceptionnel non nul de plus petit module. Si A t n admet pas de points exceptionnels non nuls, le disque D est le plan complexe tout entier. Si t est un point exceptionnel de A t, c est à dire A K A admet un nombre de valeurs propres distinctes inférieur à s, alors, dans le disque D privé de, les fonctions des valeurs propres n λ t W λ 2 t V λ s t W s $ n sont groupées de la façon suivante : λ t V λ p t W" λ p t W λ p q t W" ƒ
100 PERTURBATIONS HOMOTOPIQUES A t e iθ E, t FIXE Chaque groupe de p valeurs propres du type λ t W λ p t V est associé à une valeur propre λ et est développable en série de Puiseux de la forme où ω λ k t! λ α ω k t p α2 ω 2k t 2 p C k p (5.) exp i 2π p. Plusieurs groupes peuvent être associés à une même valeur propre multiple λ. 3. On appelle valeur de Puiseux du paramètre réel positif t la valeur maximale ε ε A E telle que pour t, t ε, les développements en série de Puiseux de la forme de l équation (5.) sont représentés par leur terme dominant (correspondant à α ), c est à dire le reste du développement est négligeable. Cette quantité ε est difficile à quantifier en pratique [24]. 4. On appelle déploiement par homotopie de la structure de Jordan d une matrice A, l information qui peut être révélée sur la structure de Jordan de A à partir de l ensemble des segments qui forment les directions asymptotiques de toutes les valeurs propres λ t d une famille homotopique A t - A te, avec t š ε A E. 5. Si t ε A E, alors le reste du développement en série de Puiseux (correspondant à α 2 et suivants) de l équation (5.) n est plus négligeable. Les valeurs propres λ t, t š t t 2, t t 2, ε A E. t 2 ne forment plus des segments, elles dévient de leur direction asymptotique. C est pour cela que nous employons le terme su f f isamment petit lorsque l on veut donner un ordre de grandeur à la valeur maximale t 2 que peut atteindre t et effectuer un déploiement par homotopique de la structure de Jordan de A. Par conséquent, lorsque A lc n n est une matrice donnée et E une matrice de perturbation de taille n et de norme, les valeurs propres de A t A te, t réel compris entre t et t 2, t 2 suffisamment petit, peuvent nous informer sur la structure de Jordan exacte de la matrice A. Dans cette partie, nous avons présenté les informations que nous pouvons obtenir lorsque l on étudie les valeurs propres de A te, avec t de module fixe et d argument variant. A présent, nous allons chercher l information que peuvent nous apporter les valeurs propres de A t avec t de module fixe et d argument variant. 5.2 Perturbations homotopiques A te, t de module fixe On a vu dans le chapitre 3 que lorsque l on connaît la structure des perturbations A sur A, l ε-pseudo-spectre homotopique d une matrice A, pour une valeur de ε donnée, peut donner une meilleure information sur les valeurs propres de A que l ε-pseudo-spectre normwise de A. Nous supposerons, dans tout ce qui va suivre, que
101 h PERTURBATIONS HOMOTOPIQUES A t e iθ E, t FIXE la perturbation A sur A possède la structure de la matrice E, la formulation de l ε-pseudo-spectre homotopique σj ) E* ε A est absolue c est à dire que le facteur de normalisation α H introduit dans le chapitre 3 est égal à et que les matrices A et A te, t lc, n admettent pas de valeurs propres en commun, c est à dire que toute valeur propre de A te appartient à Re A. L ε-pseudo-spectre σj ) E* ε A est l ensemble des points z valeurs propres de A te avec E t E $ ε, c est à dire les points z tels que ρ) E) A zi* l * $ ε. La frontière de σj ) E* ε A va délimiter la localisation de toutes les valeurs propres de A te, E t E $ ε. Afin de construire la frontière de σj ) E* ε A c est à dire l ensemble des points z tels que ρ) E) A zi*ml * ε, peut-on directement calculer et tracer les valeurs propres de A εe iθ E, pour θ variant de à 2π? Autrement dit, l ensemble des valeurs propres de A εe iθ E, θ Š 2π, est-il le même que celui des valeurs z telles que ρ) E) A zi*ml * ε? 5.2. Valeurs propres de A n te et pseudo-spectre homotopique Afin de répondre à cette question, nous énonçons la proposition suivante. Proposition 5.2. On suppose z Re A. i z valeur propre de A εe iθ E h ε e iθ valeur propre de E A zi ii h ρ E A zi T ε iii ρ E A zi # ε Preuve Démontrons i. z valeur propre de A εe iθ E h Il existe u lc n tel que e iθ ε A zi u Eu h En posant w S A zi # u ε e iθ w E A zi w ε e iθ valeur propre de E A zi # D après i, on peut affirmer z valeur propre de A εe iθ E équivaut à ρ E A zi # T ε. On démontre ainsi l équivalence ii. Si ρ E A zi ε, alors il existe une valeur θ œ ;2π telle que e ε iθ soit une valeur propre de E A zi. D après i, on peut alors écrire que z est une valeur propre de A εe iθ E. On vérifie ainsi iii. Toute matrice de rang admet au plus une unique valeur propre non nulle. Plaçons nous dans le cas où la matrice E est une matrice de rang. On peut alors affirmer que la matrice E A zi # est également de rang. Grâce à cette remarque, nous pouvons établir la proposition suivante.
102 2 PERTURBATIONS HOMOTOPIQUES A t e iθ E, t FIXE Proposition Si E est une matrice de rang, z Re A valeur propre de A εe iθ E h ρ E A zi # ε Preuve Si z est valeur propre de A εe iθ E, avec E de rang, alors E A zi # n admet qu une seule valeur propre non nulle égale à e ε iθ. C est ainsi que l on peut écrire que ρ E A zi ε si E est de rang. Si on fait varier θ de à 2π, alors on peut affirmer que les valeurs propres de A te, t εe iθ (E t E ε) appartiennent au même ensemble que l ensemble des valeurs z telles que ρ E A zi 6 ε. Ainsi, on peut énoncer la proposition suivante et répondre à la question posée. Proposition La frontière de l ε-pseudo-spectre homotopique σj ε A absolu est incluse en général dans l ensemble des valeurs propres de A te, E t E ε. On peut affirmer que ces deux ensembles sont égaux si E est de rang. Ainsi, les valeurs propres de A te, E t E ε, sont situées de manière précise si E est de rang c est à dire sur la courbe Γ associée à A E introduite dans le chapitre 2 considérée comme frontière de l ε-pseudo-spectre homotopique σj ) E* A absolu. Il se peut que pour une matrice E de rang différent de, l ensemble des valeurs propres de A te, E t E ε et la frontière de l ε-pseudo-spectre homotopique σj ε ε ) E* ) E* A absolu soient des ensembles égaux. On est sûr de cette égalité lorsque E est une matrice de rang. A présent, nous posons ε et, pour plus de clarté dans les notations, nous allons introduire les 6 ensembles suivants [7] : int Γ = z Re A ;ρ E A zi W 6 Γ = z Re A ;ρ E A zi ext Γ = z Re A ;ρ E A zi W 6 σ int A E = z Re A W z Sp A te W E t E σ bord A E = z Re A W z Sp A te W E t E σ ext A E = z Re A W z Sp A te W E t E En utilisant ces notations, nous pouvons affirmer que si E est de rang, alors Γ σ bord A E W Que peut-on dire pour toute matrice E? Qu en est-il alors de la comparaison entre int Γ et σ int A E et entre ext Γ et σ ext A E? Proposition Quelle que soit la matrice E, σ int A E.k int Γ Γ i int Γ σ int A E qi σ bord A E Γ k σ bord A E ext Γ 6k σ ext A E
103 PERTURBATIONS HOMOTOPIQUES A t e iθ E, t FIXE 3 Si la matrice E est de rang, ext Γ σ ext A E Γ σ bord A E int Γ σ int A E W La preuve est directe utilisant la proposition Cette proposition amène plusieurs remarques.. Quel que soit le rang de la matrice E, les valeurs propres de A te, E t E, appartiennent à int Γ. 2. L ensemble σ int A E i σ bord A E est l ensemble des valeurs propres de A te, E t E $. L ensemble Γ i int Γ est l ensemble z lc;ρ E A zi T " Les deux ensembles ci-dessus sont égaux et constituent l ε-pseudo-spectre homotopique de A pour des perturbations homotopiques de structure E, ε et une formulation absolue, c est à dire pour α H. 3. Quelle que soit la matrice E de rang strictement supérieur à, si z est valeur propre de A te, E t E, c est à dire si z σ bord A E, alors z n appartient pas obligatoirement à Γ. Il peut appartenir à int Γ. si z est valeur propre de A te, E t E, c est à dire si z σ ext A E, alors z peut être situé n importe où dans le plan complexe. 4. Si E est de rang, alors toute valeur propre de A te, E t E est sur Γ toute valeur propre de A te, E t E appartient à ext Γ. 5. Le -pseudo-spectre normwise de A, pour une formulation absolue (α ) que l on note ici σ U A! z lc z valeur propre de A A A $ contient le -pseudo-spectre homotopique pour α H de structure E. Il contient donc la courbe Γ. et pour des perturbations Appliquons la proposition à la méthode d Arnoldi étudiée dans le chapitre Un exemple : la méthode d Arnoldi Comme cela est expliqué dans le chapitre 4, lorsque l on utilise la méthode d Arnoldi pour calculer les valeurs propres d une matrice A, on construit une matrice de Hessenberg
104 4 PERTURBATIONS HOMOTOPIQUES A t e iθ E, t FIXE H k à l itération k. D après l exemple fondamental du chapitre 2, les valeurs propres de H k sont les valeurs propres d une matrice perturbée A A dont on connaît la perturbation A : cette perturbation est une perturbation homotopique de la forme h k ke k avec E k de rang. Ainsi, on peut affirmer que les valeurs propres de la matrice A h k ke k sont situées sur la courbe Γ associée au couple A h k ke k. Par conséquent, les valeurs propres de la matrice H k sont aussi sur cette courbe Γ associée au couple A h k ke k ainsi que les valeurs propres de C H n A k h k ke k C n k où V k C n k forme une matrice unitaire de taille n. En s inspirant de [24] résumé dans la section 5. ainsi que de la proposition 5.2.4, nous pouvons affirmer que les valeurs propres de A te k, pour E t E h k k sont toutes dans int Γ, E t E h k k sont toutes sur Γ, E t E h k k sont toutes dans ext Γ. Nous avons, jusqu à présent, étudié le comportement des valeurs propres de A te suivant le module de t et des valeurs z suivant la valeur de ρ E A zi # et introduit la courbe Γ associée au couple de matrices A E. Que peut nous apporter cette étude comme information sur les valeurs propres de la matrice A? Courbe Γ et valeurs propres de A et de A n E Afin de donner un lien entre la localisation des valeurs propres de A et la courbe Γ associée à un couple de matrices A E, il est important de distinguer le cas où E est de rang de celui où E est de rang strictement supérieur à. Matrice E de rang strictement supérieur à.. Pour une courbe Γ associée au couple de matrices A E, l ensemble Γ i int Γ forme l ε-pseudo-spectre homotopique de A, pour une formulation absolue, ε et des perturbations homotopiques de structure E. Ainsi, cet ensemble contient les valeurs propres de A. La courbe Γ associée au couple de matrices A E permet alors de délimiter la localisation des valeurs propres de la matrice A. Par conséquent, la courbe Γ permet de localiser de manière surfacique les valeurs propres de A.. Considérons la courbe Γ_ associée au couple de matrices A E E. Les valeurs propres de A E sont dans int Γ_. Les valeurs propres de A e iθ E, θ 2π, constitue l ensemble int Γ_ i Γ_. Si θ π, les valeurs propres de A š e iπ E appartiennent à l ensemble int Γ_ Oi Γ_. Or la matrice A ž e iπ E est la matrice A. Donc les valeurs propres de A peuvent être sur Γ_ ou dans int Γ_. Après l énoncé de ces deux points, pour une matrice E de rang strictement supérieur à, nous pouvons affirmer que les valeurs propres de A sont
105 5.3. EXPÉRIMENTATIONS NUMÉRIQUES 5 dans int Γ où Γ est associée à A E et sur Γ_ ou dans int Γ_ avec Γ_ associée à A E. Matrice E de rang. L ensemble des valeurs propres de A e iθ E, θ œ 2π, est l ensemble Γ. Ainsi, les valeurs propres de A E sont sur Γ. Par conséquent, si E est de rang, les valeurs propres de A sont dans int Γ et les valeurs propres de A E sont sur Γ.. Considérons la courbe Γ_ associée au couple de matrices A E E avec E de rang. Les valeurs propres de A E sont alors dans int Γ_ et les valeurs propres de A Ÿ e iθ E, θ 2π, constitue l ensemble Γ_. Les valeurs propres de A A e iπ E sont donc sur la courbe Γ_. Ainsi, la courbe Γ_ permet de localiser de manière curviligne les valeurs propres de A. Par conséquent, pour une matrice E de rang, int Γ avec Γ associée au couple A E et seulement la courbe Γ_ associée au couple A E E contiennent les valeurs propres de la matrice A. Pour avoir de l information sur la localisation des valeurs propres de A, la combinaison de l information donnée par les courbes Γ associée au couple A E et Γ_ associée au couple A E E est alors plus fine si E est de rang. Nous allons à présent illustrer ces propos à l aide d expérimentations numériques. 5.3 Expérimentations numériques 5.3. Protocole expérimental Le but de ces expérimentations numériques est d illustrer, à travers des graphiques, l information apportée par l utilisation de lignes et courbes spectrales. Après un choix de matrices A et E, les ensembles suivants sont représentés sur un graphique la courbe spectrale Γ associée au couple A E en vert et la courbe Γ_ associée à A E E en noir, les valeurs propres de A e iθ E, pour θ variant de à 2π, les lignes spectrales Λ, c est à dire l ensemble des valeurs propres de A te, avec t réel variant de à, les valeurs propres de A te, avec t réel supérieur à sont représentées toutes en rouge. La représentation des lignes Λ et des courbes Γ spectrales est duale. En effet, lorsque Λ (resp. Γ) est tracée d une seule couleur, la couleur de Γ (resp. Λ) est paramétrée en fonc-
106 Z 6 EXPÉRIMENTATIONS NUMÉRIQUES θ 2 π t π.5 π 4 FIG. 5.2 Dégradé de couleurs pour t et θ tion du θ (resp. t) correspondant : les valeurs propres de A te (resp. de A e iθ E) sont bleu indigo pour t (resp. pour θ ) et respectent le dégradé de couleurs en t (resp. en θ) de la figure 5.2 pour être rouge foncé lorsque t (resp. θ 2π). La matrice A choisie est la matrice compagne dite La Rose dont le polynôme caractéristique est P x x 3 x 2 3 x 3 3 x 4 W Cette matrice admet 3 valeurs propres de multiplicité 3 égales à, 2 et 3 défectives et une valeur propre simple égale à 4. Choisissons à présent une matrice E de rang strictement supérieur à et traçons les différents ensembles établis Matrice E de rang 2 Soit E une matrice de taille telle que les composantes de la dernière colonne sont égales à 2, la composante E 6 4 est égale à 2, toutes les autres composantes sont égales à. La matrice E choisie est de la forme 7 2 E E ce qui implique que le rang de E est égal à 2. Z a) Sur la figure 5.3, nous avons représenté les valeurs propres de la matrice A t. A te, t t e iθ, θ et t variant de à respectant le dégradé de couleurs en
107 EXPÉRIMENTATIONS NUMÉRIQUES 7 Courbe Γ et lignes spectrales Λ associées à A E, E de rang FIG. 5.3 Couleur sur t C ; FIG. 5.4 Couleur sur θ š ;2π t de la figure 5.2. Ces valeurs propres forment les lignes spectrales. En vert, nous avons tracé la courbe Γ associée au couple de matrices A E. b) Sur la figure 5.4, nous avons tracé l ensemble des valeurs propres de A e iθ E, θ ` 2π et nous avons respecté le dégradé de couleur en θ de la figure 5.2. Les lignes spectrales associées au couple de matrices A E sont tracées en bleu. A la vue de ces graphiques, nous pouvons établir les remarques suivantes :. les valeurs propres de A te, pour t sont représentées en rouge et ne sont pas toutes sur la courbe Γ représentée en vert. En effet, comme E est une matrice de rang 2, les valeurs propres de A te, avec E t E égal à, ne sont pas obligatoirement sur la courbe Γ. Elles peuvent être dans int Γ. C est ce qu il se passe pour deux valeurs propres de A E pour cet exemple. Les valeurs propres de A E appartiennent à l ensemble des valeurs propres de A te, avec E t E égal à, qui est représenté sur la figure 5.4. Les valeurs propres de A e i E A E étant égales aux valeurs propres de A e 2iπ E, la courbe des valeurs propres de A e iθ E, θ 2π, est formé d un ensemble de courbes fermées. Comme nous pouvons le vérifier ici à travers cet exemple, la courbe spectrale Γ associée au couple de matrices A E est incluse dans σ bord A E. Il se peut que, pour un cas exceptionnel d une matrice E de rang strictement supérieur à, la courbe spectrale Γ associée au couple de matrices A E est égale à σ bord A E mais la théorie ne généralise pas ce propos. 2. Les lignes spectrales formées par les valeurs propres de A te, t réel compris entre et, sont au nombre de. Comme A admet trois valeurs propres,2 et 3 de multiplicité 3, et une valeur propre 4 simple, les lignes spectrales formées par les valeurs propres de A te, t, forment dans un premier temps, trois segments de droites issus respectivement de,2 et 3 et un segment issu de 4.
108 8 EXPÉRIMENTATIONS NUMÉRIQUES Lorsque t est supérieur à la valeur de Puiseux, les valeurs propres de A te quittent leur direction asymptotique (pour t M ) : elles ne forment plus de segments, elles forment alors des lignes spectrales qui sont courbées. Une ligne spectrale issue de la valeur propre rencontre alors une ligne spectrale issue de la valeur propre 2. Analytiquement et par la couleur des valeurs propres, nous remarquons qu il existe un point exceptionnel, c est à dire qu une valeur propre de A t comprise entre et 2 est double. Théoriquement, il n existe qu une seule ligne spectrale issue de la valeur propre 4. Ici, la ligne spectrale issue de la valeur propre 4 rencontre une des trois lignes spectrales issues de la valeur propre 3. Ainsi, la matrice A te admet, pour une valeur de t comprise entre et, une valeur propre double comprise entre 3 et 4. Les lignes spectrales sont issues des valeurs propres de A et aboutissent sur les valeurs propres de A E. Ainsi, les lignes spectrales aboutissent sur l ensemble des valeurs propres de A e iθ E avec θ B ;2π. Comme les valeurs propres de A e iθ E, θ, sont égales aux valeurs propres de A e iθ E, θ 2π, les lignes spectrales aboutissent alors à l endroit où il y a un changement brutal de couleur des valeurs propres de A e iθ E correspondant à θ (mod 2π) montré par la figure 5.4. Les lignes spectrales sont symétriques par rapport à l axe des abscisses car les matrices A et E et le pramètre t sont réels. Les deux graphiques nous ont permis d analyser le comportement des valeurs propres de A te, pour t réel compris entre et et pour t de module égal à. Comment sont les valeurs propres de A te pour des valeurs de t de module supérieur à? Sur le graphique 5.5, nous avons tracé en rouge les valeurs propres de A te, pour t réel compris entre et 5. Que peut-on remarquer? Comme la matrice E est de rang 2, les valeurs propres de A te, E t E, peuvent être dans int Γ, dans ext Γ et sur la courbe spectrale Γ associée au couple A E. Retrouve-t-on ces comportements si on ne considère plus la matrice E mais la matrice E multipliée par un nombre complexe, soit par exemple e i π 4? On note E_ la matrice e i π 4 E. Sur la figure 5.6, nous avons tracé les valeurs propres de A te_, t réel compris entre et, avec le dégradé de couleurs en t, la courbe Γ_'_ associée au couple de matrices A E_ en vert. Sur la figure 5.7, nous avons tracé les valeurs propres de A te_, t réel compris entre et, en bleu, la courbe Γ_(_ associée au couple de matrices A E_ en vert avec le dégradé de couleurs en θ. D après les figures 5.6 et 5.7, nous pouvons faire les remarques suivantes. La courbe Γ_'_ est l ensemble des valeurs z telles que ρ E_ A zi #. L ensemble des valeurs z telles que ρ e i π 4 E A zi # est égal à l ensemble des
109 EXPÉRIMENTATIONS NUMÉRIQUES FIG. 5.5 Ensemble des valeurs propres de A t, t IR et t, pour E de rang 2 Courbe Γ et lignes spectrales Λ associée à A E_, E_ e i π 4 E de rang FIG. 5.6 Couleur sur t C ; FIG. 5.7 Couleur sur θ š ;2π
110 EXPÉRIMENTATIONS NUMÉRIQUES FIG. 5.8 Courbe Γ_ associée à A E E (noir), int(γ_ ) (vert) et Sp(A) ( rouge) valeurs z telles que ρ E A zi #. Ainsi, la courbe spectrale Γ est égale à la courbe spectrale Γ_(_. C est ce que nous pouvons remarquer à travers cet exemple. Pour cette matrice E_, les valeurs propres A te_, t réel compris entre et, n admettent pas de valeurs propres doubles. Il n y a donc pas de point exceptionnel avec cette matrice E_. Trois des valeurs propres de A E_ ne sont pas sur la courbe Γ, elles sont dans int Γ. Les lignes spectrales associées à A et E_ sont issues des valeurs propres de A et aboutissent sur l ensemble des valeurs propres de A e iθ E, θ C 2π, à l endroit π où elles sont bleu marine c est à dire lorsque θ 4 (voir échelle de la figure 5.2). Les lignes spectrales ne sont plus symétriques par rapport à l axe des abscisses, étant donné que la matrice de déviation E_ est complexe. Pour une matrice E de rang strictement supérieur à, il n y a donc pas de lien entre les points exceptionnels et le rang de E, ni entre le nombre de valeurs propres de A E sur Γ et le rang de E. Intéressons nous à présent à la courbe spectrale Γ_ associée au couple de matrices A E E. C est ce que nous représentons à l aide de la figure 5.8. La courbe spectrale Γ_ associée à A E E est tracée en noir et int Γ_ est représenté en vert. Les valeurs propres de A sont repérées par une croix rouge. Les valeurs propres de la matrice A appartiennent à la courbe Γ_ ou à int Γ_. En effet,
111 Z EXPÉRIMENTATIONS NUMÉRIQUES FIG. 5.9 Courbe Γ (rouge) associée à A E, courbe Γ_ (noire) associée à A E E et int Γ_ (vert) 9 des valeurs propres de A sont sur Γ_. Notons bien ici que la valeur propre 4 de la matrice A n est pas sur la courbe Γ_, elle appartient à int Γ_. Combinons la courbe Γ associée au couple A E avec la courbe Γ_ associée au couple A E E. L ensemble int Γ où Γ est associée au couple A E, int Γ_ où Γ_ est associée au couple A E E et la courbe Γ_ contiennent les valeurs propres de la matrice A. Ainsi, sur le graphique 5.9, nous pouvons affirmer que les valeurs propres de A sont ou dans le domaine vert int Γ_ ou sur la courbe noire (Γ_ ) et à l intérieur de la courbe rouge représentant Γ. Ceci illustre l emploi de la courbe Γ associée à A E et la courbe Γ_ associée à A E E pour délimiter la localisation des valeurs propres de A lorsque la matrice E est de rang strictement supérieur à. Effectuons les mêmes expérimentations avec une matrice E de rang égal à Matrice E de rang Exemple issu de la méthode d Arnoldi Soient le vecteur u T et la matrice A dite La Rose. En s inspirant des notions développées dans les chapitres et 4, nous pouvons affirmer que le u polynôme minimal associé à la matrice A et au vecteur v est de degré égal à la u Z
112 2 EXPÉRIMENTATIONS NUMÉRIQUES taille de la matrice A. Ainsi, l algorithme d Arnoldi implémenté à partir de A et de v s arrête à l itération et permet alors de construire une matrice H de Hessenberg semblable à A et une matrice orthogonale de changement de base V v v T La matrice E choisie pour nos expérimentations numériques est la matrice E h 8 7v 8 v T 7 de rang où h 8 7 est la composante située en position 8 7 de la matrice H. Les matrices H et V ont été calculées en arithmétique exacte à l aide du logiciel Mathematica. Les quantités utiles à la construction de E ont donc été calculées en arithmétique exacte. Les valeurs approchées à 3 près sont h , v ; 4 55; ; ; 6 5; 4 49; 28; 23; ; T, v 8 2 7; 2 7; ; 6 27; 6 2; 2 66; 76; 4; ; T. Comme cela est démontré théoriquement, les valeurs propres de A sont dans int Γ avec Γ associée au couple de matrices A E et les valeurs propres de A E sont sur cette même courbe Γ. Ainsi, les 7 valeurs propres de la matrice H 7 (égale aux 7 premières lignes et colonnes de H ) sont sur la courbe Γ associée à A E. Nous traçons, sur la figure 5., par une croix noire les 7 valeurs propres de H 7 ainsi que la courbe Γ associée à A E en vert. Sur la figure 5., nous avons tracé la courbe Γ associée à A E en vert, les lignes spectrales formées par les valeurs propres de A te, t réel dans ;, en respectant le dégradé de couleurs en t. Sur la figure 5.2, nous avons tracé la courbe Γ associée à A E égal à l ensemble des valeurs propres de A e iθ E, θ ;2π (mod 2π), en respectant le dégradé de couleurs en θ, les lignes spectrales formées par les valeurs propres de A te, t réel dans ;, en bleu. A la vue de ces figures, nous pouvons faire quelques remarques.. Les valeurs propres de A E sont représentées en rouge et doivent, de part la théorie, se situer sur la courbe Γ représentée en vert. Pourquoi, sur la figure 5., ne voit-on que 9 valeurs propres de A E sur la courbe Γ? Cet exemple est l exemple traité dans le chapitre 2 pour illustrer le fait que la fonction ρ E A zi # n est pas une fonction monotone. La courbe Γ est constituée de deux courbes fermées dont une s étend non loin du point 65 comme le montre la figure 2.4. L ensemble des valeurs propres de A E est bien situé sur la courbe Γ. 2. Pour cette matrice E de rang, également, lignes spectrales formées par les valeurs propres de A te, t réel compris entre et, apparaissent sur la figure 5. : 3 lignes spectrales issues respectivement des valeurs propres, 2 et 3 de A, et une issue de la valeur propre 4 de A. Ces lignes sont, dans un premier temps, des segments puis des courbes. Rapidement, une ligne spectrale provenant de la valeur propre 2 rencontre une ligne spectrale provenant de la valeur propre 3. Pour une valeur de t proche de, la matrice A t admet une valeur propre double. On sait analytiquement que cette valeur de t est proche de mais on le remarque également
113 EXPÉRIMENTATIONS NUMÉRIQUES Courbe Γ associée à A E, E de rang (vert) FIG. 5. Sp(H 7 ) ( noire) FIG. 5. Lignes spectrales, couleur sur t C ; Courbe Γ associée à A E, couleur sur θ š ; 2π FIG. 5.2 Lignes spectrales (bleu) FIG. 5.3 Ligne spectrale (bleu) - zoom sur 63; 67 2; 2 de la figure 5.2
114 4 EXPÉRIMENTATIONS NUMÉRIQUES FIG. 5.4 Courbe Γ et lignes spectrales pour t et E de rang car les lignes spectrales sont bleues au moment de l intersection. 3. Parce que les matrices A et E sont réelles et t IR, les lignes spectrales sont symétriques par rapport à l axe des abscisses. 4. Comme E est de rang, la courbe Γ associée à A E est égale à l ensemble des valeurs propres de A e iθ E, θ ;2π. Les valeurs propres de A te, t réel compris entre et, sont issues de A et aboutissent sur la courbe Γ à l endroit où il y a un changement brutal de couleur passant du bleu au rouge sur la figure 5.2. La courbe Γ est constituée de portions, chacune admettant un cycle de dégradé de couleurs. Chaque portion va d une valeur propre de A E à une autre qui peut lui être égale comme pour la portion proche du point 65 comme le montre la figure Deux courbes formées par les valeurs propres de A te issues de semblent rejoindre deux des courbes issues de la valeur propre 2. Examinons le comportement de ces courbes pour des valeurs de t supérieures à. Nous représentons sur la figure 5.4 les valeurs propres de A te pour des valeurs de t réelles comprises entre et 3. Ces lignes spectrales ne se rejoignent pas. Celles issues de la valeur propre restent dans les creux formés par la courbe spectrale Γ tandis que celles issues de la valeur propre 2 s écartent de la courbe Γ (figure 5.5). Remarquons aussi que les valeurs propres de A te, $ t $ qui se dirigeaient vers la zone proche de 65 stagnent dans cette zone pour t (figure 5.6). Retrouve-t-on ces comportements si on transforme la matrice E en E_ e i π 4 E? Nous avons tracé sur la figure 5.7
115 EXPÉRIMENTATIONS NUMÉRIQUES 5 Courbe Γ et lignes spectrales associées à A E pour t et E de rang FIG. 5.5 Zoom sur 5; 5 ; FIG. 5.6 Zoom sur 635; 665 5; 5 la courbe Γ_(_ associée au couple A E_ en vert les lignes spectrales formées par les valeurs propres de A te, t réel compris entre et, en respectant le dégradé de couleurs en t. et sur la figure 5.8 la courbe Γ_(_ associée au couple A E_ égal à l ensemble des valeurs propres de A e iθ E_, t ;2π, en respectant le dégradé de couleurs en θ, les lignes spectrales formées par les valeurs propres de A te, t réel compris entre et, en bleu. Courbe Γ Γ_(_ et lignes spectrales Λ associée à A E_, E_ e i π 4 E de rang FIG. 5.7 Couleur sur t C ; FIG. 5.8 Couleur sur θ š ;2π
116 6 EXPÉRIMENTATIONS NUMÉRIQUES FIG. 5.9 Courbes Γ_ (rouge), Γ (noir) et int Γ (vert) pour E de rang Pour les mêmes raisons que pour la matrice E de rang strictement supérieur à étudiée précédemment, la courbe Γ associée au couple de matrices A E est égale à la courbe Γ_(_ associée au couple de matrices A e i π 4 E. Il n y a pas de point exceptionnel avec cette matrice E_, ce qui nous permet encore ici d écrire qu il n y a pas de relation entre l existence d un point exceptionnel et le rang de la matrice E. Remarquons également que, pour cette matrice E_, une des trois courbes formées par les valeurs propres de A t issue de la valeur propre rejoint la partie de la courbe spectrale Γ proche de.65. La symétrie des lignes spectrales n est pas non plus conservée, E_ étant une matrice complexe. Comme nous le remarquons sur la figure 5.8, les lignes spectrales issues des valeurs propres de A rejoignent la courbe Γ dans sa partie bleu marine correspondant à θ π 4. Intéressons nous à présent à la courbe spectrale Γ_ associée au couple de matrices A E E. Comme E est une matrice de rang, les valeurs propres de A sont situées dans int Γ avec Γ associée au couple A E et sur la courbe Γ_ associée au couple A E E. Sur la figure 5.9, nous avons tracé les deux courbes spectrales Γ et Γ_ et colorié int Γ. La courbe Γ_ est tracée en rouge, la courbe Γ en noir et int Γ en vert. Étant donné que la matrice E est de rang, les valeurs propres de A appartiennent seulement à l ensemble formé par l intersection entre le domaine vert et la courbe rouge. Cette information est plus fine que lorsque la matrice E est de rang strictement supérieur à.
117 EXPÉRIMENTATIONS NUMÉRIQUES 7 Exemple où A admet une valeur propre multiple Soit A un bloc de Jordan de taille 8 pour la valeur propre et E e 8 e T de rang où e (resp. e 8 ) est le premier (resp. huitième) vecteur colonne de la base canonique de taille 8. Ainsi, A E... Nous présentons dans les différents graphiques la courbe Γ verte et les lignes spectrales formées par les valeurs propres de A te, t réel variant entre et, dont la couleur est paramétrée suivant t (figure 5.2), la courbe Γ formée par les valeurs propres de A e iθ E, θ C ;2π, dont la couleur est paramétrée suivant θ et les lignes spectrales formées par les valeurs propres de A te, t réel variant entre et, en bleu (figure 5.2), la courbe Γ_ et les lignes spectrales associée au couple A E E (figure 5.22), les deux courbes et les deux ensembles de lignes spectrales (figure 5.24). Courbe Γ et lignes spectrales associées à A E FIG. 5.2 Couleur sur t FIG. 5.2 Couleur sur θ La courbe Γ est analytiquement un cercle de centre et de rayon. La courbe Γ_ est analytiquement l ensemble des solutions de l équation z 8 e iθ, θ ;2π. Cet exemple est intéressant car il résume tout ce qu il y a à savoir sur les courbes et lignes spectrales. Sur la figure 5.24 où les deux courbes spectrales Γ et Γ_ ainsi que les lignes spectrales associées à A E et A E E ont été tracées, on remarque que. la courbe Γ associée à A E dessinée en vert délimite la localisation de la valeur propre de A. Les lignes spectrales associées à A et E partent de et se dirigent suivant des segments vers les valeurs propres distinctes de A E. Les valeurs propres
118 8 EXPÉRIMENTATIONS NUMÉRIQUES.5 Courbe Γ_ (noir) et lignes spectrales associées à A E E FIG Couleur sur t FIG Zoom sur 8; 2 2; FIG Courbe Γ (vert) et lignes spectrales (bleu) de A E Courbe Γ_ (noir) et lignes spectrales (rouge) pour A E E
119 EXPÉRIMENTATIONS NUMÉRIQUES 9 de A E sont sur Γ de manière sûre car E est de rang et sont sur la figure 5.2 à l endroit où la courbe Γ change de couleur brutalement passant de bleu à rouge. 2. La courbe Γ peut être sectionnée en cycles de dégradé de couleurs allant d une valeur propre de A E à une autre qui est différente mais la plus proche dans le sens trigonométrique de la variation de θ. 3. La courbe Γ_ est une courbe qui passe par la valeur propre nulle de A et forme un ensemble qui est semblable à une fleur à 8 pétales, le centre de la fleur étant sur l origine. Les lignes spectrales associées à A propres de A E E sont issues des valeurs E, c est à dire de la terminaison des lignes spectrales associées à A E et se dirigent suivant la même direction pour finir sur les valeurs propres de A 2E qui sont à la pointe des pétales (figure 5.23). Ceci compose un autre exemple de délimitation des valeurs propres d une matrice à l aide de ces deux courbes spectrales Γ et Γ_. D autres expérimentations numériques sont données à titre d exemple dans la section Illustrations complémentaires. Ces exemples ont illustré la théorie que nous avons développé. Mais de manière pratique, du fait que les calculs sont effectués en utilisant une précision finie, et parce que l on ne résout pas analytiquement les équations, peut-on faire confiance aux courbes Γ obtenues? Par exemple, on voit sur la figure 5.2 que n est pas obtenu exactement (multiplicité 8) Courbe Γ et précision finie En théorie, lorsque l on cherche à tracer la courbe Γ associée au couple de matrices A E, on résout analytiquement le problème Chercher l ensemble des valeurs z lc telles que ρ E A zi. Lorsque E est de rang c est à dire qu il existe deux vecteurs u et v tels que E uv H, l équation scalaire ρ E A zi # est équivalente à l équation E v H A zi # u E. En pratique, la méthode de résolution utilisée est différente. On choisit une zone rectangulaire du plan complexe de longueur L et de largeur l. On choisit un nombre n L (resp. n l ) de points sur la longueur (resp. la largeur). Pour chacun des points z i, i n L n l, on calcule la quantité ρ E A z i I. L ensemble des valeurs z i, i n L n l, qui soient telles que ρ E A z i I # - constituera la courbe spectrale Γ associée au couple A E. Lorsque les calculs de ρ E A z i I, i n L n l, sont effectués sur ordinateur avec une précision finie, il se peut qu il existe une valeur z j qui soit telle que la valeur calculée en précision finie de ρ E A z j I # soit différente de alors qu en arithmétique exacte, cette valeur est égale à. Il se peut de plus que les quantités n L et n l se soient pas suffisamment grandes ce qui implique que l on puisse rater des valeurs qui appartiennent à Γ. Ainsi, lorsque la recherche de Γ s effectue à l aide de calculs en précision finie et/ou avec peu de mémoire, il se peut que cette courbe Γ se soit pas tracée correctement.
120 2 EXPÉRIMENTATIONS NUMÉRIQUES Cherchons, par exemple, à tracer la courbe Γ associée au couple de matrices A E, avec la matrice A dite La Rose, la matrice E de rang utilisée dans le paragraphe La sortie graphique obtenue en utilisant des calculs effectués en précision finie et en choisissant n L n l 4 permet misérablement d obtenir l ensemble vide dans la région aux alentours de la valeur.65. Les moyens mis en oeuvre ne permettent pas d obtenir le tracé de la courbe Γ dans cette région du plan complexe. Pour illustrer de manière graphique ce problème de représentation de la courbe Γ lorsque les calculs ne sont pas faits analytiquement, nous allons choisir les deux matrices A et E suivantes la matrice A égale à un bloc de Jordan de taille 4 pour une valeur propre nulle, la matrice E e 4 e T de rang où e (resp. e 4 ) est le premier (resp. quatrième) vecteur colonne de la base canonique de taille 4. Ceci est l adaptation pour n 4 du second exemple traité dans La courbe Γ_ associée au couple A E E est l ensemble des valeurs z lc telles que ρ E A E zi (5.2) Dans le cas des matrices A et E choisies, résoudre l équation (5.2) revient à résoudre l équation z 4 e iθ θ š 2π (5.3) Les solutions de l équation (5.3), dont les points appartenant à la courbe Γ_ sont e iθ w 4 i e iθ w 4 i e iθ w 4 # e iθ w 4 pour θ variant de à 2π. Ainsi, la valeur propre de A de multiplicité 4 égale à appartient à la courbe Γ_ associée au couple de matrices A E E. Est-ce le cas pour ces calculs effectués en précision finie et utilisant une discrétisation d une région donnée du plan complexe? Nous choisissons de tracer la courbe Γ_ associée au couple de matrices A E E en effectuant des calculs en précision finie et en choisissant n L n l 4. La région du plan complexe choisie est un carré de centre et d arête 3. La courbe Γ_ obtenue après ces calculs est celle dessinée en noir sur le graphique La courbe Γ_ obtenue après résolution analytique de l équation (5.2) est la courbe verte. La courbe Γ_ verte ressemble à un trèfle à quatre feuilles. La courbe verte et la courbe noire sont semblables au niveau des extrémités des 4 feuilles du trèfle mais sont différentes au niveau du coeur du trèfle. Comme nous pouvons mieux le remarquer sur le graphique 5.26, la courbe noire ne passe pas par des valeurs qui sont sur Γ_ et qui sont contenues dans le cercle de centre et de rayon. La courbe noire, qui est la courbe Γ_ obtenue avec des calculs en précision
121 EXPÉRIMENTATIONS NUMÉRIQUES FIG Courbe Γ_ exacte (en vert) et calculée (en noir) FIG Zoom autour de la valeur propre de A finie et à l aide d une discrétisation, ne permet pas de conclure ici que Γ_ passe par la valeur et donc que la matrice A peut admettre une valeur propre nulle. Une telle courbe Γ_ peut ne pas apporter toute l information qu elle devrait nous apporter si les calculs étaient faits de manière exacte. Pour cet exemple, pourquoi la courbe noire ne passe-t-elle pas par le point? Quelle est la valeur de ρ E A E zi dans le voisinage de la valeur? Comme la courbe noire n est pas semblable à la courbe verte sur le graphique 5.26 dans le voisinage de la valeur, c est que la valeur de ρ E A E zi W calculée n est pas égal à dans ce voisinage. Pour connaître une estimation des quantités ρ E A E zi # pour des valeurs z au voisinage de, nous allons calculer la valeur φ z! E ρ E A E zi E en chacun des points du carré de centre et d arête.3. Sur le graphique 5.27 en deux dimensions et le graphique 5.28 en trois dimensions, à chacun des points z correspond une couleur. Cette couleur est associée à une valeur p sur l échelle qui se trouve à droite de la figure correspondante ce qui donne la valeur de φ z égale à p. Les graphiques correspondent à une discrétisation avec n L n l 2. Pour les valeurs de z de module supérieur à et proches de Γ_, nous pouvons remarquer que, pour une petite variation de z, la valeur de φ z correspondante varie énormément. Lorsque z est de module inférieur à, alors la valeur de φ z correspondante est comprise entre 9 et 4. Pour z au voisinage de, φ z est proche de 9 et n est pas nulle, les calculs en précision finie et une telle discrétisation ne permettent pas de voir que φ z peut être nulle pour certaines valeurs de z de cette région, ce qui explique le fait que la valeur propre de A n est pas sur la courbe noire de la figure 5.25 quand elle devrait l être théoriquement.
122 22 EXPÉRIMENTATIONS NUMÉRIQUES FIG Représentation en deux dimensions de φ z FIG Représentation en trois dimensions de φ z
123 5.4. CONCLUSION : LIEN AVEC PRECISE 23 Dans le paragraphe 5.3.3, nous avons traité cet exemple pour n 8 théoriquement. Donnons pour conclure les graphiques 5.29 et 5.3 qui permettent de nous rendre compte de la difficulté à tracer correctement en précision finie la courbe Γ_ lorsque n grandit. Dans le FIG Tolérance 9 FIG. 5.3 Tolérance carré ; ª ;, nous avons fait un maillage 6 6 et nous avons affiché par un point noir sur le graphique 5.29 tous les points z dans ce carré qui sont tels que φ z E ρ E A zi E $ 9 et sur le graphique 5.3 tous les points z dans ce carré qui sont tels que φ z! E ρ E A zi q E $ Des points z déssinés en noir de la figure 5.29 situés théoriquement sur la courbe Γ_ verte ne sont plus sur la figure 5.3. Ces points z sont donc tels que 9 E ρ E A zi q E $ Ceci se passe pour des points qui ne sont pas très rapprochés de l origine. On peut remarquer que plus n grandit plus la distance entre ces points z et l origine grandit. C est ce 4 dans la figure que nous pouvons constater en comparant avec φ z associé au cas où n Les points z qui sont tels que 9 $ φ z $ sont bleu foncé sur ce graphique, ce qui correspond à une zone qui est très proche de l origine. 5.4 Conclusion : Lien avec PRECISE Afin d obtenir de l information sur les valeurs propres d une matrice A, nous avons cherché à effectuer un déploiement du champ spectral de A par la déviation E, en calculant
124 Z 24 CONCLUSION : LIEN AVEC PRECISE les valeurs propres de la matrice de la forme A t q A te, t lc, c est à dire de la matrice A perturbée dans la direction de E. Pour représenter les valeurs propres de A t, t lc, en fonction de t t e iθ, il a fallu supposer deux cas :. t admet un module qui varie et un argument fixe, 2. t admet un module fixe E t E t et un argument θ (mod 2π) qui varie. Dans le premier cas, les valeurs propres forment des lignes spectrales et dans le second cas, un ensemble dont la frontière est appelée courbe spectrale. L information sur le spectre de A est la plus fine lorsque t est réel et su f fisamment petit et E est de rang. Ce concept développé dans ce chapitre peut être reliée aux procédures de perturbation dans PRECISE [5, 27, ] dont les étapes sont les suivantes :. on choisit les deux bornes de la taille de perturbation introduite s ;s 2, 2. on parcourt l intervalle s s 2, et à chaque pas t C s ;s 2, on génère nech matrices E de même taille que A et d éléments réels aléatoires, où nech est le nombre de matrices à générer. Ce nombre est fourni par l utilisateur. Puis, pour chaque matrice générée E, on calcule en précision finie les valeurs propres de A t E, 3. on affiche tout l ensemble des valeurs propres calculées dans le plan complexe. En utilisant avec PRECISE une matrice E réelle et t variant par exemple entre et, on obtiendra un spectre perturbé [5] qui correspond aux lignes spectrales définies dans ce chapitre associées à la matrice A et à nech matrices E. Si on utilise PRECISE avec une norme de la matrice E fixe mais de structure E complexe qui varie, on obtiendra une courbe qui est une bonne estimation de la frontière du pseudospectre normwise. Si on utilise une matrice de déviation de la forme te, avec E fixe et t complexe de module constant, la norme de te sera constante mais te aura une structure fixe. On obtiendra une courbe spectrale Γ associée à A et E qui aurait été celle obtenue avec PRECISE si PRECISE fixait une structure constante pour la matrice E. Les courbes et lignes spectrales correspondent aux outils de PRECISE pour une matrice E fixe. PRECISE calcule un échantillon correspondant à nech matrices E choisies aléatoirement. Les lignes et les courbes spectrales représentent donc les outils théoriques qui sont en toile de fond de PRECISE. Un lien avec PRECISE sera également mis en évidence dans le chapitre 6 lors de l utilisation de la méthode itérative d Arnoldi en précision finie. E Z
125 Chapitre 6 Illustrations par le calcul en précision finie A l aide du chapitre 4 et pour une matrice A XJX et un vecteur initial v Xc, nous pouvons théoriquement déterminer à quelle itération notée k l algorithme des méthodes de Krylov s arrête. Que se passe-t-il lorsque nous implantons ces méthodes en précision finie? Dans ce chapitre, nous allons illustrer et commenter certains comportements des méthodes de Krylov introduites dans le chapitre 4 implantées en précision finie. De nombreuses expérimentations numériques ont été effectuées. Nous ne les montrerons pas toutes. Le lecteur intéressé peut se référer à [38]. Nous choisissons comme matrice A la matrice dite la Rose déjà employée dans ce développement et nous affirmons [23] que nous possédons de manière exacte les matrices de Jordan X et J telles que A XJX. Etudions dans un premier temps la méthode d Arnoldi en précision finie pour la décomposition incomplète de Hessenberg. 6. Algorithme d Arnoldi en précision finie pour la décomposition incomplète de Hessenberg Durant le chapitre 4, nous avons affirmé que, en arithmétique exacte, et pour un même vecteur v, les méthodes d Arnoldi avec orthogonalisation de Householder, Gram Schmidt classique et Gram Schmidt modifiée fournissent les mêmes matrices H k et V k à chaque itération k. Qu en est-il exactement lorsque l on effectue cette décomposition par ces méthodes d Arnoldi en précision finie? Quelle est la fiabilité des résultats fournis par les méthodes d Arnoldi avec ces trois orthogonalisations? 25
126 26 ALGORITHME D ARNOLDI EN PRÉCISION FINIE 6.. Comparaison algorithmique entre CGS et MGS L implémentation d Arnoldi avec orthogonalisation CGS et avec orthogonalisation MGS suivent le même schéma et sont mathématiquement équivalentes. Analysons cependant ces deux implantations lors de calculs en précision finie. Par CGS, à chaque itération k, et pour i allant de à k, on associe, à chaque h ik, la valeur du produit scalaire entre Av k et v i où chaque v k ou v i sont les vecteurs originaux. Par MGS, on associe à h ik, à chaque itération k, et pour i allant de à k, la valeur du produit scalaire entre w ) i* k et v i, où w ) i* k est le vecteur v k partiellement orthogonalisé. Si on approfondit un peu plus cette remarque, on peut voir que, pour une matrice A carrée de taille n et un vecteur initial v de norme, les algorithmes de calcul de h i j et v j pour i j $ 3 sont différents comme nous le montre le tableau suivant. CGS MGS k h v H AH v v H AH v h 2 Av h v Av h v Av h v Av h v v 2 h 2 h 2 k 2 h 2 v H 2 AH v v H 2 AH v h 22 h 32 v H 2 AH v 2 Av 2 h 2 v h 22 v 2 v H 2 AH v 2 h 2 v H v 2 Av 2 h 2 v h 22 v 2 v 3 Av 2 h 2 v h 22 v 2 h 32 Av 2 h 2 v h 22 v 2 h 32 Nous remarquons que seules les formules de calcul de la ière itération (k=) seront identiques en précision finie. Ce n est plus le cas pour k=2. On comprend que, bien que mathématiquement équivalentes, les méthodes d Arnoldi avec orthogonalisation de CGS et avec orthogonalisation MGS puissent être différentes en précision finie. On a bien sûr en arithmétique exacte v H v 2. En précision finie, ce n est pas le cas : on a très souvent ṽ H ṽ2, c est à dire que la matrice Ṽ 2 n est pas exactement orthonormale. Peut-on quantifier la distance entre la matrice Ṽ 2 et la matrice orthogonale la plus proche dans lc k k? Nous introduisons alors la notion de défaut d orthogonalité pour quantifier ce phénomène ([5], p84-85). Défaut d orthogonalité de Ṽ k Definition 6.. Le défaut d orthogonalité entre les vecteurs colonnes de Ṽ k C n m est défini par : ω Ṽ k min Ṽ k Q, Q orthonormale dans C n m ).
127 ALGORITHME D ARNOLDI EN PRÉCISION FINIE 27 Si Ṽ k admet les valeurs singulières σ i, i k, on montre que [6] ω Ṽ k max i E σ i E On peut aussi relier ω Ṽ k à γ Ṽ k Vk HV k I k max i E σ 2 i E. Comme γ est facilement calculable, dans la suite, cette erreur résiduelle sera utilisée pour quantifier le défaut d orthogonalité ω Ṽ k. On montre que, pour la méthode d Arnoldi avec orthogonalisation de Householder, le défaut d orthogonalité γ Ṽ k de la matrice Ṽ k est de l ordre de la précision machine ψ [5]. On sait, de plus, que, pour la méthode d Arnoldi avec orthogonalisation MGS, le défaut d orthogonalité γ Ṽ k de la matrice Ṽ k peut être arbitrairement grand [5]. On s attend à ce que la situation soit pire pour la méthode d Arnoldi avec orthogonalisation CGS. La quantification du défaut d orthogonalité permet de comprendre que les vecteurs sont de moins en moins orthogonaux au cours du processus de calcul. La notion de rang numérique permet de comprendre qu ils deviennent alors colinéaires. Avant de définir la notion de rang numérique, nous donnons la définition du rang mathématique. Definition 6..2 [3] Le rang mathématique d une matrice A C n m, n m, noté rg A, est égal à l ordre de la plus grande matrice régulière extraite de A. Lemme 6.. [3] rg A est égal au nombre de valeurs singulières non nulles de A. Lors de calculs en précision finie, il peut arriver que les vecteurs (lignes ou colonnes) de A, bien qu indépendants en arithmétique exacte, soient presque dépendants numériquement. On est alors amené à introduire la notion de rang numérique d un système de m vecteurs de C n. Soit un réel positif ε donné et soient σ T T σ m les m valeurs singulières de A. Definition 6..3 [3] A est de ε-rang égal à r si et seulement si A admet exactement r valeurs singulières σ i qui satisfont σ i σ T ε pour i r, les autres étant telles que σ j σ ε, j r m. La valeur de ε, utilisée en pratique, est généralement de l ordre de la précision machine ψ. Durant cette étude, lorsque nous mentionnerons la notion de rang, ce rang correspondra au rang numérique ou ε-rang où l on aura fixé ε à ψ. Quel est alors l impact de la perte d orthogonalité ou de rang de Ṽ k sur la qualité de H k? 6..2 Analyse de la fiabilité de H k et de V k Fiabilité de H k Pour calculer l erreur inverse associée à la matrice H calculée par la méthode d Arnoldi, nous cherchons la plus petite valeur de ε qui vérifie A $ ε A
128 28 ALGORITHME D ARNOLDI EN PRÉCISION FINIE telle qu il existe des matrices orthogonales emboitées U k et U k U k u k et qui vérifient en arithmétique exacte A A U k U k H Nous notons cette erreur inverse ω k. Formellement, ω k min ε A $ ε A X U k et U k orthogonales emboitées telles que A A U k U k H. A notre connaissance, il n existe pas de formules pour calculer ω k. Cependant, lorsque Ṽ k est orthogonale à la précision machine, on peut introduire la quantité α k telle que α k min ε A $ ε A # A A Ṽ k Ṽ k H k " On montre [9] que : α k F k Ṽ k A F F où F k AṼ k Ṽ k H est la matrice résiduelle de la décomposition incomplète de Hessenberg par la méthode d Arnoldi et Ṽ k est la pseudo-inverse de Ṽ k. On a ω k $ α k Dans les cas où α k P ψ, on a ω k P ψ et donc l algorithme d Arnoldi construit H d une manière fiable. Dans les cas où α k «ψ, nous n avons pas de moyen d estimer la fiabilité du calcul de H. Que sait-on de la fiabilité de la méthode d Arnoldi avec les algorithmes CGS, MGS et Householder pour le calcul de H? Dans la littérature, la réponse est donnée par M. Arioli et C. Fassino [2] pour Householder. Théorème 6.. Soit H k la matrice sous forme de Hessenberg supérieure calculée en précision finie après k itérations par la méthode d Arnoldi avec orthogonalisation de Householder dans le but de calculer une base de Krylov K k A b. Alors, il existe une matrice de perturbations A et une matrice orthogonale ˆQ telles que A A ˆQ k ˆQ k H k où ˆQ k est composée des k premières colonnes de ˆQ et A F $ ψ n A 2 6n 2 8n + O ψ 2 W De plus, il existe une perturbation vectorielle b telle que la matrice ˆQ k soit une base orthonormale de K k A A b b, où b 2 $ 4n 32 ψ O ψ 2.
129 ALGORITHME D ARNOLDI EN PRÉCISION FINIE 29 Ainsi, nous pouvons dire que l algorithme d Arnoldi avec orthogonalisation de Householder est fiable (inverse stable) pour le calcul de H. Le rôle de H k (c est à dire h k k) est essentiel dans le théorème 6... La matrice résiduelle E k AṼ k Ṽ k H k (égale à h k kv k e T k en arithmétique exacte) n a, en général, pas de raison d être nulle. Néanmoins, le théorème 6.. nous rassure quant à la qualité de H puisque H contient H. Qu en est-il pour le calcul de H par l algorithme d Arnoldi avec orthogonalisation CGS et MGS? Il est nécessaire que les matrices V k soient orthogonales à la précision machine pour utiliser la majoration de ω k par α k. Lors de nos expérimentations numériques, comment se comportent les matrices Ṽ k pour chaque algorithme d Arnoldi étudié ainsi que la quantité h k k, critère d arrêt de la méthode d Arnoldi? 6..3 Expérimentations numériques On choisit comme exemple de réference la matrice La Rose A XJX avec J et le vecteur initial v Xc avec c T 4 En s inspirant de ce qui a été démontré dans le chapitre 4, l expérimentateur peut être sûr que, en arithmétique exacte, l algorithme d Arnoldi s arrête à l itération k 3 avec les trois procédés d orthogonalisation étudiés. Les expérimentations numériques sont effectuées en précision finie à l aide du logiciel Matlab. Nous allons effectuer une étude expérimentale de la qualité des résultats fournis en précision finie par la méthode d Arnoldi. Ainsi, nous nous intéressons : à la quantité h k k qui est utilisée pour calculer l erreur de méthode d Arnoldi ainsi que au défaut d orthogonalité γ Ṽ k qui sert à quantifier la qualité de la base Ṽ k. Sur la figure 6. (resp. 6.2), nous représentons en abscisse le numéro k de l itération et en ordonnée la valeur du logarithme en base de h k k (resp. γ Ṽ k ) repérés par une croix verte pour les calculs avec CGS,
130 3 ALGORITHME D ARNOLDI EN PRÉCISION FINIE un rond o rouge pour les calculs avec MGS, un plus noir pour les calculs avec Householder et par un trait continu de même couleur. Ces figures parlent d elles mêmes et illustrent le Quantités calculées par Arnoldi-CGS ( vert) -MGS (o rouge) -Householder ( noir) FIG. 6. Quantité h k k FIG. 6.2 Quantité γ Ṽ k cas général :. A aucune itération, la quantité h k k n est nulle, pas même à k 3 et avec Householder qui calcule de manière fiable H k. Il manque la valeur h pour Householder car l orthogonalisation de Householder génère une matrice de Hessenberg de taille au plus égale à. 2. Les quantités h k k calculées avec CGS, MGS et Householder, toutes supérieures à 6, sont identiques pour les deux premières itérations et diffèrent à partir de k Au delà de k, la quantité h k k calculée avec CGS n arrête pas de croître tandis que pour les deux autres orthogonalisations MGS et Householder, les quantités h k k à l itération k augmentent puis forment d abord un plateau sur 4 itérations pour ensuite décroitre et n étant toujours pas nulles à k. 4. Le défaut d orthogonalité γ Ṽ k pour l orthogonalisation de Householder est toujours de l ordre de la précision machine. 5. Le défaut d orthogonalité γ Ṽ k pour orthogonalisations CGS et MGS croissent de manière régulière, celui provenant de CGS étant supérieur à celui provenant de MGS à partir de k. Nos expérimentations numériques confirment le fait que le défaut d orthogonalité de la matrice Ṽ k calculée par l algorithme d Arnoldi avec orthogonalisation MGS peut être arbitrairement grand [5].
131 6.2. MÉTHODE GMRES DE BASE EN PRÉCISION FINIE 3 Il y a donc une perte d orthogonalité des matrices Ṽ k calculées par les orthogonalisations CGS et MGS. Ainsi, les vecteurs ṽ k, k n deviennent de moins en moins orthogonaux pour les deux orthogonalisations. Comment se comportent-ils exactement? Comme cela a été remarqué dans [38], par l algorithme d Arnoldi avec orthogonalisation CGS, tous les vecteurs ṽ k calculés de l itération k 9 à l itération sont identiques au vecteur ṽ 8. Leurs composantes ne diffèrent qu à l ordre de la précision machine. Ainsi, au fur et à mesure des itérations, les vecteurs ṽ k deviennent de moins en moins orthogonaux à tous les précédents jusqu à l itération 8 pour laquelle ṽ 9 est colinéaire au vecteur ṽ 8. Ce phénomène se situe pour cet exemple à l itération 8 mais il existe des cas pour lesquels il se produit avant l itération 8. Par l algorithme d Arnoldi avec orthogonalisation MGS, tous les vecteurs ṽ k calculés de l itération 9 à sont combinaison linéaire de certains vecteurs de la matrice Ṽ 8. On rappelle (exemple dingdong de [38]), que le rang numérique peut ne pas avoir le même comportement que celui du rang mathématique exact. De plus, ce comportement varie sensiblement en fonction de ε intervenant dans la définition du rang numérique. Conclusion : Outils disponibles pour l analyse de la fiabilité de H k. Nous ne pouvons utiliser les formules établies pour quantifier la fiabilité de H k calculée par l algorithme d Arnoldi qu avec orthogonalisation de Householder, car alors Ṽ k peut être considérée comme orthogonale (γ Ṽ k -P ψ). Nous confirmons par nos expérimentations numériques la fiabilité inverse de l algorithme d Arnoldi avec orthogonalisation de Householder pour le calcul de H. Cela n est pas aussi évident pour CGS et MGS car il y a perte d orthogonalité de Ṽ k., alors on peut dire que l on a trouvé la solution exacte x k du système linéaire associée à Ax b par la méthode GMRES. Pour chacun des algorithmes d Arnoldi présentés, peut-on également considérer que la solution x k obtenue à l itération k est une solution fiable du système linéaire? En arithmétique exacte, on rappelle que lorsque h k k 6.2 Méthode GMRES de base en précision finie Afin de considérer le même exemple que précédemment, nous allons chercher à résoudre le système linéaire Ax v. Ainsi, l algorithme GMRES admettra comme vecteur initial le vecteur v et les mêmes matrices H k et Ṽ k seront calculées. Etant donné le comportement de ces orthogonalisations en précision finie, que peut-on dire de la qualité de chaque solution calculée par les implantations de la méthode GMRES avec orthogonalisation de Householder, de Gram Schmidt classique et de Gram Schmidt modifié?
132 32 MÉTHODE GMRES EN PRÉCISION FINIE 6.2. Qualité des solutions calculées par l algorithme GMRES suivant l orthogonalisation de Householder, Gram Schmidt classique et Gram Schmidt modifiée Ax La qualité de la solution x calculée en précision finie d un système linéaire de type b est quantifiée par l erreur inverse η x A x b A x b A chaque itération k, nous obtenons une solution x k approchée calculée du système lináire Ax v que l on cherche à résoudre. Nous représentons sur chaque figure en abscisse le numéro de l itération k et en ordonnée le logarithme en base de l erreur inverse associée à la solution x k représentée par une croix verte pour les calculs avec CGS (figure 6.4), un rond o rouge pour les calculs avec MGS (figure 6.3), un plus _ _ noir pour les calculs avec Householder (figure 6.5). Pour chacun de ces calculs, nous rajoutons, en trait continu bleu, le défaut d orthogonalité associé à la même orthogonalisation. Pour l algorithme GMRES avec orthogonalisation de Householder, l erreur inverse η x Erreur inverse η x k et défaut d orthogonalité γ Ṽ k pour GMRES FIG. 6.3 CGS : η x k ( vert) - γ Ṽ k ( bleu) FIG. 6.4 MGS : η x k (o rouge) - γ Ṽ k ( bleu) décroit et atteint la précision machine ψ pour toutes les expérimentations numériques effectuées. Elle est ensuite constante. Cet algorithme est stable pour les expérimentations effectuées. En théorie, il est fiable (inverse stable d après [5]).
133 MÉTHODE GMRES EN PRÉCISION FINIE FIG. 6.5 Householder : η x k ( noir) - γ Ṽ k ( bleu) Pour l algorithme GMRES avec orthogonalisation CGS, l erreur inverse η x décroit mais n atteint pas toujours la précision machine ψ pour k n. Cet algorithme n est pas fiable. Pour l algorithme GMRES avec orthogonalisation de MGS, l erreur inverse η x atteint pour toutes les expérimentations numériques effectués la précision machine. L algorithme de GMRES avec orthogonalisation de Gram Schmidt modifiée est stable pour toutes nos expérimentations. L inverse stabilité n a pas été démontrée à ce jour. En arithmétique exacte, on sait que lorsque h k k, on a déterminé la solution exacte x k du système linéaire par la méthode GMRES à cette itération k. A-t-on ce même résultat en précision finie? Comme on l illustre par ces graphiques, dans la majorité des cas, si l erreur inverse η x atteint la précision machine, elle l atteint à une itération proche de k. Elle peut même l atteindre avant k [38]. Mais rien n a été démontré à ce jour. Dans la majorité des cas, les algorithmes d Arnoldi avec orthogonalisation de Householder et MGS se sont révélés stables, ce qui n est pas le cas pour l algorithme de GMRES avec orthogonalisation CGS qui ne s est pas révélé stable à chaque expérimentation. Après cette étude de la qualité des solutions de la méthode GMRES suivant les différentes orthogonalisations, il semble qu il existe un lien entre le défaut d orthogonalité de la matrice Ṽ k et l erreur inverse η x à l itération k calculés par les algorithmes de GMRES avec orthogonalisation CGS et MGS jusqu à ce qu elle ait atteint son dernier niveau de descente et dans certains cas même après.
134 34 MÉTHODE GMRES EN PRÉCISION FINIE Défaut d orthogonalité et erreur inverse On remarque que, lorsque η x à l étape k est de l ordre de la précision machine ψ, le défaut d orthogonalité de la matrice Ṽ k associée est au voisinage de la valeur et inversement. On observe un croisement. A cet effet, nous avons effectué le produit du défaut d orthogonalité de la matrice Ṽ k par l erreur inverse η x de l algorithme de GMRES à l itération k pour les orthogonalisations CGS et MGS. Ce produit est représenté par un trait continu magenta sur les figures 6.6 et 6.7. Nous rappelons également sur ces graphiques le défaut d orthogonalité γ Ṽ k ( bleu) et l erreur inverse η x k ( vert pour CGS et o rouge pour MGS) à chaque itération k. Ce produit est constant pour toutes les expérimentations numériques effectuées pour 5 Produit de η x k par γ Ṽ k pour GMRES FIG. 6.6 CGS : η x k γ Ṽ k ( magenta) FIG. 6.7 MGS : η x k γ Ṽ k ( magenta) lesquelles ces algorithmes sont fiables sauf pour la matrice triw avec CGS et MGS rencontrée dans [38] : le produit est représenté par trois arcs de cercles tangents à la droite parallèle à l axe des itérations k dont les valeurs sont de l ordre de ψ. Il semble qu il y ait un lien du type produit invariant entre le défaut d orthogonalité à l étape k et l erreur inverse associée à la solution approchée à l étape k par les implémentations de la méthode GMRES avec orthogonalisation de Gram Schmidt classique et Gram Schmidt modifiée Conclusion générale L algorithme de GMRES avec orthogonalisation de Gram Schmidt classique ne s est pas révélé fiable pour toutes nos expérimentations numériques. Par contre, les algorithmes
135 Z 6.3. MÉTHODE D ARNOLDI POUR LE CALCUL D ÉLÉMENTS PROPRES IMPLANTÉE EN PRÉCISION de GMRES avec orthogonalisation de Gram Schmidt modifié et de Householder sont stables pour toutes les expérimentations numériques effectuées. Rappelons que seule l inverse stabilité pour l algorithme de Householder a été démontrée. Le produit du défaut d orthogonalité et de l erreur inverse associée à la solution approchée du système linéaire par la méthode GMRES avec orthogonalisation de Gram Schmidt classique et Gram Schmidt modifiée, à l itération précédente, est constant dans la plupart des cas jusqu à ce que cette erreur inverse ait atteint la précision machine. Pourrait-on penser que la convergence entraine la perte d orthogonalité comme l a dit Parlett [28] pour la méthode de Lanczos? Si cette conjecture est vraie, l inégalité de Strakos [2] I Ṽk T Ṽk $ ξ 2 5kn 3w 2 ψβ κ A r) 2* est vérifiée. Intéressons nous maintenant à l implantation de la méthode d Arnoldi pour le calcul d élénts propres en précision finie. 6.3 Méthode d Arnoldi pour le calcul d éléments propres implantée en précision finie Pour illustrer le comportement de la méthode d Arnoldi pour le calcul d éléments propres implantée en précision finie, nous gardons le même exemple (voir 6..3) avec la matrice A et le vecteur v initial tel que l algorithme s arrête à l itération k 3. La matrice de Hessenberg irréductible est alors de taille 3 et est semblable à un bloc de Jordan de taille 3 sur la valeur propre. Qu obtient-on exactement en précision finie? 6.3. Etude expérimentale de la méthode d Arnoldi à partir d un vecteur initial Nous traçons en logarithme en base à chaque itération k, sur la figure 6.8, l erreur de méthode h k H k A Z par des croix vertes pour CGS, par des ronds rouges pour MGS et par des noirs pour Householder. A aucune itération et pour aucune des orthogonalisations, l erreur de méthode d Arnoldi n est de l ordre de la précision machine. En précision finie, l erreur de méthode d Arnoldi
136 36 MÉTHODE D ARNOLDI EN PRÉCISION FINIE 2 Erreur de méthode d Arnoldi FIG. 6.8 Arnoldi-CGS ( vert) -MGS (o rouge) -Householder ( noir) ne permet donc pas de détecter l arrêt heureux. On ne peut déduire qu il existe une certaine itération où les valeurs propres calculées par la méthode d Arnoldi sont de qualité optimale. Qu en est-il exactement de ces solutions calculées? Afin d illustrer les résultats obtenus de nos expérimentations numériques (figures 6. à 6.2), nous avons choisi une représentation en trois dimensions, comme sur la figure 6.9, de l opposé du logarithme en base de l erreur inverse considérée en fonction du numéro de l itération et du numéro de la valeur propre. Afin de répondre à la question Log (Erreur) numero de l iteration numero de la valeur propre FIG. 6.9 Axes des graphiques en 3D posée, nous nous intéressons d abord au calcul des valeurs propres seules.
137 Z MÉTHODE D ARNOLDI EN PRÉCISION FINIE 37 A chaque itération k, nous classons les k valeurs propres ν k de H k par ordre croissant de leur module et nous traçons de la même couleur l opposé du logarithme en base de leur erreur inverse associée A Z ) A ν k I*ml sur la figure 6. pour CGS, la figure 6. pour MGS, et la figure 6.2 pour Householder. Erreurs inverses associées aux valeurs propres FIG. 6. CGS FIG. 6. MGS FIG. 6.2 Householder Pour les trois orthogonalisations, l erreur inverse associée à la première valeur propre à la première itération, soit h est inférieure à 5. Ceci peut se comprendre car le vecteur initial v admet
138 38 MÉTHODE D ARNOLDI EN PRÉCISION FINIE une composante suivant le premier vecteur de Jordan nettement plus grande que sur les deux autres : il est presque égal à x normalisé. Avec un tel vecteur initial, il convergerait en une seule itération et h P en précision finie. Les erreurs inverses associées aux trois valeurs propres de H 3 à l itération 3 sont toutes de l ordre de la précision machine. Même si la quantité h 4 3 est non nulle, même si l erreur de méthode n est pas de l ordre de la précision machine, même si l arrêt heureux n a pas été détecté, l algorithme d Arnoldi calcule de manière optimale les trois valeurs propres de A à l itération 3 pour les trois orthogonalisations. C est le cas pour toutes les expérimentations effectuées avec MGS mais ce n est pas le cas avec CGS. La méthode d Arnoldi est donc capable de calculer des valeurs propres multiples d une matrice. Les valeurs arrondies à 3 près des valeurs propres de H 3 pour les trois orthogonalisations sont données dans le tableau 6.. CGS MGS Householder ν... ν i i i ν i i i ˆν TAB. 6. Valeurs propres de H 3 Nous donnons également dans le tableau 6.2 la distance entre chaque valeur propre calculée ν i, i 2 3, et la valeur propre exacte égale à ainsi que la distance entre la moyenne ˆν des trois valeurs propres calculées et la valeur propre exacte. Les CGS MGS Householder E ν E E ν 2 E E ν 3 E E ˆν E TAB. 6.2 Distance entre les valeurs propres de H 3 et distances entre les valeurs propres calculées et la valeur propre exacte sont pour les trois orthogonalisations de l ordre de 3. Les distances entre la moyenne ˆν des trois valeurs propres calculées et la valeur propre exacte sont du même ordre de grandeur (P 5 ) pour CGS et MGS, et environ fois plus petite pour Householder. Ces distances entre la moyenne ˆν et sont à comparer à l erreur de méthode de l itération 3.
139 Z MÉTHODE D ARNOLDI EN PRÉCISION FINIE 39 Un vecteur initial de ce type ne permet en arithmétique exacte que de calculer la valeur propre. Il est cependant important de remarquer que, en déroulant l algorithme jusqu à l itération, la méthode d Arnoldi avec orthogonalisation CGS ne calcule pas mieux que les 3 valeurs propres proches de. Les erreurs inverses calculées pour les k 3 autres valeurs propres et leur vecteur propre associé pour les itérations k k restent de l ordre de l erreur de méthode h 4 3 A de l itération k. Avec MGS, on conserve l information Z sur ces trois valeurs propres mais aussi à l itération 9 et on finit par calculer des valeurs propres supplémentaires qui admettent pour certaines une erreur inverse de l ordre de la précision machine. Notons l existence d une valeur propre calculée de H qui est inférieure à en module. Lors de nos expérimentations, nous remarquons souvent que pour l itération k k, les matrices H k admettent une valeur propre qui tend vers lorsque k tend vers n. Nous n avons pas d explication à ce phénomène. Pour Householder, toutes les valeurs propres de H sont comme prévisible de l ordre de la précision machine. Mais les itérations précédentes ne donnent que 3 valeurs propres. L information sur la valeur propre de multiplicité 3 est conservée pour les trois orthogonalisations de l itération 3 à l itération. Les 7=-3 autres valeurs propres sont-elles situées dans un domaine particulier du plan complexe? Nous essayerons de répondre à cette question dans la section Nous donnons dans le tableau 6.3 les 3 valeurs propres de H 4 arrondies à 3 près, et leur distance à la valeur propre pour les trois orthogonalisations illustrant ainsi la conservation des trois valeurs propres proches de. L information sur les valeurs propres E E E E CGS MGS Householder ν ν i i i ν i i i ν ν ν ˆν TAB valeurs propres de H 4 proches de proches de est bien conservée mais de plus elle se raffine. La distance entre la moyenne de ces trois valeurs propres calculées et décroit et se rapproche de l erreur de méthode de l itération 3. Donnons maintenant dans le tableau 6.4 l information sur la 4 ième valeur propre calculée de H 4. La quatrième valeur propre calculée de H 4 est éloignée du reste du spectre de A pour les trois orthogonalisations. Il est intéressant de remarquer
140 Z 4 MÉTHODE D ARNOLDI EN PRÉCISION FINIE CGS MGS Householder ν TAB. 6.4 Quatrième valeur propre de H 4 arrondie à 3 chiffres que cette 4 ième valeur propre pour Householder est encore plus éloignée de 4 que celles calculées avec CGS et MGS. Qu en est-il maintenant de la qualité des couples d éléments propres calculés par la méthode d Arnoldi avec ces trois orthogonalisations implantée en précision finie? A chaque itération k, nous classons les k valeurs propres de H k par ordre croissant de leur module et nous traçons de la même couleur l opposé du logarithme en base de l erreur inverse pour le couple formé par la valeur propre ν k et par son vecteur propre ỹ k Aỹ associé, soit Z k ν k ỹ k Z A ỹ, sur Z Z k la figure 6.3Z pour CGS, la figure 6.4 pour MGS, et la figure 6.5 pour Householder. Erreurs inverses associées aux couples d éléments propres FIG. 6.3 CGS FIG. 6.4 MGS Il est important de remarquer que les erreurs inverses associées aux trois couples d éléments propres de H 3 ne sont pas de l ordre de la précision machine pour CGS, MGS et Householder mais de l ordre de. Elles le sont au plus tôt à partir de l itération 5 pour les couples approchant et le restent jusqu à l itération. Pour Householder, les erreurs inverses sont toutes de l ordre de la précision machine ψ à l itération, ce qui confirme la fiabilité de l algorithme d Arnoldi avec orthogonalisation de Householder.
141 Z MÉTHODE D ARNOLDI EN PRÉCISION FINIE FIG. 6.5 Householder Que peut-on dire maintenant de l erreur de calcul h k H ~ k ỹ k ~ ~ ỹ~ (égale en arithmétique exacte à l erreur inverse associée au couple d éléments propres calculé avec la méthode d Arnoldi). Qu en est-il en précision finie? A chaque itération k, nous classons les k valeurs propres de H k par ordre croissant de leur module et nous traçons de la même couleur l opposé du logarithme en base de l erreur inverse pour le couple formé par la valeur propre et par son vecteur propre associé sur la figure 6.6 pour CGS, la figure 6.7 pour MGS, et la figure 6.8 pour Householder. Erreurs de calcul A Z FIG. 6.6 CGS FIG. 6.7 MGS
142 E 42 MÉTHODE D ARNOLDI EN PRÉCISION FINIE FIG. 6.8 Householder Les erreurs de calculs sont égales aux erreurs inverses associées aux couples d éléments propres avant qu elles n atteignent la précision machine et continuent à décroitre ensuite (artefact arithmétique). Rappelons l impossibilité de calculer les erreurs de calcul à l itération avec Householder car l algorithme ne connait pas h. Comme cela a été exposé dans le chapitre 4, pour une valeur de h k k petite, les k ièmes composantes des k premiers vecteurs propres de H k sont, à leur tour, petites. Pourquoi ne pas multiplier ces deux quantités considérées petites entre elles, avec une formulation relative, pour détecter un arrêt heureux? Bien sûr, cette formule n est pas mathématiquement démontrée mais si le résultat est proche de la précision machine, on peut proposer un test heuristique de contrôle de l arrêt heureux. Introduisons donc l erreur de calcul combinée d Arnoldi ) k * h Θ k k k E ỹ k A ỹ) k * où ỹ ) k * est un vecteur propre calculé de la matrice H k, parmi les k premiers, ) k * ỹ k est la k ème composante du vecteur ỹ ) k *. Cette erreur combinée de calcul est, comme l erreur de calcul, facile à calculer car elle multiplie entre eux des éléments calculés pendant le déroulement de l algorithme. Nous allons calculer les erreurs combinées de calcul pour chacun des couples d éléments propres de H k, pour k. A chaque itération k, nous classons les k valeurs propres de H k par ordre croissant de leur module et nous traçons de la même couleur l opposé du logarithme en base de l erreur combinée de calcul pour le couple formé par la valeur propre et par son vecteur propre associé sur la figure 6.9 pour CGS, la figure 6.2 pour MGS, et
143 MÉTHODE D ARNOLDI EN PRÉCISION FINIE 43 Erreurs combinées de calcul FIG. 6.9 CGS FIG. 6.2 MGS FIG. 6.2 Householder
144 44 MÉTHODE D ARNOLDI EN PRÉCISION FINIE la figure 6.2 pour Householder. Ces 3 erreurs combinées de calcul à l itération 3 sont de l ordre de la précision machine pour les trois procédés d orthogonalisation. Elles restent de l ordre de la précision machine pour les itérations suivantes et pour les trois orthogonalisations. Remarquons l exception déjà signalée avec MGS pour valeur propre. Ainsi, à l itération k 3, l erreur combinée de calcul est de l ordre de la précision machine, même pour l orthogonalisation CGS alors que ce n est pas le cas pour l erreur de calcul. Bien que cela ne soit pas démontré mathématiquement, il semble que cette erreur combinée de calcul puisse détecter l arrêt heureux de la méthode d Arnoldi en arithmétique exacte : nous le proposons comme test heuristique. Jusqu à présent, considérant une valeur k n, nous avons étudié le comportement des éléments propres de la matrice H k au fur et à mesure des itérations k. Maintenant, nous allons considérer une matrice A XJX et un ensemble de vecteurs initiaux v Xc impliquant tous, en arithmétique exacte, la même valeur k n et la même partie du spectre de A approchée. Ainsi, pour une telle matrice A et de tels vecteurs v, l algorithme d Arnoldi s arrêtera à l itération k de manière exacte. En précision finie, ce n est pas le cas, l algorithme continue à itérer : c est la grande force de la précision finie. Que peut-on cependant dire sur les valeurs propres de H k, k k, pour cet ensemble de vecteurs v? Nous allons essayer d apporter une réponse à cette question de manière pratique à travers deux ensembles d expérimentations numériques Valeurs propres de H k pour k k Le premier ensemble d expérimentations numériques est basé sur un ensemble de vecteurs initiaux v qui impliquent tous que k 3 et H 3 admet comme valeur propre défective de multiplicité 3. Nous nous proposons d étudier le comportement des valeurs propres des matrices H k correspondantes pour k. Premier ensemble : k et k 3 Considérons la matrice A de la forme v ² t³ Xc ² t³ avec XJX± dite La Rose, et l ensemble de vecteurs initiaux c ² t³ t µ T avec t IR. On peut affirmer que, pour t IR, l arrêt heureux de la méthode d Arnoldi en arithmétique exacte aura lieu à l itération k 3 et que la matrice H 3 admettra la valeur propre défective de multiplicité 3. Remarquons que le vecteur initial v ² 3 ³ est
145 MÉTHODE D ARNOLDI EN PRÉCISION FINIE 45 le vecteur initial utilisé dans l étude expérimentale de la méthode d Arnoldi de base. Nous nous proposons de. faire varier t de à 6, 2. générer des vecteurs v ² t³ initiaux correspondants, 3. calculer H par un processus d Arnoldi issus de v ² t³ en précision finie et de 4. tracer dans le plan complexe l ensemble des valeurs propres de H pour chacune des trois orthogonalisations étudiées. Nous présentons sur la figure 6.22, l ensemble de ces valeurs propres pour l orthogonalisation CGS sur la figure 6.23, l ensemble de ces valeurs propres pour l orthogonalisation MGS sur la figure 6.24, l ensemble de ces valeurs propres pour l orthogonalisation Householder. 4 Valeurs propres de H FIG CGS FIG MGS La figure 6.24 nécessite un agrandissement afin de déterminer ce qui se passe autour de chacune des valeurs propres de la matrices A. La figure 6.25 (resp. fig 6.26, fig 6.27 et fig 6.28) représente alors un agrandissement autour de la valeur propre (resp. 2, 3 et 4). Le comportement des valeurs propres de H avec orthogonalisation de Householder est spécifique à cette orthogonalisation : il est prouvé que les valeurs propres de H issue d une orthogonalisation de Householder sont situées dans l ε-pseudo-spectre normwise de A avec ε de l ordre de la précision machine. Considérant ce phénomène, nous nous intéressons alors aux valeurs propres de H k avec k c est à dire pour k k n. Choisissons l itération k 9.
146 46 MÉTHODE D ARNOLDI EN PRÉCISION FINIE 6 x FIG Householder x 4 4 x FIG Householder - zoom autour de FIG Householder - zoom autour de 2
147 MÉTHODE D ARNOLDI EN PRÉCISION FINIE 47 4 x 3 4 x FIG Householder - zoom autour de 3 FIG Householder - zoom autour de 4 Second ensemble : k 9 et k 3 L itération k 9 est l itération qui précède l itération où la méthode d Arnoldi avec orthogonalisation de Householder calcule de manière fiable les valeurs propres de A, une itération où les matrices Ṽ k calculées avec orthogonalisation CGS et MGS admettent un grand défaut d orthogonalité. Nous souhaitons changer la forme du vecteur initial v. Nous le choisissons de la forme v ² t³ Xc 2² t³ avec c 2² t³ ¹ t t µ T et t IR. La valeur de l itération k correspondante à tous ces vecteurs v ² t³ est toujours égale à 3 mais ici les valeurs propres de H 3, calculée exactement, sont défectives, toutes égales à 2. Nous avons choisi volontairement de modifier la forme du vecteur initial pour insister sur l impact d une valeur k strictement inférieure à n sur les valeurs propres de H k, k º k, et non de la partie du spectre de A approchée par la méthode d Arnoldi de base. Nous nous proposons ici aussi de. faire varier t de à 6, 2. générer des vecteurs v ² t³ initiaux correspondant, 3. calculer H 9 par un processus d Arnoldi issus de v en précision finie et de 4. tracer dans le plan complexe l ensemble des valeurs propres de H 9 pour chacune des trois orthogonalisations étudiées.
148 48 MÉTHODE D ARNOLDI EN PRÉCISION FINIE Nous présentons sur la figure 6.29, l ensemble de ces valeurs propres pour l orthogonalisation CGS sur la figure 6.3, l ensemble de ces valeurs propres pour l orthogonalisation MGS sur la figure 6.3, l ensemble de ces valeurs propres pour l orthogonalisation Householder. Valeurs propres de H FIG CGS FIG. 6.3 MGS FIG. 6.3 Householder Commentaires et lien avec PRECISE Pour le premier ensemble choisi de vecteurs initiaux v (k et k 3),
149 MÉTHODE D ARNOLDI EN PRÉCISION FINIE 49 les valeurs propres de H calculées par CGS forment un nuage de points autour des valeurs propres de A et peuvent, de plus, se situer loin de ces valeurs propres. Par MGS, elles sont moins lointaines et semblent se situer sur des lignes particulières issues des valeurs propres de A. Ces lignes se distinguent très bien avec Householder car elles sont semblables à des segments de droites se croisant par leur milieu. Pour le second ensemble choisi de vecteur initiaux v (k 9 et k 3), le comportement des valeurs propres de H 9 est différent pour MGS et Householder. En effet, les valeurs propres de H 9 calculées par CGS forment également un nuage de points autour des valeurs propres de A et peuvent se situer loin de ces valeurs propres. Par MGS, les valeurs propres de H 9 sont moins lointaines que par CGS et semblent aussi se situer sur des lignes particulières issues des valeurs propres de A. Par Householder, le phénomène est moins net que lors de la représentation des valeurs propres de H. En effet, les valeurs propres de H 9, calculée par Householder, ont un même comportement et une même envergure que celles calculées avec MGS. La localisation des valeurs propres de H et H 9 est la même pour CGS et MGS mais diffère de beaucoup pour Householder. Ces figures amènent à penser aux spectres perturbés de PRECISE [5, 27]. En effet, lorsque l on utilise le procédé de PRECISE introduit dans 5.4, on donne une taille de la perturbation E employée et on génère l ensemble des valeurs propres de A» te, t IR. Ici, l ensemble des valeurs propres de H calculée par CGS est semblable à un spectre perturbé de A pour une grande taille de perturbation E, MGS est semblable à un spectre perturbé de A pour une taille moyenne de perturbation E, Householder est semblable à un spectre perturbé de A pour une petite taille de perturbation E. Ainsi, les valeurs propres de H peuvent être considérées comme les valeurs propres d une matrice A perturbée et dont la perturbation admet une taille qui dépend du procédé d orthogonalisation employé.
150 5 MÉTHODE D ARNOLDI EN PRÉCISION FINIE
151 Conclusion Nous avons centré notre étude de la méthode d Arnoldi sur l emploi de perturbations homotopiques de matrices. Nous avons dans un premier temps comparé les perturbations homotopiques avec les perturbations normwise. Nous avons ainsi retrouvé l importance du choix de la perturbation et du choix de la norme de la perturbation pour toute analyse inverse des erreurs. Si nous souhaitons comparer des erreurs inverses ou des pseudo-spectres homotopiques et normwise entre eux, il est alors nécessaire d introduire des facteurs de normalisation traduisant la formulation choisie. Pour une même formulation d erreurs inverses (ou pseudospectres) homotopiques et normwise choisies, la prise en compte de la norme de la matrice de perturbation est importante afin de rendre la comparaison possible. Dans le cas où la norme de la perturbation est correctement choisie, on peut affirmer que les pseudospectres homotopiques peuvent nous apporter une meilleure information sur le spectre d une matrice que les pseudo-spectres normwise. Nous basant toujours sur une approche homotopique, nous avons cherché à comprendre la méthode d Arnoldi et nous avons mis en évidence h k¼ ½ k comme l erreur de méthode homotopique de l approximation de A par H k. Nous avons poursuivi l analyse basée sur une approche homotopique en étudiant les valeurs propres d une famille de matrices A² t³ A» te, t lc. Nous avons distingué le cas où t est de module fixe du cas où t est d argument fixe. L ensemble des valeurs propres de A² t³ avec t d argument fixe forme les lignes spectrales Λ de A qui peuvent donner de l information sur la forme de Jordan de A. Nous avons montré que l ensemble des valeurs propres de A² t³ avec t de module fixe est, de manière sure, égal à la frontière du pseudo-spectre homotopique absolu, noté Γ, dans la cas où la matrice E est de rang. Nous avons également montré l importance de l utilisation de courbes Γ afin de délimiter la localisation des valeurs propres d une matrice. Nous avons ensuite montré la difficulté de déterminer la courbe Γ en précision finie. Connaissant l itération à laquelle l algorithme exact d Arnoldi s arrête, nous avons aussi étudié la méthode d Arnoldi en précision finie. Nous avons montré la difficulté de posséder 5
152 52 CONCLUSION un critère d arrêt fiable qui nous permettrait de détecter l arrêt heureux. Nous avons proposé une erreur combinée de calcul comme heuristique qui pourrait jouer ce rôle et nous avons étudié la qualité des différents calculs qui en résultent. Nous remarquons alors qu il est très difficile d obtenir en précision finie de l information sur certaines valeurs propres de la matrice A si en arithmétique exacte l algorithme est dans l impossibilité de les calculer (division par ).
153 Bibliographie [] M. Ahués and F. Chatelin. Exercices de valeurs propres de matrices. Masson, Paris, 989. [2] M. Arioli and C. Fassino. Roundoff error analysis of algorithms based on Krylov subspace methods. BIT, 36 :89 26, 996. [3] M. Arioli, V. Pták, and Z. Strakos. Krylov sequences of maximal length and convergence of GMRES. Technical report, CNR, University of Pavia, 996. [4] F. Chaitin-Chatelin. Techniques numériques matricielles robustes, 999. Support de cours de DEA Economie Mathématique et Econométrie, Université Toulouse, France. [5] F. Chaitin-Chatelin and V. Frayssé. Lectures on Finite Precision Computations. SIAM, Philadelphia, 996. [6] F. Chaitin-Chatelin and S. Gratton. Calcul matriciel avancé, 995. Support de cours de l Université de Dauphine, Paris IX. [7] F. Chaitin-Chatelin, A. Ilahi, and E. Traviesas. Unfolding algebraic singularities : the eigenvalue problem, June 2-6, 999. Presented by A. Ilahi, Second workshop on Large-Scale scientific computations, Sozopol, Bulgaria. [8] F. Chaitin-Chatelin, V. Toumazou, and E. Traviesas. Accuracy assessment for eigencomputations : variety of backward errors and pseudospectra. J. Linear Algebra Appl., 39 :73 83, 2. [9] F. Chaitin-Chatelin and E. Traviesas. Résolution géométrique d une équation de degré 4, 2. Work in progress. [] F. Chaitin-Chatelin and E. Traviesas. PRECISE, a toolbox for assessing the quality of numerical methods and software. Technical Report TR/PA//2, CERFACS, August 2-25,2. Special session on Recommender systems (N. Ramakrishnan organizer), 6th IMACS World Congress, Lausanne, Switzerland. [] F. Chaitin-Chatelin, E. Traviesas, and L. Plantié. Understanding krylov methods in finite precision, 2. To appear in Proceedings of the Second Conference on Numerical Analysis and Applications, Rousse, Bulgaria. 53
154 54 BIBLIOGRAPHIE [2] F. Chatelin. Spectral approximation of linear operators. Academic Press, New York, 983. [3] F. Chatelin. Valeurs propres de matrices. Masson, Paris, 988. [4] F. Chatelin. Eigenvalues of matrices. Wiley, Chichester, 993. Enlarged Translation of the French Publication with Masson. [5] J. Drkošová, A. Greenbaum, Z. Strakoš, and M. Rozložnik. Numerical stability of GMRES. BIT, 35, 995. [6] V. Frayssé and V. Toumazou. A note on the normwise perturbation theory for the regular generalized eigenproblem Ax λbx. J. Numer. Linear Algebra Appl., 5() :, 998. [7] F. R. Gantmacher. Théorie des matrices, Tome et 2. Dunod, Paris, 966. [8] G. Golub and C. Van Loan. Matrix computations. Johns Hopkins University Press, 989. Second edition. [9] S. Gratton. Private communication. Technical report, CERFACS, 997. [2] S. Gratton. Outils théoriques d analyse du calcul à précision finie. Ph.D. dissertation, Institut National Polytechnique de Toulouse, TH/PA/98/3, CERFACS, June 998. [2] A. Greenbaum, Z. Strakoš, and M. Rozložnik. Numerical behaviour of the modified Gram-Schmidt GMRES implementation, 997. [22] N. J. Higham. A collection of test matrices in MATLAB. ACM Trans. Math. Software, 7 :289 35, September 99. [23] N. J. Higham. Accuracy and Stability of Numerical Algorithms. SIAM, Philadelphia, 996. [24] A. Ilahi. Validation du calcul sur ordinateur : application de la théorie des singularités algébriques. Ph.D. dissertation, Université Toulouse I, June 998. TH/PA/98/3, CERFACS. [25] M. Langlais. Quelques problèmes mathématiques issus de la dynamique des populations, 996. Cours de DEA MACS, Université de Bordeaux. [26] P. S. Laplace. Théorie analytique des probabilités. Paris, 86. [27] R. A. McCoy and V. Toumazou. PRECISE User s Guide - Version.. Technical Report TR/PA/97/38, CERFACS, 997. [28] B.N. Parlett. The Symmetric Eigenvalue Problem. Prentice-Hall, Englewood Cliffs, 98. [29] Y. Saad. Numerical Methods for Large Eigenvalue Problems. Algorithms and Architectures for Advanced Scientific Computing. Manchester University Press, Manchester, U.K., 992.
155 BIBLIOGRAPHIE 55 [3] Y. Saad. Iterative Methods for Sparse linear systems. PWS, Minnesota, 995. [3] Y. Saad and M. Schultz. GMRES : A generalized minimal residual algorithm for solving nonsymmetric linear systems. SIAM J. Sci. Stat. Comput., 7 : , 986. [32] V. Simoncini. Non-linear spectral perturbation : a qualitative analysis. Tech. Rep. 32/997, IAN-CNR, 997. [33] K.-C. Toh and L. N. Trefethen. Pseudozeros of polynomials and pseudospectra of companion matrices. Numer. Math., 68 :43 425, 994. [34] K.-C. Toh and L. N. Trefethen. Computation of pseudospectra by the Arnoldi iteration. SIAM J. Sci. Comp., 7 : 5, 996. [35] V. Toumazou. Portraits spectraux de matrices : un outil d analyse de la stabilité. Ph.D. dissertation, Université H. Poincaré, Nancy, 996. [36] V. Toumazou and E. Traviesas. A note on homotopic backward error and pseudospectra for the generalized eigenproblem. Technical Report TR/PA/99/4, CER- FACS, 999. [37] E. Traviesas. Conditionnement de la factorisation de Cholesky Analyse inverse des erreurs pour des problèmes de valeurs propres, June 996. Rapport de stage de Troisième Année I.U.P. M.I.C.S.S. CERFACS et Université Paul Sabatier, Toulouse, France. [38] E. Traviesas. Convergence des méthodes de Krylov, June 997. Rapport de D.E.A. de l Université de Bordeaux I. [39] E. Traviesas. Convergence des méthodes de Krylov, June 999. Poster session, CANUM 99, Ax-les-thermes, France. [4] E. Traviesas. Homotopic perturbations and the Arnoldi method, June 4-6, 2. SEA 2, Université Paul Sabatier, Toulouse, France. [4] L. N. Trefethen. Pseudospectra of matrices. In D. F. Griffiths and G. A. Watson, editors, Numerical Analysis 99. Longman, Harlow, 992. [42] A. van der Sluis. Domain of uncertainty for perturbed operator equations. Comp., 5 :32 323, 97. [43] J. H. Wilkinson. Rounding errors in algebraic processes, volume 32. Her Majesty s stationery office, London, 963.
156 56 BIBLIOGRAPHIE
157 REMARQUE 57 Dans cette version, le chapitre des illustrations complémentaires n est pas présent. Il est disponible sur le web http :// travies/thesis.html demande à Elisabeth Traviesas, CERFACS, 42 avenur G. Coriolis, 357 Toulouse Cedex demande à Elisabeth Traviesas par le mail [email protected].
Résolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Chapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Fonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Correction de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Exercices Corrigés Premières notions sur les espaces vectoriels
Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et
Programmation linéaire
Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Exercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.
Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).
Cours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Théorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Résolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.
1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le
Programmation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
I. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Image d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
Principe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, [email protected] 2 Université
Cours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Calculer avec Sage. Revision : 417 du 1 er juillet 2010
Calculer avec Sage Alexandre Casamayou Guillaume Connan Thierry Dumont Laurent Fousse François Maltey Matthias Meulien Marc Mezzarobba Clément Pernet Nicolas Thiéry Paul Zimmermann Revision : 417 du 1
Correction du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Chapitre 1 : Évolution COURS
Chapitre 1 : Évolution COURS OBJECTIFS DU CHAPITRE Savoir déterminer le taux d évolution, le coefficient multiplicateur et l indice en base d une évolution. Connaître les liens entre ces notions et savoir
Complément d information concernant la fiche de concordance
Sommaire SAMEDI 0 DÉCEMBRE 20 Vous trouverez dans ce dossier les documents correspondants à ce que nous allons travailler aujourd hui : La fiche de concordance pour le DAEU ; Page 2 Un rappel de cours
Introduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10.
A1 Trouvez l entier positif n qui satisfait l équation suivante: Solution 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. En additionnant les termes du côté gauche de l équation en les mettant sur le même dénominateur
Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA
75. Un plombier connaît la disposition de trois tuyaux sous des dalles ( voir figure ci dessous ) et il lui suffit de découvrir une partie de chacun d eux pour pouvoir y poser les robinets. Il cherche
Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?
Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version
Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?
Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version
Pour l épreuve d algèbre, les calculatrices sont interdites.
Les pages qui suivent comportent, à titre d exemples, les questions d algèbre depuis juillet 003 jusqu à juillet 015, avec leurs solutions. Pour l épreuve d algèbre, les calculatrices sont interdites.
Baccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Les indices à surplus constant
Les indices à surplus constant Une tentative de généralisation des indices à utilité constante On cherche ici en s inspirant des indices à utilité constante à définir un indice de prix de référence adapté
Etude de fonctions: procédure et exemple
Etude de fonctions: procédure et exemple Yves Delhaye 8 juillet 2007 Résumé Dans ce court travail, nous présentons les différentes étapes d une étude de fonction à travers un exemple. Nous nous limitons
CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.
CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires
Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
La fonction exponentielle
DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction
Filtrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Calcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Programmation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
aux différences est appelé équation aux différences d ordre n en forme normale.
MODÉLISATION ET SIMULATION EQUATIONS AUX DIFFÉRENCES (I/II) 1. Rappels théoriques : résolution d équations aux différences 1.1. Équations aux différences. Définition. Soit x k = x(k) X l état scalaire
Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme
Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet
Rappels sur les suites - Algorithme
DERNIÈRE IMPRESSION LE 14 septembre 2015 à 12:36 Rappels sur les suites - Algorithme Table des matières 1 Suite : généralités 2 1.1 Déition................................. 2 1.2 Exemples de suites............................
NOTATIONS PRÉLIMINAIRES
Pour le Jeudi 14 Octobre 2010 NOTATIONS Soit V un espace vectoriel réel ; l'espace vectoriel des endomorphismes de l'espace vectoriel V est désigné par L(V ). Soit f un endomorphisme de l'espace vectoriel
Continuité en un point
DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à
Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.
ANALYSE 5 points Exercice 1 : Léonie souhaite acheter un lecteur MP3. Le prix affiché (49 ) dépasse largement la somme dont elle dispose. Elle décide donc d économiser régulièrement. Elle a relevé qu elle
Représentation géométrique d un nombre complexe
CHAPITRE 1 NOMBRES COMPLEXES 1 Représentation géométrique d un nombre complexe 1. Ensemble des nombres complexes Soit i le nombre tel que i = 1 L ensemble des nombres complexes est l ensemble des nombres
La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)
Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre
Cours d analyse numérique SMI-S4
ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,
www.h-k.fr/publications/objectif-agregation
«Sur C, tout est connexe!» www.h-k.fr/publications/objectif-agregation L idée de cette note est de montrer que, contrairement à ce qui se passe sur R, «sur C, tout est connexe». Cet abus de langage se
Continuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Eteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques :
MTH EN JEN 2013-2014 Elèves de seconde, première et terminale scientifiques : Lycée Michel Montaigne : HERITEL ôme T S POLLOZE Hélène 1 S SOK Sophie 1 S Eteindre Lycée Sud Médoc : ROSIO Gauthier 2 nd PELGE
Chapitre 2. Matrices
Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce
Texte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?
PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS? Pierre Baumann, Michel Émery Résumé : Comment une propriété évidente visuellement en dimensions deux et trois s étend-elle aux autres dimensions? Voici une
1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Chapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,
Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très
EXERCICE 4 (7 points ) (Commun à tous les candidats)
EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat
Développement décimal d un réel
4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce
Fonctions de plusieurs variables
Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les
Les devoirs en Première STMG
Les devoirs en Première STMG O. Lader Table des matières Devoir sur table 1 : Proportions et inclusions....................... 2 Devoir sur table 1 : Proportions et inclusions (corrigé)..................
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Théorie et codage de l information
Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q
Techniques de Lyapunov en contrôle quantique pour le couplage dipolaire et polarisabilité
Techniques de Lyapunov en contrôle quantique pour le couplage dipolaire et polarisabilité Andreea Grigoriu avec Jean-Michel Coron, Cătălin Lefter and Gabriel Turinici CEREMADE-Université Paris Dauphine
Programmes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Correction du baccalauréat STMG Polynésie 17 juin 2014
Correction du baccalauréat STMG Polynésie 17 juin 2014 EXERCICE 1 Cet exercice est un Q.C.M. 4 points 1. La valeur d une action cotée en Bourse a baissé de 37,5 %. Le coefficient multiplicateur associé
IV- Equations, inéquations dans R, Systèmes d équations
IV- Equations, inéquations dans R, Systèmes d équations 1- Equation à une inconnue Une équation est une égalité contenant un nombre inconnu noté en général x et qui est appelé l inconnue. Résoudre l équation
EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG
Exploitations pédagogiques du tableur en STG Académie de Créteil 2006 1 EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG Commission inter-irem lycées techniques contact : [email protected] La maquette
Calcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
Limites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
SUIVI CINETIQUE PAR SPECTROPHOTOMETRIE (CORRECTION)
Terminale S CHIMIE TP n 2b (correction) 1 SUIVI CINETIQUE PAR SPECTROPHOTOMETRIE (CORRECTION) Objectifs : Déterminer l évolution de la vitesse de réaction par une méthode physique. Relier l absorbance
Probabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
CCP PSI - 2010 Mathématiques 1 : un corrigé
CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P
Arithmétique binaire. Chapitre. 5.1 Notions. 5.1.1 Bit. 5.1.2 Mot
Chapitre 5 Arithmétique binaire L es codes sont manipulés au quotidien sans qu on s en rende compte, et leur compréhension est quasi instinctive. Le seul fait de lire fait appel au codage alphabétique,
III- Raisonnement par récurrence
III- Raisonnement par récurrence Les raisonnements en mathématiques se font en général par une suite de déductions, du style : si alors, ou mieux encore si c est possible, par une suite d équivalences,
Cours de mathématiques
DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................
Problèmes arithmétiques issus de la cryptographie reposant sur les réseaux
Problèmes arithmétiques issus de la cryptographie reposant sur les réseaux Damien Stehlé LIP CNRS/ENSL/INRIA/UCBL/U. Lyon Perpignan, Février 2011 Damien Stehlé Problèmes arithmétiques issus de la cryptographie
Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples
45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et
t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :
Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant
Seconde Généralités sur les fonctions Exercices. Notion de fonction.
Seconde Généralités sur les fonctions Exercices Notion de fonction. Exercice. Une fonction définie par une formule. On considère la fonction f définie sur R par = x + x. a) Calculer les images de, 0 et
F411 - Courbes Paramétrées, Polaires
1/43 Courbes Paramétrées Courbes polaires Longueur d un arc, Courbure F411 - Courbes Paramétrées, Polaires Michel Fournié [email protected] http://www.math.univ-toulouse.fr/ fournie/ Année 2012/2013
Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions.
Problèmes mathématiques de la mécanique/mathematical problems in Mechanics Modèles bi-dimensionnels de coques linéairement élastiques: Estimations de l écart entre leurs solutions. Cristinel Mardare Laboratoire
Polynômes à plusieurs variables. Résultant
Polynômes à plusieurs variables. Résultant Christophe Ritzenthaler 1 Relations coefficients-racines. Polynômes symétriques Issu de [MS] et de [Goz]. Soit A un anneau intègre. Définition 1.1. Soit a A \
a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b
I Définition d une fonction affine Faire l activité 1 «une nouvelle fonction» 1. définition générale a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe
Notion de fonction. Résolution graphique. Fonction affine.
TABLE DES MATIÈRES 1 Notion de fonction. Résolution graphique. Fonction affine. Paul Milan LMA Seconde le 12 décembre 2011 Table des matières 1 Fonction numérique 2 1.1 Introduction.................................
Simulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN
Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN Table des matières. Introduction....3 Mesures et incertitudes en sciences physiques
= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m
1 épartement de Physique, Université Laval, Québec Pierre Amiot, 1. La fonction delta et certaines de ses utilisations. Clientèle Ce texte est destiné aux physiciens, ingénieurs et autres scientifiques.
Chapitre 1 Régime transitoire dans les systèmes physiques
Chapitre 1 Régime transitoire dans les systèmes physiques Savoir-faire théoriques (T) : Écrire l équation différentielle associée à un système physique ; Faire apparaître la constante de temps ; Tracer
