est diagonale si tous ses coefficients en dehors de la diagonale sont nuls.



Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

NOTATIONS PRÉLIMINAIRES

Exercices Corrigés Premières notions sur les espaces vectoriels

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.


Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Résolution de systèmes linéaires par des méthodes directes

Fonctions de plusieurs variables

Cours 02 : Problème général de la programmation linéaire

3 Approximation de solutions d équations

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Chapitre 2. Matrices

CHAPITRE VIII : Les circuits avec résistances ohmiques

Introduction à l étude des Corps Finis

Correction de l examen de la première session

Raisonnement par récurrence Suites numériques

Représentation géométrique d un nombre complexe

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

LE PROBLEME DU PLUS COURT CHEMIN

Correction du Baccalauréat S Amérique du Nord mai 2007

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Le produit semi-direct

Date : Tangram en carré page

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Simulation de variables aléatoires

Théorème du point fixe - Théorème de l inversion locale

PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Géométrie dans l espace Produit scalaire et équations

Résolution d équations non linéaires

La fonction exponentielle

2. RAPPEL DES TECHNIQUES DE CALCUL DANS R

Programmes des classes préparatoires aux Grandes Ecoles

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Chaînes de Markov au lycée

aux différences est appelé équation aux différences d ordre n en forme normale.

Les indices à surplus constant

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction

Programmation linéaire

Carl-Louis-Ferdinand von Lindemann ( )

Programmation linéaire et Optimisation. Didier Smets

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

1 Complément sur la projection du nuage des individus

Définition 0,752 = 0,7 + 0,05 + 0,002 SYSTÈMES DE NUMÉRATION POSITIONNELS =

Image d un intervalle par une fonction continue

6. Les différents types de démonstrations

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Angles orientés et trigonométrie

Cours d Analyse. Fonctions de plusieurs variables

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Baccalauréat L spécialité, Métropole et Réunion, 19 juin 2009 Corrigé.

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

LES DÉTERMINANTS DE MATRICES

Chapitre 1 Régime transitoire dans les systèmes physiques

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Calcul différentiel sur R n Première partie

Une réponse (très) partielle à la deuxième question : Calcul des exposants critiques en champ moyen

chapitre 4 Nombres de Catalan

Fonctions homographiques

III- Raisonnement par récurrence

I. Polynômes de Tchebychev

Chapitre 1 : Évolution COURS

I. Ensemble de définition d'une fonction

Catalogue des connaissances de base en mathématiques dispensées dans les gymnases, lycées et collèges romands.

D'UN THÉORÈME NOUVEAU

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

IV- Equations, inéquations dans R, Systèmes d équations

Structures algébriques

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

Construction d un cercle tangent à deux cercles donnés.

RÉSOLUTION DE SYSTÈMES À DEUX INCONNUES

avec des nombres entiers

Chapitre 2 Le problème de l unicité des solutions

Chapitre VI - Méthodes de factorisation

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Cours d analyse numérique SMI-S4

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET

Optimisation, traitement d image et éclipse de Soleil

Théorie et codage de l information

Seconde Généralités sur les fonctions Exercices. Notion de fonction.

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.

Eteindre. les. lumières MATH EN JEAN Mme BACHOC. Elèves de seconde, première et terminale scientifiques :

Taux d évolution moyen.

Problème 1 : applications du plan affine

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

Continuité et dérivabilité d une fonction

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Limites finies en un point

Mathématiques appliquées à l'économie et à la Gestion

Approximations variationelles des EDP Notes du Cours de M2

CCP PSI Mathématiques 1 : un corrigé

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Transcription:

Diagonalisation des matrices http://www.math-info.univ-paris5.fr/~ycart/mc2/node2.html Sous-sections Matrices diagonales Valeurs propres et vecteurs propres Polynôme caractéristique Exemples Illustration par MuPad QCM corrigé Matrices diagonales Nous nous plaçons dans ou, avec. Les éléments de ou sont les scalaires. Toutes les matrices considérées sont des matrices carrées à lignes et colonnes. Les vecteurs sont identifiés à des matrices à lignes et colonne. Une matrice est diagonale si tous ses coefficients en dehors de la diagonale sont nuls. Elle est donc de la forme : Pour comprendre le rôle des coefficients diagonaux, supposons tout d'abord qu'ils sont tous égaux à. Dans ce cas, est proportionnelle

à la matrice identité :. Pour tout vecteur de, la vecteur est proportionnel à :. Multiplier le vecteur par la matrice revient à le multiplier par le facteur. Géométriquement, c'est effectuer une homothétie de rapport. Supposons maintenant que les coefficients diagonaux soient quelconques. Considérons une base de, et examinons l'endomorphisme de, de matrice dans cette base. Dire que est diagonale, c'est dire que l'image du vecteur de la base est. Si on restreint à la direction, est une homothétie de rapport (voir figure ci-après). Si est un vecteur quelconque de, s'écrit. Son image par est : Endomorphisme du plan, de matrice diagonale. Les coefficients diagonaux sont 2 et -1. Les matrices diagonales sont particulièrement simples à manipuler. Voici les propriétés principales : Le déterminant d'une matrice diagonale est le produit des coefficients diagonaux.

Multiplier à gauche par une matrice diagonale revient à multiplier la -ième ligne par : si est une matrice quelconque, alors Multiplier à droite par une matrice diagonale revient à multiplier la - ième colonne par : si est une matrice quelconque, alors Le produit de deux matrices diagonales est une matrice diagonale. Si tous les coefficients diagonaux sont non nuls, la matrice est inversible : La puissance -ième d'une matrice diagonale est : Voici deux systèmes linéaires d'équations.

Voici deux systèmes linéaires d'équations de récurrence. Voici deux systèmes linéaires d'équations différentielles. Les trois problèmes, de natures très différentes, ont en commun leur écriture matricielle, avec les deux matrices suivantes. Tous les problèmes linéaires sont plus faciles à résoudre quand la matrice est diagonale! Il se trouve que les deux matrices et sont semblables, c'est à dire qu'elles représentent le même endomorphisme dans deux bases différentes, ou encore, il existe une matrice de passage telle que. Définition 12.1.1 Une matrice est dite diagonalisable si elle est semblable à une matrice diagonale. L'objectif de ce chapitre est d'apprendre à diagonaliser une matrice, quand c'est possible.

Définition 12.1.2 Diagonaliser une matrice, c'est trouver une matrice de passage et une matrice diagonale telles que : Pour illustrer l'intérêt de la diagonalisation, prenons l'exemple d'un système d'équations de récurrence linéaire, du type, où désigne un vecteur dont on souhaite connaître l'expression en fonction de. Du point de vue théorique, il n'y a pas de problème : Mais cela n'avance à rien si on ne sait pas calculer formellement l'expression de en fonction de. C'est possible si est diagonalisable. En effet, si : Ecrire est immédiat. On en déduit l'expression générale de, donc de. Dans l'exemple ci-dessus, on trouve : Nous étudierons une méthode analogue pour la résolution des systèmes linéaires d'équations différentielles au chapitre Equations différentielles. Les problèmes linéaires que l'on rencontre en pratique sont souvent de très grandes dimensions (parfois des milliers). Nous nous limiterons dans nos calculs aux dimensions et. Le calcul formel d'une diagonalisation n'est possible que jusqu'à la dimension 4 puisqu'il implique de trouver les racines d'un polynôme dont le degré est la dimension (seules les équations polynomiales de degré sont résolubles par radicaux). En grande dimension, il existe des méthodes numériques pour calculer des diagonalisations approchées.

Valeurs propres et vecteurs propres Si et sont deux matrices telles que, alors. Mais si est une matrice diagonale, multiplier à droite par revient à multiplier les vecteurs colonnes de par les coefficients diagonaux de. Notons le -ième vecteur colonne de la matrice et le - ième coefficient diagonal de. Pour tout, on doit avoir : en notant la matrice identité de dimension. On dit que est un vecteur propre de associé à la valeur propre. Définition 12.2.1 On dit que est un vecteur propre de associé à la valeur propre si est un vecteur non nul et : Observons que ne peut être une valeur propre de que si le système a une solution non nulle. Voici 2 manières équivalentes de l'exprimer (cf. Chapitre "Calcul matriciel''). Proposition 12.2.2 Un scalaire est valeur propre de la matrice si et seulement si l'une des conditions équivalentes suivantes est vérifiée. 1. Le rang de la matrice est strictement inférieur à. 2. Le déterminant de la matrice est nul : Si est une valeur propre, l'ensemble des vecteurs tels que, est un sous-espace vectoriel. Par définition, il contient le vecteur nul, et tous les vecteurs propres de associés à. On l'appelle le " sous-espace propre'' associé à. Remarquons qu'un même vecteur propre ne peut être associé qu'à une seule valeur propre. Par conséquent, deux sous-espaces propres associés à deux valeurs propres distinctes ont une intersection réduite au vecteur nul.

Si une matrice est diagonalisable ( ), alors les vecteurs colonnes de la matrice de passage sont des vecteurs propres de. Mais pour être une matrice de passage, doit être inversible, c'est à dire que ses vecteurs colonnes doivent former une base. La condition nécessaire et suffisante pour qu'une matrice soit diagonalisable est donc qu'elle admette vecteurs propres formant une base. Théorème 12.2.3 Une matrice est diagonalisable si et seulement si elle admet vecteurs propres linéairement indépendants. Le résultat théorique le plus important concernant les vecteurs propres est le suivant. Théorème 12.2.4 Soient des vecteurs propres associés respectivement à des valeurs propres, toutes distinctes. Alors la famille de vecteurs est une famille libre. Démonstration : Nous allons montrer par récurrence sur que : C'est vrai pour, puisque par définition un vecteur propre est nécessairement non nul. Supposons la propriété vraie à l'ordre. Soient des valeurs propres distinctes deux à deux et des vecteurs propres associés. Supposons : En multipliant à gauche par la matrice, on obtient : Mais on a aussi :

Soit en soustrayant les deux équations : D'après l'hypothèse de récurrence à l'ordre, ceci entraîne que pour tout,, donc, puisque. Mais alors nécessairement est nul, donc puisque le vecteur propre est non nul. Ce théorème a deux conséquences pratiques importantes, qui sont rassemblées dans le corollaire suivant. Corollaire 12.2.5 1. Une matrice de taille admet au plus valeurs propres distinctes. 2. Si une matrice de taille admet valeurs propres distinctes, alors elle est diagonalisable. Démonstration : Dans un espace de dimension, une famille libre comporte au plus vecteurs, il ne peut donc pas y avoir plus de vecteurs propres associés à des valeurs propres distinctes. Si on a valeurs propres distinctes, alors une famille de vecteurs propres dont chacun est associé à une des valeurs propres est nécessairement libre d'après le théorème précédent. Comme elle comporte vecteurs, c'est une base.

Polynôme caractéristique Rappelons qu'un scalaire est valeur propre si et seulement si le déterminant de la matrice est nul. On commencera donc par calculer ce déterminant, appelé polynôme caractéristique. Définition 12.3.1 On appelle polynôme caractéristique de la matrice le polynôme en : Le polynôme caractéristique est un polynôme de degré en, dont les coefficients dépendent des. Cependant, on n'a pas intérêt à le développer. En effet le but est de trouver ses racines, qui sont les valeurs propres. On cherchera donc plutôt à factoriser. Si on travaille dans, il peut se faire que le polynôme n'ait pas que des racines réelles, auquel cas la matrice ne sera pas diagonalisable dans. Dans, par contre, tout polynôme est scindé, c'est à dire qu'il admet racines, si on les compte avec leur multiplicité. Nous supposerons désormais que est scindé, et qu'il admet pour racines, de multiplicités respectives : comme le polynôme est de degré, la somme vaut. On peut écrire :

La seconde étape d'une diagonalisation est la détermination des sousespaces propres associés aux valeurs propres. Pour chaque valeur propre, on cherche l'ensemble des solutions du système. On trouve comme ensemble de solutions un sousespace vectoriel : le sous-espace propre associé à. On démontre, et nous admettrons, que sa dimension est nécessairement inférieure ou égale à la multiplicité de la valeur propre. Théorème 12.3.2 Pour tout associé à la valeur propre, le sous-espace propre a une dimension inférieure ou égale à la multiplicité de dans le polynôme caractéristique. La matrice est diagonalisable si et seulement si pour tout, le sous-espace propre associé à la valeur propre a pour dimension la multiplicité de. Observons que si est valeur propre, il existe nécessairement un vecteur propre non nul associé à, par définition. Donc la dimension du sous-espace propre associé à est au moins. Le cas le plus simple est celui des valeurs propres de multiplicité. Dans ce cas la dimension du sous-espace propre est à la fois et : elle vaut nécessairement. Il suffit alors de trouver un vecteur propre : tous les autres seront proportionnels à celui-ci). On peut pour cela, soit résoudre le système, soit utiliser la "méthode des cofacteurs", conséquence de la proposition ci-dessous. Proposition 12.3.3 Soit une valeur propre de, de multiplicité. Considérons une ligne de, choisie de façon que la matrice formée des autres lignes soit de rang. Le vecteur formé des

cofacteurs associés à cette ligne (les déterminants extraits en barrant la ligne choisie et une colonne, avec alternance de signe) est un vecteur propre de associé à. Nous verrons plus loin des exemples d'utilisation de cette méthode, à utiliser surtout en dimensions et. Alternance de signes pour le calcul des cofacteurs. Comme nous l'avons vu, certaines matrices ne sont diagonalisables que dans, car leur polynôme caractéristique n'est pas scindé dans. D'autres ont un polynôme caractéristique scindé dans mais elles ont des valeurs propres multiples et la dimension des sous-espaces propres n'est pas égale à la multiplicité. A part le cas où toutes les valeurs propres sont distinctes, il existe un cas particulier important de matrice diagonalisable, celui des matrices réelles symétriques. Nous admettrons le théorème suivant. Théorème 12.3.4 Soit une matrice symétrique (telle que ). Toutes les valeurs propres de sont réelles, est diagonalisable et on peut choisir comme base de vecteurs propres une base telle que la matrice de passage vérifie (une telle base est dite orthonormée). Le fait d'avoir une base orthornormée permet d'écrire l'inverse de la matrice de passage sans calcul supplémentaire (car ). En revanche, transformer une base de vecteurs propres que l'on a obtenu par la méthode générale en une base orthonormée, requiert un calcul supplémentaire. Pour le calcul par ordinateur, il existe des algorithmes particuliers adaptés aux matrices symétriques.

Exemples Nous détaillons d'abord l'exemple suivant, donné en introduction. Commençons par écrire la matrice. Il faut ensuite calculer son déterminant. Il serait maladroit d'utiliser la règle de Sarrus pour développer le déterminant et le factoriser ensuite. Il vaut mieux le factoriser en faisant apparaître des zéros par combinaison de lignes et de colonnes. Ajoutons d'abord la seconde colonne à la première : On peut alors factoriser dans la première colonne : Soustrayons ensuite la première ligne à la seconde :

En développant selon la première colonne, il reste un déterminant d'ordre qui est facile à factoriser. Les valeurs propres de sont donc, et. Comme elles sont distinctes, il suffit de trouver un vecteur propre pour chacune. Commençons par la valeur propre. Observons que la matrice est bien de rang 2, comme prévu : la somme des trois lignes est nulle et les deux premières lignes sont indépendantes. Nous allons calculer les cofacteurs associés à la troisième ligne. Ils valent (attention à l'alternance de signe) : Tous les vecteurs non nuls, proportionnels au vecteur sont vecteurs propres de, associés à la valeur propre. Il est conseillé de choisir le plus simple, ici :

Le choix de la troisième ligne, pour calculer les cofacteurs, est arbitraire. Il suffit que les deux lignes qui restent ne soient pas proportionnelles (car tous les cofacteurs seraient nuls). Voici par exemple les cofacteurs associés à la deuxième ligne. On pourra trouver un vecteur différent, mais il sera forcément proportionnel à celui qu'on trouve avec une autre ligne. Cela ne change rien au choix du vecteur propre. Passons maintenant à la valeur propre. Les cofacteurs associés à la troisième ligne sont : Ici encore, nous choisirons un vecteur plus simple, proportionnel au vecteur des cofacteurs. Voici le calcul pour la valeur propre :

Les cofacteurs associés à la troisième ligne sont : Nous choisirons un vecteur plus simple, proportionnel au vecteur des cofacteurs. La matrice de passage sera constituée en juxtaposant les trois vecteurs (en colonnes). La matrice diagonale a pour coefficients diagonaux les trois valeurs propres (attention : l'ordre des valeurs propres et des vecteurs propres doit être le même). Il reste à calculer si on veut utiliser la diagonalisation sous la forme. Observons que la diagonalisation trouvée est loin d'être unique. On peut choisir un ordre différent pour les valeurs propres, et pour chaque valeur propre, n'importe quel vecteur non nul

proportionnel à celui qui a été trouvé. On pourra vérifier par exemple, pour la même matrice que les matrices et ci-dessous vérifient également Nous donnons ci-dessous sans le détailler un exemple du même type, qu'il est conseillé de traiter pour bien comprendre la méthode. Dans l'exemple ci-dessous, la matrice est symétrique. Pour le choix des vecteurs propres, nous avons fait en sorte que. Voici un exemple en dimension, où les valeurs propres sont des nombres complexes. La matrice est la matrice de la rotation vectorielle d'angle dans le plan.

Voici maintenant un exemple où la valeur propre est double. La méthode des cofacteurs ne s'applique pas pour trouver les vecteurs propres correspondants : il faut résoudre le système, et choisir deux vecteurs non proportionnels (les plus simples possibles) parmi les solutions. Le lecteur pourra vérifier que les deux matrices suivantes, qui ont une valeur propre double, ne sont pas diagonalisables. Voici pour finir quelques systèmes d'équations de récurrence, du type. Pour déterminer l'expression explicite de, il faut diagonaliser la matrice, et calculer l'expression.

Illustration par MuPad En MuPad, on construit des matrices à l'aide du constructeur Dom::Matrix(). La somme et le produit matriciel sont notés naturellement par les symboles + et *. Des fonctions permettant d'effectuer de nombreuses manipulations sur les matrices figurent dans le module d'algèbre linéaire linalg, qu'il faut charger par export(linalg). Voici les fonctions matricielles principales. transpose det rank eigenvalues Traitement de matrices Transposée Déterminant Rang Valeurs propres eigenvectors Vecteurs propres A^n exp(a) matlinsolve Puissance d'une matrice Exponentielle d'une matrice Résout un système linéaire 1/A Matrice inverse Voici quelques lignes d'illustration. /* Charger les fonctions d'algebre lineaire et definir les matrices */ export(linalg); Matrice:=Dom::Matrix(): A := Matrice([[0,1,1],[-1/2,3/2,-1/2],[3/2,-3/2,1/2]]); P := Matrice([[1,-1,0],[1,0,1],[0,1,-1]]); /* Verifier la diagonalisation */ A*P; Pinv := 1/P; Pinv*A*P; /* Definir le polynome caracteristique */ Id := Matrice([[1,0,0],[0,1,0],[0,0,1]]); PA := x->det(a-x*id); PA(2); factor(pa(x));

/* Calcul direct des valeurs propres */ eigenvalues(a); /* Calculer des vecteurs propres */ Nul = Matrice([[0],[0],[0]]); matlinsolve(a-id,nul); matlinsolve(a+id,nul); matlinsolve(a-2*id,nul); /* Calcul direct de la diagonalisation */ eigenvectors(a); /* Puissance n-ieme de A */ Dn := Matrice([[1,0,0],[0,(-1)^n,0],[0,0,2^n]]); An := P*Dn*Pinv; /* Verifications */ subs(an,n=1)-a; subs(an,n=2)-a*a; subs(an,n=10)-a^10;

QCM corrigé Exercice 12.1 Parmi les affirmations suivantes lesquelles sont vraies? Toute matrice admet au moins une valeur propre, réelle ou complexe. Toute matrice admet une infinité de vecteurs propres, à coordonnées réelles ou complexes. Toute matrice réelle admet une valeur propre réelle. Toute matrice réelle admet une valeur propre réelle. Toute matrice réelle réelles. admet un vecteur propre à coordonnées Toute matrice réelle réelles. admet un vecteur propre à coordonnées Si une matrice n'est pas diagonalisable dans, alors elle admet une seule valeur propre. Si une matrice est triangulaire, alors ses valeurs propres sont ses éléments diagonaux. Toute matrice a au moins deux valeurs propres distinctes. Deux matrices semblables ont les mêmes valeurs propres. Les valeurs propres du produit de deux matrices sont les produits des valeurs propres des deux matrices. Si un vecteur est vecteur propre pour deux matrices, il est vecteur propre de leur produit. Les valeurs propres d'une matrice et celles de sa transposée sont les mêmes.

Les vecteurs propres d'une matrice et ceux de sa transposée sont les mêmes. Le produit d'une matrice par un de ses vecteurs propres ne peut pas être le vecteur nul. Si une matrice a toutes ses valeurs propres réelles, alors elle est diagonalisable. Si une matrice a valeurs propres distinctes, alors elle est diagonalisable. La somme des valeurs propres d'une matrice est égale au produit de ses éléments diagonaux. Le produit des valeurs propres d'une matrice est égal à son déterminant. La matrice de la rotation vectorielle d'angle valeurs propres réelles. dans le plan admet des La matrice d'une symétrie vectorielle dans le plan a pour valeurs propres et. Si est vecteur propre d'une matrice, alors est aussi vecteur propre de cette matrice. Si et sont vecteurs propres d'une même matrice, alors est toujours vecteur propre de cette matrice. Exercice 12.2 Soit une matrice et une de ses valeurs propres. Parmi les affirmations suivantes lesquelles sont vraies? 0 est valeur propre de. 0 et sont valeurs propres de. ( ) est valeur propre de.

Le rang de la matrice est égal à. L'ensemble des solutions du système n'est pas réduit au vecteur nul. Le système linéaire admet une solution non nulle, pour tout. Le système linéaire admet une solution non nulle. La matrice des cofacteurs de a toutes ses lignes proportionnelles. La matrice des cofacteurs de ne peut pas être nulle. Si est diagonalisable, la dimension du sous-espace propre associé à est égale à la multiplicité de. La dimension du noyau de est si et seulement si la multiplicité de est. Si la multiplicité de est, alors toutes les lignes de la matrice des cofacteurs appartiennent au sous-espace propre de associé à. Si la multiplicité de est, alors toutes les lignes de la matrice des cofacteurs sont des vecteurs propres de associés à. Exercice 12.3 On considère la matrice les affirmations suivantes lesquelles sont vraies?. Parmi Les colonnes de sont des vecteurs indépendants. admet 0 pour valeur propre. admet pour valeur propre.

La somme des valeurs propres de vaut. Tout vecteur propre de coordonnée nulle. associé à la valeur propre 0 a sa troisième La matrice est de rang. Le déterminant de est nul. Le vecteur est vecteur propre de. Le vecteur est vecteur propre de. Le vecteur est vecteur propre de. Le vecteur est vecteur propre de. est semblable à la matrice. est semblable à la matrice est semblable à la matrice.

Exercice 12.4 On considère la matrice les affirmations suivantes lesquelles sont vraies?. Parmi Les colonnes de sont des vecteurs indépendants. admet 0 pour valeur propre. admet pour valeur propre. n'admet pas d'autre valeur propre que 0 et. Tout vecteur propre de coordonnée nulle. Tout vecteur propre de coordonnée nulle. associé à la valeur propre 0 a sa troisième associé à la valeur propre a sa troisième La matrice est de rang. est valeur propre simple de. est diagonalisable. Le vecteur est vecteur propre de. est semblable à la matrice. Pour tout, est semblable à la matrice.

Exercice 12.5 On considère la matrice les affirmations suivantes lesquelles sont vraies?. Parmi Les colonnes de sont des vecteurs indépendants. admet 0 pour valeur propre. admet pour valeur propre. n'admet pas d'autre valeur propre que 0 et. Tout vecteur propre de coordonnée nulle. Tout vecteur propre de coordonnée nulle. associé à la valeur propre 0 a sa troisième associé à la valeur propre a sa troisième La matrice est de rang. est valeur propre simple. est diagonalisable. Le vecteur est vecteur propre de. est semblable à la matrice. Pour tout,. Exercice 12.6 On considère la matrice affirmations suivantes lesquelles sont vraies?. Parmi les Le produit des valeurs propres de est.

admet une valeur propre réelle. Le vecteur est vecteur propre de. Le vecteur est vecteur propre de. Le vecteur est vecteur propre de. est valeur propre de. est valeur propre de. Le carré de est semblable à la matrice. Le carré de l'inverse de est semblable à la matrice. Si les suites et sont solution du système alors elles sont périodiques, de période. Si les suites et sont solution du système alors les suites et sont périodiques, de période.