Rappels et compléments d algèbre linéaire

Documents pareils
Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Introduction à l étude des Corps Finis

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Analyse en Composantes Principales

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Programmes des classes préparatoires aux Grandes Ecoles

Cours 02 : Problème général de la programmation linéaire

Cours d analyse numérique SMI-S4

1S Modèles de rédaction Enoncés

Limites finies en un point

Résolution de systèmes linéaires par des méthodes directes

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Calcul différentiel sur R n Première partie

[ édité le 30 avril 2015 Enoncés 1

Chapitre 2. Matrices

Cours d Analyse. Fonctions de plusieurs variables

Polynômes à plusieurs variables. Résultant

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Représentation géométrique d un nombre complexe

Rappels et compléments, première partie : Nombres complexes et applications à la géométrie

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Quelques contrôle de Première S

3 Approximation de solutions d équations

Structures algébriques

Fonctions de plusieurs variables

I. Polynômes de Tchebychev

Programme de la classe de première année MPSI

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Corrigé du baccalauréat S Asie 21 juin 2010

Théorème du point fixe - Théorème de l inversion locale

Simulation de variables aléatoires

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Correction de l examen de la première session

Fonctions de plusieurs variables

Capes Première épreuve

Géométrie dans l espace Produit scalaire et équations

CCP PSI Mathématiques 1 : un corrigé

Calcul intégral élémentaire en plusieurs variables

ENSAE - DAKAR BROCHURE D'INFORMATION SUR LE CONCOURS DE RECRUTEMENT D ÉLÈVES INGÉNIEURS STATISTICIENS ÉCONOMISTES (I S E) Option Mathématiques CAPESA

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

aux différences est appelé équation aux différences d ordre n en forme normale.

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

LE PRODUIT SCALAIRE ( En première S )

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Programmation linéaire et Optimisation. Didier Smets

Le produit semi-direct

Angles orientés et trigonométrie

Différentiabilité ; Fonctions de plusieurs variables réelles

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

2.4 Représentation graphique, tableau de Karnaugh

Cours de mathématiques

1 Complément sur la projection du nuage des individus

Statistique Descriptive Multidimensionnelle. (pour les nuls)

NOMBRES COMPLEXES. Exercice 1 :

Équations d amorçage d intégrales premières formelles

Cours de Mécanique du point matériel

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

RE SOLUTIONS CHAPITRE 1

Partie 1 - Séquence 3 Original d une fonction

Cours 7 : Utilisation de modules sous python

STATIQUE GRAPHIQUE ET STATIQUE ANALYTIQUE

Problème 1 : applications du plan affine

Continuité et dérivabilité d une fonction

Optimisation des fonctions de plusieurs variables

Système binaire. Algèbre booléenne

Introduction. Mathématiques Quantiques Discrètes

Probabilités sur un univers fini

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques

Chapitre 3 : Repères et positionnement 3D

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x =

Construction d un cercle tangent à deux cercles donnés.

Licence Sciences de l Ingénieur et Licence Informatique. Niveau L2 (= 2ème année)

Fonctions de plusieurs variables et applications pour l ingénieur

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Approximations variationelles des EDP Notes du Cours de M2

Annexe 1 Programmes des classes préparatoires aux Grandes Ecoles

Amphi 3: Espaces complets - Applications linéaires continues

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Mathématiques appliquées à l'économie et à la Gestion

Calculer avec Sage. Revision : 417 du 1 er juillet 2010

Démonstration de la conjecture de Dumont

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Optimisation, traitement d image et éclipse de Soleil

TP 1 Introduction à Matlab Février 2009

Algèbre binaire et Circuits logiques ( )

1 radian. De même, la longueur d un arc de cercle de rayon R et dont l angle au centre a pour mesure α radians est α R. R AB =R.

Complément d information concernant la fiche de concordance

Exercices et corrigés Mathématique générale Version β

Calcul différentiel. Chapitre Différentiabilité

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

3. Conditionnement P (B)

Mathématiques Algèbre et géométrie

de calibration Master 2: Calibration de modèles: présentation et simulation d

Développements limités usuels en 0

Séquence 10. Géométrie dans l espace. Sommaire

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

Déterminants. Marc SAGE 9 août Inverses et polynômes 3

MATHÉMATIQUES EN PREMIER CYCLE PRÉSENTATION DU PROGRAMME

Transcription:

Rappels et compléments d algèbre linéaire Rappels et compléments d algèbre linéaire Résumé Cette vignette rassemble des notations et rappels d algèbre linéaire de niveau L Il introduit les principaux théorèmes d approximation matricielle par décomposition en valeurs singulières qui sont à la base des méthodes statistique factorielles Retour au plan du cours Notations Dans tout ce qui suit, E et F sont deux espaces vectoriels réels munis respectivement des bases canoniques E = {e j ; j =,, p} et F = {f i ; i =,, n} On note indifféremment soit un vecteur de E ou de F, un endomorphisme de E, ou une application linéaire de E dans F, soit leurs représentations matricielles dans les bases définies ci-dessus Matrices Notations La matrice d ordre (n p) associée à une application linéaire de E dans F est décrite par un tableau : a a j a p A = a i a j i a p i a n a j n a p n On note par la suite : a j i = [A] j i le terme général de la matrice, a i = [a i,, a p i ] un vecteur-ligne mis en colonne, a j = [a j,, aj n] un vecteur-colonne Types de matrices Une matrice est dite : vecteur-ligne (colonne) si n = (p = ), vecteur-unité d ordre p si elle vaut p = [,, ], scalaire si n = et p =, carrée si n = p Une matrice carrée est dite : { identité (I p ) si a j 0 si i j i = δj i =, si i = j diagonale si a j i = 0 lorsque i j, symétrique si a j i = ai j, (i, j), triangulaire supérieure (inférieure) si a j i = 0 lorsque i > j (i < j) Matrice partitionnée en blocs Matrices dont les éléments sont eux-mêmes des matrices Exemple : [ ] A A(n p) = (r s) A (r (p s)) A ((n r) s) A ((n r) (p s)) Opérations sur les matrices Somme : [A + B] j i = aj i + bj i pour A et B de même ordre (n p) Multiplication par un scalaire : [αa] j i = αaj i pour α R Transposition : [A ] j i = ai j, A est d ordre (p n) (A ) = A ; (A + B) = A + B ; (AB) = B A ; [ A A A A ] = [ A A A A ]

Rappels et compléments d algèbre linéaire Produit scalaire élémentaire : a b = n i= a ib i où a et b sont des vecteurscolonnes Produit : [AB] j i = a i bj avec A (n p), B (p q) et AB (n q), et pour des matrices par blocs : [ A A A A ] [ ] [ ] B B A B B = B + A B A B + A B A B + A B A B + A B sous réserve de compatibilité des dimensions 3 Propriétés des matrices carrées La trace et le déterminant sont des notions intrinsèques, qui ne dépendent pas des bases de représentation choisies, mais uniquement de l application linéaire sous-jacente 3 Trace Par définition, si A est une matrice (p p), et il est facile de montrer : trα = α, trαa = αtra, tra = tr(a + B) = tra + trb, trab = trba, a j j, j= reste vrai si A est (n p) et si B est (p n) trcc = n trc C = i= j= (c j i ) dans ce cas, C est (n p) 3 Déterminant On note A le déterminant de la matrice carrée A (p p) Il vérifie : A = p j= αa = α p A, a j j, si A est triangulaire ou diagonale, AB = A B, A B 0 C = A C, A A A A = A A A (A ) A () = A A A (A ) A, () sous réserve de la régularité de A et A Cette dernière propriété se montre en considérant les matrices : [ ] I A B = (A ) et BAB, 0 I puis en comparant les déterminants BAB et A 33 Inverse L inverse de A, lorsqu elle existe, est la matrice unique notée A telle que : AA = A A = I ; elle existe si et seulement si A 0 Quelques propriétés : (A ) = (A ), (AB) = B A, A = A 34 Définitions Une matrice carrée A est dite : symétrique si A = A,

3 Rappels et compléments d algèbre linéaire singulière si A = 0, régulière si A 0, idempotente si AA = A, définie-positive si, x R p, x Ax 0, et si x Ax = 0 x = 0, positive, ou semi-définie-positive, si, x R p, x Ax 0, orthogonale si AA = A A = I (A = A ) 3 Espaces euclidiens E est un espace vectoriel réel de dimension p isomorphe à R p 3 Sous-espaces Un sous-ensemble E q de E est un sous-espace vectoriel (sev) de E s il est non vide et stable : (x, y) E q, α R, α(x + y) E q Le q-uple {x,, x q } de E constitue un système linéairement indépendant si et seulement si : α i x i = 0 α = = α q = 0 i= Un système linéairement indépendant E q = {e,, e q } qui engendre dans E un sev E q = vec{e,, e q } en constitue une base et dim(e q ) = card(e q ) = q 3 Rang d une matrice Dans ce sous-paragraphe, A est la matrice d une application linéaire de E = R p dans F = R n Im(A) = vect{a,, a p } est le sev de F image de A ; Ker(A) = {x E ; Ax = 0} est le sev de E noyau de A ; rang(a) = dim(im(a)), 0 rang(a) min(n, p), rang(a) = rang(a ), rang(a + B) rang(a) + rang(b), rang(ab) min(rang(a), rang(b)), rang(bac) = rang(a), si B et C sont régulières, rang(a) = rang(aa ) = rang(a A) Enfin, si B (p q) est de rang q(q < p) et A est carrée (p p) de rang p, alors la matrice B AB est de rang q 33 Métrique euclidienne Soit M une matrice carrée (p p), symétrique, définie-positive ; M définit sur l espace E : un produit scalaire : x, y M = x My, une norme : x M = x, x / M, une distance : d M (x, y) = x y M, x,y M x M y M des angles : cos θ M (x, y) = La matrice M étant donnée, on dit que : une matrice A est M-symétrique si (MA) = MA, deux vecteurs x et y sont M-orthogonaux si x, y M = 0, un vecteur x est M-normé si x M =, une base E q = {e,, e q } est M-orthonormée si 34 Projection (i, j), e i, e j M = δ j i Soit W un sous-espace de E et B = {b,, b q } une base de W ; P(p p) est une matrice de projection M-orthogonale sur W si et seulement si : y E, Py W et Py, y Py M = 0 E = Im(A) Ker(A) si A est carrée associée à un endomorphisme detoute E matrice idempotente (P = P) et M-symétrique (P M = MP) est et p = dim(im(a)) + dim(ker(a)) une matrice de projection M-orthogonale et réciproquement

4 Rappels et compléments d algèbre linéaire 34 Propriétés THÉORÈME Soit deux matrices A(n p) et B(p n) ; les valeurs propres Les valeurs propres de P sont 0 ou (voir 4) : non nulles de AB et BA sont identiques avec le même degré de multiplicité Si u est vecteur propre de BA associé à la valeur propre λ différente de zéro, u W, Pu = u, λ =, de multiplicité dim(w ), alors v = Au est vecteur propre de la matrice AB associé à la même valeur v W, (on note v W ) Pv = 0, λ = 0, de multiplicité dim(w ) propre trp = dim(w ) P = B(B MB) B M, où B = [ b,, b q] Dans le cas particulier où les b j sont M-orthonormés : P = BB M = b j b j M Dans le cas particulier où q = alors : P = i= bb b Mb M = bb M b M Si P,, P q sont des matrices de projection M-orthogonales alors la somme P + + P q est une matrice de projection M-orthogonale si et seulement si : P k P j = δ j k P j La matrice I P est la matrice de projection M-orthogonale sur W 4 Eléments propres Soit A une matrice carrée (p p) 4 Définitions Par définition, un vecteur v définit une direction propre associée à une valeur propre λ si l on a : Av = λv Si λ est une valeur propre de A, le noyau Ker(A λi) est un sev de E, appelé sous-espace propre, dont la dimension est majoré par l ordre de multiplicité de λ Comme cas particulier, Ker(A) est le sous-espace propre associé, si elle existe, à la valeur propre nulle Les valeurs propres d une matrice A sont les racines, avec leur multiplicité, du polynôme caractéristique : A λi = 0 Les applications statistiques envisagées dans ce cours ne s intéressent qu à des types particuliers de matrices THÉORÈME Une matrice A réelle symétrique admet p valeurs propres réelles Ses vecteurs propres peuvent être choisis pour constituer une base orthonormée de E ; A se décompose en : A = VΛV = λ k v k v k où V est une matrice orthogonale [v,, v p ] des vecteurs propres orthonormés associés aux valeurs propres λ k, rangées par ordre décroissant dans la matrice diagonale Λ THÉORÈME 3 Une matrice A réelle M-symétrique admet p valeurs propres réelles Ses vecteurs propres peuvent être choisis pour constituer une base M-orthonormée de E ; A se décompose en : A = VΛV M = λ k v k v k M où V = [v,, v p ] est une matrice M-orthogonale (V MV = I p et VV = M ) des vecteurs propres associés aux valeurs propres λ k, rangées par ordre décroissant dans la matrice diagonale Λ Les décompositions ne sont pas uniques : pour une valeur propre simple (de multiplicité ) le vecteur propre normé est défini à un signe près, tandis que pour une valeur propre multiple, une infinité de bases M-orthonormées peuvent être extraites du sous-espace propre unique associé Le rang de A est aussi le rang de la matrice Λ associée et donc le nombre (répétées avec leurs multiplicités) de valeurs propres non nulles

5 Rappels et compléments d algèbre linéaire Par définition, si A est positive, on note la racine carrée de A : A / = λk v k v k M = VΛ / V M 4 Propriétés Si λ k λ j, v k M v j ; tra = p λ k ; A = p λ k ; si A est régulière, k, λ k 0 ; si A est positive, λ p 0 ; si A est définie-positive, λ p > 0 ; 43 Décomposition en Valeurs Singulières (DVS) Il s agit, cette fois, de construire la décomposition d une matrice X(n p) rectangulaire relativement à deux matrices symétriques et positives D(n n) et M(p p) THÉORÈME 4 Une matrice X (n p) de rang r peut s écrire : r X = UΛ / V = λk u k v k ; (3) U (n r) contient les vecteurs propres D-orthonormés (U DU = I r ) de la matrice D-symétrique positive XMX D associés aux r valeurs propres non nulles λ k rangées par ordre décroissant dans la matrice diagonale Λ(r r) ; V (p r) contient les vecteurs propres M-orthonormés (V MV = I r ) de la matrice M-symétrique positive X DXM associés aux mêmes valeurs propres De plus, U = XMVΛ / et V = X DUΛ / 5 Optimisation 5 Norme d une matrice L espace vectoriel E de dimension p (resp F de dimension n) est muni de sa base canonique et d une métrique de matrice M (resp D) Soit X une matrice (n p) L ensemble M n,p des matrices (n p) est un espace vectoriel de dimension np ; on le munit du produit scalaire : X, Y M,D = trxmy D (4) Dans le cas particulier où M = I p et D = I n, et en notant vec(x) = [ x,, x p ] la matrice vectorisée, ce produit scalaire devient : X, Y Ip,I n = trxy = n i= j= x j i yj i = vec(x) vec(y) La norme associée à ce produit scalaire (4) est appelée norme trace : X M,D = trxmx D, X I p,i n = trxx = SSQ(X) = n i= j= (x j i ) (SSQ signifie sum of squares ) La distance associée à cette norme devient, dans le cas où D est une matrice diagonale (D = diag(w,, w n )), le critère usuel des moindres carrés : d (X, Y) = X Y M,D = n i= 5 Approximation d une matrice w i x i y i M Les matrices X, M et D sont définies comme ci-dessus ; X est supposée de rang r On cherche la matrice Z q, de rang q inférieur à r, qui soit la plus proche possible de X THÉORÈME 5 La solution du problème : min Z X Z M,D ; Z M n,p, rang(z) = q < r { } (5)

6 Rappels et compléments d algèbre linéaire est donnée par la somme des q premiers termes de la décomposition en valeurs singulières (3) de X : Z q = Le minimum atteint est : λk u k v k = U q Λ / q V q X Z q M,D = r k=q+ Les matrices U q, Λ q et V q contiennent les q premiers vecteurs et valeurs propres donnés par la DVS de X ; Z q est appelée approximation de rang q de X Ce théorème peut se reformuler d une manière équivalente On note P q (resp Qq ) la projection M-orthogonale sur E q = Im(V q ) (resp D- orthogonale sur F q = Im(U q )) : P q = Q q = λ k v k v k M = V q V qm u k u k D = U q U qd, Z q = Q q X = X P q PROPOSITION 6 Avec les notations précédentes : P q = arg max P q { XP q M,D ; P q projection M-orthogonale de rang q < r}, { Q q = arg max Q q X Q M,D ; q Q q projection D-orthogonale de rang q < r}