Lycée Berthollet MPSI1 2018-19 Programme de colle de la semaine 22 (du 25 au 29 mars 2019) Programme des exercices Les colleuses et colleurs sont encouragés à poser des exercices sur tout le chapitre Applications linéaires. Applications linéaires (fin) 5 Formes linéaires Une forme linéaire sur E est un élément du dual E = L(E,K) (c est juste une notation, la dualité est hors programme). Exemples : formes coordonnées relativement à une base (e i ) i I de E, notées e i, i I, forme linéaire nulle, une forme explicite sur R 3, dont on remarque qu elle est CL des formes coordonnées relativement à la base canonique. C est un fait général en dimension finie : si E est de dimension finie et (e i ) n i=1 en est une base, alors (e i )n i=1 est une base de E appellée base duale de (e i ) n i=1 (donc toute forme linéaire f s écrit x n i=1 f i x i, où les x i sont les coordonnées de x dans la base (e i ) et les f i sont les coordonnées de f dans la base duale). Exemples dans R 2 et R 3. 6 Hyperplans Un hyperplan H est le noyau d une forme linéaire non nulle. En dimension finie, après choix d une base, un hyperplan est donc défini par une équation f i x i = 0, qui n est pas unique Exemples dans R 3 et R 2. Si D est une droite vectorielle non incluse dans H, alors E = H D. Corollaire : tout supplémentaire d un hyperplan est une droite. Réciproquement, tout supplémentaire d une droite est un hyperplan. Conséquence : en dimension finie n, les hyperplans sont exactement les sous-espaces de dimension n 1.
Exemples : cas de R 3, R 2, R 4, sous-espace des polynômes sans terme constant (ou sans terme de degré p) et un supplémentaire, sous-espace des suites réelles telles que u 2 +3u 7 u 10 10 = 0 et un supplémentaire, sous-espace de C 0 ([a,b]) des fonctions d intégrale nulle et un supplémentaire. En dimension finie deux équations d un même hyperplan sont proportionnelles. En dimension finie n, l intersection de m hyperplans est de dimension au moins n m et tout espace de dimension n m peut s écrire comme l intersection de m hyperplans. Sous-espaces affines d un espace vectoriel 1 Structure affine d un espace vectoriel D après le programme, les seuls espaces affines considérés sont les espaces vectoriels euxmêmes. La notion de structure affine n est introduite que de manière informelle. Sur un espace vectoriel E, j ai donc dit que les éléments de E seront parfois considérés comme des points (dans un premier temps, notés par des grandes lettres A, B, etc.) et leur ensemble sera alors noté E(= E) et qu ils seront parfois considéré comme des vecteurs (notés dans un premier temps avec des flèches) et leur ensemble sera alors noté E. À partir de deux points A et B on peut alors former un unique vecteur u = AB(= B A) qui vérifie A + u = B. Cette définition donne immédiatement la relation de Chasles : AB + BC = AC (qu on utilise aussi sous la forme AB = MB MA). J ai aussi fait remarquer que l action des vecteurs sur les points définie par (A, u) A+ u vérifiait que 0 agissait trivialement et que A+( u+ v) = (A+ u) + v. Après avoir défini la translation t u de vecteur u, on a vu que l application τ : (E,+) (S(E), ) qui à u fait correspondre t u est un morphisme de groupe injectif (notion de morphisme de groupe intoduit à cette occasion). Quelques exemples de translations. À partir de maintenant, la distinction entre points et vecteurs dans les notations disparaît sauf cas de grande nécessité. 2 Sous-espaces affines d un espace vectoriel Un sous-espace affine de E est une partie F de E qui peut s écrire F = a + F avec a E et F un sous-espace vectoriel de E. Dans cette écriture, le point a n est pas unique car on peut le remplacer par tout point de F. En revanche, on montre que le sous-espace vectoriel F est lui unique car il est égal à {c b;(b,c) F 2 } et on l appelle la direction de F. Exemples : les singletons et l espace E sont des sous-espaces affines de E, mais /0 n en est pas un. On dit que deux sous-espaces affines sont parallèles ss ils ont la même direction et par extension, on dit qu un sous-espace affine F est parallèle à un sous-espace affine F ssi leur directions vérifient F F. Lorsque F est de dimension finie, on dit que F l est aussi et on définit dimf = dimf. Classification des sous-espaces affines de R 2 et R 3 par leurs dimensions. Une intersection de sous-espaces affines est soit vide soit un sous-espace affine de direction l intersection des directions des sous-espaces affines dont on prend l intersection. 2
3 Hyperplan affines et représentations cartésiennes Un hyperplan affine de E est un sous-espace affine de E de direction un hyperplan de E. Dans le cas de la dimension finie, équation d un hyperplan affine H dans une base de E. Passage de l équation de sa direction à l équation d un hyperplan affine et réciproquement. 3
Programme des questions de cours Conséquences : unicité à un facteur multiplicatif non nul de l équation d un hyperplan affine; tout sous-espace affine de dimension n m possède une représentation cartésienne formée de m équations d hyperplans affines et on obtient une représentation cartésienne de sa direction en enlevant les seconds membres constants. 4 Équations linéaires avec second membre Si u L(E,F) et a F, l ensemble des solutions de l équation u(x) = a est soit vide, soit un sous-espace affine de E de direction Keru. Application aux différents cas déjà rencontrés cette année : systèmes linéaires (les élèves sont chargés de revoir la méthode du pivot), équations différentielles linéaires déjà vues (ordre 1 et cas des coefficients constants pour l ordre 2) pour lesquelles les théorèmes du cours affirment que l ensemble des solutions n est pas vide, polynômes solutions d un problème d interpolation en n+1 points (avec pour solution particulière le polynôme de Lagrange associé, dont les élèves sont chargés de revoir l expression). 5 Repères affines Repères de l espace ou d un sous-espace affine. Coordonnées d un point dans un repère. Représentation paramétrique d un sous-espace affine. Calcul matriciel On note encore K pour R ou C. 1 Espaces de matrices Définition d une matrice à n lignes et p colonnes à coefficients dans K, de l ensemble M n,p (K) qui n est qu une autre notation pour K [[1,n]] [[1,p]]. Conséquence : c est un espace vectoriel muni des loi usuelles + et multiplication par les scalaires. Base canonique (E i, j ) i, j et dimension de M n,p (K). 2 Produit de matrices Définition. Bilinéarité du produit. Produit d un élément de la base canonique de M n,p (K) par une matrice à p lignes. Produit d une matrice à p colonnes par un élément de la base canonique 4
de M p,q (K). Produit d un élément de la base canonique de M n,p (K) par un élément de celle de M p,q (K). Associativité du produit. 3 Matrices carrées Définition, notation M n (K) (n 1) pour l espace vectoriel des matrices carrées, qui est aussi muni d une structure d anneau grâce au produit matriciel, non commutatif dès que n 2. Exemple de diviseurs de zéro. Matrices nilpotentes d indice r. Rappel des formules du binôme de Newton et de Bernoulli lorsque les deux matrices en jeu commutent, cas particulier où l une des deux matrices est l identité. Définition du groupe linéaire GL n (K) des matrices inversibles (on verra lors du lien avec les applications linéaires que l inversibilité à gauche ou à droite suffit). Rappel de la formule générale de l inverse d un produit sans commutativité (dans notre cas, si A,B GL n (K), (AB) 1 = B 1 A 1 ). Exercice à faire : inversibilité et formule pour les matrices carrée de taille 2 (on le verra bien-sûr au moment des déterminants). Définition des matrices diagonales et triangulaires et stabilité des ensembles correspondants par combinaison linéaire et produit (notion de sous-algèbre évoquée). 4 Transposition Transposée d une matrice (a i j ) (i, j) [[1,n]] [[1,p]] : (a ji ) (i, j) [[1,p]] [[1,n]] (c est aussi (a i j ) ( j,i) [[1,p]] [[1,n]] ). La transposition est un isomorphisme d espaces vectoriels de M n,p (K) dans M p,n (K). Transposée d un produit. Cas des matrices carrées : si une matrice est inversible, alors sa transposée aussi et l inverse de la transposée est la transposée de l inverse. Matrices symétriques et antisymétriques. 5 Calcul pratique de l inverse d une matrice On donne en avant-première la méthode de calcul de l inverse d une matrice par l algorithme du pivot, en en laissant la justification au chapitre suivant. Matrices et applications linéaires Dans tout le chapitre, E, F et G représentent sauf indication contraire des K-e.v. de dimension finie. 5
1 Matrice d une application linéaire dans un couple de bases 1.1 Définition et linéarité 1.1.1 Définition Rappel : la matrice d une famille de vecteurs dans une base e de E est la matrice des coordonnées des vecteurs dans la base e, présentées en colonnes : Mat e ((x j ) p j=1 ) = (e i (x j )) i, j. En particulier, si x E, Mat e (x) est la matrice colonne des coordonnées de x dans la base e. La matrice de u L(E,F) dans le couple de bases (e, f ), où e = (e j ) p j=1 est une base de E et f = ( f i ) n i=1 est une base de F est l élément de M n,p(k) défini par : Mat e, f (u) = Mat f (u(e)). 1.1.2 Isomorphisme d espaces vectoriels L application Mat e, f est un isomorphisme d espaces vectoriels de L(E,F) vers M n,p (K) (bien noter que p est la dimension de E et n celle de F et que cet isomorphisme dépend du choix des bases). 1.1.3 Calcul de la matrice des coordonnées de l image Pour x E, l expression de Y = Mat f (u(x)) en fonction de A = Mat e, f (u) et de X = Mat e (x) est : Y = AX. En utilisant la bijectivité de Mat e, f, Mat e, f (u) est l unique matrice A vérifiant cette égalité pour tout x E. 1.2 Application aux calculs de noyaux et d images 1.2.1 Noyau Pour déterminer Keru, on résout le système AX = 0. La descente de la méthode du pivot par lignes, ou plus généralement, un échelonnement par lignes de ce système, i.e. de la matrice A, fournit alors, en supprimant les équations triviales 0 = 0, une représentation cartésienne minimale de Ker u (i.e. avec le nombre minimal d équations). On a autant d équations non triviales que de pivots, leur nombre r étant ce qu on avait défini comme le rang du système lors du chapitre sur les sytèmes linéaires. La dimension de Ker u est alors le nombre d inconnues secondaires, qui est aussi dim(e) r. 6
L achèvement de l algorithme du pivot, ou plus généralement l obtention d une matrice échelonnée réduite par lignes équivalente par lignes à la matrice A, fournit alors une base du noyau. Plus précisément, en notant z 1,...,z k les inconnues secondaires, N i (i [[1,k]]) la matrice colonne solution obtenue en prenant z j = δ i, j pour j [[1,k]] et n i E le vecteur défini par Mat e (n i ) = N i, la famille (n 1,...,n k ) est une base de Keru. 1.2.2 Image Pour l image, en échelonnant par colonnes la matrice A, par exemple par la méthode du pivot, on obtient un famille de vecteurs colonnes dont ceux qui sont non nuls sont les vecteurs coordonnées, dans la base f, d une base de Imu. Si on veut seulement une représentation cartésienne de l image, on peut appliquer la descente de la méthode du pivot par lignes, pour une matrice colonne générique, au système AX = Y, i.e. à la matrice augmentée [A Y ]. Les conditions de compatibilité fournissent alors une représentation cartésienne (minimale) de Im u. Remarquons qu en appliquant la méthode du pivot (complète) au nouveau système formé par les équations de cette représentation cartésienne, on peut déterminer ainsi une base de Imu, mais ce n est pas le moyen le plus direct (il vaut mieux utiliser pour cela l échelonnement par colonnes décrit plus haut). 1.3 Composition et produit matriciel 1.3.1 Matrices et composition Pour e, f,g des bases de E,F,G et des applications linéaires u L(E,F) et v L(F,G) : Mat e,g (v u) = Mat f,g (v)mat e, f (u). Toutes les définitions et tous les énoncés sont exigibles. Démonstrations de cours exigibles En dimension finie, passage de l équation de sa direction à l équation d un hyperplan affine et réciproquement + tout sous-espace affine de dimension n m possède une représentation cartésienne formée de m équations d hyperplans affines et on obtient une représentation cartésienne de sa direction en enlevant les seconds membres constants ; Bilinéarité du produit matriciel ; Associativité du produit matriciel; Transposée d un produit et inverse de la transposée d une matrice carrée inversible; Mat e, f est un isomorphisme d espaces vectoriels de L(E,F) vers M n,p (K). 7