Cours d Automatique Master de Mathématiques, Université d Orléans, premier trimestre. Emmanuel Trélat et Thomas Haberkorn



Documents pareils
Théorème du point fixe - Théorème de l inversion locale

Continuité d une fonction de plusieurs variables

Exercices - Polynômes : corrigé. Opérations sur les polynômes

3 Approximation de solutions d équations

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

I. Polynômes de Tchebychev

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Limites finies en un point

Calcul fonctionnel holomorphe dans les algèbres de Banach

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Problème 1 : applications du plan affine

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Chapitre 2 Le problème de l unicité des solutions

Intégration et probabilités TD1 Espaces mesurés Corrigé

Image d un intervalle par une fonction continue

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Cours d Analyse. Fonctions de plusieurs variables

Approximations variationelles des EDP Notes du Cours de M2

Correction de l examen de la première session

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Fonctions de plusieurs variables

3. Conditionnement P (B)

Capes Première épreuve

Continuité en un point

Cours de mathématiques

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

NOTATIONS PRÉLIMINAIRES

Oscillations libres des systèmes à deux degrés de liberté

Résolution d équations non linéaires

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Programmes des classes préparatoires aux Grandes Ecoles

Continuité et dérivabilité d une fonction

Exercices Corrigés Premières notions sur les espaces vectoriels

Dualité dans les espaces de Lebesgue et mesures de Radon finies

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Algorithmes pour la planification de mouvements en robotique non-holonome

F411 - Courbes Paramétrées, Polaires

Calcul différentiel. Chapitre Différentiabilité

Probabilités sur un univers fini

Correction du Baccalauréat S Amérique du Nord mai 2007


Les correcteurs accorderont une importance particulière à la rigueur des raisonnements et aux représentations graphiques demandées.

Le produit semi-direct

Chapitre 1 Régime transitoire dans les systèmes physiques

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Amphi 3: Espaces complets - Applications linéaires continues

Intégration et probabilités TD1 Espaces mesurés

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Equations Différentielles

Résolution de systèmes linéaires par des méthodes directes

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v t

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Calcul différentiel sur R n Première partie

La fonction exponentielle

Polynômes à plusieurs variables. Résultant

[ édité le 30 avril 2015 Enoncés 1

Texte Agrégation limitée par diffusion interne

CCP PSI Mathématiques 1 : un corrigé

Dérivées d ordres supérieurs. Application à l étude d extrema.

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Chp. 4. Minimisation d une fonction d une variable

Programmation linéaire

Dérivation : cours. Dérivation dans R

Techniques de Lyapunov en contrôle quantique pour le couplage dipolaire et polarisabilité

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Simulation de variables aléatoires

NOTICE DOUBLE DIPLÔME

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Une forme générale de la conjecture abc

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Calcul Différentiel. I Fonctions différentiables 3

Fonctions de plusieurs variables. Sébastien Tordeux

Chapitre VI Fonctions de plusieurs variables

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Moments des variables aléatoires réelles

Différentiabilité ; Fonctions de plusieurs variables réelles

Optimisation des fonctions de plusieurs variables

Développement décimal d un réel

Chapitre 2. Matrices

Introduction à l étude des Corps Finis

Pour l épreuve d algèbre, les calculatrices sont interdites.

Programmation linéaire

Comparaison de fonctions Développements limités. Chapitre 10

Table des matières. Introduction Générale 5

ÉVALUATION FORMATIVE. On considère le circuit électrique RC représenté ci-dessous où R et C sont des constantes strictement positives.

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

Cours 02 : Problème général de la programmation linéaire

Structures algébriques

TIQUE DE FRANCE NILSYSTÈMES D ORDRE 2 ET PARALLÉLÉPIPÈDES

Probabilités sur un univers fini

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Transcription:

Cours d Automatique Master de Mathématiques, Université d Orléans, premier trimestre Emmanuel Trélat et Thomas Haberkorn

2

Table des matières 1 Rappels 5 1.1 Rappels d algèbre linéaire...................... 5 1.1.1 Exponentielle de matrice................... 5 1.1.2 Réduction des endomorphismes............... 6 1.2 Théorème de Cauchy-Lipschitz................... 8 1.2.1 Un énoncé général...................... 8 1.2.2 Systèmes différentiels linéaires................ 9 1.2.3 Applications en théorie du contrôle............. 11 2 Modélisation d un système de contrôle 13 2.1 Exemples de systèmes de contrôle.................. 13 2.1.1 En mécanique......................... 13 2.1.2 Electricité........................... 14 2.1.3 Chimie............................. 15 2.1.4 Biologie............................ 15 2.1.5 Equations aux dérivées partielles.............. 16 2.2 Représentation interne des systèmes de contrôle linéaires..... 16 2.3 Représentation externe des systèmes de contrôle linéaires.... 16 3 Contrôlabilité 21 3.1 Ensemble accessible......................... 21 3.2 Contrôlabilité des systèmes linéaires autonomes.......... 26 3.2.1 Cas sans contrainte sur le contrôle : condition de Kalman 26 3.2.2 Cas avec contrainte sur le contrôle............. 28 3.2.3 Equivalence linéaire de systèmes.............. 29 3.2.4 Forme de Brunovski..................... 29 3.3 Contrôlabilité des systèmes linéaires instationnaires........ 31 3.4 Contrôlabilité des systèmes non linéaires.............. 33 3.4.1 Application entrée-sortie................... 34 3.4.2 Contrôlabilité......................... 36 4 Stabilisation 41 4.1 Systèmes linéaires autonomes.................... 41 4.1.1 Rappels............................ 41 3

4 TABLE DES MATIÈRES 4.1.2 Critère de Routh, critère de Hurwitz............ 42 4.1.3 Stabilisation des systèmes de contrôle linéaires autonomes 43 4.2 Interprétation en termes de matrice de transfert.......... 45 4.3 Stabilisation des systèmes non linéaires............... 46 4.3.1 Rappels............................ 46 4.3.2 Stabilisation locale d un système de contrôle non linéaire. 47 4.3.3 Stabilisation asymptotique par la méthode de Jurdjevic- Quinn............................. 48 5 Observabilité 51 5.1 Définition et critères d observabilité................. 51 5.2 Stabilisation par retour d état statique............... 55 5.3 Observateur asymptotique de Luenberger............. 55 5.4 Stabilisation par retour dynamique de sortie............ 56

Chapitre 1 Rappels 1.1 Rappels d algèbre linéaire 1.1.1 Exponentielle de matrice Soit IK = IR ou C, et soit une norme multiplicative sur M n (IK) (i.e. AB A B pour toutes matrices A, B M n (IK); par exemple les normes d opérateurs sont multiplicatives). Définition 1.1.1. Soit A M n (IK). On définit l exponentielle de la matrice A par : + exp(a) = e A A k = k!. C est une série normalement convergente dans le Banach M n (IK), vu que q A k q k! A k q k! A k e A. k! k=p k=p Proposition 1.1.1. Pour tout A M n (IK), on a e A GL n (IK), et (e A ) 1 = e A. L application exponentielle est IK-analytique (et donc en particulier est de classe C sur le corps IK). La différentielle de Fréchet dexp() de l application exponentielle en est égale à l identité sur M n (IK). Pour toutes matrices A, B M n (IK) qui commutent, i.e. AB = BA, on a : e A+B = e A e B. Si P GL n (IK), alors Pe A P 1 = e PAP 1. Pour A M n (IK), l application f(t) = e ta est dérivable, et f (t) = Ae ta = e ta A. 5 k=1 k=p

6 CHAPITRE 1. RAPPELS 1.1.2 Réduction des endomorphismes L espace vectoriel M n (IK) est de dimension n 2 sur IK, donc les éléments I, A,..., A n2 sont linéairement dépendants. Par conséquent il existe des polynômes P annulateurs de A, i.e. tels que P(A) =. L anneau IK[X] étant principal, l idéal des polynômes annulateurs de A admet un unique générateur normalisé, i.e. un unique polynôme de plus petit degré, dont le coefficient dominant est égal à 1, annulant A; on l appelle polynôme minimal de la matrice A, noté π A. Par ailleurs, le polynôme caractéristique de A, noté χ A, est défini par : χ A (X) = det (XI A). Théorème 1.1.2 (Théorème de Hamilton-Cayley). χ A (A) =. En particulier, le polynôme minimal π A divise le polynôme caractéristique χ A. Notons que deg χ A = n et deg π A n. Exemple 1.1.1. Pour une matrice N M n (IK) nilpotente, i.e. il existe un entier p 1 tel que N p =, on a nécessairement p n, π N (X) = X p et χ N (X) = X n. Exemple 1.1.2. Pour une matrice compagnon, i.e. une matrice de la forme : 1........ A =........, 1 a n a n 1 a 2 a 1 on a : π A (X) = χ A (X) = X n + a 1 X n 1 + + a n 1 X + a n. Le scalaire λ IK est dit valeur propre s il existe un vecteur non nul v IK n, appelé vecteur propre, tel que Av = λv. L espace propre associé à la valeur propre λ est défini par : E(λ) = ker(a λi) ; c est l ensemble des vecteurs propres de A pour la valeur propre λ. Lorsque IK = C, les valeurs propres de A sont exactement les racines du polynôme caractéristique χ A. En particulier on a : χ A (X) = r (X λ i ) mi et π A (X) = i=1 r (X λ i ) si, avec s i m i. L entier s i (resp. m i ) est appelé ordre de nilpotence (resp. multiplicité) de la valeur propre λ i. L espace caractéristique de la valeur propre λ i est défini par : N(λ i ) = ker(x λ i ) si. i=1

1.1. RAPPELS D ALGÈBRE LINÉAIRE 7 Théorème 1.1.3 (Théorème de décomposition des noyaux). Soient A M n (IK) et P IK[X] un polynôme tel que : r P(X) = P i (X), où les polynômes P i sont premiers entre eux deux à deux. Alors : r kerp(a) = kerp i (A). i=1 i=1 De plus, chaque sous-espace kerp i (A) est invariant par A, et la projection p i sur kerp i (A) parallèlement à j i kerp j(a) est un polynôme en A. En appliquant ce théorème au polynôme minimal de A, on obtient, lorsque IK = C : r C n = N(λ i ). i=1 Notons que N(λ i ) = ker(x λ i ) si = ker(x λ i ) mi. La restriction de A à N(λ i ) est de la forme λ i I + N i, où N i est une matrice nilpotente d ordre s i. On peut alors montrer que toute matrice A M n (IK) admet une unique décomposition A = D +N, où D est diagonalisable sur C, N est nilpotente, et de plus DN = N D (décomposition D + N). On peut préciser ce résultat avec la théorie de Jordan. Théorème 1.1.4 (Décomposition de Jordan). Soit A M n (IK); on suppose que π A est scindé sur IK (ce qui est toujours le cas sur C) tel que π A (X) = r i=1 (X λ i) si. Alors il existe P GL n (IK) telle que P 1 AP = A 1..... A r, où les matrices A i sont diagonales par blocs : J i,1 A i =....., J i,ei et où les matrices J i,k, 1 i r, 1 k e i, sont des blocs de Jordan, i.e. des matrices carrées de la forme : λ i 1. J i,k =............ 1, λ i n ayant pas forcément toutes le même ordre J i,k. Pour tout i {1,...,r}, on a e i = dime(λ i ), et max 1 k e i J i,k = s i.

8 CHAPITRE 1. RAPPELS 1.2 Théorème de Cauchy-Lipschitz Dans cette section nous rappelons une version générale du théorème de Cauchy-Lipschitz, adaptée à la théorie du contrôle, qui établit sous certaines conditions l existence et l unicité d une solution d une équation différentielle. Une bonne référence à ce sujet est [18, Appendix C]. 1.2.1 Un énoncé général Soit I un intervalle de IR et V un ouvert de IR n. Considérons le problème de Cauchy : ẋ(t) = f(t, x(t)), x(t ) = x, (1.1) où f est une application de I V dans IR n, et x V. Le théorème de Cauchy- Lipschitz usuel affirme l existence et l unicité d une solution maximale pourvu que f soit continue, et localement lipschitzienne par rapport à x. Mais en théorie du contrôle ces hypothèses doivent être affaiblies car on est amené à considérer des contrôles non continus (au mieux, continus par morceaux), et par conséquent la continuité du second membre n est plus assurée. En particulier la solution, si elle existe, n est pas en général dérivable partout et il faut donc redéfinir de manière adéquate le concept de solution. Définition 1.2.1. On suppose que pour tout t I la fonction x f(t, x) est mesurable, et que pour tout x U la fonction x f(t, x) est continue. Une solution x(.) définie sur un intervalle J I du problème de Cauchy (1.1) est une fonction absolument continue de J dans V telle que pour tout t J ce qui est équivalent à : x(t) = x + t t f(s, x(s))ds, ẋ(t) = f(t, x(t)) p.p. sur J, x(t ) = x. La solution (J, x( )) est dite maximale si, pour toute autre solution ( J, x( )), on a J J et x( ) = x( ) sur J. On a alors le théorème suivant. Théorème 1.2.1 (Théorème de Cauchy-Lipschitz). On suppose que la fonction f : I V V vérifie les deux hypothèses suivantes : 1. f est localement lipschitzienne en x, au sens où : x V r > α L 1 loc(i,ir + ) / B(x, r) V, et t I y, z B(x, r) f(t, y) f(t, z) α(t) y z, 2. f est localement intégrable en t, i.e. : x V β L 1 loc(i,ir + ) / t I f(t, x) β(t).

1.2. THÉORÈME DE CAUCHY-LIPSCHITZ 9 Alors pour toute donnée initiale (t, x ) I V, il existe une unique solution maximale x(.) du problème de Cauchy (1.1). Remarque 1.2.1. On n a pas forcément J = I ; par exemple considérons le problème de Cauchy ẋ(t) = x(t) 2, x() = x. Alors : si x =, on a J = IR et x( ) ; si x >, on a J =], 1/x [ et x(t) = x /(1 x t); si x <, on a J =]1/x, + [ et x(t) = x /(1 x t). Remarque 1.2.2. Si f est seulement continue on n a pas unicité en général ; par exemple considérons le problème de Cauchy ẋ(t) = x(t), x() =. La fonction nulle est solution, ainsi que { si t, x(t) = t 2 /4 si t >. Théorème 1.2.2 (Théorème d explosion). Sous les hypothèses du théorème de Cauchy-Lipschitz, soit (]a, b[, x( )) une solution maximale. Si b < sup J, alors pour tout compact K contenu dans V, il existe un réel η > tel que x(t) / K, pour tout t ]b η, b[. Remarque 1.2.3. En particulier si V = IR n, alors x(t) +. t b t<b Remarque 1.2.4. On a une propriété semblable si a > inf J. Enonçons maintenant une version globale du théorème de Cauchy-Lipschitz. Théorème 1.2.3. Sous les hypothèses du théorème de Cauchy-Lipschitz, on suppose de plus que V = IR n et que f est globalement lipschitzienne par rapport à x, i.e. α L 1 loc (I,IR+ ) / t I y, z IR n f(t, y) f(t, z) α(t) y z. Alors J = I. 1.2.2 Systèmes différentiels linéaires Considérons le problème de Cauchy dans IR n : ẋ(t) = A(t)x(t) + B(t), x(t ) = x, (1.2) où les applications t A(t) M n (IR) et t B(t) IR n sont localement intégrables sur l intervalle I considéré. Définition 1.2.2. La résolvante du problème (1.2) est la solution du problème de Cauchy : R t (t, t ) = A(t)R(t, t ), R(t, t ) = I, où R(t, t ) M n (IR).

1 CHAPITRE 1. RAPPELS Proposition 1.2.4. La résolvante vérifie les propriétés suivantes : R(t 2, t ) = R(t 2, t 1 )R(t 1, t ). Si (t, t ) = det R(t, t ), on a : t (t, t ) = tr A(t).δ(t, t ), (t, t ) = 1. La solution du problème de Cauchy (1.2) est : x(t) = R(t, t )x + t t R(t, s)b(s)ds. Remarque 1.2.5. Lorsque t =, on note plutôt M(t) = R(t, ). La formule de variation de la constante s écrit alors : x(t) = M(t)x + M(t) t M(s) 1 B(s)ds. Remarque 1.2.6 (Expression de la résolvante). La résolvante admet le développement en série suivant : R(b, a) = I + A(s 1 )ds 1 + A(s 2 )A(s 1 )ds 1 ds 2 + + a s 1 b a s 1 s 2 b A(s n ) A(s 1 )ds 1 ds n +. a s 1 s n b De plus cette série est normalement convergente. C est un développement en série chronologique. Cas des systèmes autonomes. Considérons le problème de Cauchy dans IR n : ẋ(t) = Ax(t), x() = x, où A M n (IR). Alors, dans ce cas, la résolvante est M(t) = e ta, et la solution de ce problème est : x(t) = e ta x. La décomposition de Jordan permet de préciser ce résultat. En effet, on a : e tj1,e 1 e ta = P... P 1. e tj1,er On calcule facilement : 1 t e tλi t J i,k 1 ( J i,k 1)!. e tj i,k = e tλi........... e tλ i t e tλi On obtient donc le résultat suivant.

1.2. THÉORÈME DE CAUCHY-LIPSCHITZ 11 Proposition 1.2.5. Toute solution du système ẋ(t) = Ax(t) est de la forme : où v i,k N(λ i ). x(t) = 1 i r k J i,k e tλi t k v i,k, 1.2.3 Applications en théorie du contrôle Systèmes de contrôle linéaires Considérons le système de contrôle linéaire : ẋ(t) = A(t)x(t) + B(t)u(t) + r(t), x(t ) = x. Les hypothèses du théorème 1.2.1 sont clairement vérifiées si les applications t A(t), B(t)u(t), r(t), sont localement intégrables sur l intervalle I considéré. Il faut donc supposer : A(.) L 1 loc (I, M n(ir)), r(.) L 1 loc (I, IRn ), et par ailleurs les hypothèses assurant la locale intégrabilité de B(.)u(.) dépendent de l ensemble des contrôles considérés. Par exemple : si u(.) L loc (I, IRm ) alors on suppose que B(.) L 1 loc (I, M n,m(ir)). si u(.) L 2 loc (I, IRm ) alors on suppose que B(.) L 2 loc (I, M n,m(ir)). De manière générale si u(.) L p loc (I, IRm ) alors on suppose que B(.) L q loc (I, M n,m(ir)) où 1 p + 1 q = 1. si les contrôles sont des fonctions mesurables à valeurs dans un compact Ω IR m, on suppose que B(.) L 1 loc (I, M n,m(ir)). Systèmes de contrôle généraux Considérons le système de contrôle : x(t) = f(t, x(t), u(t)), x(t ) = x, où f est une fonction de I V U, I est un intervalle de IR, V un ouvert de IR n et U un ouvert de IR m. Pour rester dans un cadre très général, il suffit de supposer que pour chaque contrôle u considéré, la fonction F(t, x) = f(t, x, u(t)) vérifie les hypothèses du théorème 1.2.1. Bien entendu en fonction de la classe de contrôles considérée, ces hypothèses peuvent être plus ou moins difficiles à vérifier. On peut donner des hypothèses certes moins générales, mais qui suffisent dans la grande majorité des cas. Ces hypothèses sont les suivantes : 1. L ensemble des contrôles considérés est contenu dans L loc (I, IRm ), 2. La fonction f est de classe C 1 sur I V U.

12 CHAPITRE 1. RAPPELS Il est facile de vérifier qu alors les hypothèses du théorème 1.2.1 sont satisfaites et donc, pour chaque contrôle fixé il existe une unique solution maximale sur un intervalle J du problème de Cauchy : ẋ(t) = f(t, x(t), u(t)) p.p. sur J, x(t ) = x. Exercice 1.2.1. Soit A :], + [ M n (IR) une application continue. On considère le système différentiel x (t) = A(t)x(t) et on note R(t, t ) sa résolvante. 1. Montrer que la résolvante S(t, t ) du système ẏ(t) = t A(t)y(t) est S(t, t ) = t R(t, t ). 2. On pose A(t) = 2t + 1 1 t t t t 1 t 3t t 1 t. 2 t 2t 2 t + t Montrer que A(t) possède une base de vecteurs propres indépendante de t. En déduire la résolvante R(t, t ).

Chapitre 2 Modélisation d un système de contrôle 2.1 Exemples de systèmes de contrôle 2.1.1 En mécanique Exemple 2.1.1 (Wagon). D après le principe fondamental de la mécanique, l équation du système est : mẍ(t) = u(t). Exemple 2.1.2 (Oscillateur harmonique). mẍ(t) + kx(t) = u(t). Exemple 2.1.3 (Pendule oscillant (en robotique : bras articulé)). θ(t) + mgl sin θ(t) = u(t). Exemple 2.1.4 (Pendule inversé). Ecrivons les équations du mouvement en utilisant les équations d Euler-Lagrange. L énergie cinétique et l énergie potentielle sont : E c = 1 2 M ξ 2 + 1 2 m( ξ 2 2 + ζ 2 2 ), E p = mgζ 2. Par ailleurs, on a ζ 2 = l cosθ et ξ 2 = ξ + l sin θ. Donc le Lagrangien du système est : L = E c E p = 1 2 (M + m) ξ 2 + ml ξ θ cosθ + 1 2 ml2 θ2 mgl cosθ. D après les équations d Euler-Lagrange : d L dt ẋ = L x, 13

14 CHAPITRE 2. MODÉLISATION D UN SYSTÈME DE CONTRÔLE on obtient : { (M + m) ξ + ml θ cosθ ml θ2 sin θ = u, d où ml ξ cosθ + ml 2 θ mgl sin θ =, ξ = ml θ 2 sin θ mg cosθ sin θ + u M + m sin 2, θ θ = ml θ 2 sinθ cosθ + (M + m)g sin θ u cosθ M + m sin 2. θ Exemple 2.1.5 (Systèmes de ressorts amortis). { m1 ẍ 1 = k 1 (x 1 x 2 ) d 1 (ẋ 1 ẋ 2 ) + u, m 2 ẍ 2 = k 1 (x 1 x 2 ) k 2 x 2 + d 1 (ẋ 1 ẋ 2 ) d 2 ẋ 2. Exemple 2.1.6 (Amortisseurs d une voiture). {ẍ1 = k 1 x 1 d 1 ẋ 1 + l 1 u, ẍ 2 = k 2 x 2 d 2 ẋ 2 + l 2 u. Exemple 2.1.7 (Voiture commandée en vitesse). 2.1.2 Electricité ẋ(t) = u(t)cosθ(t), ẏ(t) = u(t)sin θ(t), θ(t) = v(t). Exemple 2.1.8 (Vitesse angulaire d un rotor). Exemple 2.1.9 (Circuit RLC). I ω(t) = u(t). L di dt + Ri + q C = u, où q(t) = t i est la charge du condensateur. D où : dq dt = i, di dt = R L i 1 LC q + 1 L u. Exemple 2.1.1 (Servomoteur à courant continu). On note : R la résistance ; L l inductance ; e la force contre-électromotrice ; k 1, k 2 des constantes ; J le

2.1. EXEMPLES DE SYSTÈMES DE CONTRÔLE 15 moment d inertie du moteur ; f le coefficient de frottement du moteur ; Γ = k 2 i le couple moteur ; Γ c le couple antagoniste ; θ l angle moteur. On a : u = Ri + L di dt + e, e = k 1 θ, J θ = kl 2 i f θ Γ c, d où d dt i θ = R/L k 1/L 1 + 1 u +. θ k 2 /J f/j Γ c 2.1.3 Chimie Exemple 2.1.11 (Cinétique chimique). Considérons l équation CO + 1 2 O 2 k 1 k 1 CO 2. Les équations de la cinétique chimique sont : d[co] = k 1 [CO][O 2 ] 1/2 + k 1 [CO 2 ], dt d[o 2 ] = 1 dt 2 k 1[CO][O 2 ] 1/2 + 1 2 k 1[CO 2 ], d[co 2 ] = k 1 [CO][O 2 ] 1/2 k 1 [CO 2 ], dt où k 1 et k 1 dépendent de la température T, et le contrôle est u = dt dt. 2.1.4 Biologie Exemple 2.1.12 (Système proies-prédateurs). { ẋ = x(1 y) + u, ẏ = y(1 x). Exemple 2.1.13 (Bioréacteur). { ẋ = croissance sortie = µ(s) Dx, ẏ = consommation sortie + alimentation = ν(s)x Ds + Ds in.

16 CHAPITRE 2. MODÉLISATION D UN SYSTÈME DE CONTRÔLE 2.1.5 Equations aux dérivées partielles Exemple 2.1.14 (Equation des ondes). y tt = y xx, y(, x) = y (x), y t (, x) = y 1 (x), y(t, ) =, y(t, L) = u(t), où t [, T] et x [, L]. 2.2 Représentation interne des systèmes de contrôle linéaires Considérons le système linéaire observé : { ẋ(t) = Ax(t) + Bu(t), y(t) = Cx(t), (2.1) où x(t) IR n, u(t) IR m, y(t) IR p, A M n (IR), B M n,m (IR), et C M p,n (IR). On appelle représentation interne ou représentation d état continue l expression de la sortie y(t) sous la forme : t y(t) = Ce ta x() + Ce ta e sa Bu(s)ds, (2.2) appelée en anglais input-output relation. 2.3 Représentation externe des systèmes de contrôle linéaires Définition 2.3.1. La réponse impulsionnelle d un système linéaire est la sortie de ce système (à conditions initiales nulles) quand on l excite en entrée par une impulsion de Dirac. Ici, la réponse impulsionnelle est donc la matrice : W(t) = { Ce ta B si t, si t <. (2.3)

2.3. REPRÉSENTATION EXTERNE DES SYSTÈMES DE CONTRÔLE LINÉAIRES17 En effet, posons, pour tout t [, ε] : et u(t) = sinon. Alors : y(t) = Ce ta 1 ε.. u(t) = 1/ε = 1 ε e i,. ε e sa Be i ds ε Ce ta Be i. Remarque 2.3.1. Puisque x() =, on a, pour t : Autrement dit : y(t) = t W(t s)u(s)ds = + W(t s)u(s)ds. Proposition 2.3.1. t y(t) = (W u)(t). Cela incite à utiliser la transformation de Laplace, qui transforme un produit de convolution en un produit. Définition 2.3.2. Soit f L 1 loc ([, + [, IR). Il existe a IR {± } tel que, pour tout complexe s, on ait : si Re s > a alors + e st f(t) dt < +, si Re s < a alors + e st f(t) dt = +. Pour tout complexe s tel que Re s > a, on définit la transformée de Laplace de f par : L(f)(s) = + e st f(t)dt. Remarque 2.3.2. La transformation de Laplace est linéaire (en faisant attention toutefois au problème du domaine de définition). De plus, on a : L(f g) = L(f)L(g). Enfin, pour toute fonction f de classe C 1, on a : L(f )(s) = sl(f)(s) f(). Posons alors Y (s) = L(y)(s) et U(s) = L(u)(s) (où, par convention, y(t) = et u(t) = si t < ).

18 CHAPITRE 2. MODÉLISATION D UN SYSTÈME DE CONTRÔLE Définition 2.3.3. La matrice de transfert H est la transformée de Laplace de la matrice de réponse impulsionnelle, i.e. H(s) = L(W)(s) = Proposition 2.3.2. Y (s) = H(s)U(s). + W(t)e st dt. (2.4) Par ailleurs, en appliquant la transformation de Laplace au système (2.1), avec x() = et X(s) = L(x)(s), on a : sx(s) = AX(s) + BU(s), Y (s) = CX(s), d où Y (s) = C(sI A) 1 BU(s). Donc : Proposition 2.3.3. H(s) = C(sI A) 1 B. Remarque 2.3.3. En particulier, on a L(Ce ta B)(s) = C(sI A) 1 B. Proposition 2.3.4. Les coefficients de la matrice de transfert H(s) sont des fractions rationnelles en s, avec un numérateur de degré strictement inférieur au degré du dénominateur. Démonstration : Il suffit de remarquer que (si A) 1 = 1 t com(si A). det(si A) Remarque 2.3.4. Si le système s écrit : { ẋ(t) = Ax(t) + Bu(t), y(t) = Cx(t) + Du(t), alors H(s) = C(sI A) 1 B + D. Dans ce cas, il est clair que les coefficients de la matrice H(s) sont des fractions rationnelles dont le numérateur et le dénominateur ont même degré. Réciproquement, lorsqu on dispose d une matrice de transfert H(s) pour représenter un système linéaire continu, on peut chercher à calculer un modèle d état (i.e. déterminer des matrices A, B, C) tel que H(s) = C(sI A) 1 B. Un tel triplet (A, B, C) est appelé réalisation d état continue de la matrice de transfert H(s).

2.3. REPRÉSENTATION EXTERNE DES SYSTÈMES DE CONTRÔLE LINÉAIRES19 Proposition 2.3.5. La fonction de transfert (i.e. m = p = 1) H(s) = b + b 1 s n 1 + + b n s n + a 1 s n 1 + + a n admet la réalisation : 1 1... A =........., B =..,.. 1 1 a n a n 1 a 2 a 1 1 C = (b n b 1 ), D = b. La démonstration se fait par un calcul facile. On peut de même montrer que tout matrice de transfert dont les coefficients sont des fractions rationnelles (le degré du numérateur étant inférieur ou égal à celui du dénominateur) admet une réalisation (voir par exemple [13]). Remarque 2.3.5. Il n y a pas unicité de la réalisation. En effet si (A, B, C) est une réalisation de H(s), alors il est bien clair que (A 1, B 1, C 1 ) est aussi une réalisation de H(s) avec : ( ) ( A B A 1 =, B 1 =, C ) 1 = ( C ). Il existe un théorème d unicité d une réalisation minimale sous forme d un système linéaire contrôlable et observable, voir par exemple [13]. Exercice 2.3.1. Déterminer une réalisation de la matrice de transfert : H(s) = 1/(s2 1) s/(s 2 + s). s/(s 2 s)

2 CHAPITRE 2. MODÉLISATION D UN SYSTÈME DE CONTRÔLE

Chapitre 3 Contrôlabilité Soit I un intervalle de IR. Considérons le système de contrôle linéaire : t ẋ(t) = A(t)x(t) + B(t)u(t) + r(t) x() = x (3.1) où t I, et on suppose que : A(t) M n (IR), B(t) M n,m (IR) et r(t), x M n,1 (IR), les applications t A(t), B(t), r(t) sont L sur I, l application u est mesurable et localement bornée sur I, à valeurs dans un sous-ensemble Ω IR m. Les théorèmes d existence de solutions d équations différentielles nous assurent l existence sur I d une unique application t x(t) IR n absolument continue telle que : x(t) = M(t)x + t M(t)M(s) 1 (B(s)u(s) + r(s))ds où M(t) M n (IR) est la résolvante du système linéaire homogène ẋ = Ax, i.e. Ṁ(t) = A(t)M(t), M() = Id. En particulier si A(t) = A est constante alors M(t) = e ta. Cette application dépend de u. Donc si on change la fonction u, on obtient une autre trajectoire t x(t) dans IR n, voir figure 3.1. On se pose la question suivante : étant donné un point x 1 IR n, existe-t-il un contrôle u tel que la trajectoire associée à ce contrôle joigne x et x 1 en un temps fini T? (voir figure 3.2) C est le problème de contrôlabilité. 3.1 Ensemble accessible Considérons le système de contrôle linéaire (3.1). 21

22 CHAPITRE 3. CONTRÔLABILITÉ x x(t) Fig. 3.1 x x 1 = x(t) Fig. 3.2 Problème de contrôlabilité Définition 3.1.1. L ensemble des points accessibles à partir de x en un temps T > est : Acc(x, T) = {x 1 IR n / u L 2 ([, T], Ω), x : [, T] IR n, ẋ(t) = A(t)x(t) + B(t)u(t) + r(t) p.p. sur [, T], x() = x, x(t) = x 1 } Autrement dit Acc(x, T) est l ensemble des extrémités des solutions de (3.1) au temps T, lorsqu on fait varier le contrôle u, voir figure 3.3. Pour la cohérence on pose Acc(x, ) = {x }. Théorème 3.1.1. Considérons le système de contrôle linéaire dans IR n : ẋ(t) = A(t)x(t) + B(t)u(t) + r(t) où Ω IR m est compact et convexe. Soient T > et x IR n. Alors pour tout t [, T], Acc(x, t) est compact, convexe, et varie continûment avec t sur [, T]. Démonstration. Montrons d abord la convexité de Acc(x, t). Soient x 1, x 2 Acc(x, t), et λ [, 1]. On veut montrer que : λx 1 + (1 λ)x 2 Acc(x, t). Par définition, pour i = 1, 2, il existe un contrôle u i : [, t] I tel que la trajectoire x i (s) associée à u i vérifie : x i () = x, x i (t) = x i, dx i ds (s) = A(s)x i(s) + B(s)u(s) + r(s).

3.1. ENSEMBLE ACCESSIBLE 23 x Acc(x, T) Fig. 3.3 Ensemble accessible D après la formule de variation de la constante : x i = x i (t) = M(t)x + t M(t)M(s) 1 (B(s)u i (s) + r(s))ds. Posons, pour tout s [, t] : u(s) = λu 1 (s) + (1 λ)u 2 (s). Le contrôle u est dans L 2, à valeurs dans Ω car Ω est convexe. Soit x(s) la trajectoire associée à u. Alors, par définition de A(x, t), on a : Or : x(t) = M(t)x + t M(t)M(s) 1 (B(s)u(s) + r(s))ds Acc(x, t). λx 1 + (1 λ)x 2 = M(t)x + (1 λ)m(t)x + t = x(t) M(t)M(s) 1 (B(s)(λu 1 (s) + (1 λ)u 2 (s)) + λr(s) + (1 λ)r(s))ds donc λx 1 + (1 λ)x 2 Acc(x, t), ce qui prouve la convexité de Acc(x, t). Montrons maintenant la compacité de Acc(x, t). Cela revient à montrer que toute suite (x n ) de points de Acc(x, t) admet une sous-suite convergente. Pour tout entier n soit u n un contrôle reliant x à x n en temps t, et soit x n (.) la trajectoire correspondante. On a donc : x n = x n (t) = M(t)x + t M(t)M(s) 1 (B(s)u n (s) + r(s))ds. (3.2) Par définition les contrôles u n sont à valeurs dans le compact Ω, et par conséquent la suite (u n ) est bornée dans L 2 ([, t], IR m ). Par réflexivité on en déduit que, à sous-suite près, la suite (u n ) converge faiblement vers un contrôle u L 2 ([, t], Ω). Par ailleurs de la formule de représentation (3.2) on déduit

24 CHAPITRE 3. CONTRÔLABILITÉ aisément que la suite (x n (.)) n IN est bornée dans L 2 ([, T], IR n ). De plus, de l égalité ẋ n = Ax n + Bu n + v, et utilisant le fait que A, B et v sont dans L, on conclut que la suite (ẋ n ) est également bornée dans L 2, autrement dit cette suite est bornée dans H 1 ([, T], IR n ). Mais comme cet espace de Sobolev est réflexif et se plonge de manière compacte dans C ([, T], IR n ) muni de la topologie uniforme, on conclut que, à sous-suite près, la suite (x n ) converge uniformément vers une application x sur [, T]. En passant à la limite dans (3.2) il vient alors : et en particulier : x(t) = M(t)x + ce qui prouve la compacité. t M(t)M(s) 1 (B(s)u(s) + r(s))ds, lim x n i = lim x n i (t) = x(t) Acc(x, t), i + i + Montrons enfin la continuité par rapport à t de Acc(x, t). Soit ε >. On va chercher δ > tel que : t 1, t 2 [, T] t 1 t 2 δ d(acc(t 1 ), Acc(t 2 )) ε, où on note pour simplifier Acc(t) = Acc(X, t), et où : ( d(acc(t 1 ), Acc(t 2 )) = sup sup y Acc(t 2) d(y, Acc(t 1 )), sup y Acc(t 1) Par la suite, on suppose t 1 < t 2 T. Il suffit de montrer que : 1. y Acc(t 2 ) d(y, Acc(t 1 )) ε, 2. y Acc(t 1 ) d(y, Acc(t 2 )) ε. d(y, Acc(t 2 )) Montrons juste le premier point (2. étant similaire). Soit y Acc(t 2 ). Il suffit de montrer que : z Acc(t 1 ) / d(y, z) ε. Par définition de Acc(t 2 ), il existe un contrôle u L 2 ([, T], Ω) tel que la trajectoire associée à u, partant de x, vérifie : x(t 2 ) = y, voir figure 3.4. On va voir que z = x(t 1 ) convient. En effet on a : t2 x(t 2 ) x(t 1 ) = M(t 2 )x + M(t 2 )M(s) 1 (B(s)u(s) + r(s))ds ( t1 ) M(t 1 )x + M(t 1 )M(s) 1 (B(s)u(s) + r(s))ds t2 = M(t 2 ) M(s) 1 (B(s)u(s) + r(s))ds t 1 ( t1 ) + (M(t 2 ) M(t 1 )) x + M(s) 1 (B(s)u(s) + r(s))ds ).

3.1. ENSEMBLE ACCESSIBLE 25 x(t) x x(t 1 ) y = x(t 2 ) Acc(t 1 ) Acc(t 2 ) Fig. 3.4 Si t 1 t 2 est petit, le premier terme de cette somme est petit par continuité de l intégrale ; le deuxième terme est petit par continuité de t M(t). D où le résultat. Remarque 3.1.1. Si r = et x =, la solution de ẋ = Ax + Bu, x() =, s écrit : et est linéaire en u. x(t) = M(t) t M(s) 1 B(s)u(s)ds, Cette remarque nous mène à la proposition suivante : Proposition 3.1.2. On suppose r =, x = et Ω = IR m. Alors pour tout t >, Acc(, t) est un sous-espace vectoriel de IR n. De plus pour tous < t 1 < t 2, Acc(, t 1 ) A(, t 2 ). Démonstration. Soient x 1, x 2 Acc(, T), et λ, µ IR. Pour i = 1, 2, il existe par définition un contrôle u i et une trajectoire associée x i (.) vérifiant x i (t) = x i. D où : x i = M(t) t M(s) 1 B(s)u i (s)ds. Posons : s [, T] u(s) = λu 1 (s) + µu 2 (s). Alors : λx 1 + µx 2 = M(t) t M(s) 1 B(s)u(s)ds = x(t) Acc(, t). Pour la deuxième partie de la proposition, soit x 1 Acc(, t 1 ). Par définition, il existe un contrôle u 1 sur [, t 1 ] tel que la trajectoire associée x 1 (.) vérifie x 1 (t 1 ) = x 1. D où : t1 x 1 = M(t 1 ) M(s) 1 B(s)u 1 (s)ds

26 CHAPITRE 3. CONTRÔLABILITÉ Définissons u 2 sur [, t 2 ] par : { u2 (t) = si t t 2 t 1 u 2 (t) = u 1 (t 1 t 2 + t) si t 2 t 1 t t 2. Soit x 2 (t) la trajectoire associée à u 2 sur [, t 2 ]. Alors : x 2 (t 2 ) = M(t 2 ) = M(t 2 ) = M(t 2 ) = M(t 1 ) = x 1 t2 t2 M(t) 1 B(t)u 2 (t)dt t 2 t 1 M(t) 1 B(t)u 2 (t)dt car u 2/[,t2 t 1] = t1 t1 Ainsi : x 1 Acc(, t 2 ). M(t 2 ) 1 M(t 1 )M(s) 1 B(s)u 2 (t 2 t 1 + s)ds M(s) 1 B(s)u 1 (s)ds si s = t 1 t 2 + t Corollaire 3.1.3. Acc() = t Acc(, t), l ensemble des points accessibles (en temps quelconque), est un sous-espace vectoriel de IR n. Démonstration. Une union croissante de sous-espaces vectoriels de IR n est un sous-espace vectoriel. Définition 3.1.2. Le système contrôlé ẋ(t) = A(t)x(t) + B(t)u(t) + r(t) est dit contrôlable en temps T si pour tous x, x 1 IR n, il existe un contrôle u tel que la trajectoire associée relie x et x 1 en temps T (voir figure 3.5), i.e. : x, x 1 IR n u : [, T] Ω x : [, T] IR n / ẋ(t) = A(t)x(t) + B(t)u(t) + r(t) p.p. sur [, T], x() = x, x(t) = x 1. x x 1 Fig. 3.5 Contrôlabilité 3.2 Contrôlabilité des systèmes linéaires autonomes 3.2.1 Cas sans contrainte sur le contrôle : condition de Kalman Le théorème suivant nous donne une condition nécessaire et suffisante de contrôlabilité dans le cas où A et B ne dépendent pas de t.

3.2. CONTRÔLABILITÉ DES SYSTÈMES LINÉAIRES AUTONOMES 27 Théorème 3.2.1. On suppose que Ω = IR m (pas de contrainte sur le contrôle). Le système ẋ(t) = Ax(t) + Bu(t) + r(t) est contrôlable en temps T (quelconque) si et seulement si la matrice C = ( B, AB,..., A n 1 B ) est de rang n. La matrice C est appelée matrice de Kalman, et la condition rg C = n est appelée condition de Kalman. Démonstration. L essentiel de la preuve est contenu dans le lemme suivant. Lemme 3.2.2. La matrice C est de rang n si et seulement si l application linéaire Φ : L ([, T],IR m ) IR n u T e(t t)a Bu(t)dt est surjective. Preuve du lemme. Supposons tout d abord que rg C < n, et montrons que Φ n est pas surjective. L application C étant non surjective, il existe un vecteur ψ IR n \{}, que l on supposera être un vecteur ligne, tel que ψc =. Par conséquent : ψb = ψab =... = ψa n 1 B =. Or d après le théorème d Hamilton-Cayley, il existe des réels a, a 1,..., a n 1 tels que A n = a I + a n 1 A n 1. On en déduit par récurrence immédiate que pour tout entier k : et donc, pour tout t [, T] : ψa k B =, ψe ta B =. Par conséquent pour tout contrôle u on a : T ψ e (T t)a Bu(t)dt =, i.e. ψφ(u) =, et donc Φ n est pas surjective. Réciproquement, si Φ n est pas surjective, alors il existe un vecteur ligne ψ IR n \{} tel que pour tout contrôle u on ait : T ψ e (T t)a Bu(t)dt =.

28 CHAPITRE 3. CONTRÔLABILITÉ Ceci implique, pour tout t [, T] : ψe (T t)a B =. En t = T on obtient ψb =. Ensuite, en dérivant par rapport à t, puis en prenant t = T, on obtient ψab =. Ainsi par dérivations successives on obtient finalement : ψb = ψab = = ψa n 1 B =, donc ψc =, et donc rg C < n. Ce lemme permet maintenant de montrer facilement le théorème. Si la matrice C est de rang n, alors d après le lemme l application Φ est surjective, i.e. Φ(L ) = IR n. Or pour tout contrôle u l extrémité au temps T de la trajectoire associée à u est : T x(t) = e TA x + e (T t)a (Bu(t) + r(t))dt, donc l ensemble accessible en temps T depuis un point x IR n est : T Acc(T, x ) = e TA x + e (T t)a r(t)dt + φ(l ) = IR n, et donc le système est contrôlable. Réciproquement si le système est contrôlable, alors il est en particulier contrôlable en x défini par : T x = e TA e (T t)a r(t)dt. Or en ce point l ensemble accessible en temps T s écrit : Acc(T, x ) = φ(l ), et le système étant contrôlable cet ensemble est égal à IR n, ce qui prouve que Φ est surjective, et donc d après le lemme la matrice C est de rang n. Remarque 3.2.1. Si x = et r =, la démonstration précédente est un peu simplifiée puisque dans ce cas d après le corollaire 3.1.3 Acc() est un sous-espace vectoriel. 3.2.2 Cas avec contrainte sur le contrôle Dans le théorème 3.2.1 on n a pas mis de contrainte sur le contrôle. Cependant en adaptant la preuve on obtient aisément le résultat suivant. Corollaire 3.2.3. Sous la condition de Kalman précédente, si r = et si Ω, alors l ensemble accessible Acc(x, t) en temps t contient un voisinage du point exp(ta)x.

3.2. CONTRÔLABILITÉ DES SYSTÈMES LINÉAIRES AUTONOMES 29 Remarque 3.2.2. Les propriétés de contrôlabilité globale sont reliées aux propriétés de stabilité de la matrice A. Par exemple il est clair que si : 1. la condition de Kalman est satisfaite, 2. r = et Ω, 3. toutes les valeurs propres de la matrice A sont de partie réelle strictement négative (i.e. la matrice A est stable), alors tout point de IR n peut être conduit à l origine en temps fini (éventuellement grand). Dans le cas mono-entrée m = 1, on a un résultat plus précis que nous admettrons, voir [13] : Théorème 3.2.4. Soit b IR n et Ω IR un intervalle contenant dans son intérieur. Considérons le système ẋ = Ax + bu, u Ω. Alors tout point de IR n peut être conduit à l origine en temps fini si et seulement si la condition de Kalman est satisfaite pour la paire (A, b) et toutes les valeurs propres de la matrice A sont de partie réelle négative ou nulle. 3.2.3 Equivalence linéaire de systèmes Définition 3.2.1. Les systèmes de contrôle linéaires ẋ 1 = A 1 x 1 + B 1 u 1 et ẋ 2 = A 2 x 2 + B 2 u 2 sont dits linéairement équivalents s il existe P GL n (IR) tel que A 2 = PA 1 P 1 et B 2 = PB 1. Remarque 3.2.3. On a alors x 2 = Px 1. Proposition 3.2.5. La propriété de Kalman est intrinsèque, i.e. (B 2, A 2 B 2,..., A n 1 2 B 2 ) = P(B 1, A 1 B 1,..., A n 1 1 B 1 ), et donc le rang de la matrice de Kalman est invariant par équivalence linéaire. Considérons une paire (A, B) où A M n (IR) et B M n,m (IR). Proposition 3.2.6. La paire (A, B) est linéairement équivalente à une paire (A, B ) de la forme ( ) ( ) A A = 1 A 3 B A, B = 1, 2 où A 1 M r(ir), B 1 M r,m(ir), r étant le rang de la matrice de Kalman de la paire (A, B). De plus, la paire (A 1, B 1 ) est contrôlable. 3.2.4 Forme de Brunovski Théorème 3.2.7. Si m = 1 et si la paire (A, b) est contrôlable, alors elle est linéairement équivalente à la paire (Ã, B), où 1.. Ã =......... 1, B =.. a n a n 1 a 1 1

3 CHAPITRE 3. CONTRÔLABILITÉ Démonstration : Montrons tout d abord le lemme suivant. Lemme 3.2.8. Si m = 1 et si la paire (A, B) est contrôlable, alors elle est linéairement équivalente à la paire (Â, ˆB), où a n 1. Â = 1.... an 1....., ˆB =.. 1 a 1 Preuve du lemme. Puisque m = 1, notons que B est un vecteur de IR n. La paire (A, B) étant contrôlable, la famille (B, AB,..., A n 1 B) est une base de IR n. Dans cette base, on vérifie facilement que la paire (A, B) prend la forme (Â, ˆB). Raisonnons alors par analyse et synthèse. S il existe une base (f 1,...,f n ) dans laquelle la paire (A, B) prend la forme (Ã, B), alors on a nécessairement f n = B à scalaire près, et : Af n = f n 1 a 1 f n,..., Af 2 = f 1 a n 1 f n, Af 1 = a n f n. Définissons donc les vecteurs f 1,..., f n par les relations : f n = B, f n 1 = Af n + a 1 f n,..., f 1 = Af 2 + a n 1 f n. La famille (f 1,...,f n ) est bien une base de IR n puisque : Vect {f n } = Vect {B}, Vect {f n, f n 1 } = Vect {B, AB},. Vect {f n,..., f 1 } = Vect {B,...,A n 1 B} = IR n. Il reste à vérifier que l on a bien Af 1 = a n f n : Af 1 = A 2 f 2 + a n 1 Af n = A 2 (Af 3 + a n 2 f n ) + a n 1 Af n = A 3 f 3 + a n 2 A 2 f n + a n 1 Af n... = A n f n + a 1 A n 1 f n + + a n 1 Af n = a n f n puisque d après le théorème d Hamilton-Cayley, on a A n = a 1 A n 1 a n I. Dans la base (f 1,...,f n ), la paire (A, B) prend la forme (Ã, B).

3.3. CONTRÔLABILITÉ DES SYSTÈMES LINÉAIRES INSTATIONNAIRES31 Remarque 3.2.4. Ce théorème admet la généralisation suivante, lorsque m > 1. Si la paire (A, B) est contrôlable, alors on peut la conjuguer à une paire (Ã, B) telle que : Ã 1. Ã = Ã.. 2........, Ã s les matrices Ãi étant des matrices compagnons (i.e., ayant la forme de Brunovski du théorème précédent); par ailleurs, il existe une matrice G M m,s (IR) telle que : B 1 BG =. B s où tous les coefficients de chaque matrice B i sont nuls, sauf celui de la dernière ligne, en i-ème colonne, qui est égal à 1. Exercice 3.2.1. Tester la contrôlabilité des systèmes donnés dans le chapitre 2., Exercice 3.2.2. Pour quelles valeurs de α le système (ẋ ) ( ) ( ( ( ) 2 α 3 x 1 1 u = + ẏ 2 y) α 2 α ) v est-il contrôlable? Exercice 3.2.3 (Système de ressorts couplés (train à deux wagons)). Tester la contrôlabilité du système : { ẍ = k1 x + k 2 (y x), ÿ = k 2 (y x) + u. 3.3 Contrôlabilité des systèmes linéaires instationnaires Les deux théorèmes suivants donnent une condition nécessaire et suffisante de contrôlabilité dans le cas instationnaire. Théorème 3.3.1. Le système ẋ(t) = A(t)x(t) + B(t)u(t) + r(t) est contrôlable en temps T si et seulement si la matrice est inversible. C(T) = T M(t) 1 B(t) t B(t) t M(t) 1 dt

32 CHAPITRE 3. CONTRÔLABILITÉ Remarque 3.3.1. On a C(T) = t C(T), et t xc(t)x pour tout x IR n, i.e. C(T) est une matrice réelle symétrique positive. Démonstration : Pour toute solution x(t), on a : où T x(t) = x + M(T) M(t) 1 B(t)u(t)dt, T x = M(T)x + M(T) M(t) 1 r(t)dt. Si C(T) est inversible, posons u(t) = t B(t) t M(t) 1 ψ, avec ψ IR n. Alors : x(t) = x + M(T)C(T)ψ, et il suffit de prendre ψ = C(T) 1 M(T) 1 (x 1 x ). Réciproquement, si C(T) n est pas inversible, alors il existe ψ IR n \ {} tel que t ψc(t)ψ =. On en déduit : T t B(t) t M(t) 1 ψ 2 dt =, d où t ψm(t) 1 B(t) = p.p. sur [, T], et donc, pour tout contrôle u, on a : T t ψ M(t) 1 B(t)u(t)dt =. Posons ψ 1 = t M(T) 1 ψ ; on a, pour tout contrôle u : t ψ(x u (T) x ) =, i.e. x u (T) x + ψ, et donc le système n est pas contrôlable. Remarque 3.3.2. Ce théorème peut se montrer beaucoup plus facilement en contrôle optimal, le contrôle utilisé dans la preuve étant optimal pour un certain critère. Remarque 3.3.3. Si le système est autonome, on a M(t) = e ta, et donc : C(T) = T e sa B t Be sta ds. Dans ce cas, C(T 1 ) est inversible si et seulement si C(T 2 ) est inversible, i.e. la condition de contrôlabilité ne dépend pas de T (ce qui est faux dans le cas instationnaire). Théorème 3.3.2. Considérons le système ẋ(t) = A(t)x(t) + B(t)u(t) + r(t)

3.4. CONTRÔLABILITÉ DES SYSTÈMES NON LINÉAIRES 33 où les applications A, B, r sont supposées C sur [, T]. Définissons par récurrence : B (t) = B(t), B i+1 (t) = A(t)B i (t) db i dt (t). Alors : 1. S il existe t [, T] tel que Vect {B i (t)v / v IR n, i IN} = IR n alors le système est contrôlable en temps T. 2. Si de plus les applications A, B, r sont analytiques sur [, T], alors le système est contrôlable en temps T si et seulement si t [, T] Vect {B i (t)v / v IR n, i IN} = IR n. Remarque 3.3.4. Dans le cas autonome, on retrouve la condition de Kalman. Exercice 3.3.1. Montrer que le système ẋ(t) = A(t)x(t) + B(t)u(t), avec A(t) = t 1 t 3, et B(t) = 1, t 2 1 est contrôlable en temps quelconque. Exercice 3.3.2. Montrer que le système { ẋ(t) = y(t) + u(t)cost, n est pas contrôlable. ẏ(t) = x(t) + u(t)sint, Exercice 3.3.3. Soient m et n des entiers naturels non nuls, et soient A M n (IR) et B M n,m (IR). On suppose que le système de contrôle ẋ(t) = Ax(t)+ Bu(t) est contrôlable. Soit f : IR IR une fonction de classe C ; on pose, pour tout t IR, A(t) = A + f(t)i, où I est la matrice identité d ordre n. Montrer que le système de contrôle ẋ(t) = A(t)x(t) + Bu(t) est contrôlable en temps quelconque. 3.4 Contrôlabilité des systèmes non linéaires Considérons un système de contrôle général : ẋ(t) = f(t, x(t), u(t)), x(t ) = x, (3.3)

34 CHAPITRE 3. CONTRÔLABILITÉ où f est une application de classe C 1 de I V U dans IR n, I est un intervalle de IR, V ouvert de IR n, U un ouvert de IR m, (t, x ) I V. Par ailleurs on suppose que les contrôles u(.) appartiennent à un sous-ensemble de L loc (I, IRm ). Ces hypothèses assurent, pour tout contrôle u, l existence et l unicité sur d une solution maximale x u (t) sur un intervalle J I, du problème de Cauchy (3.3). Par commodité d écriture on suppose dans toute la suite que t =. Pour tout contrôle u L loc (I, IRm ), la trajectoire associée x u (.) est définie sur un intervalle maximal [, t e (u)[, où t e (u) IR + {+ }. Par exemple si t e (u) < + alors la trajectoire explose en t e (u) (théorème d échappement, ou d explosion). Pour tout T >, T I, on note U T l ensemble des contrôles admissibles sur [, T], c est-à-dire l ensemble des contrôles tels que la trajectoire associée soit bien définie sur [, T], autrement dit T < t e (u). 3.4.1 Application entrée-sortie Définition Considérons pour le système (3.3) le problème de contrôle suivant : étant donné un point x 1 IR n, trouver un temps T et un contrôle u sur [, T] tel que la trajectoire x u associée à u, solution de (3.3), vérifie : Ceci nous conduit à définir : x u () =, x u (T) = x 1. Définition 3.4.1. Soit T >. L application entrée-sortie en temps T du système contrôlé (3.3) initialisé à est l application : E T : U IR n u x u (T) où U est l ensemble des contrôles admissibles, i.e. l ensemble de contrôles u tels que la trajectoire associée est bien définie sur [, T]. Autrement dit, l application entrée-sortie en temps T associe à un contrôle u le point final de la trajectoire associée à u. Une question importante en théorie du contrôle est d étudier cette application en décrivant son image, ses singularités, etc. Régularité de l application entrée-sortie La régularité de E T dépend bien entendu de l espace de départ et de la forme du système. Pour un système général En toute généralité on a le résultat suivant, voir par exemple [4, 1, 18] :

3.4. CONTRÔLABILITÉ DES SYSTÈMES NON LINÉAIRES 35 Proposition 3.4.1. Considérons le système (3.3) où f est C p, p 1, et soit U L ([, T],IR m ) le domaine de définition de E T, c est-à-dire l ensemble des contrôles dont la trajectoire associée est bien définie sur [, T]. Alors U est un ouvert de L ([, T],IR m ), et E T est C p au sens L. De plus la différentielle (au sens de Fréchet) de E T en un point u U est donnée par le système linéarisé en u de la manière suivante. Posons, pour tout t [, T] : A(t) = f x (t, x u(t), u(t)), B(t) = f u (t, x u(t), u(t)). Le système de contrôle linéaire : ẏ v (t) = A(t)y v (t) + B(t)v(t) y v () = est appelé système linéarisé le long de la trajectoire x u. La différentielle de Fréchet de E T en u est alors l application de T (u) telle que, pour tout v L ([, T],IR m ) : de T (u).v = y v (T) = M(T) T M 1 (s)b(s)v(s)ds (3.4) où M est la résolvante du système linéarisé, i.e. la solution matricielle de : Ṁ = AM, M() = Id. Démonstration. Pour la démonstration du fait que U est ouvert, voir [18, 21, 22]. Par hypothèse u(.) et sa trajectoire associée x(., x, u) sont définis sur [, T]. L ensemble des contrôles étant les applications mesurables et bornées muni de la norme L, l application E T est de classe C p sur un voisinage de u(.) en vertu des théorèmes de dépendance par rapport à un paramètre. Exprimons sa différentielle au sens de Fréchet. Soit v(.) un contrôle fixé, on note x(.) + δx(.) la trajectoire associée à u(.) + v(.), issue en t = de x. Par un développement de Taylor, on obtient : d (x + δx)(t) = f(t, x(t) + δx(t), u(t) + v(t)) dt = f(t, x(t), u(t)) + f x + 2 f (t, x(t), u(t))(δx(t), v(t)) + x u Par ailleurs, ẋ(t) = f(t, x(t), u(t)), donc : d dt (δx)(t) = f x f (t, x(t), u(t))δx(t) + (t, x(t), u(t))v(t) u f (t, x(t), u(t))δx(t) + (t, x(t), u(t))v(t) + u En écrivant δx = δ 1 x + δ 2 x +... où δ 1 x est la partie linéaire en v, δ 2 x la partie quadratique, etc, et en identifiant, il vient : d dt (δ 1x)(t) = f x (t, x(t), u(t))δ 1x(t)+ f u (t, x(t), u(t))v(t) = A(t)δ 1x(t)+B(t)v(t).

36 CHAPITRE 3. CONTRÔLABILITÉ Or x() + δx() = x = x(), donc δx() = et la condition initiale de cette équation différentielle est δ 1 x() =. En intégrant, on obtient : T δ 1 x(t) = M(T) M 1 (s)b(s)v(s)ds où M est la résolvante du système homogène d dt (δ 1x)(t) = f x (t, x(t), u(t))δ 1x(t), f c est-à-dire Ṁ(t) = A(t)M(t) avec A(t) = x (t, x(t), u(t)) et M() = I n. On observe que δ 1 x(t) est linéaire et continu par rapport à v(.) en topologie L. C est donc la différentielle de Fréchet en u(.) de E T. Remarque 3.4.1. En général E T n est pas définie sur L ([, T], IR m ) tout entier à cause de phénomènes d explosion. Par exemple si on considère le système scalaire ẋ = x 2 + u, x() =, on voit que pour u = 1 la trajectoire associée explose en t = π 2, et donc n est pas définie sur [, T] si T π 2. 3.4.2 Contrôlabilité On veut répondre à la question suivante : étant donné le système (3.3), où peut-on aller en temps T en faisant varier le contrôle u? On est tout d abord amené à définir la notion d ensemble accessible. Ensemble accessible Définition 3.4.2. L ensemble accessible en temps T pour le système (3.3), noté Acc(x, T), est l ensemble des extrémités au temps T des solutions du système partant de x au temps t =. Autrement dit, c est l image de l application entrée-sortie en temps T. Théorème 3.4.2. Considérons le système de contrôle : ẋ = f(t, x, u), x() = x, où la fonction f est C 1 sur IR 1+n+m, et les contrôles u appartiennent à l ensemble U des fonctions mesurables à valeurs dans un compact Ω IR m. On suppose que : il existe un réel positif b tel que toute trajectoire associée est uniformément bornée par b sur [, T], i.e. : b > / u U t [, T] x u (t) b, (3.5) pour tout (t, x), l ensemble des vecteurs vitesses V (t, x) = {f(t, x, u) / u Ω} (3.6) est convexe. Alors l ensemble Acc(x, t) est compact et varie continûment en t sur [, T].

3.4. CONTRÔLABILITÉ DES SYSTÈMES NON LINÉAIRES 37 Démonstration. Notons tout d abord que puisque Ω est compact alors V (t, x) est également compact. Montrons la compacité de Acc(x, t). Cela revient à montrer que toute suite (x n ) de points de Acc(x, t) admet une sous-suite convergente. Pour tout entier n soit u n un contrôle reliant x à x n en temps t, et soit x n (.) la trajectoire correspondante. On a donc : x n = x n (t) = x + t Posons pour tout entier n et tout s [, t] : f(s, x n (s), u n (s))ds. g n (s) = f(s, x n (s), u n (s)). La suite de fonctions (g n (.)) n IN est d après les hypothèses bornée dans L ([, t], IR n ), et par conséquent à sous-suite près elle converge vers une fonction g(s) pour la topologie faible-* de L ([, t], IR n ). Posons alors, pour tout τ [, t] : τ x(τ) = x + g(s)ds, ce qui construit une fonction x(.) absolument continue sur [, t]. De plus on a, pour tout s [, t] : lim n + x n(s) = x(s), i.e. la suite de fonctions (x n (.)) n IN converge simplement vers x(.). Le but est de montrer que la trajectoire x(.) est associée à un contrôle u à valeurs dans Ω, ce qui revient à montrer que pour presque tout s [, t] on a g(s) = f(s, x(s), u(s)). Pour cela, définissons pour tout entier n et tout s [, t] : et introduisons l ensemble : h n (s) = f(s, x(s), u n (s)), V = {h(.) L ([, t], IR n ) / h(s) V (s, x(s)) pour presque tout s [, t]}, de sorte que h n V pour tout entier n. Pour tout (t, x) l ensemble V (t, x) est compact convexe, et par conséquent V est convexe fermé dans L ([, t], IR n ) muni de sa topologie standard (topologie dite forte). Donc il est également fermé dans L ([, t], IR n ) muni de la topologie faible-* (voir [7]). Or, similairement à (g n ), la suite de fonctions (h n ) est bornée dans L, et donc à sous-suite près converge en topologie faible-* vers une fonction h, qui appartient nécessairement à V puisque ce sous-ensemble est fermé faible-*. Enfin, montrons que g = h presque partout. Pour cela, écrivons, pour toute fonction ϕ L 1 ([, t], IR) : t ϕ(s)g n (s)ds = t ϕ(s)h n (s)ds + t ϕ(s)(g n (s) h n (s)) ds. (3.7)

38 CHAPITRE 3. CONTRÔLABILITÉ D après les hypothèses, la fonction f est globalement lipschitzienne en x sur [, T] B(, b) Ω, et donc d après le théorème des accroissements finis, il existe une constante C > telle que pour presque tout s [, t] : g n (s) h n (s) C x n (s) x(s). La suite de fonctions (x n ) converge simplement vers x(.), donc d après le théorème de convergence dominée : t ϕ(s)(g n (s) h n (s)) ds. n + Finalement en passant à la limite dans (3.7), il vient : t ϕ(s)g n (s)ds = t ϕ(s)h n (s)ds, pour toute fonction ϕ L 1 ([, t], IR, et par conséquent g = h presque partout sur [, t]. En particulier g V, et donc pour presque tout s [, t] il existe u(s) Ω tel que : g(s) = f(s, x(s), u(s)). La fonction u ainsi construite est mesurable. Ainsi, la trajectoire x(.) est associée sur [, t] au contrôle u à valeurs dans Ω, et x(t) est la limite des points x n. Ceci montre la compacité de Acc(x, t). Il reste à établir la continuité par rapport à t de l ensemble accessible. Soient t 1, t 2 deux réels tels que < t 1 < t 2 T, et x 2 un point de Acc(x, t 2 ). Par définition il existe un contrôle u à valeurs dans Ω, de trajectoire associée x(.), tel que : t2 x 2 = x(t 2 ) = x + f(t, x(t), u(t))dt. Il est bien clair que le point x 1 = x(t 1 ) = x + t1 f(t, x(t), u(t))dt appartient à Acc(x, t 1 ), et de plus d après les hypothèses sur f on a : On conclut alors facilement. x 2 x 1 C t 2 t 1. Remarque 3.4.2. L hypothèse (3.5) est indispensable, elle n est pas une conséquence des autres hypothèses. En effet considérons de nouveau le système de la remarque 3.4.1 : ẋ = x 2 +u, x() =, où on suppose que u 1 et que le temps final est T = π 2. Alors pour tout contrôle u constant égal à c, avec < c < 1, la trajectoire associée est x c (t) = c tan ct, donc est bien définie sur [, T], mais lorsque c tend vers 1 alors x c (T) tend vers +. Par ailleurs il est facile de voir que sur cet exemple l ensemble des contrôles admissibles, à valeurs dans [ 1, 1], est l ensemble des fonctions mesurables telles que u(t) [ 1, 1[.

3.4. CONTRÔLABILITÉ DES SYSTÈMES NON LINÉAIRES 39 Remarque 3.4.3. De même, l hypothèse de convexité (3.6) est nécessaire, voir [13, Exemple 2 page 244]. Résultats de contrôlabilité Définition 3.4.3. Le système (3.3) est dit contrôlable (en temps quelconque) depuis x si IR n = Acc(x, T). T Il est dit contrôlable en temps T si IR n = Acc(x, T). Par des arguments du type théorème des fonctions implicites, l étude de la contrôlabilité du système linéarisé (qui est plus simple), permet de déduire des résultats de contrôlabilité locale du système de départ, voir [4, 13]. Par exemple on déduit du théorème de contrôlabilité dans le cas linéaire la proposition suivante : Proposition 3.4.3. Considérons le système (3.3) où f(x, u ) =. Notons A = f x (x, u ) et B = f u (x, u ). On suppose que : rg ( B AB A n 1 B ) = n. Alors le système est localement contrôlable en x. Exercice 3.4.1. Montrer que le pendule inversé (cf chapitre 2) est localement contrôlable au point d équilibre (ξ = ξ c, ξ =, θ =, θ = ). Pour cela, on établira que le système linéarisé en ce point est donné par les matrices : 1 A = mg M 1, et B = (M+m)g lm 1 M 1 lm.