Cours d Automatique ELEC4

Documents pareils
Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Cours d Analyse. Fonctions de plusieurs variables

Partie 1 - Séquence 3 Original d une fonction

Programmation linéaire

I. Polynômes de Tchebychev

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

TD1 Signaux, énergie et puissance, signaux aléatoires

3. Conditionnement P (B)

Calcul fonctionnel holomorphe dans les algèbres de Banach

Simulation de variables aléatoires

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Une introduction aux codes correcteurs quantiques

Problème 1 : applications du plan affine

aux différences est appelé équation aux différences d ordre n en forme normale.

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Dérivées d ordres supérieurs. Application à l étude d extrema.

Chapitre 2 Le problème de l unicité des solutions

Algorithmes pour la planification de mouvements en robotique non-holonome

Probabilités sur un univers fini

3 Approximation de solutions d équations

Introduction à l étude des Corps Finis

Chapitre 2. Matrices

Polynômes à plusieurs variables. Résultant

Développements limités. Notion de développement limité

NOTATIONS PRÉLIMINAIRES

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

F411 - Courbes Paramétrées, Polaires

Exercices Corrigés Premières notions sur les espaces vectoriels

Une forme générale de la conjecture abc

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Fonctions de plusieurs variables

Image d un intervalle par une fonction continue

Géométrie dans l espace Produit scalaire et équations

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Programmes des classes préparatoires aux Grandes Ecoles

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Optimisation Discrète

Université Paris-Dauphine DUMI2E 1ère année, Applications

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Capes Première épreuve

Chapitre 5 : Flot maximal dans un graphe

Continuité et dérivabilité d une fonction

Structures algébriques

Commande à travers Internet en utilisant la synchronisation

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

RO04/TI07 - Optimisation non-linéaire

Optimisation des fonctions de plusieurs variables

Circuits RL et RC. Chapitre Inductance

Correction de l examen de la première session

Limites finies en un point

Equations différentielles linéaires à coefficients constants

Cours 02 : Problème général de la programmation linéaire

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Cours de mathématiques

Probabilités sur un univers fini

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Approximations variationelles des EDP Notes du Cours de M2

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Fonctions de plusieurs variables. Sébastien Tordeux

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

La fonction exponentielle

Résolution d équations non linéaires

Analyse en Composantes Principales

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

6 Equations du première ordre

Comparaison de fonctions Développements limités. Chapitre 10

Calcul Différentiel. I Fonctions différentiables 3

TSTI 2D CH X : Exemples de lois à densité 1

Programmation linéaire et Optimisation. Didier Smets

ÉVALUATION FORMATIVE. On considère le circuit électrique RC représenté ci-dessous où R et C sont des constantes strictement positives.

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n= 2

1 Complément sur la projection du nuage des individus

[ édité le 30 avril 2015 Enoncés 1

CCP PSI Mathématiques 1 : un corrigé

Modélisation et Simulation

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

C algèbre d un certain groupe de Lie nilpotent.

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

DOCM Solutions officielles = n 2 10.

Chp. 4. Minimisation d une fonction d une variable

Licence de Mathématiques 3

Calcul différentiel sur R n Première partie

Cours d analyse numérique SMI-S4

Résolution de systèmes linéaires par des méthodes directes

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Analyse des Systèmes Asservis

Programmation linéaire

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

1 Première section: La construction générale

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Transcription:

Automatique Table des matières Cours d Automatique ELEC4 S. Icart I Généralités 3 1 Systèmes multivariables 3 2 Quelques rappels sur la transformée de Laplace 3 3 Transfert 4 3.1 Fonction de transfert (système monovariable)................ 4 3.2 Matrice de transfert............................... 4 4 Prise en compte des conditions initiales 4 5 Linéarisation autour d un point de fonctionnement 5 II Systèmes linéaires stationnaires 7 1 Système linéaire stationnaire continu 7 1.1 Equations d état................................ 7 1.2 Résolution du système............................. 7 1.3 Calcul d une exponentielle de matrice..................... 7 2 Lien entre représentation interne et représentation externe 9 3 Changement de base sur l état et réalisation 10 4 Modes d un système 11 5 Stabilité 12 5.1 Rappels sur la stabilité d une représentation externe............. 12 5.2 Stabilité au sens de Lyapounov........................ 12 5.3 Stabilité asymptotique............................. 13 6 Système discret linéaire stationnaire 13 6.1 Résolution du système............................. 13 6.2 Calcul d une puissance de matrice....................... 13 6.3 Stabilité..................................... 14 1

7 Discrétisation d un système continu 14 III Implantation d une loi de commande par retour d état 15 1 Commandabilité 15 1.1 Définition.................................... 15 1.2 Critère de commandabilité........................... 15 1.3 Forme canonique commandable........................ 15 1.4 Propriétés.................................... 16 2 Observabilité 16 2.1 Définition.................................... 16 2.2 Critère d observabilité............................. 17 2.3 Dualité observabilité commandabilité..................... 17 3 Minimalité 17 4 Décomposition canonique dans l espace d état 17 4.1 Sous-espace de commandabilité........................ 17 4.2 Décomposition d un système non commandable............... 17 4.3 Sous-espace non observable........................... 18 4.4 Décomposition d un système non observable................. 18 5 Commande par retour d état 18 6 Observateur 19 7 Association d un observateur et d une commande par retour d état 20 2

Automatique Première partie Généralités 1 Systèmes multivariables Dans ce cours, on s intéressera à des systèmes multivariables, i.e des systèmes comportant plusieurs entrées (actionneurs) et plusieurs sorties (capteurs). Les signaux d entrée et de sortie sont alors représentés par des vecteurs notés respectivement u(t) et y(t) en temps continu et u k et y k en temps discret. m entrées u(t) est un vecteur IR m p sorties y(t) est un vecteur IR p On supposera toujours vérifié le Principe de causalité : la sortie ne dépend pas des valeurs futures de l entrée. y(t) = h(u [t0,t], t) t 0 t 2 Quelques rappels sur la transformée de Laplace Définition : Soit f(t) est une fonction causale (i.e nulle pour t négatif), alors, on définit la transformée de Laplace de f(t) par : F (p) = + 0 f(t)e pt dt (relation biunivoque entre f(t) et F (p)). Théorème de la dérivée : ( ) df(t) L = pl(f(t)) f(0 + ) dt Théorème du produit : L(f(t))L(g(t)) = L(f g(t)) où est le produit de convolution. Transformée de Laplace d un vecteur : x 1 (t) L(x 1 (t)) si x(t) =. alors L(x(t)) =. x n (t) L(x n (t)) 3

3 Transfert 3.1 Fonction de transfert (système monovariable) Si le système est linéaire stationnaire continu i.e si les signaux d entrée et de sortie sont reliés par une équation différentielle à coefficients constants, Si les conditions initiales sont nulles, alors par le théorème de la dérivée, on obtient : Y (p) = G(p)U(p) avec G(p) fraction rationnelle en p. G(p) est appelée fonction de transfert du système. Pour obtenir la réponse du système à une entrée quelconque, il suffit d utiliser la transformée de Laplace inverse : y(t) = L 1 (Y (p)) = g u(t) = + g(τ)u(t τ) dτ où g(t) est la réponse impulsionnelle du système (transformée de Laplace inverse de la fonction de transfert). D après le principe de causalité, on obtient donc : y(t) = g u(t) = t 0 g(τ)u(t τ) dτ La fonction de transfert (ou de manière équivalente la réponse impulsionnelle du système) est une repésentation entrée/sortie du système, appelée aussi représentation externe. 3.2 Matrice de transfert Dans le cas d un système linéaire sationnaire multivariable, si les conditions initiales sont nulles, on obtient : Y (p) = G(p)U(p) où U(p) et Y (p) sont les transformées de Laplace des signaux (vectoriels) d entrée et de sortie et où G(p) est cette fois une matrice rationnelle (p m), appelée matrice de transfert. 4 Prise en compte des conditions initiales Si les conditions initiales sont non nulles, alors, une représentation externe ne suffit plus. L étude du comportement du système nécessite une représentation interne. On écrit le système dynamique sous la forme : { ẋ(t) = f(x(t), u(t), t), x0 = x(t (Σ) 0 ) y(t) = ρ(x(t), u(t), t) 4

Automatique Si les conditions initiales sont en nombre suffisant, et si les fonctions f et g sont suffisamment régulières, le système (Σ) admet une solution unique. Le vecteur x(t) est alors appelé vecteur d état du système (vecteur IR n ) et (Σ) est une représentation interne du système. Propriété : Tout le passé est résumé dans l état, soit : x(t) = φ(t 0, t, x(t 0 ), u [t0,t]) = φ(t 1, t, x(t 1 ), u [t1,t]) t [t 0, t 1 ] u(t) = ũ(t) t [t 0, t 1 ] x(t 0 ) = x(t 0 ) } x(t) = x(t) t [t 0, t 1 ] Notion d état u(t) état u(t)=u~(t) x(t 0 ) u~(t) t 0 temps t 1 5 Linéarisation autour d un point de fonctionnement On linéarise autour d un point de fonctionnement (trajectoire admissible) (x, y, u ) en faisant le changement de variables : x(t) = x(t) x ỹ(t) = y(t) y ũ(t) = u(t) u { ẋ(t) = f(x, u, t) y(t) = ρ(x, u, t) devient { x(t) = f( x + x, ũ + u, t) y(t) = ρ( x + x, ũ + u, t) y 5

Examinons le cas monovariable et où l état n a qu une composante. On fait alors un développement limité au premier ordre de f et ρ : x(t) = f(x, u, t) + f x (x, u, t) x + f ũ (x, u, t)ũ soit, x(t) = f(x, u, t) + a x + bũ. Si (x, y ) est un point d équilibre, on a f(x, u, t) = 0 De même, ỹ(t) = ρ(x, u, t) + ρ x (x, u, t) x + ρ ũ (x, u, t)ũ y soit y(t) = c x + dũ. Dans le cas multivariable stationnaire, on peut montrer que le système linéarisé est { ẋ(t) = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t) avec A = C = [ ] fi (x, u ) x j [ ] ρi (x, u ) x j i = 1 à n j = 1 à n i = 1 à p j = 1 à n B = D = [ ] fi (x, u ) u j [ ] ρi (x, u ) u j i = 1 à n j = 1 à m i = 1 à p j = 1 à m 6

Automatique Deuxième partie Systèmes linéaires stationnaires 1 Système linéaire stationnaire continu 1.1 Equations d état Dans le cas d un système linéaire stationnaire continu, la représentation interne est : { ẋ(t) = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t) A, B, C, D étant des matrices constantes. Remarque : système non linéaire A(x, u),..., non stationnaire A(t),... A matrice d évolution (ou de dynamique) ( IR n n ) B matrice de commande (ou d entrée) ( IR n m ) C matrice d observation (ou de sortie) ( IR p n ) D matrice de transmission directe ( IR p m ) On appelle matrice de transition d état la matrice φ(t, t 0 ) telle que la solution du système libre (u(t) = 0 t) est x(t) = φ(t, t 0 )x 0. 1.2 Résolution du système x(t) = e A(t t0) x 0 + t e A(t τ) Bu(τ)dτ t 0 réponse réponse forcée système libre état initial nul y(t) = Ce A(t t 0) x 0 + t t 0 Ce A(t τ) Bu(τ)dτ 1.3 Calcul d une exponentielle de matrice Développement en série e At = I + At + A2 t 2 (à éviter sauf si A nilpotente ou involutive) Transformée de Laplace inverse 2 + Ak t k k! + e At = L 1 ( (pi A) 1) 7

Changement de base (diagonalisation ou forme de Jordan) Soient v i les vecteurs propres de A Av i = λ i v i Si A possède n vecteurs propres indépendants, alors A est diagonalisable. Soit T la matrice formée des vecteurs propres et Λ la matrice diagonale ayant les valeurs propres de A sur la diagonale : T = (v 1 v 2... v n ) Λ = λ 1... λ n AT = A (v 1 v 2... v n ) = (v 1 v 2... v n ) = T Λ λ 1... λ n Or il est simple de montrer que e Λt = diag ( e λ it ) et que e At = T e Λt T 1 Sinon, A possède des vecteurs propres et des vecteurs propres généralisés. On peut alors mettre A sous forme de Jordan On décompose J en J = Λ + Z, où Λ est diagonale et Z nilpotente. Λ et Z commutant, on obtient e Jt = e Λt e Zt. 8

Automatique multiplicité de λ i nb de vect. propres indépendants Bloc de Jordan n rg(λi A) 2 1 2 ( ) λi 1 0 λ i ( ) λi 0 diagonalisable 0 λ i 3 1 2 3 λ i 1 0 0 λ i 1 1 bloc de dim 3 0 0 λ i λ i 1 0 λ i 0 0 0 λ i 0 ou 0 λ i 1 0 0 λ i 0 0 λ i λ i 0 0 0 λ i 0 diagonalisable 0 0 λ i 2 Lien entre représentation interne et représentation externe Si les conditions initiales sont nulles, alors en prenant la transformée de Laplace des équations d état et de sortie, on obtient le matrice de transfert : G(p) = C(pI A) 1 B + D Le système est strictement propre si D = 0 (pas de lien direct entrée/sortie, le système ne laisse pas passer les impulsions), il est juste propre sinon. Exemple (cf cours) on ne voit pas tout sur le transfert. Réciproquement, comment obtenir une réalisation à partir d une fonction de transfert? On étudiera seulement les systèmes monovariables. Notons G(p) = N(p). D(p) Si d (N(p)) = d (D(p)), alors, il existe une partie entière (qui donne la matrice D) d où, G(p) = q + N 1(p) avec d (N D(p) 1 (p)) < d (D(p)) (strictement propre). Si N(p) scalaire, alors, Y (p) U(p) = N(p) D(p) = b p n + a n 1 p n 1 + + a 0 9

On choisit comme variables d état les dérivées successives de la sortie et on obtient comme réalisation : 0 1 0 0 0 0 0 1 A =... B = 1 0 a 0 a 1 a n 1 b C = ( 1 0 0 ) A est sous forme compagne : caractéristique de A : Les coefficients a i sont les coefficients du polynôme Si N(p) polynomial, alors, en posant det(λi A) = λ n + a n 1 λ n 1 + + a 1 λ + a 0 Y (p) U(p) = b mp m + b m 1 p m 1 + + b 0 p n + a n 1 p n 1 + + a 0 Z(p) U(p) = 1 D(p) et en prenant comme état les dérivées successives de z, on obtient Autres choix possibles... A et B inchangées C = ( b 0 b 1 b m 0 0 ) 3 Changement de base sur l état et réalisation On considère la réalisation d état suivante : { ẋ(t) = Ax(t) + Bu(t) x0 = x(t 0 ) y(t) = Cx(t) + Du(t) Comme nous le verrons plus loin, il peut être intéressant de faire des changements de base dans l espace d état (afin de démêler les équations). Soit P la matrice de changement de base associée et soit x les coordonnées du vecteur d état dans la nouvelle base. On a ainsi x = P x. Le système d équations précédent devient donc : { P x(t) = AP x(t) + Bu(t) y(t) = CP x(t) + Du(t) 10

Automatique ou encore : { x(t) = P 1 AP x(t) + P 1 Bu(t), x 0 = P 1 x 0 y(t) = CP x(t) + Du(t) On obtient ainsi une réalisation appelée réalisation équivalente où les matrices A, B, C, D sont remplacées respectivement par les matrices à = P 1 AP, B = P 1 B, C = CP, D = D (il est normal que cette dernière matrice soit inchangée puisque rien n a été modifié d un point de vue entrée-sortie). On vérifiera que la matrice de transfert est inchangée : 4 Modes d un système G(p) = C(pI A) 1 B + D = C(pI Ã) 1 B + D La réponse du système libre ẋ(t) = Ax(t) est donnée par x(t) = e At x 0. * Si A est diagonalisable, si x 0 est un vecteur propre de A, x(t) = e At x 0 = (I + At + A2 t 2 + )v 2 i = (1 + λ i t + λ2 i t 2 2 + )v i = e λit v i La trajectoire libre est donc une droite que l on parcourt plus ou moins vite selon la valeur de λ i. Les couples (λ i,v i ) sont appelés modes du sytème (direction et vitesse dans cette direction). si x 0 est quelconque A étant diagonalisable, on peut décomposer x 0 sur la base des vecteurs propres : n x 0 = α i v i La trajectoire obtenue est donc une combinaison linéaire des trajectoires propres. * Si A n est pas diagonalisable, par exemple, bloc de Jordan e Jt = i=1 1 t t n 1 (n 1)!... t 1 e λt Si x 0 est un vecteur propre de A. x(t) = e λt x 0 Si x 0 est un vecteur propre généralisé la trajectoire est une combinaison des e λt, te λt, t2 2 eλt... 11

5 Stabilité 5.1 Rappels sur la stabilité d une représentation externe La réponse d un système à une entrée quelconque étant le produit de convolution de la réponse impulsionnelle et de l entrée, on va s intéresser à la transformée de Laplace inverse de la fonction de transfert. Soient p i les pôles de G(p) : si tous les pôles sont simples, on décompose G(p) en éléments simples : G(p) = L 1 g(t) = n k i p p i=1 i n k i e pit (réponse impulsionnelle) i=1 s il existe des pôles multiples réels : G(p) = L 1 g(t) = r m i i=1 l=1 r m i k i,l i=1 l=1 k i,l (p p i ) l t l 1 e p it s il existe des pôles complexes p i = σ i + jω i, la réponse impulsionnelle fera intervenir e σ it sin ω i t... Enfin, la réponse à une entrée quelconque étant le produit de convolution de la réponse impulsionnelle et de l entrée, on obtient le résultat (connu) suivant : Le système est stable ssi tous les pôles de la fonction de transfert sont à partie réelle négative. On distingue deux types de stabilité : la stablité au sens de Lyapounov et la stabilité asymptotique que l on va énoncer dans le cas d un représentation interne. 5.2 Stabilité au sens de Lyapounov Un système est stable au sens de Lyapounov si lorsqu on l écarte (légèrement) d un point d équilibre, il reste au voisinage de ce point : ε δ tq x 0 δ x(t, x 0 ) < ε Soient λ i les valeurs propres de la matrice d évolution A d une représentation d état, alors on obtient le résultat suivant : Le système est stable au sens de Lyapounov ssi Re(λ i ) 0 λ i. 12

Automatique 5.3 Stabilité asymptotique Un système est asymptotiquement stable si lorsqu on l écarte (légèrement) d un point d équilibre, il y revient : δ tq x 0 < δ x(t, x 0 ) 0 quand t soit avec les mêmes notations que précédemment : Le système est stable au sens de Lyapounov ssi Re(λ i ) < 0 λ i. 6 Système discret linéaire stationnaire Dans le cas d un système linéaire stationnaire à temps discret, les équations différentielles sont remplacées par des équations récurrentes : x k+1 = φ x k + Γ u k, x k0 = x 0 y k = H x k (+Du k ) φ, Γ, H étant des matrices constantes. Remarque : système non linéaire φ(x, u), non stationnaire φ k. On obtient aisément la relation entre une réalisation discrète et la matrice de transfert du système : G(z) = H(zI φ) 1 Γ + D 6.1 Résolution du système x k+1 = φ k+1 k 0 x 0 + réponse système libre y k = Hφ k k 0 x 0 + k 1 k φ k i Γu i i=k 0 réponse état initial nul i=k 0 Hφ k 1 i Γu i + Du k 6.2 Calcul d une puissance de matrice Transformée en z Soit X(z) = Z(x k ), Or, z(x(z) x 0 ) = φx(z), d où Z(x k+1 ) = z(x(z) x 0 ) (CI non nulles) φ k = Z 1 ( z(zi φ) 1) 13

Changement de base (diagonalisation ou forme de Jordan) J = P 1 φp φ k = P J k P 1 J k facile à calculer 6.3 Stabilité Idem que dans le cas continu en remplaçant le demi-plan gauche par le cercle unité (Re(p i ) < 0 par z i < 1). 7 Discrétisation d un système continu On suppose que la période d échantillonnage est T et qu en entrée on a bloqueur d ordre zéro, soit u(τ) = u(kt ) kt τ < (k + 1)T, d où : soit x((k + 1)T ) = e AT x(kt ) + φ = e AT (k+1)t kt e A((k+1)T τ) Bdτ u(kt ) Γ = (k+1)t kt e A((k+1)T τ) Bdτ = T 0 e Av Bdv 14

Automatique Troisième partie Implantation d une loi de commande par retour d état 1 Commandabilité 1.1 Définition En continu : Le système linéaire stationnaire ẋ(t) = Ax(t) + Bu(t) est complètement commandable au temps t 0, ssi pour tout état initial x(t 0 ) = x 0 et tout état x 1, il existe un temps fini t 1 > t 0 et une entrée u [t0,t 1 ] qui permet de passer de l état x(t 0 ) à l état x(t 1 ) à l instant t 1. On parle de commandabilité de la paire (A, B). En continu, il est équivalent de prendre x(t 0 ) = 0. En discret : x k+1 = φx k + Γu k est CC ssi son état x k peut être transféré de l état x 0 = 0 à l instant t 0 à un état quelconque x dans un intervalle de temps fini, [t 0, t o + ft ]. 1.2 Critère de commandabilité En continu (A, B) CC ssi la matrice de commandabilité C A,B = ( B AB A n 1 B ) est de rang n. Remarque : on appelle indice de commandabilité l entier k tq rang ( B AB A k 1 B ) = n En discret (φ, Γ) CC ssi C φ,γ = ( Γ φγ φ n 1 Γ ) est de rang n 1.3 Forme canonique commandable On ne s intéresse qu aux systèmes monoentrée (la matrice B est alors un vecteur colonne). 15

Si le système est complètement commandable, alors il existe une base où 0 1 0 0 0 0 0 1 Ã =... B = 1 0 a 0 a 1 a n 1 b Comme pour la forme de Jordan, pour trouver le changement de base associé, on part de la forme que l on veut obtenir : Ã = M 1 AM MÃ = AM n équations vectorielles dont une vérifiée (th. Cayley Hamilton) un degré de liberté : le vecteur m n. Si le système est complètement commandable, alors on peut choisir m n = B et la matrice obtenue est alors inversible. 1.4 Propriétés On ne voit pas les modes non-commandables sur le transfert (simplification pôlezéro) La commandabilité est invariante par changement de base sur l état. La commandabilité est invariante par retour d état. Remarque : L observation n intervient pas dans la commandabilité. 2 Observabilité 2.1 Définition En continu : { ẋ = Ax + Bu Le système linéaire stationnaire continu est complètement observable y = Cx à t 0, si pour tout état x 0 à l instant t 0,, il existe t 1 (> t 0 ) fini tel que la connaissance de u [t0,t 1 ] et y [t0,t 1 ] soit suffisante pour déterminer de manière unique l état x 0 initial. NB : la commande n intervient pas dans l observabilité (on supposera u(t) = 0). On parle d observabilité de la paire (C, A). Le système est CO à t 0 ssi t 1 > t 0 fini tq {y(t, t 0, x 0 ) = 0 t [t 0, t 1 ]} x 0 = 0. En discret : la définition est analogue au cas continu, mais il existe une différence entre observabilité (on veut x 0 ) reconstructibilité (on veut x 1 ) 16

Automatique 2.2 Critère d observabilité (C, A) CO ssi la matrice d observabilité C CA O C,A =. CA n 1 est de rang n. 2.3 Dualité observabilité commandabilité (A, B) CC ssi (B T, A T ) CO. Forme canonique observable : utiliser la dualité Propriétés : idem que celles du 1.4 3 Minimalité Définition : Soit (A, B, C, D) une réalisation associée à une matrice de transfert G(p). Soit n 0 la dimension de l état associé. Alors, cette réalisation est minimale ssi toute autre réalisation est d ordre n n 0. Propriété : Un système est minimal ssi il est complètement commandable et complètement observable. 4 Décomposition canonique dans l espace d état 4.1 Sous-espace de commandabilité Définition : Soit le système ẋ(t) = Ax(t) + Bu(t). On appelle sous-espace de commandabilité le sous-espace vectoriel engendré par les états qui peuvent être atteints à partir de l état nul en un temps fini. Propriété : Le sous-espace de commandabilité est engendré par les colonnes de la matrice de commandabilité. 4.2 Décomposition d un système non commandable Supposons (A, B) non CC (avec B 0) alors il existe une base où le système s écrit ( ) ( ) ( ) A11 A ẋ = 12 x1 B1 + u 0 A 22 0 17 x 2

avec dim(a 11 ) = r = rg(c A,B ) vp de A 11 modes commandables vp de A 22 modes non-commandables X = C X 2 commandable non commandable 4.3 Sous-espace non observable Définition : { ẋ = Ax (+Bu) Soit le système On appelle sous-espace non observable le sousespace vectoriel engendré par les états qui donnent une sortie nulle sur un intervalle de y = Cx temps non nul (commande supposée nulle). Propriété : Le sous-espace non observable coïncide avec le noyau de la matrice d observabilité : N = KerO C,A 4.4 Décomposition d un système non observable Supposons (C, A) non CO (avec C 0) alors il existe une base où le système s écrit ẋ = ( ) ( ) A11 0 x1 + A 21 A 22 y = ( C 1 0 ) ( ) x 1 x 2 avec (C 1, A 11 ) CO dim(a 11 ) = rg(o C,A ) (n r = dim(ker(o C,A )) ) vp de A 11 modes observables vp de A 22 modes non-observables x 2 ( B1 B 2 ) u 5 Commande par retour d état Commande par retour de sortie Loi de commande u(t) = Ky(t) + v(t) v nouvelle(s) entrée(s). 18

Automatique Commande par retour d état On se sert des dynamiques propres au système (peu coûteux) commande plus riche u(t) = Kx(t) + v(t) Problème : Peut-on choisir les dynamiques du système bouclé? Théorème : Soit Λ un ensemble de n complexes symétrique (λ i Λ λ i Λ), alors il existe K tq le spectre de A BK soit égal à Λ ssi (A, B) est CC. Si le système n est pas CC : on ne peut plus placer le spectre à volonté. On se sert de la base où X = C X 2. Les vp correspondant à A 22 ne peuvent être modifiées par retour d état. Système stabilisable : les modes non commandables sont stables. 6 Observateur La commande par retour d état nécessite la connaissance de l état du système. Or, on ne connaît que la sortie. On va donc construire une estimée de l état à partir de ce dont on dispose. G est le gain de l observateur (n p) Soit ε l erreur d estimation, ˆx ŷ = Aˆx + Bu + G (y Cˆx) }{{} innovation = Cˆx ε = (A GC) ε CNS pour que ε(t) 0, t : les valeurs propres de (A GC) doivent être à partie réelle négative. Théorème : On peut placer le spectre de l observateur à volonté ssi la paire (C, A) est CO. Observateurs minimaux : théorie de Luenberger, il est inutile de reconstruire tout l état puisque y nous donne déjà des informations. 19

7 Association d un observateur et d une commande par retour d état On réalise la commande à l aide de l état estimé (puisque on ne dispose pas de tout l état). La loi de commande devient alors : u = Kˆx + Lv, soit pour le système total : (ẋ ) ( ) ( ) ( ) A BK BK x BL = + v ε 0 A GC ε 0 Principe de séparation 1 : y = ( C 0 ) ( ) x ε σ(a) = σ(a BK) σ(a GC) On règle séparément chacun des deux spectres (attention aux vitesses ). 1. en notant σ le spectre de la matrice considérée i.e l ensemble de ses valeurs propres 20