Observateurs pour systèmes à retard variable et inconnu

Documents pareils
Commande de systèmes non retardés par retour de sortie statique échantillonné

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Programmation linéaire

Algorithmes pour la planification de mouvements en robotique non-holonome

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Techniques de Lyapunov en contrôle quantique pour le couplage dipolaire et polarisabilité

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION


La tarification d options

Cours 02 : Problème général de la programmation linéaire

Sur certaines séries entières particulières

Principe de symétrisation pour la construction d un test adaptatif

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

3 Approximation de solutions d équations

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Résolution de systèmes linéaires par des méthodes directes

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

I. Polynômes de Tchebychev

Exercices - Polynômes : corrigé. Opérations sur les polynômes

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Programmation linéaire

Cours d Analyse. Fonctions de plusieurs variables

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

RO04/TI07 - Optimisation non-linéaire

aux différences est appelé équation aux différences d ordre n en forme normale.

Probabilités sur un univers fini

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Superstrat tout Dielectrique Pour le Contrôle de l Ouverture Angulaire d'une Antenne à Double Polarisation

Corrigé du baccalauréat S Asie 21 juin 2010

Correction du Baccalauréat S Amérique du Nord mai 2007

Corps des nombres complexes, J Paul Tsasa

Optimisation Discrète

Équation de Langevin avec petites perturbations browniennes ou

Projet de Traitement du Signal Segmentation d images SAR

Automatique Linéaire 1 Travaux Dirigés 1A ISMIN

Une forme générale de la conjecture abc

1 Première section: La construction générale

Projet de synthèse de l'électronique analogique : réalisation d'une balance à jauges de contrainte

Modèle de calcul des paramètres économiques

Table des matières. Introduction Générale 5

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

Chp. 4. Minimisation d une fonction d une variable

Intérêt du découpage en sous-bandes pour l analyse spectrale

Propriétés des options sur actions

OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT)

CARACTERISTIQUE D UNE DIODE ET POINT DE FONCTIONNEMENT

Les équations différentielles

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Programmation linéaire et Optimisation. Didier Smets

Modélisation géostatistique des débits le long des cours d eau.

Physique quantique et physique statistique

Chapitre 7. Récurrences

Résolution d équations non linéaires

DOCM Solutions officielles = n 2 10.

Solution A La Gestion Des Objets Java Pour Des Systèmes Embarqués

Probabilités sur un univers fini

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Introduction à l analyse numérique : exemple du cloud computing

Dimensionnement d une roue autonome pour une implantation sur un fauteuil roulant

3. Conditionnement P (B)

Programmation Linéaire - Cours 1

VIII- Circuits séquentiels. Mémoires

CHOIX OPTIMAL DU CONSOMMATEUR. A - Propriétés et détermination du choix optimal

M2 IAD UE MODE Notes de cours (3)

Comparaison de fonctions Développements limités. Chapitre 10

LES MÉTHODES DE POINT INTÉRIEUR 1

FORMATION CONTINUE SUR L UTILISATION D EXCEL DANS L ENSEIGNEMENT Expérience de l E.N.S de Tétouan (Maroc)

Approximations variationelles des EDP Notes du Cours de M2

Les indices à surplus constant

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Polynômes à plusieurs variables. Résultant

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Calcul différentiel sur R n Première partie

Simulation de variables aléatoires

Représentation et analyse des systèmes linéaires

Chapitre 3. Les distributions à deux variables

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

La persistance des nombres

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

MIS 102 Initiation à l Informatique

FIMA, 7 juillet 2005

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Techniques d interaction dans la visualisation de l information Séminaire DIVA

1 Définition de la non stationnarité

Analyse en Composantes Principales

Fonctions homographiques

CHAPITRE IV Oscillations libres des systèmes à plusieurs degrés de liberté

Contrôle par commande prédictive d un procédé de cuisson sous infrarouge de peintures en poudre.

Méthode de sureté de fonctionnement pour une maintenance efficace Application à un poste électrique (60/10KV)

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Analyse fonctionnelle Théorie des représentations du groupe quantique compact libre O(n) Teodor Banica Résumé - On trouve, pour chaque n 2, la classe

Analyse des Systèmes Asservis

Automatique (AU3): Précision. Département GEII, IUT de Brest contact:

Formation à la C F D Computational Fluid Dynamics. Formation à la CFD, Ph Parnaudeau

Le modèle de Black et Scholes

Transcription:

Observateurs pour systèmes à retard variable et inconnu Alexandre Seuret Thierry Floquet Jean-Pierre Richard LAGIS CNRS UMR 816 Ecole Centrale de Lille BP 8 59651 Villeneuve d Ascq Cedex France. seuret.alexandre@ec-lille.fr thierry.floquet@ec-lille.fr jean-pierre.richard@ec-lille.fr Résumé La synthèse d observateurs pour les systèmes à retards inconnus variables et bornés sur l état et l entrée constitue toujours un problème ouvert. Dans cet article nous présentons une méthode pour le résoudre en utilisant une approche d observateur à modes glissants combinée avec une fonctionnelle de Lyapunov-Krasovskii adéquate. Le résultat qui nécessite que le système vérifie certaines conditions structurelles est mis sous forme d inégalité matricielle linéaire. Un exemple est proposé à titre d illustration. Mots-clés Observateurs à modes glissants Systèmes à retard inconnu Inégalité Linéaire Matricielle. I. Introduction L observation est un thème majeur de l étude des systèmes linéaires et non linéaires. Cet article concerne plus spécifiquement l observation de systèmes linéaires à retards inconnus. Plusieurs auteurs ont déjà abordé l observation des systèmes à retards (voir les synthèses de 18 19) mais le plus souvent l écriture de l observateur fait intervenir la valeur du retard. En d autres termes la connaissance ou la mesure du retard est requise. En outre les observateurs sans retard interne 3 9 nécessitent la connaissance de la sortie du système aux temps courant et retardé. Néanmoins dans le cadre d applications réelles (commande télé-opérée systèmes en réseau par exemple) les hypothèses d invariance ou de connaissance du retard sont peu réalistes et proviennent plus des limites des techniques d identification et d analyse disponibles. Seuls quelques articles présentent des résultats qui ne nécessitent pas la connaissance du retard 6 1 5. Ces approches intéressantes concernent les systèmes linéaires et garantissent des performances de type H pour le filtrage des erreurs. Cependant toutes présentent les mêmes limites à savoir que le retard n intervient que dans l état et pas dans l entrée ou la sortie et que les résultats proposés sont indépendants des caractéristiques du retard. Il semble donc pertinent de réduire le conservatisme inhérent aux approches indépendantes du retard en proposant un résultat qui prenne en compte des bornes de variation du retard. Dans cet article nous proposons une méthode combinant les approches du type observateurs à modes glissants 1 7 8 1 17 avec celles des systèmes à retards et en particulier avec le choix d une fonctionnelle de Lyapunov- Krasovskii adéquate. Les dynamiques de l observateur seront analysées. Dans un souci de simplicité nous supposerons que les retards sur l état et sur la commande sont égaux à h. Nous supposerons aussi qu il existe une borne connue h m telle que h h m t IR +. Dans cet article la notation P > pour P IR n n signifie que la matrice P est symétrique définie positive. A 1 A... A n est la matrice concaténée des matrices A i. Enfin Sym{P } = (P + P T ). II. Présentation du Problème Considérons le système à retard sur l état et sur l entrée : ẋ = Ax + A h x(t h) +Bu + B h u(t h) + Dζ (1) y = Cx x(s) = φ(s) s h m où x IR n u IR m y IR q et ζ IR r sont respectivement les vecteurs d état de commande de sortie et une fonction de perturbation inconnue et bornée qui vérifie : ζ(txu) α 1 (txu) () où α 1 est une fonction réelle connue (une constante par exemple). φ C ( h m IR n ) représente le vecteur des conditions initiales. Les matrices A A h B B h C et D sont supposées connues constantes et de dimensions appropriées. Les hypothèses structurelles suivantes sont requises pour la synthèse de l observateur : A1. rank(ca h B h D) =rank(a h B h D) p A. p < q n A3. Le zéros invariants de (AA h B h DC) sont dans C. La condition A1 garantit qu en utilisant le changement de coordonnées défini dans 8 (Chapitre 6) le système peut s écrire : ẋ 1 = A 11 x 1 + A 1 x + B 1 u ẋ = A 1 x 1 + A x + B u +G 1 x 1 (t h) + G x (t h) (3) +G u u(t h) + D 1 ζ y = Tx où x 1 IR n q x IR q et où G 1 G G u sont de la forme : G 1 = Ḡ1 G = Ḡ G u = Ḡu A11 A 1 = A 1 ()

où Ḡ1 IR p (n q) Ḡ IR p q Ḡ u IR p m A 11 IR (q p) (n q) A 1 IR p (n q) et T est une matrice orthogonale. Les conditions A permettent de décomposer le système en deux sous-parties. La première représentant les variables non mesurables x 1 n est pas affectée par les termes retardés et les perturbations. A1 est une condition structurelle qui impose aux termes retardés d appartenir à l espace des sorties. Ainsi plus la sortie y a une dimension élevée plus il sera possible de satisfaire cette condition. La condition A3 correspond a une condition de stabilité du système. Elle signifie que la paire de matrices (A 11 A 11 ) est detectable. Dans cet article nous utiliserons le lemme suivant : Lemme 1: 13 Pour toutes matrices A P > et P 1 > l inégalité A T P 1 A P < est équivalente à l existence d une matrice Y telle que : P A T Y T Y A Y Y T + P 1 <. III. Synthèse de l observateur L observateur à mode glissant proposé est : ˆx 1 = A 11ˆx 1 + A 1 x + B 1 u A 11 Le + LT T (G l Te + ν) ˆx = A 1ˆx 1 + A x + B u + A 1 Le +G 1ˆx 1 (t ĥ) + G x (t ĥ) + G uu(t ĥ) T T (G l (ȳ ŷ) + ν) + G 1 Le (t ĥ) ŷ = T ˆx (5) où le gain linéaire G l est une matrice de Hurwitz L est de la forme L avec L IR (n q) (q p) et ν est une fonction discontinue à définir. Le retard utilisé dans (5) ĥ h m est une valeur qui peut-être choisie arbitrairement ou si possible en fonction de caractéristiques pressenties du retard. Il se peut aussi que ce retard ĥ soit variable au cours du temps. Par exemple ĥ pourrait correspondre à une estimation nominale du retard variable. On remarque que les termes non retardés qui dépendent de x sont connus car ils sont proportionnels à la sortie y. La fonction discontinue ν est donnée par : { ρ(tyu) Pyey ν = P ye y si e y (6) sinon. Le gain ρ reste à définir. On peut alors introduire les variables d erreur e y = y ŷ e 1 = x 1 ˆx 1 et e = x ˆx qui conduisent à : ė 1 = A 11 e 1 L ( T T G l Te + T T ν ) +A 11 Le ė = A 1 e 1 + G 1 e 1 (t h) + D 1 ζ (7) +T T ν + ξ + (T T G l T + A 1 L)e G 1 Le (t ĥ) où la fonction de perturbation ξ : IR IR p est alors égale à : ξ = G 1 (ˆx 1 (t h) ˆx 1 (t ĥ)) +G (x (t h) x (t ĥ)) (8) +G u (u(t h) u(t ĥ)). En utilisant le changement de coordonnées T L suivant T L = on définit les nouvelles coordonnées ē 1 et ē = In q L T e y dont les dynamiques sont : ē 1 = ē = (A 11 + LA 1 )ē 1 TA 1 ē 1 + TG 1 ē 1 (t h) +TG 1 L(e (t h) e (t ĥ)) +G l ē + Tξ + TD 1 ζ + ν Comme précédemment le terme retardé e (t h) e (t ĥ) est considéré comme une perturbation. On obtient : ē 1 = ē = (A 11 + LA 1 )ē 1 TA 1 ē 1 + TG 1 ē 1 (t h) +G l ē + ν + Tξ + TD 1 ζ (9) (1) où la nouvelle fonction de perturbation due au retard inconnu est ξ : IR IR p définie par : ξ = ce qui s écrit aussi : G 1 (ˆx 1 (t h) ˆx 1 (t ĥ)) +G (x (t h) x (t ĥ)) +TG 1 L(e (t h) e (t ĥ)) +G u (u(t h) u(t ĥ)) ξ = G 1 G G 1L G u h t ĥ ˆx1(s) ẋ (s) ė (s) u(s) (11) ds. (1) ξ est une fonction dépendant uniquement de ˆx 1 ẋ ė et u qui sont des variables connues par l observateur. Il est alors légi de supposer l existence d une fonction scalaire α connue qui vérifie : ξ α (t ˆx 1 x e u). (13) Remarque 1: Pour garantir l existence de α u doit être une fonction temporelle continue par morceaux. Il est maintenant possible de donner une expression de la fonction ρ en se référant aux techniques introduites dans le cadre de la synthèse de loi de commande 11. Soit γ un réel positif on pose : ρ(t ˆx 1 x u) = D 1 α 1 (t ˆx 1 x u) + α (t ˆx 1 x u) + γ (1) Théorème 1: Sous les conditions A et (13) et pour toute matrice de Hurwitz G l le système (1) est asymptotiquement stable pour tout retard h h m s il existe des matrices symétriques définies positives P 1 et R 1 IR (n q) (n q) P IR q q une matrice symétrique Z IR q q et une matrice W IR (n q) (q p) telles que les conditions LMI suivantes soient réalisées : ψ A T 11 P1 + AT 11 W T (A 1 + G 1) T T T P P 1 + h mr 1 < (15) G T l P + PG l + h mz R 1 (TG 1) T P P TG 1 Z (16) où ψ = A T 11P 1 + P 1 A 11 + A T 11W T + WA 11. Le gain L est donné par L = P 1 1 W.

Preuve. Soit la fonctionnelle de Lyapunov-Krasovskii : V = ē T 1 P 1 ē 1 + ē T P ē + ē T h m t+θ 1 (s)r 1 ē 1 (s)dsdθ. En utilisant la transformation suivante : ē 1 (t h) = ē 1 et en dérivant (17) on obtient : où V = t h (17) ē 1 (s)ds (18) ē T 1 Sym{(A 11 + LA 1 ) T P 1 }ē 1 +ē T G T l P + P G l ē +Sym { ē T P T(A 1 + G 1 )ē 1 } ρ(tyu) P ē + h m ē T 1 R 1 ē 1 +η 1 + η ē T 1 (s)r 1 ē 1 (s)ds η 1 = ē T P TG 1 t h ē 1 (s)ds η = ē T P T D 1 ζ + ξ. (19) () Les conditions LMI (16) permettent d écrire pour tout vecteur X : En particulier pour X = X T R 1 (TG 1) T P P TG 1 Z X ē 1 (s) ē on a : ē P G 1 ē 1 (s) ē T Z ē + ē T 1 (s)r 1 ē 1 (s). Puis en intégrant cette relation par rapport à la variable s on majore η 1 : η 1 t h ēt Z ē ds + ē T t h 1 (s)r 1 ē 1 (s)ds η 1 h m ē T Z ē + ē T 1 (s)r 1 ē 1 (s)ds. (1) D après la définition (1) de ρ et sachant que T est orthogonale : η ρ(tyu) P ē γ P ē. () En prenant compte des majorations (1) () et sachant que ē 1 = (A 11 + LA 11 )ē 1 V est majorée par : V Sym { ē T 1 P 1 (A 11 + LA 11 )ē 1 +ē T P (A 1 + G 1 )ē 1 +ē T P G l ē } +h m ē T 1 (A 11 + LA 1 ) T R 1 (A 11 + LA 1 )ē 1 +h m ē T Z ē γ P e ce qui peut encore s écrire : V avec Ψ = ē1 ē T Ψ ē1 ē γ P ē (3) ψ 1 (A 1 + G 1) T T T P P T(A 1 + G 1) G T l P + PG l + h mz et où ψ 1 = (A 11 + LA 11 ) T P 1 + P 1 (A 11 + LA 11 ) +h m (A 11 + LA 11 ) T R 1 (A 11 + LA 11 ) () Cette condition n est pas du type LMI car elle comporte des termes non linéaires dans la première ligne et la première colonne. Cependant il est nécessaire que cette composante soit définie négative pour garantir la négativité de V. En utilisant le Lemme 1 on transforme ce problème en LMI. ψ (A 11 + LA 11) T Y T (A 1 + G 1) T T T P Y Y T + h mr 1 <. (5) G T l P + PG l + h mz En imposant Y = P 1 et en définissant W = P 1 L la condition LMI du théorème apparaît. Finalement si (15) et (16) sont satisfaites (5) est aussi vérifiée. Ainsi la dynamique de l erreur est asymptotiquement stable. IV. Propriétés dynamiques Corollaire 1: D après la synthèse de l observateur du Théorème 1 le système entre en régime glissant sur la surface S = {ē = } en temps fini. Preuve. Soit la fonction de Lyapunov candidate : V = ē T P ē (6) En différenciant (6) le long de (1) on obtient : V = ē T (G T l P + P G l )ē + ē T P T T T ν +A 1 ē 1 + G 1 ē 1 (t h) + D 1 ζ + ξ. Le fait que G l est de Hurwitz et (6) conduisent à la majoration suivante : V P ē A 1 e 1 + G 1 e 1 (t h) γ. (7) D après le Théorème 1 l erreur ē 1 est asymptotiquement stable. Ainsi il existe un temps t et un réel positif δ tels que t t A 1 e 1 + G 1 e 1 (t h) γ δ. Ceci conduit à : t t V δ P ē δ λ min (P ) V. (8) où λ min (P ) est la plus petite valeur propre de P. En intégrant cette dernière inégalité différentielle on conclut que le système entre en régime glissant sur la surface S en temps fini. V. Observateur à convergence exponentielle Dans cette partie la convergence de l observateur est améliorée en imposant un critère de convergence exponentielle. En dépit du retard variable et inconnu le théorème suivant assure que la dynamique de l erreur est α stable. La stabilité exponentielle est un moyen d assurer la rapidité de convergence de l observateur. Comme dans 16 pour tout α > le système (1) est dit α stable ou exponentiellement stable et de degré de convergence α s il existe un réel β 1 tel que les solutions e(t;t φ) pour toute condition initiale φ vérifient : e(tt φ) β φ e α(t t). (9) Théorème : Sous les conditions A et (13) le système (1) est α stable pour tout retard h h m s il existe des matrices symétriques définies positives P 1 R 1 et R IR (n q) (n q) P IR q q une matrice symétrique Z IR q q et une matrice W IR (n q) (q p) telles que les

conditions LMI suivantes soient réalisées : où ψ α 1 A T 11 P1 + AT 11 W T + αp 1 (A 1 + b G 1) T T T P P 1 + h mr 1 Y T + Y + αp + h mz b mp TG 1 h mb mp TG 1 R 1 h mr < (3) R 1 b (TG 1) T P b P TG 1 Z. (31) ψ1 α = A T 11P 1 + P 1 A 11 + αp 1 +A T 11W T + WA 11 + R b = (1 + e αhm )/ b m = ( 1 + e αhm )/ Les gains sont donnés par L = P 1 1 W et G l = P 1 Y. Preuve. En introduisant la nouvelle variable ē α i = e αt ē i dans (1) la convergence asymptotique de ē α implique que ē soit α stable. L équation (1) devient : ē α 1 = ē α = (A 11 + LA 1 + αi)ē α 1 TA 1 ē α 1 + (ν + Tξ + TD 1 ζ) e αt +e αh TG 1 ē α 1 (t h) + (G l + αi)ē α (3) On remarque que e αh = b + b m où est une fonction réelle inconnue vérifiant 1. La fonctionnelle de Lyapunov-Krasovskii candidate est : V α = 1 P 1 ē α 1 + P ē α + αt h m ē t+θ 1 (s)r 1 ē α 1 (s)dsdθ. En différenciant (33) le long de (3) on obtient : (33) V α = 1 Sym{P 1 (A 11 + LA 11 + αi)}ē α 1 + P T(A 1 + b G 1 )ē α +η1 α + η α + η3 α + η α + P (G l + αi) + (G l + αi) T P ē α +h m ė αt 1 R 1 ė α 1 t h ėαt 1 (s)r 1 ė α 1 (s)ds (3) η1 α = t P b TG 1 t h ėα 1 (s)ds η α = P b m TG 1 e α 1 η3 α = t (35) P b m TG 1 t h ėα 1 (s)ds η α = P (ν + Tξ + TD 1 ζ) e αt. En utilisant la même méthode que dans le Théorème 1 (31) permet de majorer η 1 : η1 α h m Z ē α + 1 (s)r 1 ē α 1 (s)ds. (36) En appliquant la majoration standard qui pour toute matrice R > de dimension n n et pour tous vecteurs a et b de R n assure que ±a T b a T R 1 a + b T Rb à η α avec a T = P b m TG 1 b = e α 1 et R = R on obtient : η α b m P TG 1 R 1 b m(tg 1 ) T P T ē α + 1 R ē α 1. (37) En utilisant cette même majoration pour η α 3 avec a T = P b m TG 1 b = ė α 1 (s) et R = R 1 on obtient : η3 α h m b m P TG 1 R1 1 b m(tg 1 ) T P T ē α + 1 (s)r 1 ē α 1 (s)ds. (38) Les fonctions ν et ρ de (1) restant inchangées on a : η α γ P ē. (39) Puis la combinaison de (36-39) avec l expression de la dérivée de V α conduit à : V T α ē1 ē Ψ α ē 1 ē γ P ē () avec : Ψ α ψ α = 11 (A 1 + G 1 ) T T T P ψ α ψ11 α = Sym{P 1 (A 11 + LA 11 + αi)} + (A 11 + LA 11 + αi) T R 1 (A 11 + LA 11 + αi) ψ α = G T l P + P G l + αp + h m Z +h m b m P TG 1 R 1 (TG 1) T P b m +b m P TG 1 R1 1 (TG 1) T P b m. (1) Le Lemme 1 appliqué de la même manière que dans le Théorème 1 conduit à : ψ α 1 A T 11 P1 + AT 11 W T + αp 1 (A 1 + G 1) T T T P P 1 + h mr 1 < () ψ α Enfin en imposant Y = P G l le complément de Schur permet de retrouver les conditions LMI (3). Ainsi si (3) et (31) sont satisfaites la dérivée de la fonctionnelle (33) est définie négative. Remarque : On remarque que pour α = dans le Théorème on montre que le système est asymptotiquement stable. Soit le système (3) avec : A 11 = 1 A 1 = A = 1 1 G 1 = T = G u = 1 1 VI. Exemple 1 1.1.1.1 A 1 = G = D 1 = B 1 = B = 3 1. 1 (3) Le retard inconnu du système observé est de la forme h = h m (1 + sin(ω 1 t)) dont la borne maximale est h m =.3s et dont la fréquence est ω 1 =.5s 1. La commande utilisée est de la forme u = u sin(ω t) avec u = et ω = 3. Les résultats en simulations sont donnés dans les figures suivantes. Les figures 1 et présentent les erreurs d observation du système pour α = et α =. Les figures 3 et montrent la comparaison entre l état réel et l état estimé. pour α =. On remarque que le fait d augmenter le coefficient d exponentialité α accélère la rapidité de convergence de l erreur. Dans ces conditions le Théorème assure la convergence exponentielle de l observateur pour α = vers le système réel. Les gains de l observateur sont alors : L = 3.8658 1.7 G l = 8.816 6.19 5.815 3.67 ()

6 e x1 e x e y1 e y 8 7 6 x 11 ^x 11 x 1 ^x 1 5 3 1 1 6.5 1 1.5.5 3 3.5.5 5 Fig. 1. Simulation de l erreur d observation pour α = et h m =.3 6 8 1 1 1 16 18 Fig. 3. Comparaison entre les variables x 1 et ˆx 1 pour α = 6 e x1 e x e y1 e y 3 y 11 y 1 ^y 11 ^y 1 1 1 3 5 6.5 1 1.5.5 3 3.5.5 5 Fig.. Simulation de l erreur d observation pour α = et h m =.3 6 1 3 5 6 7 8 9 1 Fig.. Comparaison entre les variables x et ˆx pour α = Sachant que le système (3) est stable ces dynamiques sont bornées. La fonction α (t ˆx 1 x e u) choisie dans cette simulation est donc simplement une constante K = 7. VII. Conclusion Le problème de la synthèse d un observateur pour des systèmes à retard inconnu à la fois sur l état et la commande a été résolu pour une classe de systèmes vérifiant les conditions A1-3. Les théorèmes présentés sous forme d inégalités matricielles linéaires (LMI) garantissent la convergence asymptotique (Théorème 1) ou exponentielle (Théorème ) connaissant la borne maximale du retard. Références 1 J.-P. Barbot T. Boukhobza et M. Djemaï Sliding mode observer for triangular input form. 35th IEEE CDC 99 Conference on Decision and Control Kobe Japan 1996. H. H. Choi et M. J. Chung Robust Observer-based H controller design for linear uncertain -delay systems. Automatica 33(9) pp. 179-175 1997. 3 M. Darouach Linear functional observers for systems with delays in the state variables. IEEE trans. on Automatic Control 6(3) pp. 91-97 March 1. M. Darouach P. Pierrot et E. Richard Design of reduced-order observers without internal delays. IEEE Trans. on Automatic Control (9) pp. 1711-1713 1999. 5 M. Darouach M. Zasadzinski et S. J. Xu Full-order observers for linear systems with unknown inputs. IEEE Trans. on Automatic Control vol. 39 pp. 66-69 199. 6 C.E. de Souza R.E. Palhares et P.L.D. Peres Robust H filtering for uncertain linear systems with multiple -varying state : An LMI approach. 38th IEEE CDC 99 Conference on Decision and Control Phoenix AZ pp. 3-8 1999. 7 S. V. Drakunov et V. I. Utkin Sliding mode observers. Tutorial. 3th IEEE CDC 99 Conference on Decision and Control New- Orleans LA December 1995. 8 Edwards C. et Spurgeon S. K. Sliding Mode Control : Theory and Applications Taylor & Francis 1998. 9 F. W. Fairmar Kumar et E. Richard Design of reduced-order observers without internal delays. IEEE trans. on Automatic Control (9) pp. 1711-1713 1999. 1 T. Floquet J.-P. Barbot W. Perruquetti et M. Djemaï On the robust fault detection via a sliding mode disturbance Observer. International Journal of control 77(7) pp. 6-69. 11 E. Fridman F. Gouaisbaut M. Dambrine et J.-P. Richard Sliding mode control of systems with -varying delays via a descriptor approach. Int. J. System Sc. Vol. 3 No.8-9 pp. 553-559 July 3. 1 E. Fridman U. Shaked et L. Xie Robust H Filtering of linear systems with -varying delay. IEEE Trans. on Automatic Control vol. 8 pp. 159-165 3. 13 L.-S. Hu J. Huang et H.-H. Cao Robust digital model predicitve control for linear uncertain systems with saturations. IEEE Trans. on Automatic Control vol. 9(5) pp. 79-796.

1 J. Leyva-Ramos et A. E. Pearson An asymptotic modal observer for linear autonomous lag systems. IEEE Trans. on Automatic Control 191-19 1995. 15 S.I. Niculescu Delay effects on stability LNCIS series Vol. 69 Springer Berlin 1. 16 S-I. Niculescu C-E. de Souza L. Dugard et J-M. Dion Robust exponential Stability of uncertain systems with -varying delays IEEE Trans. on Automatic Control Vol. 3(5) pp. 73-78 1998. 17 W. Perruquetti et J. P. Barbot Sliding Mode Control in Engineering Ed. Marcel Dekker. 18 J.-P. Richard Time Delay Systems : An overview of some recent advances and open problems. Automatica 39(1) pp. 1667 169 3. 19 O. Sename New trends in design of observers for -delay systems. Kybernetica 37() pp. 7-58 1. A. Seuret M. Dambrine et J.P. Richard Robust exponential stabilization for systems with -varying delays 5 th IFAC Workshop on Time-Delay Systems Leuven. 1 A. Seuret T. Floquet et J.P. Richard Observer design for systems with unknown delays soumis à Rocond 6. C. P. Tan et C. Edwards An LMI approach for designing sliding mode observers. International Journal of Control 7(16) pp. 1559 1568 1. 3 Utkin V. I. Sliding Modes in Control and Optimization Berlin Germany Springer-Verlag 199. S. Xu P. Shi C. Feng Y. Guo et Y. Zou Robust Observers for a class of uncertain nonlinear stochastic systems with state delay. Nonlinear Dynamics and systems Theory (3). 5 Z. Wang B. Huang et H. Unbehausen Robust H observer design for uncertain -delay systems :(I) the continuous case. IFAC 1th world congress Beijing China pp. 31-36 1999.