Quelques perspectives pour la programmation mathématique en commande robuste



Documents pareils
Programmation linéaire

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Optimisation des fonctions de plusieurs variables

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Fonctions de plusieurs variables

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

LES MÉTHODES DE POINT INTÉRIEUR 1

Sujet 4: Programmation stochastique propriétés de fonction de recours

Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes

Optimisation Discrète

Différentiabilité ; Fonctions de plusieurs variables réelles

Programmation Linéaire - Cours 1

Master de Recherche première année. Programme de cours

3 Approximation de solutions d équations

Théorème du point fixe - Théorème de l inversion locale

Calcul différentiel sur R n Première partie

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Programme de la classe de première année MPSI

Mathématiques appliquées à l'économie et à la Gestion

Table des matières. Introduction Générale 5

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Résolution de systèmes linéaires par des méthodes directes

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Chapitre VI Fonctions de plusieurs variables

RO04/TI07 - Optimisation non-linéaire

Chp. 4. Minimisation d une fonction d une variable

Cours d Analyse. Fonctions de plusieurs variables

4.2 Unités d enseignement du M1

Programmation linéaire

Calcul Différentiel. I Fonctions différentiables 3

Ce cours introduit l'électrodynamique classique. Les chapitres principaux sont :

Calcul fonctionnel holomorphe dans les algèbres de Banach

Amphi 3: Espaces complets - Applications linéaires continues

Fonctions de deux variables. Mai 2011

Master of Science en mathématiques

Annexe 6. Notions d ordonnancement.

Dérivées d ordres supérieurs. Application à l étude d extrema.

Une forme générale de la conjecture abc

Cours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. address: Nicolas.Thiery@u-psud.fr URL:

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Problème 1 : applications du plan affine

MATHÉMATIQUES EN PREMIER CYCLE PRÉSENTATION DU PROGRAMME

TUTORIEL : LA COMMANDE LPV

Fonctions de plusieurs variables


Table des matières. I Mise à niveau 11. Préface

Programmation mathématique Discrète et Modèles Linéaires

Ordonnancement. N: nains de jardin. X: peinture extérieure. E: électricité T: toit. M: murs. F: fondations CHAPTER 1

M2 IAD UE MODE Notes de cours (3)

Calcul différentiel. Chapitre Différentiabilité

Quelques tests de primalité

Approximations variationelles des EDP Notes du Cours de M2

Sites web éducatifs et ressources en mathématiques

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

1 Introduction et modèle mathématique

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Intérêt du découpage en sous-bandes pour l analyse spectrale

Analyse en Composantes Principales

Section «Maturité fédérale» EXAMENS D'ADMISSION Session de février 2014 RÉCAPITULATIFS DES MATIÈRES EXAMINÉES. Formation visée

Chapitre 3. Les distributions à deux variables

Analyse des Systèmes Asservis

La NP-complétude. Johanne Cohen. PRISM/CNRS, Versailles, France.

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Licence de Mathématiques 3

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

FIMA, 7 juillet 2005

Simulation de variables aléatoires

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Chapitre 4: Dérivée d'une fonction et règles de calcul

Plus courts chemins, programmation dynamique

ÉdIteur officiel et fournisseur de ServIceS professionnels du LogIcIeL open Source ScILab

Introduction à la Programmation par Contraintes (PPC) Ruslan Sadykov LIX, École Polytechnique

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Mlle Yasmin A. RÍOS SOLÍS

Calcul intégral élémentaire en plusieurs variables

Cours Fonctions de deux variables

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Polynômes à plusieurs variables. Résultant

Équations d amorçage d intégrales premières formelles

Théorèmes de Point Fixe et Applications 1

Programmation linéaire et Optimisation. Didier Smets

Raisonnement par récurrence Suites numériques

Continuité en un point

Chapitre 2 Le problème de l unicité des solutions

Techniques de Lyapunov en contrôle quantique pour le couplage dipolaire et polarisabilité

Annexe 1 Programmes des classes préparatoires aux Grandes Ecoles

Des réels aux flottants : préservation automatique de preuves de stabilité de Lyapunov

Chapitre 5 : Flot maximal dans un graphe

Programmation Par Contraintes

Cours de recherche opérationnelle I

Nouvelles propositions pour la résolution exacte du problème de sac à dos bi-objectif unidimensionnel en variables binaires

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Info0804. Cours 6. Optimisation combinatoire : Applications et compléments

OM 1 Outils mathématiques : fonction de plusieurs variables

Transcription:

Quelques perspectives pour la programmation mathématique en commande robuste P. Apkarian, D. Arzelier, D. Henrion, D. Peaucelle UPS - CERT - LAAS-CNRS

Contexte de la commande robuste 2 Théorie de la complexité (P = NP?) Théorie des systèmes dynamiques Analyse numérique Algèbre linéaire Analyse fonctionnelle Perturbations Actions Système dynamique M( ) Loi de commande K Sorties Mesures Applications industrielles Aéronautique Automobile Biotechnologies Electronique Espace Télécommunications... Programmation mathématique Modélisation Analyse Synthèse

Analyse de stabilité robuste : inclusions différentielles 3 ẋ(t) =Ax(t) N N A = λ i A [N] λ i > 0 λ i =1 A A= co { A [1],,A [N]} Problème 1 : A est-il stable? Λ(A) C A A -Problème NP-complet [Coxson-DeMarco91], [Nemirovskii93] - Différentes approches : La conjecture des sommets est fausse [Bialas83] Approche géométrique [Cobb-DeMarco89] Approche combinatoire [Yedavalli02]

Analyse de stabilité robuste (2) 4 Théorème 1 : Lyapunov ẋ(t) =Ax est stable ssi : P = P > 0 A P + P A<0 Exemple : A = 1 1 0 2 P = x 1 x 2 x 2 x 3 > 0 2x 1 3x 2 + x 1 4x 3 +2x 2 < 0 Problème LMI (SDP) : x c x sous A + n B i x i < 0

Analyse de stabilité robuste (3) 5 Condition de Lyapunov : λ P λ > 0 A (λ)p λ + P λ A(λ) < 0 Définissant P = {P : P>0,λ max (P )=1} Théorème 2 : jeu à deux joueurs et somme nulle A est stable ssi : J =max A A P P λ max(a P + PA)=max A A φ(a) < 0 Nota : problème non trivial de théorie des jeux (φ(a) généralement non différentiable et non concave) pour lequel il est difficile de tester la condition du point-selle.

Le retour de sortie statique 6 ẋ(t) =Ax(t)+Bu(t) y = Cx où x R n,y R r et u R m. Problème 2 : Déterer K R r m telle que A + BKC soit stable. -Problème décidable [Anderson75] - Différentes approches Procédures de décision de Tarski-Seidenberg [Anderson75] Méthodes de PNL brutales [Levine-Athans70] Approches BMI

Le retour de sortie statique 7 Théorème 3 : Déterer des solutions réalisables pour : - Formulation BMI : (A + BKC) P + P (A + BKC) < 0 - Optimisation LMI avec contrainte de rang : B (AX + XA )B < 0 C (A Y + Y A)C < 0 - Paramétrisation d un ellipsoïde non vide : X = Y 1 ou rang X 1 1 Y = n Z > 0 P > 0 X YZ 1 Y L(P, X, Y, Z) < 0

SDP+LMI=CR?ouNLP+BMI=TC? 8 Identification robuste : - Réduction de modèle - Identification fréquentielle - Validation de modèle Analyse robuste en stabilité et performance : - Modèle incertain LFT : théorie du µ - Recherche de multiplieurs et théorie de la séparation des graphes - Analyse robuste par les IQC s Synthèse : - µ-synthèse - Synthèse multi-objectif - Synthèse avec contrainte de structure (PID, commande décentralisée...)

Classes de problèmes d optimisation non convexes 9 Problème BMI : Problème avec contrainte de rang : n c i x i sous A + n n n sous A + B i x i + C i,j x i x j < 0 j=i n c i x i n B i x i < 0 rang(c + n D i x i ) N Problème de complémentarité conique : Minimisation concave : sous Trace(ZF) (F, Z) K f(x) n sous A + B i x i < 0 f concave

Quelques approches usuelles 10 Les relaxations convexes de l Automatique : - Lyapunov shaping paradigm + chgt. de variables linéarisant - Lemme d éliation Les relaxations Lagrangiennes et hiérarchiques : - S-procédure et relaxation de rang - Polynômes positifs, SOS, théorie des moments Les heuristiques : - Méthode du cône complémentaire - Méthode de descente coordonnée L optimisation globale

Les relaxations convexes de l Automatique 11 Le Lyapunov shaping paradigm : Relaxation du problème max- en problème -max d optimisation convexe. J =max A A P P λ max(a P + PA) < J quad = P P max A A λ max(a P + PA) Théorème 4 : test de stabilité quadratique Si P > 0 A ip + P A i < 0 i =1,,N alors ẋ = Ax est stable A A= co { A [1],,A [N]}. Nota : P est une variable de Lagrange issue d une relaxation Lagrangienne! [ElGhaoui00]

Les relaxations convexes de l Automatique 12 Lemme 1 : Le lemme d éliation (ou de Finsler) Soient L S n et R R m n avec rang(r) <n: R LR < 0 H R n m L+ HR + R H < 0 Théorème 5 : test de stabilité robuste Si N matrices P i > 0, F et G L(P i )+ A i 1 [ ] F G + F G alors ẋ = Ax est stable A A= co [ A i {A [1],,A [N] }. 1 ] < 0 i =1,,N Nota : P i et F G sont des variables issues de relaxations Lagrangiennes!

Les relaxations hiérarchiques 13 Soient g i (x), i=0, 1,,m des fonctions polynomiales à plusieurs indéterées : Problème 3 : x R n g 0 (x) sous g k (x) 0 k =1,,m - Relaxations LMI successives : dualité conique [Nesterov00], géométrie algébrique, décomposition des polynômes en somme de carrés [Parillo00], théorie des moments [Lasserre01]. - Hiérarchie de relaxations convexes de moins en moins pessimistes avec garantie de convergence (asymptotique) vers l optimum global. - Augmentation du nombre de variables et du nombre de contraintes. - GloptiPoly (Matlab+SeDuMi) : http://www.laas.fr/ henrion/software/gloptipoly.

Les heuristiques du premier ordre 14 k Problème SDP non linéaire Objectif non-linéaire Contraintes LMI L(X,Y )<0 f(x, Y ) Méthode du gradient (F&W) L(X,Y )<0 Objectif bilinéaire sans termes quadratiques Contraintes BMI sans termes quadratiques L(X, Y, XY )<0 l(x, Y, XY ) Méthodes de descente-coordonnée (Xk,Y k ) f(x, Y ) k L(X, Y k, XY k )<0 L(X k, Y,X k Y )<0 l(x,y k, XY k ) l(x k, Y, X k Y )

L optimisation globale 15 - Les méthodes de Branch and Bound : découpage heuristique de l espace de recherche et calculs de bornes inférieures et supérieures sur les sous-domaines. Convergence des bornes inférieures et supérieures vers l optimum global. Problèmes BMI généraux [Goh-Safonov94]. Problèmes de imisation concave [Apkarian-Tuan99]. - Approche primal-relaxé dual (Décomposition généralisée de Benders) : Calcul de la marge de stabilité [Psarris-Floudas90] Retour de sortie statique avec contraintes [Beran-Vandenberghe-Boyd97]. Nota : méthodes généralement complexes à régler et peu systématiques.

Quelques enjeux de la PM en Automatique 16 Les enjeux théoriques et numériques :BMI -Les méthodes du Lagrangien augmenté [Apkarian02] -Les méthodes de Barrière [Nesterov94] - Les méthodes non différentiables (Bundle) [Oustry00], [Helmberg01] Les enjeux numériques : LMI de grande taille (nbre de variables et de lignes) Rapidité, fiabilité des solveurs (réalisabilité stricte), exploitation de la structure creuse et/ou bloc Toeplitz/Hankel [Nesterov02, Vandenberghe02] Les enjeux théoriques et numériques : la dualité Au delà de la dualité SDP et Lagrangienne?