Prise en compte de la stochasticité dans les modèles : optimisation robuste



Documents pareils
Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

K. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre Palaiseau

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

MCMC et approximations en champ moyen pour les modèles de Markov

Méthodes de Simulation

Echantillonnage Non uniforme

Soutenance de stage Laboratoire des Signaux et Systèmes

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Application de la méthode de surface de réponse stochastique à l analyse de stabilité d un tunnel pressurisé

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Probabilités III Introduction à l évaluation d options

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Introduction à l approche bootstrap

Principe de symétrisation pour la construction d un test adaptatif

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Filtrage stochastique non linéaire par la théorie de représentation des martingales

TABLE DES MATIERES. C Exercices complémentaires 42

Modélisation et simulation

de calibration Master 2: Calibration de modèles: présentation et simulation d

TABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

Ordonnancement robuste et décision dans l'incertain

Programmes des classes préparatoires aux Grandes Ecoles

Intérêt du découpage en sous-bandes pour l analyse spectrale

Quantification Scalaire et Prédictive

Précision d un résultat et calculs d incertitudes

Etude des propriétés empiriques du lasso par simulations

Table des matières. I Mise à niveau 11. Préface

4.2 Unités d enseignement du M1

Le modèle de régression linéaire

Apprentissage non paramétrique en régression

Coup de Projecteur sur les Réseaux de Neurones

Introduction au Data-Mining

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

La classification automatique de données quantitatives

Interception des signaux issus de communications MIMO

Probabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Quantification et hiérarchisation des incertitudes dans un processus de simulation numérique

TP N 57. Déploiement et renouvellement d une constellation de satellites

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

PROBABILITES ET STATISTIQUE I&II

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Introduction au Data-Mining

Etude comparative de différents motifs utilisés pour le lancé de rayon

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

NON-LINEARITE ET RESEAUX NEURONAUX

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Optimisation, traitement d image et éclipse de Soleil

Couplage efficace entre Optimisation et Simulation stochastique Application à la maintenance optimale d une constellation de satellites

Arbres binaires de décision

La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

Économetrie non paramétrique I. Estimation d une densité

!-.!#- $'( 1&) &) (,' &*- %,!

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Une plate-forme pour la quantification des incertitudes sous Matlab

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

CAPTEURS - CHAINES DE MESURES

1 Complément sur la projection du nuage des individus

Résumés des projets de GMM5-2014/2015

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

La nouvelle planification de l échantillonnage

Résumé des communications des Intervenants

Exercice : la frontière des portefeuilles optimaux sans actif certain

Raisonnement probabiliste


Appel à Propositions. Thème : «Couplage CFD / CAA»

TABLE DES MATIÈRES. Bruxelles, De Boeck, 2011, 736 p.

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

CHAPITRE 5. Stratégies Mixtes

OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT)

Catalogue de formation

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Limitations of the Playstation 3 for High Performance Cluster Computing

Évaluation de la régression bornée

FIMA, 7 juillet 2005

Annexe commune aux séries ES, L et S : boîtes et quantiles

Simulation de variables aléatoires

Les algorithmes de base du graphisme

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Le montant des garanties constituées aux fins du STPGV est-il excessif?

Deux disques dans un carré

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Évaluation et optimisation de requêtes

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Modélisation prédictive et incertitudes. P. Pernot. Laboratoire de Chimie Physique, CNRS/U-PSUD, Orsay

Attitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014

MAP 553 Apprentissage statistique

Renforcement des trois compétences : compréhension orale, expression orale et expression écrite à partir de documents et vidéos.

Économétrie, causalité et analyse des politiques

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

3. Caractéristiques et fonctions d une v.a.

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Théorie de l estimation et de la décision statistique

Introduction à la statistique non paramétrique

Transcription:

Prise en compte de la stochasticité dans les modèles : optimisation robuste Rodolphe Le Riche (CNRS & EMSE) & Victor Picheny (INRA) La Rochelle, 5/11/2014

Plan Introduction 1 Introduction 2 Formulations pour l optimisation sous incertitudes 3 Approches par métamodélisation Le cas bruité (pas de contrôle de U) Le cas où U est contrôlable 4 Algorithmes évolutionnaires R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 2 / 34

Introduction Un exemple introductif : l hélicoptère en papier Un problème d optimisation simple... 4 paramètres (longueur, hauteur 2) Min et max pour chaque paramètre (doit tenir sur une feuille A4) Objectif : maximiser le temps de chute Protocole experimental Découpage, cage d escalier + chronomètre fig2/helicovideo.mov R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 3 / 34

Introduction Un exemple introductif (suite) Un système hautement stochastique Erreur sur les paramètres (découpage) Erreur sur les mesures (chronométrage) Angle pales / corps aléatoire (pliage) Courant d air... Temps de chute toujours différent Comment faire? Lancer plusieurs fois le même hélicoptère? Découper plusieurs fois le même hélicoptère? Et surtout Comment détermine-t-on le meilleur hélicoptère? R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 4 / 34

Introduction Stochasticité dans les modèles complexes Modèle stochastique x déterministe Simulateur Y aléatoire Le simulateur contient des éléments stochastiques (tirages aléatoires non contrôlés, etc.) Modèle déterministe, entrées stochastiques x déterministe U aléatoire Simulateur y déterministe U : environnement incertain (climat?), paramètre méconnu, etc. R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 5 / 34

Plan Formulations pour l optimisation sous incertitudes 1 Introduction 2 Formulations pour l optimisation sous incertitudes 3 Approches par métamodélisation Le cas bruité (pas de contrôle de U) Le cas où U est contrôlable 4 Algorithmes évolutionnaires R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 6 / 34

Formulations pour l optimisation sous incertitudes La paramétrisation double (x, U) cf. Taguchi, 80 s x : vecteur des variables d optimisation déterministes U : vecteur de paramètres incertains U sert à décrire : un bruit (de mesure) l erreur de modèle (épistémique) une incertitude sur certains paramètres du simulateur R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 7 / 34

Formulations pour l optimisation sous incertitudes Une paramétrisation générale 3 cas (combinables) : Bruit sur les variables d optimisation f (x + U) (erreur de découpage) Bruit exogène aux variables d optimisation f (x, U) (courant d air) Bruit sur la sortie du modèle f (x) + U (chronométrage + courant d air) R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 8 / 34

Formulations pour l optimisation sous incertitudes Le cas bruité On ne prend pas en compte le bruit, on essaie de résoudre : min f (x, U) x X Pas de gradients, quels résultats pour l optimisation? R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 9 / 34

Formulations pour l optimisation sous incertitudes Reformulation On remplace le critère d optimisation bruité par une mesure statistique : min y(x) = E [f (x, U)] x X Pour l hélicoptère : on veut maximiser le temps de chute moyen. Autres possibilités : quantile : min x X q α [f (x, U)] (5e pire lancer / 100) espérance + variance : min x X E [f (x, U)] + ρ V [f (x, U)] On retrouve un pb d optimisation déterministe! R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 10 / 34

Formulations pour l optimisation sous incertitudes Approches directes En pratique, les mesures statistiques sont estimées Monte-Carlo simple : ŷ(x) = Ê U [f (x, U)] = 1 MC MC f (x, u i ), i=1 u i i.i.d. U ˆq α (x) = [MC α]-ième plus petit parmi f (x, u 1 ),..., f (x, u MC ) Deux problèmes majeurs : Double boucle : propager les incertitudes sur U, optimiser sur x très coûteux! Objectifs estimés bruit R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 11 / 34

Plan Approches par métamodélisation 1 Introduction 2 Formulations pour l optimisation sous incertitudes 3 Approches par métamodélisation Le cas bruité (pas de contrôle de U) Le cas où U est contrôlable 4 Algorithmes évolutionnaires R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 12 / 34

Approches par métamodélisation Le cas bruité (pas de contrôle de U) Modèles polynomiaux Modèle bruité : optimisation de la moyenne : min E[Y ] = f (x) x déterministe Simulateur Y = f (x) + U Régression : prise en compte naturelle du bruit Y = Xβ + ɛ Le métamodèle (X ˆβ) donne une approximation de la moyenne Optimisation : cadre favorable mais... Locale : plans d expériences D-optimaux : algorithme de Kiefer gourmand en pratique! Régions de confiance : peu de résultats théoriques de convergence R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 13 / 34

Approches par métamodélisation Le cas bruité (pas de contrôle de U) Krigeage et observations bruitées On s intéresse à : f (x) (temps de chute moyen) On a accès à : Y = f (x) + U (temps de chute mesuré une fois) Adaptation au bruit : ajout d un terme dans la matrice de covariance krigeage classique krigeage avec effet de pépite f(x) 0.5 0.0 0.5 1.0 f(x) 0.5 0.0 0.5 1.0 0.0 0.2 0.4 0.6 0.8 1.0 x 0.0 0.2 0.4 0.6 0.8 1.0 x Modèle non interpolant : le krigeage prédit f (x), pas f (x) + U! La moyenne de krigeage filtre le bruit R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 14 / 34

Approches par métamodélisation Le cas bruité (pas de contrôle de U) Optimisation bruitée avec krigeage Ne pas utiliser l EI car f min est bruité (potentiellement trompeur) Plusieurs stratégies adaptées en redéfinissant un EI : par exemple EQI (amélioration sur les quantiles du krigeage) V. Picheny, D. Ginsbourger (2013) Noisy kriging-based optimization methods : A unified implementation within the DiceOptim package Computational Statistics & Data Analysis Le bruit doit être connu ou estimé R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 15 / 34

Approches par métamodélisation Le cas où U est contrôlable Le cas où U est contrôlable C est notamment le cas d un simulateur numérique dont les entrées x et u sont choisies. x u Simulateur y Hypothèse : U suit une distribution connue. Il faut choisir pour chaque simulation un couple (x, u) MC possible (un x, N u) Méthode des moments Enorme gain à considérer l espace joint D = {X, U} R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 16 / 34

Approches par métamodélisation Le cas où U est contrôlable Méthode des moments Si les U peuvent être contrôlés, on peut faire une approximation à l ordre 1 ou 2 de f (x, u) en u par exemple par différences finies en u. Si U N (u 0, Γ 2 ), alors les moments (moyenne, variance,...) de f peuvent être approchés analytiquement. AN : cas assez général car de nombreuses distributions peuvent être ramenées aux distributions gaussiennes par transformations de Nataf ou Rosenblatt. Moments d une forme quadratique gaussienne : f l f q f D. Slepian (1958) Fluctuations of Random Noise Power, Bell System Technical Journal Transformations de Rosenblatt et Nataf : u R. E. Melchers (1999) Structural Reliability Analysis and Prediction, Wiley (2nd Ed.) u 0 R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 17 / 34

Approches par métamodélisation Le cas où U est contrôlable Méthode des moments (approximation linéaire) f (x, U) f L (x, U) f (x, u 0 ) + u f (x, u 0 )(U u 0 ) (simplification des notations puisque x fixe ici) f L (x, U) f L (U) f (u 0 ) + f (u 0 )(U u 0 ) f L (U) est une transformation linéaire de U, on a directement Ef L (U) = f (u 0 ) Vf L (U) = f (u 0 ) Γ 2 f (u 0 ) R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 18 / 34

Approches par métamodélisation Le cas où U est contrôlable Méthode des moments (approximation quadratique) f (U) f q (U) f (u 0 ) + f (u 0 )(U u 0 ) + 1 2 (U u 0) 2 f (u 0 )(U u 0 ) mais aussi f q (U) = a + 1 2 (U u ) 2 f (u 0 )(U u ) où u = u 0 ( 2 f (u 0 )) 1 f (u 0 ) et a = f (u 0 ) f (u 0 )( 2 f (u 0 )) 1 f (u 0 ). Suivent des changements de variables pour se ramener à des v.a. normales centrées réduites : (U u ) 2 f (u 0 )(U u ) = V Γ 2 f (u 0 )Γ V } {{ } B où ΓV = U u, V N (Γ 1 (u 0 u ), I n ). R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 19 / 34

Approches par métamodélisation Le cas où U est contrôlable Méthode des moments (approximation quadratique) B est symétrique et réelle, elle peut être diagonalisée, B = PDP, V BV = W T DW où W = P V, W N (P Γ 1 (u 0 u ), I } {{ } n ) car P P = I n. Enfin, m W DW = (Z + m) D(Z + m) = m Dm + 2m DZ + Z DZ où Z = W m, Z N (0, I n ). Après les changements de variables, l approximation quadratique devient, f q (Z) = a + 1 2 m Dm + m DZ + 1 2 Z DZ = a + 1 2 m Dm + n D i m i Z i + 1 2 i=1 n i=1 D i Z 2 i R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 20 / 34

Approches par métamodélisation Le cas où U est contrôlable Méthode des moments (approximation quadratique) Z 2 i χ 2 1 EZ 2 i = 1 et VZ 2 i = 2 Ef q = a + m Dm + 1 2 Tr(D) Vf q = n Di 2 mi 2 V(Z i ) + 1 4 i=1 + i j n i=1 D 2 i V(Z 2 i ) D i D j m i m j Cov(Z i, Z j ) + 1 4 Cov(Z i, Z j ) = Cov(Z i, Z 2 j ) = 0 car Z i = Z j donc i j D i D j m i Cov(Z i, Z 2 j ) Vf q = m D 2 m + 1 2 Tr(D2 ) R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 21 / 34

Approches par métamodélisation Le cas où U est contrôlable Approche par krigeage Janusevskis & Le Riche (2012) Simultaneous kriging-based estimation and optimization of mean response Journal of Global Optimization Algorithme en deux temps 1 Trouver x qui donne la meilleure amélioration pour E U f (x, U) 2 Trouver (x, u) qui donne le plus d information sur E U f (x, U) Outils Processus moyen Z(x) = E U [Y (x, U)] + amélioration espérée Réduction d incertitude : min x,u VAR (Z n+1 (x )) R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 22 / 34

Illustration (1/3) Approches par métamodélisation Le cas où U est contrôlable integration u Krigeage u Exact x 1 R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 23 / 34

Illustration (2/3) Approches par métamodélisation Le cas où U est contrôlable EU 1 R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 24 / 34

Illustration (3/3) Approches par métamodélisation Le cas où U est contrôlable 1 R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 25 / 34

Approches par métamodélisation Le cas où U est contrôlable Conclusion partielle Optimisation robuste et métamodèles Minimisation d espérance, deux cas standards : min E[f (x) + U] et min E U[f (x, U)] x X x X U = bruit : le métamodèle, bâti avec hyp. de bruit additif, agit comme un filtre U contrôlable : le métamodèle lie les deux espaces Calcul analytique des moments Limitations Dimension (x+u) 20 Complexité! R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 26 / 34

Plan Algorithmes évolutionnaires 1 Introduction 2 Formulations pour l optimisation sous incertitudes 3 Approches par métamodélisation Le cas bruité (pas de contrôle de U) Le cas où U est contrôlable 4 Algorithmes évolutionnaires R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 27 / 34

CMA-ES Algorithmes évolutionnaires calculate f sampling selection update m CMA ES(µ, λ) peut optimiser de nombreuses fonctions bruitées car : non élitiste choix de la moyenne de la prochaine itération filtre le bruit (échantillonnage spatial comme proxy pour l échantillonnage de U) 1 m t+1 = m t + 1 µ µ i=1 y i:λ R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 28 / 34

Algorithmes évolutionnaires CMA-ES et optimisation bruitée Ré-échantillonner ou augmenter la taille de la population? Il est possible de faire : ˆf (x) = 1 κ κ i=1 Y i (x) Augmenter la population est plus efficace [Beyer and Sendhoff 2007, Arnold and Beyer 2006] Améliorations spécifiques au bruit Observation : (1 + 1) CMA ES avec redémarrage très efficace petites populations avantageuses? Elitisme pénalisant pour les fonctions bruitées : un échantillon chanceux va attirer l optimiseur dans une mauvaise région Comment définir un algorithme rapide, local et non élitiste? R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 29 / 34

Algorithmes évolutionnaires Echantillonnage en miroir et sélection séquentielle Dérandomisation et échantillonnage en miroir un aléa deux enfants souvent bons / mauvais opposés Sélection séquentielle Arrêt des évaluations dès qu une solution meilleure qu un parent est trouvée En combinant Quand un enfant est meilleur que son parent, son symétrique est moins bon et inversement on évalue dans l ordre m + y 1, m y 1, m + y 2, m y 2,... R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 30 / 34 1

Algorithmes évolutionnaires Résultats (1, 4) ES avec miroir et sélection séquentielle Testé dans BBOB 2010 (Black Box Optimization Benchmarking) http://coco.gforge.inria.fr/bbob2010-downloads Meilleure performance sur tous les algorithmes testés à ce jour sur certaines fonctions bruitées Brockhoff, Auger, Hansen, Arnold, Hohm (2010) Mirrored Sampling and Sequential Selection for Evolution Strategies PPSN XI R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 31 / 34

Conclusion Conclusion (1/2) Pour récapituler Optimisation difficile en presence de bruit formulation adaptée fonctions bruitées Métamodèles + statistiques Optimiseurs stochastiques Domaines d application CMA-ES : robuste (cf. cours du 4/11) mais inapplicables aux simulateurs coûteux Krigeage : petite dimension, simulateur calculs de recherche de point R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 32 / 34

Conclusion Conclusion (2/2) Beaucoup d approches non traitées Approches fiabilistes (FORM/SORM, contraintes probabilisites) Anti-optimisation (pire cas pour U) Chaos polynomial,... Beaucoup de choses à développer Métamodèles en grande dimension Approches Bayésiennes ou apparentées lorsque l on ne connait pas la loi de U Incertitudes en cascade dans les couplages de codes... R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 33 / 34

Bibliographie Complémentaire Livres, articles de synthèse R. E. Melchers (1999) Structural Reliability Analysis and Prediction Wiley (2nd Ed.) A. Ben-Tal, L. El Ghaoui, A. Nemirowski (2009) Robust Optimization Princeton Univ. Press M. Lemaire, A. Chateauneuf, J.-C. Mitteau (2009) Structural Reliability Wiley P. Breitkopf and R. Filomeno Coehlo Eds. (2010) Multidisciplinary Design Optimization in Computational Mechanics Wiley/ISTE H.G. Beyer, B. Sendhoff (2007) Robust Optimization A comprehensive survey Comput. Methods Appl. Mech. Engrg, 196, pp. 3190-3218 R. Le Riche, V. Picheny Optimisation robuste La Rochelle, 5/11/2014 34 / 34