La méthode l'entropie croisée

Documents pareils
Système immunitaire artificiel

Méthodes de Simulation

de calibration Master 2: Calibration de modèles: présentation et simulation d

Sommaire. Introduction Définition Historique Domaine d application.2. 4.Les Travaux réalisés sur les domaines d application.

Soutenance de stage Laboratoire des Signaux et Systèmes

Quantification Scalaire et Prédictive

La classification automatique de données quantitatives

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)

Probabilités III Introduction à l évaluation d options

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

Le modèle de Black et Scholes


TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Simulation : application au système bonus-malus en responsabilité civile automobile

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

Système Immunitaire Artificiel Parallèle appliqué aux Flow Shop Hybride (FSH)

Deux stratégies parallèles de l'optimisation par colonie de fourmis

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Agrégation des portefeuilles de contrats d assurance vie

CORRECTION EXERCICES ALGORITHME 1

Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques

Algorithmique avec Algobox

PROJET MODELE DE TAUX

Classification non supervisée

Simulation de variables aléatoires

PROBABILITES ET STATISTIQUE I&II

Algorithmique et structures de données I

ALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

OPTIMISATION À UNE VARIABLE

TP N 57. Déploiement et renouvellement d une constellation de satellites

Algorithmes d'apprentissage

Resolution limit in community detection


Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

MÉTHODE DE MONTE CARLO.

TD1 Signaux, énergie et puissance, signaux aléatoires

TABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Echantillonnage Non uniforme

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

La programmation à mémoire adaptative ou l évolution des algorithmes évolutifs

Laboratoire d Automatique et Productique Université de Batna, Algérie

Analyse des trajectoires acceptables en approche de virage assistance aux conducteurs

Jean-Philippe Préaux

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Principes d implémentation des métaheuristiques

Méthodes de développement. Analyse des exigences (spécification)

Projet de Traitement du Signal Segmentation d images SAR

Excel Avancé. Plan. Outils de résolution. Interactivité dans les feuilles. Outils de simulation. La valeur cible Le solveur

Finance, Navier-Stokes, et la calibration

Cours Informatique Master STEP

MATHS FINANCIERES. Projet OMEGA

Détection et suivi d'objets dans une séquence d'images par contours actifs

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Sommaire. Introduction. I. Notions de routage a) Technologies actuelles b) Avantages et désavantages

Algorithmes de recherche

Cours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. address: Nicolas.Thiery@u-psud.fr URL:

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

4.2 Unités d enseignement du M1

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation

Rapport de Stage. Titre : Clustering à l aide d une représentation supervisée

MCMC et approximations en champ moyen pour les modèles de Markov

Cryptologie et physique quantique : Espoirs et menaces. Objectifs 2. distribué sous licence creative common détails sur

I. Introduction aux fonctions : les fonctions standards

4 Distributions particulières de probabilités

GESTION DE PROJET SÉANCE 2 : LES CYCLE DE VIE D'UN PROJET

Application 1- VBA : Test de comportements d'investissements

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Programmation C++ (débutant)/instructions for, while et do...while

CAPTEURS - CHAINES DE MESURES

Ordonnancement robuste et décision dans l'incertain

Licence STS mention Mathématiques Parcours Ingénieur Télécom Bretagne (ITB)

FICHE UE Licence/Master Sciences, Technologies, Santé Mention Informatique

Chapitre 4 Pierre, papier, ciseaux

!-.!#- $'( 1&) &) (,' &*- %,!

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Chp. 4. Minimisation d une fonction d une variable

Détection de têtes dans un nuage de points 3D à l aide d un modèle de mélange sphérique

Introduction à la Statistique Inférentielle

2 TABLE DES MATIÈRES. I.8.2 Exemple... 38

Figure 3.1- Lancement du Gambit

Hela Boukef. To cite this version: HAL Id: tel

1.6- Génération de nombres aléatoires

Fiche descriptive de l indicateur : Tenue du dossier anesthésique (DAN)

Pourquoi l apprentissage?

INITIATION AU LANGAGE C SUR PIC DE MICROSHIP

Dans ce mémento, vous trouverez les informations détaillées pour configurer les fonctionnalités du Responsive Design dans le Worldsoft CMS:

Méthodologies SCRUM Présentation et mise en oeuvre

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Propagation sur réseau statique et dynamique

L exclusion mutuelle distribuée

(Third-Man Attack) PASCAL BONHEUR PASCAL 4/07/2001. Introduction. 1 Domain Name Server. 2 Commandes DNS. 3 Hacking des serveurs DNS

Algèbre 40 Analyse Stat. 1 - IES : Probabilités discrètes et calcul intégral 29,5 6 Stat. 2 - IES : Probabilités générales 54 8 UE1-02 M-E-IS

Correction TD algorithmique

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Coup de Projecteur sur les Réseaux de Neurones

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Transcription:

République Algérienne Démocratique et Populaire Université des Sciences et de la Technologie d Oran Mohamed Boudiaf (USTO) Module : optimisation avancée Présentation de : La méthode l'entropie croisée MASTER 2 : Option RFIA Présenté par : HENNI Farid 12 Enseigné par : Mr Benyettou Mohamed.

1. Introduction 2. Définition et Historique 3. Principe 4. L organigramme de l algorithme EC 5. Algorithme 6. Exemple simple 7. Avantage et Inconvénient 8. Conclusion 9. Bibliographie

1. Introduction (les problèmes difficiles) Une métaheuristique est un algorithme d optimisation visant à résoudre des problèmes d optimisation difficile, on distingue en réalité deux types de problèmes d optimisation les problèmes discret ou combinatoire et les problèmes à variables contenues. Pour fixer les idées, citons deux exemples : Parmi les problèmes discrets, on trouve le célèbre problème de voyageur de commerce il s agit de minimiser la longueur de la tournée d un voyageur de commerce qui doit visiter un certain nombre de villes, avant de retourner à la ville de départ. Un exemple classique de problème continu est celui de la recherche des valeurs à affecter aux paramètres d un modèle numérique de processus, pour que ce modèle reproduise au mieux le comportement réel observé. En pratique on rencontre aussi des problèmes mixtes, qui comportent à la fois des variables discrètes et des variables continues. La méthode l'entropie croisée utilisée pour résoudre les problèmes difficiles. 2. Définition et historique La méthode de l'entropie-croisée (CE) (Reuven Rubinstein 1997) est une méthode générale d'optimisation de type Monte-Carlo, pour l'optimisation combinatoire et continue. La méthode a été conçue à l'origine pour la simulation d'événements rares, où des densités de probabilités très faibles doivent être estimées correctement, par exemple dans l'analyse de la sécurité des réseaux, les modèles de file d'attente, ou l'analyse des performances des systèmes de télécommunication. La méthode CE peut être appliquée à tout problème d'optimisation combinatoire où les observations sont bruitées comme le problème du voyageur de commerce, l'optimisation quadratique, le problème d'alignement de séquences d'adn, le problème de la coupure maximale et les problèmes d'allocation de mémoire. 3. Principe La méthode CE implique un processus itératif où chaque itération peut être décomposée en deux phases : 1. Génération aléatoire d'un échantillon d'information (trajectoires, vecteurs, etc.) selon un mécanisme bien déterminé. 2. Mise à jour de paramètres de la génération aléatoire. Cette phase implique la minimisation selon le principe d'entropie croisée ou la divergence de Kullback Leiber.

3. L organigramme de l algorithme EC La figure 1 décrit l'algorithme CE pour l'optimisation Initialiser une loi de probabilité représentative du problème Tirer un échantillon de valeurs suivant cette loi Evaluer les valeurs tirées Sélectionner les meilleurs Déformer la loi de probabilité en fonction de meilleures valeurs Répéter jusqu'à convergence Figure 1 : l Organigramme de l algorithme EC

4. Algorithme La méthode d entropie croisée est un algorithme stochastique itératif qui cherche à résoudre un Problème d optimisation de la forme : = arg max S( ) Entrées: (μ0,σ0) : moyenne et écart-type initiaux de la distribution des paramètres evaluer () : une fonction qui estime la fonction à optimiser S pour un certain vecteur ϴ P : la fraction de vecteurs sélectionnés Zt : le bruit ajouté à chaque itération N : le nombre de vecteurs générés à chaque itération Sorties : paramètres optimisés = μt Répéter : Générer N vecteurs 1, 2... N selon N(μ, σ 2 ) Evaluer chaque vecteur à l aide de la fonction évaluer () Sélectionner les p N vecteurs ayant reçu les meilleures évaluations μ (moyenne des vecteurs sélectionnés) σ 2 (variance des vecteurs sélectionnés) +Zt Fin

5. Exemple simple Le même algorithme CE peut être utilisé pour l'optimisation et l'estimation. Soit le problème consistant à maximiser une fonction S(x), par exemple : Pour utiliser l'entropie croisée on doit d'abord considérer le problème stochastique associé de l'estimation de Pϴ : pour un niveau donné, et une famille de distributions de probabilité paramétriques par exemple la loi normale à une dimension, dont les paramètres sont :

la moyenne μt et la variance σ 2 t tel que ϴ= (μ0,σ0) Ainsi, pour un donné, l'objectif est de déterminer ϴ tel que la quantité soit minimisée. Ce qui est fait en utilisant la version échantillonnée (contrepartie stochastique) du problème de la minimisation de la divergence KL. Il se trouve que pour ce choix de distribution les paramètres qui minimisent la version stochastique du problème sont la moyenne et la variance empirique de l'échantillon d'élite qui est composé des tirages dont la valeur de la fonction score est. Le plus mauvais des éléments de l'échantillon d'élite sert de paramètre de niveau à l'itération suivante. Pseudo code matlab : mu:=-6; sigma2 =100; t:=0; maxits=100; // Initialisation des paramètres N=100; Ne=10; While t < maxits and sigma2 > epsilon // Tant que l'on n'a pas convergé et que maxits n'est pas dépassé X = SampleGaussian(mu, sigma2,n); // Génère N échantillon à partir de la distribution S = exp(-(x-2)^2) + 0.8 exp(-(x+2)^2); // Calcule le score de chaque échantillon X = sort(x, S); // Classe X selon le score (de façon descendante) mu = mean(x(1:ne)); sigma2=var(x(1:ne)); // Mise à jour des paramètres de la distribution t = t+1; return mu // Incrémentation du nombre d'itérations // Renvoie la moyenne des derniers échantillons comme la solution 6. Avantages et inconvénients La méthode CE est une méthode d'optimisation stochastique basée sur le principe d'échantillonnage préférentiel. Elle fait partie des méthodes de simulation de Monte-Carlo. En tant que méthode de simulation, elle s'adapte à des données difficiles à formaliser. Le principal inconvénient qu'elle présente est le temps de calcul important.

7. Conclusion Dans ce rapport, nous avons expliqué brièvement le principe de la méthode CE. Cette méthode, qui trouve ses origines dans le domaine de simulations des événements rares, elle est aujourd'hui utilisée dans plusieurs domaines. La méthode CE peut être appliquée à tout problème d'optimisation combinatoire où les observations sont bruitées comme le problème du voyageur de commerce, le problème d'affectation quadratique, le problème d'alignement de séquences et le problème de la coupure maximale, tout comme des problèmes d'optimisation continue. Sites : Pdfs : Bibliographie 1. http://fr.wikipedia.org/wiki/méthode_de_l'entropie_croisée 2. http://iew3.technion.ac.il/ce/ 1. http://hal.inria.fr/docs/00/41/89/22/pdf/article.pdf 2. http://tel.archives-ouvertes.fr/docs/00/55/79/12/pdf/rapportsarrabouallagui.pdf 3. http://zanutti.perso.info.unicaen.fr/jfpda2011/marin.pdf