MCMC et approximations en champ moyen pour les modèles de Markov

Dimension: px
Commencer à balayer dès la page:

Download "MCMC et approximations en champ moyen pour les modèles de Markov"

Transcription

1 MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article: A convergence theorem for Variational EM-like algorithms : application to image segmentation. IEEE Transactions on Image Processing, 16(3): ,2007

2 Problème y : Vecteur d observations, de (grande) dimension N. ψ : paramètre qui gouverne la loi des observations L Y ( ; ψ) Objectif : estimer le paramètre ψ au sens du maximum de vraisemblance max ψ L Y (y; ψ), dans un contexte de données latentes, à structure de dépendance complexe.

3 Problème 1. Inférence dans les modèles à données manquantes EM Champ de markov caché 2. EM variationnel VEM Champ moyen 3. Coupler approximation type champ moyen, et simulation Approches purement déterministes Approches purement stochastiques Approches déterministes + stochastiques. 4. Comparaison des approches : estimation de paramètres dans un modèle de Potts caché.

4 Inférence dans des modèles à données manquantes I. Inférence dans les modèles à données manquantes

5 Inférence dans des modèles à données manquantes Algorithme EM Algorithme EM Résolution itérative du problème d optimisation max ψ L Y (y; ψ). Chaque itération comporte deux étapes: (i) Etape E : Z Q(ψ; ψ (t) ) := ln L (Z,Y ) (z,y; ψ) L Z Y (z y; ψ (t) ) h = E ln L (Z,Y ) (Z,y; ψ) y; ψ (t)i. (ii) Etape M : ψ (t+1) := max ψ Q(ψ; ψ(t) ).

6 Inférence dans des modèles à données manquantes Algorithme EM Algorithme EM Résolution itérative du problème d optimisation max ψ L Y (y; ψ). Chaque itération comporte deux étapes: (i) Etape E : Z Q(ψ; ψ (t) ) := ln L (Z,Y ) (z,y; ψ) L Z Y (z y; ψ (t) ) h = E ln L (Z,Y ) (Z,y; ψ) y; ψ (t)i. (ii) Etape M : Par construction : ψ (t+1) := max ψ Q(ψ; ψ(t) ). L Y (y; ψ (t+1) ) L Y (y; ψ (t) ). Convergence de la suite {ψ (t) } vers un max local de ψ L Y (y; ψ).

7 Inférence dans des modèles à données manquantes Estimation de paramètres dans modèle HMRF Hidden Markov Random Field (discret): loi des données latentes: Champ de Markov (discret) L Z (z; ψ) = W (β) 1 exp( H(z; β)), ψ = (β, ) z Z avec W (β) = z exp( H(z; β)) H(z; β) = c C V c (z c ).

8 Inférence dans des modèles à données manquantes Estimation de paramètres dans modèle HMRF Hidden Markov Random Field (discret): loi des données latentes: Champ de Markov (discret) L Z (z; ψ) = W (β) 1 exp( H(z; β)), ψ = (β, ) z Z avec W (β) = z exp( H(z; β)) H(z; β) = c C V c (z c ). Attache aux données : N L Y Z (y z; ψ) = p k (y k z k ; θ) ψ = (β,θ). k=1

9 Inférence dans des modèles à données manquantes Estimation de paramètres dans modèle HMRF Hidden Markov Random Field (discret): loi des données latentes: Champ de Markov (discret) L Z (z; ψ) = W (β) 1 exp( H(z; β)), ψ = (β, ) z Z avec W (β) = z exp( H(z; β)) H(z; β) = c C V c (z c ). Attache aux données : N L Y Z (y z; ψ) = p k (y k z k ; θ) ψ = (β,θ). k=1 Difficultés Loi sur un espace de grande dimension. Constante de normalisation W (β) incalculable.

10 Inférence dans des modèles à données manquantes Estimation de paramètres dans modèle HMRF EM pour inférence dans HMRF non implémentable car Etape E : intégration sous une loi complexe LZ Y, en grande dimension: ex. Z = {1,,K} N

11 Inférence dans des modèles à données manquantes Estimation de paramètres dans modèle HMRF EM pour inférence dans HMRF non implémentable car Etape E : intégration sous une loi complexe LZ Y, en grande dimension: ex. Z = {1,,K} N Etape M : Il faut savoir maximiser en ψ = (β,θ) X L Y Z (y z; θ) L Z Y (z y; ψ (t) ) ln W (β) X z z H(z; β) L Z Y (z y; ψ (t) ) En pratique, la maximisation en θ: explicite. Mais la maximisation en β demande la connaissance de W (β).

12 Variational EM et Approximation en champ moyen II. Variational EM et Approximation en champ moyen

13 Variational EM et Approximation en champ moyen Relecture de l EM Autre lecture de l EM: Pour toute probabilité q sur Z, ln L Y (y; ψ) = Z L (Z,Y ) (z,y; ψ) dz = ln { } L(Z,Y ) (z,y; ψ) ln q(z) Z Z L (Z,Y ) (z,y; ψ) q(z) q(z) dz =: F (q,ψ). q(z) dz,

14 Variational EM et Approximation en champ moyen Relecture de l EM Autre lecture de l EM: Pour toute probabilité q sur Z, ln L Y (y; ψ) = Z L (Z,Y ) (z,y; ψ) dz = ln { } L(Z,Y ) (z,y; ψ) ln q(z) Z Z L (Z,Y ) (z,y; ψ) q(z) q(z) dz =: F (q,ψ). Avec égalité : ln L Y (y; ψ) = F ( L Z Y (z y; ψ), ψ ) q(z) dz,

15 Variational EM et Approximation en champ moyen Relecture de l EM Autre lecture de l EM: Pour toute probabilité q sur Z, ln L Y (y; ψ) = Z L (Z,Y ) (z,y; ψ) dz = ln { } L(Z,Y ) (z,y; ψ) ln q(z) Z Z L (Z,Y ) (z,y; ψ) q(z) q(z) dz =: F (q,ψ). Avec égalité : ln L Y (y; ψ) = F ( L Z Y (z y; ψ), ψ ) EM = maximisation alternée de F : pour (q (t),ψ (t) ) mise à jour de la loi: q (t+1) = argmax q F (q,ψ (t) ) rép.: q (t+1) = L Z Y (z y; ψ (t) ) q(z) dz,

16 Variational EM et Approximation en champ moyen Relecture de l EM Autre lecture de l EM: Pour toute probabilité q sur Z, ln L Y (y; ψ) = Z L (Z,Y ) (z,y; ψ) dz = ln { } L(Z,Y ) (z,y; ψ) ln q(z) Z Z L (Z,Y ) (z,y; ψ) q(z) q(z) dz =: F (q,ψ). Avec égalité : ln L Y (y; ψ) = F ( L Z Y (z y; ψ), ψ ) EM = maximisation alternée de F : pour (q (t),ψ (t) ) mise à jour de la loi: q (t+1) = argmax q F (q,ψ (t) ) rép.: q (t+1) = L Z Y (z y; ψ (t) ) q(z) dz, mise à jour du paramètre: ψ (t+1) = argmax ψ F (q (t),ψ) = argmax ψ Q(ψ,ψ (t) ).

17 Variational EM et Approximation en champ moyen Variational EM (VEM) Variational EM Relâcher les contraintes d optimisation de l EM : considérer un sous-espace des probabilités sur Z, celles de forme produit NY q(z) = q k (z k ). ne rien changer pour ψ. k=1

18 Variational EM et Approximation en champ moyen Variational EM (VEM) Variational EM Relâcher les contraintes d optimisation de l EM : considérer un sous-espace des probabilités sur Z, celles de forme produit NY q(z) = q k (z k ). ne rien changer pour ψ. Choisir q revient à résoudre l équation au point fixe ln q k (e) = c k + ln L Z Y (z y; ψ (t) ) δ e(z k ) q j (z j ), z j k k=1 qui ne dépend que des q j,j N k, du fait de la structure markovienne.

19 Variational EM et Approximation en champ moyen Variational EM (VEM) Variational EM pour inférence dans les HMRF Résultats de convergence : oui. Identification des points limites: Pour l inférence dans les HMRF permet de contourner une des difficultés rencontrée par l EM: étape E. mais la mise à jour de ψ demande toujours le calcul de W (β).

20 Variational EM et Approximation en champ moyen Approximation en champ moyen Champ moyen A l origine, pour approcher le calcul de l espérance sous une loi de Gibbs. Négliger les fluctuations des voisins, en les fixant à leur valeur moyenne pour la loi ainsi définie.

21 Variational EM et Approximation en champ moyen Approximation en champ moyen Champ moyen A l origine, pour approcher le calcul de l espérance sous une loi de Gibbs. Négliger les fluctuations des voisins, en les fixant à leur valeur moyenne pour la loi ainsi définie. En pratique: Q définir une loi produit q(z) = N k=1 q k(z k ), solution d une équation au point fixe. Dans le contexte : mesure de Gibbs loi a posteriori L Z Y (z y; ψ (t) ) même équation au point fixe que pour VEM.

22 Variational EM et Approximation en champ moyen Approximation en champ moyen Champ moyen A l origine, pour approcher le calcul de l espérance sous une loi de Gibbs. Négliger les fluctuations des voisins, en les fixant à leur valeur moyenne pour la loi ainsi définie. En pratique: Q définir une loi produit q(z) = N k=1 q k(z k ), solution d une équation au point fixe. Dans le contexte : mesure de Gibbs loi a posteriori L Z Y (z y; ψ (t) ) même équation au point fixe que pour VEM. En conclusion : Approximation champ moyen Variational EM

23 Approximations déterministes, Approximations par simulation III. Approximations déterministes, Approximations par simulation

24 Approximations déterministes, Approximations par simulation Approximations de l EM purement déterministes Approx. purement déterministes ex. Algorithme Mean-Field Etape E : substituée par une espérance sous la loi produit q (t+1) Etape M : propager cette approximation à l expression de la loi jointe: l étape de maximisation devient explicite. Pas de résultats sur le comportement asymptotique de l algorithme.

25 Approximations déterministes, Approximations par simulation Approximations de l EM purement stochastiques Approx. purement stochastiques ex. Algorithme MC2-EM Etape E : calcul des espérances par Monte Carlo (MCMC). Etape M : calcul de la constante de normalisation par Monte Carlo W (β) = X z exp( H(z; β)) = X z exp( H(z; β)) π(z) π(z). Dès lors que l erreur d approximation dûe à la simulation est contrôlée : convergence vers les mêmes points limites que l EM.

26 Approximations déterministes, Approximations par simulation Coupler les deux approches VEM et Simulations (I) ex. Algorithme MC VEM Etape E : substituée par une espérance sous la loi produit q (t+1) Etape M : calcul de la constante de normalisation par Monte Carlo W (β) = X z exp( H(z; β)) = X z exp( H(z; β)) π(z) π(z). Dès lors que l erreur d approximation dûe à la simulation est contrôlée : convergence vers les mêmes points limites que le VEM.

27 Approximations déterministes, Approximations par simulation Coupler les deux approches VEM et Simulations (II) ex. Algorithme Simulated Field Etape E : type VEM en fixant les voisins à une valeur simulée (ne pas résoudre l équation au point fixe) Etape M : propager l approximation champ moyen à l expression de la loi jointe; l étape de maximisation devient réalisable. Pas de résultats sur le comportement asymptotique de l algorithme. A priori, {ψ (t) } chaîne de Markov, pas de raisons d observer une convergence trajectorielle.

28 Estimation d un Potts caché IV. Applications

29 Estimation d un Potts caché Modèle Champs de Markov (caché): Potts à K classes, voisinage 1er ordre L Z (z; ψ) exp( β i j z i,z j,) z i {e 1,,e K }. Attache aux données: gaussien L Y Z (y z; ψ) = N k=1 N (µ zk,σ 2 z k )(y k ). Paramètre: β,µ 1,,µ K,σ 2 1,,σ 2 K. Possibilité aussi : d estimer les données cachées (ex. par MAP).

30 Estimation d un Potts caché Data 1 : données simulées K = 2, images Paramètre θ (attache aux données) : toujours bien estimé. Résultat d estimation de β et erreur de classification: algorithm β error rate ref. true values ind-em (0.33) (0.26) Mean Field 0.94 ( e-2) (0.49) 9.77 (0.42) Simulated Field 0.78 ( e-2) (0.43) (0.48) MCVEM 0.73 ( e-2) 9.87 (0.42) 9.77 (0.42) MC2-EM 0.77 ( e-2) 9.81 (0.39) 9.81 (0.39) Gibbsian-EM 0.77 ( e-2) 9.79 (0.40) 9.81 (0.39)

31 Estimation d un Potts caché Data 2 : données simulées K = 3, images Paramètre θ (attache aux données) : toujours bien estimé. Résultat d estimation de β et erreur de classification: algorithm β error rate ref. true values ind-em (0.60) (0.50) Mean Field 1.03 ( e-2) (0.60) (0.59) Simulated Field 0.90 ( e-2) (0.56) (0.64) MCVEM 0.85 ( e-2) (0.59) (0.59) MC2-EM 0.89 ( e-2) (0.53) (0.54) Gibbsian-EM 0.89 ( e-2) (0.53) (0.54)

32 Estimation d un Potts caché Data 3 : données simulées K = 4, images Paramètre θ (attache aux données) : toujours bien estimé. Résultat d estimation de β et erreur de classification: algorithm β error rate ref. true values ind-em (0.54) (0.45) Mean Field 1.05 ( e-2) (0.51) (0.45) Simulated Field 0.90 ( e-2) (0.55) (0.48) MCVEM 0.81 ( e-2) (0.50) (0.45) MC2-EM 0.89 ( e-2) (0.49) (0.47) Gibbsian-EM 0.89 ( e-2) (0.50) (0.47)

33 Estimation d un Potts caché Data 4: Logo Image ; 2 couleurs. Estimation des paramètres algorithm β µ 1 µ 2 σ 1 σ 2 error rate true values ind-em Mean Field Simulated Field MCVEM MC2-EM Gibbsian-EM

34 Estimation d un Potts caché Data 4: Logo (suite) (gauche) Sensibilité aux paramètres d implémentation Mean Field, Simulated Field and MCVEM (droite) Evolution de l erreur de classification en fonction de β (et sensibilité à la non-unicité de la solution de l équation au point fixe)

35 Estimation d un Potts caché Data 4: Logo (suite) Image ; 2 couleurs. Segmentation : Fig.: [top, from left to right] original image, noise-corrupted image, initial segmentation using kmeans, ind-em, MC2-EM; [bottom, from left to right] Gibbsian-EM, Simulated Field, Mean Field, MCVEM, MCVEM + Median Filter

36 Estimation d un Potts caché Data 5: Image satellite Image Segmentation :

Champ de Markov couple pour la segmentation d images texturées

Champ de Markov couple pour la segmentation d images texturées Champ de Markov couple pour la segmentation d images texturées Juliette Blanchet INRIA Rhône-Alpes Equipes Mistis et Lear 1 Segmention d images par champ de Markov caché 2 Segmentation de textures 3 Résultats

Plus en détail

INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV

INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV Séminaire MTDE 22 mai 23 INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV Vincent Mazet CRAN CNRS UMR 739, Université Henri Poincaré, 5456 Vandœuvre-lès-Nancy Cedex 1 juillet 23 Sommaire

Plus en détail

5 Méthodes algorithmiques

5 Méthodes algorithmiques Cours 5 5 Méthodes algorithmiques Le calcul effectif des lois a posteriori peut s avérer extrêmement difficile. En particulier, la prédictive nécessite des calculs d intégrales parfois multiples qui peuvent

Plus en détail

Principales caractéristiques de Mixmod

Principales caractéristiques de Mixmod Modèle de mélanges Principales caractéristiques de Mixmod Gérard Govaert et Gilles Celeux 24 octobre 2006 1 Plan Le modèledemélange Utilisations du modèle de mélange Les algorithmes de Mixmod Modèle de

Plus en détail

Analyse d images, vision par ordinateur. Partie 6: Segmentation d images. Segmentation? Segmentation?

Analyse d images, vision par ordinateur. Partie 6: Segmentation d images. Segmentation? Segmentation? Analyse d images, vision par ordinateur Traitement d images Segmentation : partitionner l image en ses différentes parties. Reconnaissance : étiqueter les différentes parties Partie 6: Segmentation d images

Plus en détail

Projet : Recherche de source d onde gravitationnelle (analyse de données Metropolis Hastings Markov Chain) 1

Projet : Recherche de source d onde gravitationnelle (analyse de données Metropolis Hastings Markov Chain) 1 Université Paris Diderot Physique L2 2014-2015 Simulations Numériques SN4 Projet : Recherche de source d onde gravitationnelle (analyse de données Metropolis Hastings Markov Chain) 1 Objectifs : Simuler

Plus en détail

Analyse des données individuelles groupées

Analyse des données individuelles groupées Analyse des données individuelles groupées Analyse des Temps de Réponse Le modèle mixte linéaire (L2M) Y ij, j-ième observation continue de l individu i (i = 1,, N ; j =1,, n) et le vecteur des réponses

Plus en détail

Mélanges de gaussiennes distribués et incrémentaux

Mélanges de gaussiennes distribués et incrémentaux Mélanges de gaussiennes distribués et incrémentaux CRP Gabriel Lippmann, Luxembourg Pierrick Bruneau Plan Introduction Algorithme EM Variationnel Bayesien pour les GMM Estimation automatique de la complexité

Plus en détail

Rapport de Stage : Analyse d images aériennes de haute résolution du département de Haute Savoie

Rapport de Stage : Analyse d images aériennes de haute résolution du département de Haute Savoie Rapport de Stage : Analyse d images aériennes de haute résolution du département de Haute Savoie Jean Fortin 30 mai au 22 juillet 2005 Stage de licence effectué au laboratoire MAP-ARIA, à l école d architecture

Plus en détail

Vision par ordinateur

Vision par ordinateur Vision par ordinateur Stéréoscopie par minimisation d'énergie Frédéric Devernay d'après le cours de Richard Szeliski Mise en correspondance stéréo Quels algorithmes possibles? mettre en correspondance

Plus en détail

Introduction aux Méthodes de Monte Carlo

Introduction aux Méthodes de Monte Carlo Méthodes de Monte Carlo pour la Modélisation et le Calcul Intensif Applications à la Physique Numérique et à la Biologie Séminaire CIMENT GRID Introduction aux Méthodes de Monte Carlo Olivier François

Plus en détail

Régression logistique

Régression logistique Régression logistique Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Régression logistique p. 1 Introduction Objectifs Le classifieur de Bayes est basé sur la comparaison des probabilités

Plus en détail

Chaînes de Markov Cachées Floues et Segmentation d Images

Chaînes de Markov Cachées Floues et Segmentation d Images Introduction Chaînes de Markov Cachées Floues et Segmentation d Images Cyril Carincotte et Stéphane Derrode Équipe GSM Groupe Signaux Multi-dimensionnels Institut Fresnel (UMR 6133) EGIM Université Paul

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Mathématiques et Applications 57. Modèles aléatoires. Applications aux sciences de l'ingénieur et du vivant

Mathématiques et Applications 57. Modèles aléatoires. Applications aux sciences de l'ingénieur et du vivant Mathématiques et Applications 57 Modèles aléatoires Applications aux sciences de l'ingénieur et du vivant Bearbeitet von Jean-François Delmas, Benjamin Jourdain 1. Auflage 2006. Taschenbuch. xxv, 431 S.

Plus en détail

Thèse de statistiques dans une PME : La localisation intra-muros WiFi

Thèse de statistiques dans une PME : La localisation intra-muros WiFi Thèse de statistiques dans une PME : La localisation intra-muros WiFi Thierry Dumont 1 1 Bureau E 20 Bât.G, Université Paris Ouest, 200 Av. République Nanterre France Résumé. Cet exposé revient sur la

Plus en détail

Regime Switching Model : une approche «pseudo» multivarie e

Regime Switching Model : une approche «pseudo» multivarie e Regime Switching Model : une approche «pseudo» multivarie e A. Zerrad 1, R&D, Nexialog Consulting, Juin 2015 azerrad@nexialog.com Les crises financières survenues dans les trente dernières années et les

Plus en détail

I Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème...

I Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème... TABLE DES MATIÈRES 5 Table des matières I Stabilité, Commandabilité et Observabilité 11 1 Introduction 13 1.1 Un exemple emprunté à la robotique................... 13 1.2 Le plan...................................

Plus en détail

Module Mixmod pour OpenTURNS

Module Mixmod pour OpenTURNS Module Mixmod pour OpenTURNS Régis LEBRUN EADS Innovation Works 23 septembre 2013 EADS IW 2013 (EADS Innovation Work) 23 septembre 2013 1 / 21 Outline Plan 1 OpenTURNS et propagation d incertitudes 2 Mixmod

Plus en détail

Processus Markoviens Déterministes par Morceaux et Fiabilité Dynamique

Processus Markoviens Déterministes par Morceaux et Fiabilité Dynamique Processus Markoviens Déterministes par Morceaux et Fiabilité Dynamique Karen Gonzalez Benoîte de Saporta et François Dufour IMB, Université Bordeaux Neuvième Colloque Jeunes Probabilistes et Statisticiens

Plus en détail

SPLEX Statistiques pour la classification et fouille de données en

SPLEX Statistiques pour la classification et fouille de données en SPLEX Statistiques pour la classification et fouille de données en génomique Classification Linéaire Binaire CLB Pierre-Henri WUILLEMIN DEcision, Système Intelligent et Recherche opérationnelle LIP6 pierre-henri.wuillemin@lip6.fr

Plus en détail

Segmentation non supervisée d images par chaîne de Markov couple

Segmentation non supervisée d images par chaîne de Markov couple Segmentation non supervisée d images par chaîne de Markov couple Stéphane Derrode 1 et Wojciech Pieczynski 2 1 École Nationale Supérieure de Physique de Marseille, Groupe Signaux Multidimensionnels, laboratoire

Plus en détail

Analyse d images en vidéosurveillance embarquée dans les véhicules de transport en commun

Analyse d images en vidéosurveillance embarquée dans les véhicules de transport en commun des s Analyse d images en vidéosurveillance embarquée dans les véhicules de transport en commun Sébastien Harasse thèse Cifre LIS INPG/Duhamel le 7 décembre 2006 1 Système de surveillance des s Enregistreur

Plus en détail

A. Chambaz, L. Meyer, P. Tubert-Bitter. 22 juin 2010

A. Chambaz, L. Meyer, P. Tubert-Bitter. 22 juin 2010 Présentation du parcours Biostatistique de la spécialité Recherche en santé publique du Master 2 Santé Publique de l université Paris-Sud, cohabilité Paris Descartes A. Chambaz, L. Meyer, P. Tubert-Bitter

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

INTRODUCTION : EDP ET FINANCE.

INTRODUCTION : EDP ET FINANCE. INTRODUCTION : EDP ET FINANCE. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) EDP et finance. 1 / 16 PLAN DU COURS 1 MODÈLE ET ÉQUATION DE BLACK SCHOLES 2 QUELQUES EXTENSIONS A. Popier

Plus en détail

Analyse de survie appliquée à la modélisation de la transmission des maladies infectieuses : mesurer l impact des interventions

Analyse de survie appliquée à la modélisation de la transmission des maladies infectieuses : mesurer l impact des interventions Analyse de survie appliquée à la modélisation de la transmission des maladies infectieuses : mesurer l impact des interventions Génia Babykina 1 & Simon Cauchemez 2 1 Université de Lille, Faculté Ingénierie

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Analyse d images. L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Analyse d images. L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories : Analyse d images La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers

Plus en détail

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories : La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.

Plus en détail

de calibration Master 2: Calibration de modèles: présentation et simulation d

de calibration Master 2: Calibration de modèles: présentation et simulation d Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe

Plus en détail

Problème de contrôle optimal pour une chaîne de Markov

Problème de contrôle optimal pour une chaîne de Markov Problème de contrôle optimal pour une chaîne de Markov cours ENSTA MA206 Il s agit de résoudre un problème d arrêt optimal pour une chaîne de Markov à temps discret. Soit X n une chaîne de Markov à valeurs

Plus en détail

Introduction à la simulation de Monte Carlo

Introduction à la simulation de Monte Carlo Introduction à la simulation de 6-601-09 Simulation Geneviève Gauthier HEC Montréal e 1 d une I Soit X 1, X,..., X n des variables aléatoires indépendantes et identiquement distribuées. Elles sont obtenues

Plus en détail

Analyse de données longitudinales continues avec applications

Analyse de données longitudinales continues avec applications Université de Liège Département de Mathématique 29 Octobre 2002 Analyse de données longitudinales continues avec applications David MAGIS 1 Programme 1. Introduction 2. Exemples 3. Méthodes simples 4.

Plus en détail

Informatique visuelle - Vision par ordinateur. Pré-traitement d images

Informatique visuelle - Vision par ordinateur. Pré-traitement d images Informatique visuelle - Vision par ordinateur Pré-traitement d images Elise Arnaud elise.arnaud@imag.fr cours inspiré par X. Descombes, J. Ros, A. Boucher, A. Manzanera, E. Boyer, M Black, V. Gouet-Brunet

Plus en détail

Estimation et calibration des paramètres

Estimation et calibration des paramètres et calibration des paramètres 6-601-09 Simulation Monte Carlo Geneviève Gauthier HEC Montréal 1 1. Nous allons discuter des diverses façons de déterminer les paramètres des modèles que nous employons lors

Plus en détail

Modélisation des codes de calcul dans. le cadre des processus gaussiens

Modélisation des codes de calcul dans. le cadre des processus gaussiens Modélisation des codes de calcul dans le cadre des processus gaussiens Amandine Marrel Laboratoire de Modélisation des Transferts dans l Environnement CEA Cadarache Introduction (1) Fiabilité et calcul

Plus en détail

Support Vector Machines

Support Vector Machines Support Vector Machines Séparateurs à vaste marge Arnaud Revel revel.arnaud@gmail.com Plan 1 Introduction 2 Formalisation 3 Utilisation des noyaux 4 Cas multi-classes 5 Applications des SVM 6 Bibliographie

Plus en détail

Raisonnement probabiliste

Raisonnement probabiliste Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte

Plus en détail

Segmentation conjointe d images et copules Joint image segmentation and copulas

Segmentation conjointe d images et copules Joint image segmentation and copulas Segmentation conjointe d images et copules Joint image segmentation and copulas Stéphane Derrode 1 et Wojciech Pieczynski 2 1 École Centrale Marseille & Institut Fresnel (CNRS UMR 6133), 38, rue F. Joliot-Curie,

Plus en détail

Le Modèle de Black-Scholes. DeriveXperts. 27 octobre 2010

Le Modèle de Black-Scholes. DeriveXperts. 27 octobre 2010 27 octobre 2010 Outline 1 Définitions Le modèle de diffusion de Black-Scholes Portefeuille auto-finançant Objectif de BS 2 Portefeuille auto-finançant et formule de Black-Scholes Formulation mathématique

Plus en détail

Prise en compte de la stochasticité dans les modèles : optimisation robuste

Prise en compte de la stochasticité dans les modèles : optimisation robuste Prise en compte de la stochasticité dans les modèles : optimisation robuste Rodolphe Le Riche (CNRS & EMSE) & Victor Picheny (INRA) La Rochelle, 5/11/2014 Plan Introduction 1 Introduction 2 Formulations

Plus en détail

Modèlisation statistique d un championnat de football. Extension au tournoi de fighting

Modèlisation statistique d un championnat de football. Extension au tournoi de fighting Modèlisation statistique d un championnat de football. Extension au tournoi de fighting Eric Parent, Edouard Kolf le 20 décembre 2012, AppliBUGS, Paris Contents 1 Exemple du championnat de football 2 3

Plus en détail

Master IAD Module PS. Reconnaissance de la parole (suite) Modèles de Markov et bases de données. Gaël RICHARD Février 2008

Master IAD Module PS. Reconnaissance de la parole (suite) Modèles de Markov et bases de données. Gaël RICHARD Février 2008 Master IAD Module PS Reconnaissance de la parole (suite) Modèles de Markov et bases de données Gaël RICHARD Février 2008 1 Reconnaissance de la parole Introduction Approches pour la reconnaissance vocale

Plus en détail

Heuristique et métaheuristique. 8. Optimisation combinatoire et métaheuristiques. Optimisation combinatoire. Problème du voyageur de commerce

Heuristique et métaheuristique. 8. Optimisation combinatoire et métaheuristiques. Optimisation combinatoire. Problème du voyageur de commerce Heuristique et métaheuristique IFT1575 Modèles de recherche opérationnelle (RO) 8. Optimisation combinatoire et métaheuristiques Un algorithme heuristique permet d identifier au moins une solution réalisable

Plus en détail

PROPOSITION D UNE APPROCHE DE SEGMENTATION D IMAGES HYPERSPECTRALES

PROPOSITION D UNE APPROCHE DE SEGMENTATION D IMAGES HYPERSPECTRALES PROPOSITION D UNE APPROCHE DE SEGMENTATION D IMAGES HYPERSPECTRALES Nathalie GORRETTA MONTEIRO 1 1 UMR Information et Technologies pour les Agro-Procédés, Cemagref Montpellier, France Présentée le 25 Février

Plus en détail

Comment choisir sa pizza? Test A/B. Comment choisir sa pizza? Comment choisir sa pizza? Difficulté de l évaluation. De manière plus sérieuse...

Comment choisir sa pizza? Test A/B. Comment choisir sa pizza? Comment choisir sa pizza? Difficulté de l évaluation. De manière plus sérieuse... Comment choisir sa pizza? Test A/B Introduction à l apprentissage par renforcement Guillaume Wisniewski guillaume.wisniewski@limsi.fr Université Paris Sud LIMSI J aime beaucoup les «4 Est-ce que je dois

Plus en détail

Modèles de Markov Couples et Triplets et quelques applications

Modèles de Markov Couples et Triplets et quelques applications Modèles de Markov Couples et Triplets et quelques applications F. Salzenstein Université De Strasbourg Laboratoire ICube, équipe IPP Sommaire 1 chaînes de Markov Algorithme d inférence général Chaînes

Plus en détail

Evaluation de performance en Sûreté de Fonctionnement

Evaluation de performance en Sûreté de Fonctionnement Groupe SdF Midi-Pyrénées Toulouse 5 juin 2015 Evaluation de performance en Sûreté de Fonctionnement - Andre.cabarbaye Plan Introduction Types de performances Finalité des analyses Attentes du donneur d

Plus en détail

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7. Statistique Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.fr Cours Statistique, 2010 p. 1/52 Plan du cours Chapitre 1 : Estimation

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Probabilités 5. Simulation de variables aléatoires

Probabilités 5. Simulation de variables aléatoires Probabilités 5. Simulation de variables aléatoires Céline Lacaux École des Mines de Nancy IECL 27 avril 2015 1 / 25 Plan 1 Méthodes de Monte-Carlo 2 3 4 2 / 25 Estimation d intégrales Fiabilité d un système

Plus en détail

Estimation bayésienne des paramètres d un modèle de culture implémenté sous VLE

Estimation bayésienne des paramètres d un modèle de culture implémenté sous VLE Estimation bayésienne des paramètres d un modèle de culture implémenté sous VLE Arnaud Bensadoun François Brun (ACTA), Philippe Debaeke (INRA), Daniel Wallach (INRA), Luc Champolivier (CETIOM), Emmanuelle

Plus en détail

DataHighDim. ACI «Masse de Données» - 2003. Analyse exploratoire et discriminante de données en grande dimension

DataHighDim. ACI «Masse de Données» - 2003. Analyse exploratoire et discriminante de données en grande dimension ACI «Masse de Données» - 2003 DataHighDim Analyse exploratoire et discriminante de données en grande dimension Anne Guérin-Dugué Laboratoire CLIPS Grenoble UJF, CNRS UMR 5524 Communication Langagière et

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Séparation de sources et détection d anomalies en imagerie Hyperspectrale

Séparation de sources et détection d anomalies en imagerie Hyperspectrale Séparation de sources et détection d anomalies en imagerie Hyperspectrale Alexis Huck, Magellium Mireille Guillaume, Institut Fresnel Colloque d inauguration de la Société Française de Télédétection Hyperspectrale

Plus en détail

Objectifs. Calcul scientifique. Champ d applications. Pourquoi la simulation numérique?

Objectifs. Calcul scientifique. Champ d applications. Pourquoi la simulation numérique? Objectifs Calcul scientifique Alexandre Ern ern@cermics.enpc.fr (CERMICS, Ecole des Ponts ParisTech) Le Calcul scientifique permet par la simulation numérique de prédire, optimiser, contrôler... le comportement

Plus en détail

Régression de Poisson

Régression de Poisson ZHANG Mudong & LI Siheng & HU Chenyang 21 Mars, 2013 Plan Composantes des modèles Estimation Qualité d ajustement et Tests Exemples Conclusion 2/25 Introduction de modèle linéaire généralisé La relation

Plus en détail

Génération aléatoire de structures ordonnées

Génération aléatoire de structures ordonnées Génération aléatoire de structures ordonnées Olivier Roussel Équipe APR Laboratoire d Informatique de Paris 6 Université Pierre et Marie Curie ALÉA 2011 7 mars 2011 Olivier Roussel (LIP6) Génération de

Plus en détail

Master Modélisation Statistique M2 Finance - chapitre 4 Mouvement Brownien et modèle de Black-Scholes

Master Modélisation Statistique M2 Finance - chapitre 4 Mouvement Brownien et modèle de Black-Scholes Master Modélisation Statistique M2 Finance - chapitre 4 Mouvement Brownien et modèle de Black-Scholes Clément Dombry, Laboratoire de Mathématiques de Besançon, Université de Franche-Comté. C.Dombry (Université

Plus en détail

Apprentissage du filtre de Kalman couple avec application à la poursuite de l iris

Apprentissage du filtre de Kalman couple avec application à la poursuite de l iris Apprentissage du filtre de Kalman couple avec application à la poursuite de l iris Valérian Némesin, Stéphane Derrode, Institut Fresnel (UMR 7249) Ecole Centrale Marseille, Vidéo de l oeil 2 Sommaire 1.

Plus en détail

Filtrage et EDP. Philippe Montesinos. EMA/LGI2P - Site EERIE. Parc Scientifique G. Besse - 30035 Nîmes Cedex 1- France http://www.lgi2p.ema.

Filtrage et EDP. Philippe Montesinos. EMA/LGI2P - Site EERIE. Parc Scientifique G. Besse - 30035 Nîmes Cedex 1- France http://www.lgi2p.ema. Filtrage et EDP Philippe Montesinos EMA/LGI2P - Site EERIE Parc Scientifique G. Besse - 30035 Nîmes Cedex 1- France http://www.lgi2p.ema.fr 1 Plan 1. Rappels: - Les analyses multi-échelles. - Méthodes

Plus en détail

Mesure agnostique de la qualité des images.

Mesure agnostique de la qualité des images. Mesure agnostique de la qualité des images. Application en biométrie Christophe Charrier Université de Caen Basse-Normandie GREYC, UMR CNRS 6072 Caen, France 8 avril, 2013 C. Charrier NR-IQA 1 / 34 Sommaire

Plus en détail

1 Introduction 1 1.1 Contexte de l étude... 1 1.2 Contributions de ce travail... 3

1 Introduction 1 1.1 Contexte de l étude... 1 1.2 Contributions de ce travail... 3 Table des matières Introduction. Contexte de l étude....................................2 Contributions de ce travail............................... 3 2 Signaux aléatoires à densité de probabilité à queue

Plus en détail

Rev. Ivoir. Sci. Technol., 19 (2012) 59 71. ISSN 1813-3290, http://www.revist.ci

Rev. Ivoir. Sci. Technol., 19 (2012) 59 71. ISSN 1813-3290, http://www.revist.ci 59 ISSN 1813-3290, http://www.revist.ci RÉGRESSION LOGISTIQUE DANS LES ESSAIS CLINIQUES PAR MCMC Ahlam LABDAOUI * et Hayet MERABET Département de Mathématiques, Université Mentouri-Constantine, Route d

Plus en détail

Soutenance de stage Laboratoire des Signaux et Systèmes

Soutenance de stage Laboratoire des Signaux et Systèmes Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud

Plus en détail

Jeffrey S. Rosenthal

Jeffrey S. Rosenthal Les marches aléatoires et les algorithmes MCMC Jeffrey S. Rosenthal University of Toronto jeff@math.toronto.edu http ://probability.ca/jeff/ (CRM, Montréal, Jan 12, 2007) Un processus stochastique Qu est-ce

Plus en détail

Optimisation de la géométrie du voisinage pour la segmentation d images texturées

Optimisation de la géométrie du voisinage pour la segmentation d images texturées Optimisation de la géométrie du voisinage pour la segmentation d images texturées Pierre Beauseroy & André Smolarz Institut des Sciences et Technologies de l Information de Troyes (FRE 73) Université de

Plus en détail

Chapitre 2 : Méthode de Monte-Carlo avec tirages indépendants, pour le calcul approché d une intégrale.

Chapitre 2 : Méthode de Monte-Carlo avec tirages indépendants, pour le calcul approché d une intégrale. Aix Marseille Université. Algorithmes Stochastiques. M MIS. Fabienne Castell... Chapitre : Méthode de Monte-Carlo avec tirages indépendants, pour le calcul approché d une intégrale. Le but de ce chapitre

Plus en détail

Annexe : Programme du master de mathématiques : Spécialité Ingénierie Mathématique Première Année. Tronc commun

Annexe : Programme du master de mathématiques : Spécialité Ingénierie Mathématique Première Année. Tronc commun Annexe : Programme du master de mathématiques : Spécialité Ingénierie Mathématique Première Année Tronc commun MI1 Analyse fonctionnelle pour l'ingénieur: (64 H ; C : 32 H, TD : 32 H) (ECTS : 8) - Eléments

Plus en détail

Préparation à l agrégation 2012/2013. Mots clés : Graphes. Vecteur propre ; matrices stochastiques ; matrices à coefficients positifs.

Préparation à l agrégation 2012/2013. Mots clés : Graphes. Vecteur propre ; matrices stochastiques ; matrices à coefficients positifs. Mots clés : Graphes. Vecteur propre ; matrices stochastiques ; matrices à coefficients positifs. Le jury n exige pas une compréhension exhaustive du texte. Vous êtes laissé(e) libre d organiser votre discussion

Plus en détail

Approche bayésienne des modèles à équations structurelles

Approche bayésienne des modèles à équations structurelles Manuscrit auteur, publié dans "42èmes Journées de Statistique (2010)" Approche bayésienne des modèles à équations structurelles Séverine Demeyer 1,2 & Nicolas Fischer 1 & Gilbert Saporta 2 1 LNE, Laboratoire

Plus en détail

Application du deep learning à la traduction automatisée

Application du deep learning à la traduction automatisée Application du deep learning à la traduction automatisée soutenance de stage Montreal Institute for Learning Algorithms sous l encadrement de Yoshua Bengio et Pascal Vincent Avril - Août 2014 1/33 Plan

Plus en détail

Les données manquantes en statistique

Les données manquantes en statistique Les données manquantes en statistique N. MEYER Laboratoire de Biostatistique -Faculté de Médecine Dép. Santé Publique CHU - STRASBOURG Séminaire de Statistique - 7 novembre 2006 Les données manquantes

Plus en détail

Un algorithme ICM basé sur la compacité pour la segmentation des images satellites à très haute résolution

Un algorithme ICM basé sur la compacité pour la segmentation des images satellites à très haute résolution Un algorithme ICM basé sur la compacité pour la segmentation des images satellites à très haute résolution Jérémie Sublime, Younès Bennani, Antoine Cornuéjols AgroParisTech, INRA UMR MIA 518 16 rue Claude

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme Distance et classification Cours 4: Traitement du signal et reconnaissance de forme Plan Introduction Pré-traitement Segmentation d images Morphologie mathématique Extraction de caractéristiques Classification

Plus en détail

Agrégation des portefeuilles de contrats d assurance vie

Agrégation des portefeuilles de contrats d assurance vie Agrégation des portefeuilles de contrats d assurance vie Est-il optimal de regrouper les contrats en fonction de l âge, du genre, et de l ancienneté des assurés? Pierre-O. Goffard Université d été de l

Plus en détail

Une Approche basée sur la Simulation pour l Optimisation des Processus Décisionnels Semi-Markoviens Généralisés

Une Approche basée sur la Simulation pour l Optimisation des Processus Décisionnels Semi-Markoviens Généralisés Une Approche basée sur la Simulation pour l Optimisation des Processus Décisionnels Semi-Markoviens Généralisés Emmanuel Rachelson 1 Patrick Fabiani 1 Frédérick Garcia 2 Gauthier Quesnel 2 1 ONERA-DCSD

Plus en détail

Calibration de systèmes de levé mobiles

Calibration de systèmes de levé mobiles 1/30 Calibration de systèmes de levé mobiles S. Levilly, N. Seube ENSTA Bretagne Brest, FRANCE et CIDCO Rimouski Qc, CANADA Journées AFHy, Juin 2014 Les systèmes mobiles Ils sont généralement constitués

Plus en détail

Variable Neighborhood Search

Variable Neighborhood Search Variable Neighborhood Search () Universite de Montreal 6 avril 2010 Plan Motivations 1 Motivations 2 3 skewed variable neighborhood search variable neighborhood decomposition search 4 Le probleme d optimisation.

Plus en détail

Sur l apprentissage de Réseaux Bayésiens à partir de bases d exemples incomplètes et application à la classification

Sur l apprentissage de Réseaux Bayésiens à partir de bases d exemples incomplètes et application à la classification Sur l apprentissage de Réseaux Bayésiens à partir de bases d exemples incomplètes et application à la classification et Philippe LERAY, Laboratoire LITIS, Rouen. Rencontres Inter-Associations La classification

Plus en détail

Feuille n 2 : Contrôle du flux de commandes

Feuille n 2 : Contrôle du flux de commandes Logiciels Scientifiques (Statistiques) Licence 2 Mathématiques Générales Feuille n 2 : Contrôle du flux de commandes Exercice 1. Vente de voiture Mathieu décide de s acheter une voiture neuve qui coûte

Plus en détail

Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005. Leçons d Algèbre et de Géométrie

Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005. Leçons d Algèbre et de Géométrie http://perso.wanadoo.fr/gilles.costantini/agreg.htm Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005 Légende : En italique : leçons dont le libellé a changé ou évolué par rapport

Plus en détail

Simulation d un système d assurance automobile

Simulation d un système d assurance automobile Simulation d un système d assurance automobile DESSOUT / PLESEL / DACHI Plan 1 Introduction... 2 Méthodes et outils utilisés... 2.1 Chaines de Markov... 2.2 Méthode de Monte Carlo... 2.3 Méthode de rejet...

Plus en détail

Arrêt optimal et optimisation de la maintenance

Arrêt optimal et optimisation de la maintenance Benoîte de Saporta CQFD - Contrôle de Qualité et Fiabilité Dynamique 22 septembre 2011 Benoîte de Saporta 1/34 Plan 1 Un problème de maintenance 2 Modélisation mathématique 3 Stratégie de résolution 4

Plus en détail

Equation de la chaleur sous contrainte

Equation de la chaleur sous contrainte Equation de la chaleur sous contrainte Proposé par Aline Lefebvre-Lepot aline.lefebvre@polytechnique.edu On cherche à résoudre l équation de la chaleur dans un domaine Ω en imposant une contrainte sur

Plus en détail

MIXMOD. Un ensemble logiciel de classification des données par modèles de mélanges MIXMOD. F. Langrognet () MIXMOD Avril 2012 1 / 28

MIXMOD. Un ensemble logiciel de classification des données par modèles de mélanges MIXMOD. F. Langrognet () MIXMOD Avril 2012 1 / 28 MIXMOD Un ensemble logiciel de classification des données par modèles de mélanges MIXMOD F. Langrognet () MIXMOD Avril 2012 1 / 28 PLAN 1 La classification des données 2 MIXMOD, ensemble logiciel de classification

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Econométrie. février 2008. Boutin, Rathelot

Econométrie. février 2008. Boutin, Rathelot 5ème séance Xavier Boutin Roland Rathelot Supélec février 2008 Plan Variables binaires La question y = β 0 + β 1 x 1 +...β k x k + u Que se passe-t-il lorsque y est une variable {0, 1} et non plus une

Plus en détail

Restauration d images

Restauration d images Restauration d images Plan Présentation du problème. Premières solutions naïves (moindre carrés, inverse généralisée). Méthodes de régularisation. Panorama des méthodes récentes. Problème général Un système

Plus en détail

Apprentissage de structure dans les réseaux bayésiens pour

Apprentissage de structure dans les réseaux bayésiens pour Apprentissage de structure dans les réseaux bayésiens pour la détection d événements vidéo Siwar Baghdadi 1, Claire-Hélène Demarty 1, Guillaume Gravier 2, et Patrick Gros 3 1 Thomson R&D France, 1 av Belle

Plus en détail

Introduction au modèle linéaire général

Introduction au modèle linéaire général Résumé Introductions au modèle linéaire général Retour au plan du cours Travaux pratiques 1 Introduction L objet de ce chapitre est d introduire le cadre théorique global permettant de regrouper tous les

Plus en détail

Groupe. Chapter 1. Félix Abecassis (CSI) Christopher Chedeau (CSI) Gauthier Lemoine (SCIA) Julien Marquegnies (CSI)

Groupe. Chapter 1. Félix Abecassis (CSI) Christopher Chedeau (CSI) Gauthier Lemoine (SCIA) Julien Marquegnies (CSI) Chapter 1 Groupe Félix Abecassis (CSI) Christopher Chedeau (CSI) Gauthier Lemoine (SCIA) Julien Marquegnies (CSI) Nous avons choisi d implémenter le projet avec le langage Javascript. L avantage offert

Plus en détail

Méthodes avancées en décision

Méthodes avancées en décision Méthodes avancées en décision Support vector machines - Chapitre 2 - Principes MRE et MRS Principe MRE. Il s agit de minimiser la fonctionnelle de risque 1 P e (d) = y d(x;w, b) p(x, y) dxdy. 2 La densité

Plus en détail

Une approche pour un contrôle non-linéaire temps réel

Une approche pour un contrôle non-linéaire temps réel Une approche pour un contrôle non-linéaire temps réel L. Mathelin 1 L. Pastur 1,2 O. Le Maître 1 1 LIMSI - CNRS Orsay 2 Université Paris-Sud 11 Orsay GdR Contrôle des décollements 25 Nov. 2009 Orléans

Plus en détail

Master 1 Informatique Éléments de statistique inférentielle

Master 1 Informatique Éléments de statistique inférentielle Master 1 Informatique Éléments de statistique inférentielle Faicel Chamroukhi Maître de Conférences UTLN, LSIS UMR CNRS 7296 email: chamroukhi@univ-tln.fr web: chamroukhi.univ-tln.fr 2014/2015 Faicel Chamroukhi

Plus en détail

Introduction aux Support Vector Machines (SVM)

Introduction aux Support Vector Machines (SVM) Introduction aux Support Vector Machines (SVM) Olivier Bousquet Centre de Mathématiques Appliquées Ecole Polytechnique, Palaiseau Orsay, 15 Novembre 2001 But de l exposé 2 Présenter les SVM Encourager

Plus en détail

M2, spécialité Ingénierie Mathématique Laboratoire de Mathématiques Jean Leray Département de Mathématiques Université de Nantes. Programme 2013-2014

M2, spécialité Ingénierie Mathématique Laboratoire de Mathématiques Jean Leray Département de Mathématiques Université de Nantes. Programme 2013-2014 M2, spécialité Ingénierie Mathématique Laboratoire de Mathématiques Jean Leray Département de Mathématiques Université de Nantes Programme 2013-2014 Contact : master-pro@math.univ-nantes.fr Option : CS

Plus en détail