Champ de Markov couple pour la segmentation d images texturées

Dimension: px
Commencer à balayer dès la page:

Download "Champ de Markov couple pour la segmentation d images texturées"

Transcription

1 Champ de Markov couple pour la segmentation d images texturées Juliette Blanchet INRIA Rhône-Alpes Equipes Mistis et Lear

2 1 Segmention d images par champ de Markov caché 2 Segmentation de textures 3 Résultats expérimentaux

3 1 Segmention d images par champ de Markov caché 2 Segmentation de textures 3 Résultats expérimentaux

4 Segmentation d images Observations X = (X i ) i S Retrouver la classification Y = (Y i ) i S Y champ de Markov f(x y) = i f(x i y i ) } (X,Y) est un champ de Markov caché avec bruit indépendant (HMF-IN)

5 Champ de Markov : définition Y = {Y i, i S}, discret (Y i [1,..., K]) S spatialement ordonné : N i = {voisins de i S}, C = {cliques} Y est un champ de Markov { P(yi y z, S\{i} ) = P(y i y Ni ) P(y) > 0 y, P(y) = W 1 exp( H(y)) (mesure de gibbs)

6 Champ de Markov : définition Y = {Y i, i S}, discret (Y i [1,..., K]) S spatialement ordonné : N i = {voisins de i S}, C = {cliques} Y est un champ de Markov { P(yi y z, S\{i} ) = P(y i y Ni ) P(y) > 0 y, P(y) = W 1 exp( H(y)) (mesure de gibbs) où : W = exp( H(y)) (constante de normalisation, incalculable) y H(y) = V c (y c ) (fonction d énergie) c C

7 Champ de Markov : exemple Modèle de Potts : H(y) = β i j 1 y i=y j β = 0.3 β = 0.4 β = 0.5 β = 0.6

8 Champ de Markov : exemple Modèle de Potts : H(y) = β i j 1 y i=y j β = 0.3 β = 0.4 β = 0.5 β = 0.6 Modèle de Potts généralisé : H(y) = i j B y i,y j B =( ) B = ( ) B = ( ) B =( )

9 Approximation en champ moyen P(y) incalculable Approche de type Champ moyen pour se ramener à un système de variables indépendantes. Pour un site i : j N(i), y j IE[Y j ] = µ j système de variables indépendantes P(y) i P(y i µ Ni ) P(y) i P(y i y N i )

10 Approximation en champ moyen P(y) incalculable Approche de type Champ moyen pour se ramener à un système de variables indépendantes. Pour un site i : j N(i), y j IE[Y j ] = µ j système de variables indépendantes P(y) i P(y i µ Ni ) P(y) i P(y i y N i ) Algorithme Champ moyen-em (MF-EM) sur (X,Y) : à chaque itération créer le champ des constantes y. appliquer l algorithme EM sur le système factorisé. estimation des paramètres, classification

11 Remarques Y est un champ de Markov et f(x y) = i S f(x i y i ) (X,Y) est un champ de Markov d énergie H(y) + i logf(x i y i )

12 Remarques Y est un champ de Markov et f(x y) = i S f(x i y i ) (X,Y) est un champ de Markov d énergie H(y) + i logf(x i y i ) Généralisation 1 : (X,Y) est un champ de Markov mais f(x y) i f(x i y i ) Approximation en champ moyen à (X,Y) MF-EM reste applicable, mais formules non explicites (descente de gradient)

13 Remarques Y est un champ de Markov et f(x y) = i S f(x i y i ) (X,Y) est un champ de Markov d énergie H(y) + i logf(x i y i ) Généralisation 1 : (X,Y) est un champ de Markov mais f(x y) i f(x i y i ) Approximation en champ moyen à (X,Y) MF-EM reste applicable, mais formules non explicites (descente de gradient) Généralisation 2 : Y non markovien? Ajout d un champ auxiliaire Z tel que : (Y,Z) est un couple markovien et f(x y,z) = i f(x i y i, z i ) MF-EM reste applicable à (X,Y,Z)

14 1 Segmention d images par champ de Markov caché 2 Segmentation de textures 3 Résultats expérimentaux

15 Reconnaissance de textures Apprentissage sur les images de chaque texture : Brique Tissu Sol modèle, paramètres Reconnaissance de nouvelles images :

16 Reconnaissance de textures Apprentissage sur les images de chaque texture : Brique Tissu Sol modèle, paramètres Reconnaissance de nouvelles images :

17 Reconnaissance de textures Apprentissage sur les images de chaque texture : Brique Tissu Sol modèle, paramètres Reconnaissance de nouvelles images : + Dépendance spatiale des données d une image + Données cachées Champ de Markov caché

18 Modélisation Observations X = {X i, i S} Retrouver la texture correspondante Y = {Y i, i S} Une texture = région non homogème plusieurs classes ajout d un champ auxiliaire Z = {Z i, i S} ( sous-classes) tel que : V = (Y, Z) markovien f(x y,z) = i f(x i y i, z i ) } (X,V) champ de Markov caché avec bruit indépendant (HMF-IN)

19 Modélisation Observations X = {X i, i S} Retrouver la texture correspondante Y = {Y i, i S} Une texture = région non homogème plusieurs classes ajout d un champ auxiliaire Z = {Z i, i S} ( sous-classes) tel que : V = (Y, Z) markovien f(x y,z) = i f(x i y i, z i ) } (X,V) champ de Markov caché avec bruit indépendant (HMF-IN) (Y,Z) Y X X

20 Modélisation P(y,z) exp( β 1 yi=y j + i j } {{ } une texture est un bloc i j B yiy j (z i, z j ) ) } {{ } corrélation entre sous-classes

21 Modélisation P(y,z) exp( β 1 yi=y j + i j } {{ } une texture est un bloc i j B yiy j (z i, z j ) ) } {{ } corrélation entre sous-classes (Y,Z) est un champ de Markov

22 Modélisation P(y,z) exp( β 1 yi=y j + i j } {{ } une texture est un bloc i j B yiy j (z i, z j ) ) } {{ } corrélation entre sous-classes (Y,Z) est un champ de Markov Ni Y ni Z ne sont des champs de Markov

23 Modélisation P(y,z) exp( β 1 yi=y j + i j } {{ } une texture est un bloc i j B yiy j (z i, z j ) ) } {{ } corrélation entre sous-classes (Y,Z) est un champ de Markov Ni Y ni Z ne sont des champs de Markov Z y est un champ de Markov

24 Modélisation P(y,z) exp( β 1 yi=y j + i j } {{ } une texture est un bloc i j B yiy j (z i, z j ) ) } {{ } corrélation entre sous-classes (Y,Z) est un champ de Markov Ni Y ni Z ne sont des champs de Markov Z y est un champ de Markov (X,Z y) HMF-IN Apprentissage

25 Modélisation P(y,z) exp( β 1 yi=y j + i j } {{ } une texture est un bloc i j B yiy j (z i, z j ) ) } {{ } corrélation entre sous-classes (Y,Z) est un champ de Markov Ni Y ni Z ne sont des champs de Markov Z y est un champ de Markov (X,Z y) HMF-IN Apprentissage Avec V = (Y,Z), (X,V) HMF-IN Test

26 Apprentissage et Reconnaissance Apprentissage sur le HMF-IN (X,Z y) : P(z y) i P(z i z N i,y) i exp( j N i B yiy j (z i, z j )) Application de MF-EM pour estimer les matrices B et les paramètres Θ des f(. y i, z i ) (gaussiennes)

27 Apprentissage et Reconnaissance Apprentissage sur le HMF-IN (X,Z y) : P(z y) i P(z i z N i,y) i exp( j N i B yiy j (z i, z j )) Application de MF-EM pour estimer les matrices B et les paramètres Θ des f(. y i, z i ) (gaussiennes) Reconnaissance sur le HMF-IN (X,V) avec V = (Y,Z) P(y,z) P(y i, z i y N i,z N i ) exp(β 1 yi=y j + ˆB yiy j (z i, zj )) i i j N i j N i Application de MF-EM pour estimer β, avec ˆB et ˆΘ connus. Classification par MAP ou MPM : P(y x) P(y i, z i y N i,z N i )f(x i y i, z i ) z i i

28 1 Segmention d images par champ de Markov caché 2 Segmentation de textures 3 Résultats expérimentaux

29 Echantillon des textures Brique Moquette Tissu Sol 1 Sol 2 Marbre Bois 7 10 = 70 images

30 Données : descripteurs locaux Niveaux de gris : information faible En vision : descripteurs locaux données multidimentionnelles (128) en des points significatifs, irrégulièrement espacés description plus compacte et complète, structure locale graphe de voisinage de Delaunay

31 Données : descripteurs locaux Niveaux de gris : information faible En vision : descripteurs locaux données multidimentionnelles (128) en des points significatifs, irrégulièrement espacés description plus compacte et complète, structure locale graphe de voisinage de Delaunay

32 Données : descripteurs locaux Niveaux de gris : information faible En vision : descripteurs locaux données multidimentionnelles (128) en des points significatifs, irrégulièrement espacés description plus compacte et complète, structure locale graphe de voisinage de Delaunay

33 Données : descripteurs locaux Niveaux de gris : information faible En vision : descripteurs locaux données multidimentionnelles (128) en des points significatifs, irrégulièrement espacés description plus compacte et complète, structure locale graphe de voisinage de Delaunay

34 Données : descripteurs locaux Niveaux de gris : information faible En vision : descripteurs locaux données multidimentionnelles (128) en des points significatifs, irrégulièrement espacés description plus compacte et complète, structure locale graphe de voisinage de Delaunay

35 Données : descripteurs locaux Niveaux de gris : information faible En vision : descripteurs locaux données multidimentionnelles (128) en des points significatifs, irrégulièrement espacés description plus compacte et complète, structure locale graphe de voisinage de Delaunay

36 Résultats 2 modèles : modèle indépendant modélisation par champ de Markov couple caché 70 images uni-textures, 68 multi-textures. f(. y i, z i ) = gaussienne de matrice de covariance diagonale (Σ diag ) ou paramétrée pour la grande dimension (Σ hdim ) [cf C.Bouveyron] Mod. Cov. Brique Moq. Tissu Sol1 Sol2 Marbre Bois Ind. Σ diag Ind. Σ hdim Mark. Σ diag Mark. Σ hdim

37 Un exemple...

38 Perspectives Pour l instant, V = (Y, Z) est markovien d énergie H et f(x v) = i f(x i v i ) exp( i 1 2σ 2 v i (x i m vi ) 2 ) Généraliser au cas du bruit non indépendant : f(x v) i f(x i v i ) mais le couple (X,V) reste markovien. P(x,v) exp( i 1 2σv 2 (x i m vi ) 2 + q viv j (x i m vi )(x j m vj )+H(v)) i i j Approximation en champ moyen de P(x, v) MF-EM reste applicable

MCMC et approximations en champ moyen pour les modèles de Markov

MCMC et approximations en champ moyen pour les modèles de Markov MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

Apprentissage Automatique

Apprentissage Automatique Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs

Plus en détail

de calibration Master 2: Calibration de modèles: présentation et simulation d

de calibration Master 2: Calibration de modèles: présentation et simulation d Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

CarrotAge, un logiciel pour la fouille de données agricoles

CarrotAge, un logiciel pour la fouille de données agricoles CarrotAge, un logiciel pour la fouille de données agricoles F. Le Ber (engees & loria) J.-F. Mari (loria) M. Benoît, C. Mignolet et C. Schott (inra sad) Conférence STIC et Environnement, Rouen, 19-20 juin

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Mesure agnostique de la qualité des images.

Mesure agnostique de la qualité des images. Mesure agnostique de la qualité des images. Application en biométrie Christophe Charrier Université de Caen Basse-Normandie GREYC, UMR CNRS 6072 Caen, France 8 avril, 2013 C. Charrier NR-IQA 1 / 34 Sommaire

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme

Plus en détail

Optimisation de la compression fractale D images basée sur les réseaux de neurones

Optimisation de la compression fractale D images basée sur les réseaux de neurones Optimisation de la compression fractale D images basée sur les réseaux de neurones D r BOUKELIF Aoued Communication Networks,Architectures and Mutimedia laboratory University of S.B.A aoued@hotmail.com

Plus en détail

Optimisation des fonctions de plusieurs variables

Optimisation des fonctions de plusieurs variables Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Master IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP

Master IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP Master IMA - UMPC Paris 6 RDMM - Année 2009-200 Fiche de TP Préliminaires. Récupérez l archive du logiciel de TP à partir du lien suivant : http://www.ensta.fr/~manzaner/cours/ima/tp2009.tar 2. Développez

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux hétérogènes Laurent Déjean Thales Airborne Systems/ENST-Bretagne Le 20 novembre 2006 Laurent Déjean Détection en

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane

Plus en détail

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR Mickaël Bergem 25 juin 2014 Maillages et applications 1 Table des matières Introduction 3 1 La modélisation numérique de milieux urbains

Plus en détail

Une introduction aux codes correcteurs quantiques

Une introduction aux codes correcteurs quantiques Une introduction aux codes correcteurs quantiques Jean-Pierre Tillich INRIA Rocquencourt, équipe-projet SECRET 20 mars 2008 1/38 De quoi est-il question ici? Code quantique : il est possible de corriger

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678 Sélection prédictive d un modèle génératif par le critère AICp Vincent Vandewalle To cite this version: Vincent Vandewalle. Sélection prédictive d un modèle génératif par le critère AICp. 41èmes Journées

Plus en détail

Vérification audiovisuelle de l identité

Vérification audiovisuelle de l identité Vérification audiovisuelle de l identité Rémi Landais, Hervé Bredin, Leila Zouari, et Gérard Chollet École Nationale Supérieure des Télécommunications, Département Traitement du Signal et des Images, Laboratoire

Plus en détail

Théorie de l estimation et de la décision statistique

Théorie de l estimation et de la décision statistique Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory

Plus en détail

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free. Actuariat I ACT2121 septième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement

Plus en détail

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire

Plus en détail

NON-LINEARITE ET RESEAUX NEURONAUX

NON-LINEARITE ET RESEAUX NEURONAUX NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail

Plus en détail

CHAPITRE 10. Jacobien, changement de coordonnées.

CHAPITRE 10. Jacobien, changement de coordonnées. CHAPITRE 10 Jacobien, changement de coordonnées ans ce chapitre, nous allons premièrement rappeler la définition du déterminant d une matrice Nous nous limiterons au cas des matrices d ordre 2 2et3 3,

Plus en détail

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation Laurent Denis STATXPERT Journée technologique "Solutions de maintenance prévisionnelle adaptées à la production" FIGEAC,

Plus en détail

Température corporelle d un castor (une petite introduction aux séries temporelles)

Température corporelle d un castor (une petite introduction aux séries temporelles) Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature

Plus en détail

Introduction à la statistique non paramétrique

Introduction à la statistique non paramétrique Introduction à la statistique non paramétrique Catherine MATIAS CNRS, Laboratoire Statistique & Génome, Évry http://stat.genopole.cnrs.fr/ cmatias Atelier SFDS 27/28 septembre 2012 Partie 2 : Tests non

Plus en détail

Traitement bas-niveau

Traitement bas-niveau Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.

Plus en détail

Asynchronisme : Cadres continu et discret

Asynchronisme : Cadres continu et discret N d ordre : 151 Année 2006 HABILITATION À DIRIGER DES RECHERCHES UNIVERSITÉ DE FRANCHE-COMTÉ Spécialité Informatique présentée par Sylvain CONTASSOT-VIVIER Docteur en Informatique Sujet Asynchronisme :

Plus en détail

Géométrie discrète Chapitre V

Géométrie discrète Chapitre V Géométrie discrète Chapitre V Introduction au traitement d'images Géométrie euclidienne : espace continu Géométrie discrète (GD) : espace discrétisé notamment en grille de pixels GD définition des objets

Plus en détail

Object Removal by Exemplar-Based Inpainting

Object Removal by Exemplar-Based Inpainting Object Removal by Exemplar-Based Inpainting Kévin Polisano A partir d un article de A. Criminisi, P. Pérez & H. K. Toyama 14/02/2013 Kévin Polisano Object Removal by Exemplar-Based Inpainting 14/02/2013

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Introduction au datamining

Introduction au datamining Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

Chapitre 6 Apprentissage des réseaux de neurones et régularisation Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la

Plus en détail

TABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie

TABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats Pierre Dagnelie TABLE DES MATIÈRES 2012 Presses agronomiques de Gembloux pressesagro.gembloux@ulg.ac.be www.pressesagro.be

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Apprentissage statistique dans les graphes et les réseaux sociaux

Apprentissage statistique dans les graphes et les réseaux sociaux Apprentissage statistique dans les graphes et les réseaux sociaux Patrick Gallinari Collaboration : L. Denoyer, S. Peters Université Pierre et Marie Curie AAFD 2010 1 Plan Motivations et Problématique

Plus en détail

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d Laboratoire de Mécanique et Ingénieriesnieries EA 3867 - FR TIMS / CNRS 2856 ER MPS Modélisation stochastique d un d chargement d amplitude variable à partir de mesures Application à l approche fiabiliste

Plus en détail

Raisonnement probabiliste

Raisonnement probabiliste Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte

Plus en détail

Les algorithmes de base du graphisme

Les algorithmes de base du graphisme Les algorithmes de base du graphisme Table des matières 1 Traçage 2 1.1 Segments de droites......................... 2 1.1.1 Algorithmes simples.................... 3 1.1.2 Algorithmes de Bresenham (1965).............

Plus en détail

Le Data Mining au service du Scoring ou notation statistique des emprunteurs!

Le Data Mining au service du Scoring ou notation statistique des emprunteurs! France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative

Plus en détail

Dérivées d ordres supérieurs. Application à l étude d extrema.

Dérivées d ordres supérieurs. Application à l étude d extrema. Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

Modélisation géostatistique des débits le long des cours d eau.

Modélisation géostatistique des débits le long des cours d eau. Modélisation géostatistique des débits le long des cours d eau. C. Bernard-Michel (actuellement à ) & C. de Fouquet MISTIS, INRIA Rhône-Alpes. 655 avenue de l Europe, 38334 SAINT ISMIER Cedex. Ecole des

Plus en détail

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

Outils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP

Outils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP Outils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP Christophe Joubert Séminaire VASY 2002 30 Octobre 2002 Aix les Bains Contexte du projet

Plus en détail

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI 1 Déroulement d un projet en DATA MINING, préparation et analyse des données Walid AYADI 2 Les étapes d un projet Choix du sujet - Définition des objectifs Inventaire des données existantes Collecte, nettoyage

Plus en détail

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Une comparaison de méthodes de discrimination des masses de véhicules automobiles p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans

Plus en détail

Segmentation d images IRM anatomiques par inférence bayésienne multimodale et détection de lésions

Segmentation d images IRM anatomiques par inférence bayésienne multimodale et détection de lésions N d ordre : 5790 THÈSE présentée pour obtenir le grade de Docteur de l Université Louis Pasteur - Strasbourg I École Doctorale Discipline Spécialité : Mathématiques, Sciences de l Information et de l Ingénieur

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Gnuplot. Chapitre 3. 3.1 Lancer Gnuplot. 3.2 Options des graphes

Gnuplot. Chapitre 3. 3.1 Lancer Gnuplot. 3.2 Options des graphes Chapitre 3 Gnuplot Le langage C ne permet pas directement de dessiner des courbes et de tracer des plots. Il faut pour cela stocker résultats dans des fichier, et, dans un deuxième temps utiliser un autre

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

VIPE CNAM 6 mars 2015. Frank Meyer Orange Labs / IMT / UCE / CRM-DA / PROF

VIPE CNAM 6 mars 2015. Frank Meyer Orange Labs / IMT / UCE / CRM-DA / PROF CNAM 6 mars 205 Frank Meyer Orange Labs / IMT / UCE / CRM-DA / PROF 2 UCE / CRM-DA / PROF Application prototype pour l apprentissage multi-label interactif 2 sous-applications en ligne (utilisable par

Plus en détail

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories : La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.

Plus en détail

Pourquoi l apprentissage?

Pourquoi l apprentissage? Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage

Plus en détail

données en connaissance et en actions?

données en connaissance et en actions? 1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)

Plus en détail

Outils pour les réseaux de neurones et contenu du CD-Rom

Outils pour les réseaux de neurones et contenu du CD-Rom Outils pour les réseaux de neurones et contenu du CD-Rom Depuis le développement théorique des réseaux de neurones à la fin des années 1980-1990, plusieurs outils ont été mis à la disposition des utilisateurs.

Plus en détail

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2 Chapitre 8 Fonctions de plusieurs variables 8.1 Généralités sur les fonctions de plusieurs variables réelles Définition. Une fonction réelle de n variables réelles est une application d une partie de R

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Charles BOUVEYRON. Docteur en Mathématiques appliquées Maître de Conférences (section CNU 26) Université Paris 1 Panthéon-Sorbonne

Charles BOUVEYRON. Docteur en Mathématiques appliquées Maître de Conférences (section CNU 26) Université Paris 1 Panthéon-Sorbonne Charles BOUVEYRON Docteur en Mathématiques appliquées Maître de Conférences (section CNU 26) Université Paris 1 Panthéon-Sorbonne Contacts Né le 12/01/1979 Nationalité française E-mail : charles.bouveyron@univ-paris1.fr

Plus en détail

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 2 Discrimination Invariance Expressions faciales Age Pose Eclairage 11/12/2012 3 Personne Inconnue Identité

Plus en détail

Utilisation du module «Geostatistical Analyst» d ARCVIEW dans le cadre de la qualité de l air

Utilisation du module «Geostatistical Analyst» d ARCVIEW dans le cadre de la qualité de l air Etude n 10 Assistance en modélisation (Rapport 3/3) Utilisation du module «Geostatistical Analyst» d ARCVIEW dans le cadre de la qualité de l air Novembre 2004 Convention : 04000087 Giovanni CARDENAS Utilisation

Plus en détail

Estimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Estimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison Estimation: intervalle de fluctuation et de confiance Mars 2012 IREM: groupe Proba-Stat Estimation Term.1 Intervalle de fluctuation connu : probabilité p, taille de l échantillon n but : estimer une fréquence

Plus en détail

Théorèmes de Point Fixe et Applications 1

Théorèmes de Point Fixe et Applications 1 Théorèmes de Point Fixe et Applications 1 Victor Ginsburgh Université Libre de Bruxelles et CORE, Louvain-la-Neuve Janvier 1999 Published in C. Jessua, C. Labrousse et D. Vitry, eds., Dictionnaire des

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55

Plus en détail

Modélisation et simulation

Modélisation et simulation Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.

Plus en détail

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1 Christophe CANDILLIER Cours de DataMining mars 2004 age 1 1. Introduction 2. rocessus du DataMining 3. Analyse des données en DataMining 4. Analyse en Ligne OLA 5. Logiciels 6. Bibliographie Christophe

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail

INF6304 Interfaces Intelligentes

INF6304 Interfaces Intelligentes INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie

Plus en détail

STATISTIQUES. UE Modélisation pour la biologie

STATISTIQUES. UE Modélisation pour la biologie STATISTIQUES UE Modélisation pour la biologie 2011 Cadre Général n individus: 1, 2,..., n Y variable à expliquer : Y = (y 1, y 2,..., y n ), y i R Modèle: Y = Xθ + ε X matrice du plan d expériences θ paramètres

Plus en détail

PREPROCESSING PAR LISSAGE LOESS POUR ACP LISSEE

PREPROCESSING PAR LISSAGE LOESS POUR ACP LISSEE PREPROCESSING PAR LISSAGE LOESS POUR ACP LISSEE Jean-Paul Valois, Claude Mouret & Nicolas Pariset Total, 64018 Pau Cédex MOTS CLEFS : Analyse spatiale, ACP, Lissage, Loess PROBLEMATIQUE En analyse multivariée,

Plus en détail

Base de données opérationnelle pour les phénomènes PAN Commission SIGMA 2 - AAAF

Base de données opérationnelle pour les phénomènes PAN Commission SIGMA 2 - AAAF Le groupe 3AF (SIGMA 2) : - approfondir les cas intéressants exploitable (en aval du GEIPAN) - rechercher de nouveaux cas (bases de données, publications référencées) - constituer un réseau scientifique

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

PROCESSUS PONCTUELS MARKOVIENS

PROCESSUS PONCTUELS MARKOVIENS PROCESSUS PONCTUELS MARKOVIENS François JAULIN Juin 2008 Résumé Dans ce qui suit, on rappelle dans un premier temps quelques notions générales sur les processus ponctuels. On introduit ensuite les processus

Plus en détail

Analyse Sémantique de Nuages de Points 3D et d Images dans les Milieux Urbains

Analyse Sémantique de Nuages de Points 3D et d Images dans les Milieux Urbains Analyse Sémantique de Nuages de Points 3D et d Images dans les Milieux Urbains Andrés Felipe SERNA MORALES Directrice de thèse: Beatriz MARCOTEGUI ITURMENDI serna@cmm.ensmp.fr MINES ParisTech, Mathématiques

Plus en détail

4 Exemples de problèmes MapReduce incrémentaux

4 Exemples de problèmes MapReduce incrémentaux 4 Exemples de problèmes MapReduce incrémentaux 1 / 32 Calcul des plus courtes distances à un noeud d un graphe Calcul des plus courts chemins entre toutes les paires de noeuds d un graphe Algorithme PageRank

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

ANALYSE NUMERIQUE ET OPTIMISATION. Une introduction à la modélisation mathématique et à la simulation numérique

ANALYSE NUMERIQUE ET OPTIMISATION. Une introduction à la modélisation mathématique et à la simulation numérique 1 ANALYSE NUMERIQUE ET OPTIMISATION Une introduction à la modélisation mathématique et à la simulation numérique G. ALLAIRE 28 Janvier 2014 CHAPITRE I Analyse numérique: amphis 1 à 12. Optimisation: amphis

Plus en détail