Principales caractéristiques de Mixmod

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "Principales caractéristiques de Mixmod"

Transcription

1 Modèle de mélanges Principales caractéristiques de Mixmod Gérard Govaert et Gilles Celeux 24 octobre

2 Plan Le modèledemélange Utilisations du modèle de mélange Les algorithmes de Mixmod Modèle de mélange gaussien Choix de modèle Stratégies d utilisation des différents algorithmes Autres caractéristiques de Mixmod Plan 2

3 Le modèle de mélange Introduction Newcomb (1886) : détection de points atypiques Pearson (1894) : identification de deux populations de crabes Modélisation d une grande variété dephénomènes aléatoires Ensemble d individus provenant de différentes classes d origine inconnue Estimation semi-paramétrique Référence : McLachlan et Peel (2000) Algorithme EM Le modèle de mélange 3

4 Exemple des passereaux (1) Étude sur la migration des passereaux Mesure rapide (ne pas perturber les oiseaux) de la longueur de l aile en mm de 381 passereaux Sexe : information non disponible car difficile àidentifier Objectif : longueur de l aile des mâles et des femelles? Longueur Fréquence Polygone des fréquences Histogramme Fréquence Fréquence Longueur de l aile Longueur de l aile Le modèledemélange 4

5 Exemple des passereaux (2) Vecteur aléatoire (X, Z) X v. a. continue longueur de l aile Z v. a. discrète sexe (1 si M, 2 si F) Distribution de probabilité P (X I,Z A) = z A I f(x, z)dx où f densité de probabilité dansr 2, I intervalle réel et A {1, 2} Lois marginales f(x) = 2 z=1 f(x, z) loi mélange f(z) = f(x, z)dx loi dite a priori notée π R Le modèle de mélange 5

6 Exemple des passereaux (3) Problème : on dispose d un échantillon de X et non de (X, Z) On s appuie donc sur la loi de X, c est-à-dire sur la loi marginale où f(x) = π k f k f(x, k) = f(k)f(x/k) = π k f k (x) k=1 k=1 k=1 probabilité de la classe k densité conditionnelle de X sachant z = k Mélange fini de lois de probabilités Le modèle de mélange 6

7 Généralisation X vecteur aléatoire de R p Z v. a. discrète à valeur dans {1,...,g} Données x =(x 1,...,x n )échantillon iid issu de X f(x) = g π k f k (x) k=1 g nombre de composants f k densités de chacun des composants π k proportions du mélange Généralement, f k appartient à une famille paramétrée f(., α) f(x; θ) = k π k f(x; α k ) où θ =(π 1,...,π g,α 1,...,α g )estleparamètre du modèle Le modèle de mélange 7

8 Interprétation Connaissant les proportions π 1,...,π g et les distributions f k de chaque classe, les données sont générées suivant le mécanisme suivant z i M(π 1,...,π g ) x i loi de densité f zi Le modèle de mélange 8

9 Réalité delavariablez? Passereaux L existence de deux groupes, qui ont une signification physique, est incontestable Seule inconnue : valeur de cette variable pour les individus de l échantillon Utilisation du modèledemélange dans des situations où l existence même d une telle variable n est pas sûre Exemple d une étude portant sur les programmes de vaccination contre les oreillons Le modèle de mélange 9

10 Log-concentration d anticorps de 385 enfants non vaccinés contre les oreillons Mode important autour de 3 Second mode (moins net) autour de 0 Pour ce type de données, il est connu qu une population homogène aurait dû conduire à une distribution sensiblement gaussienne Explication raisonnable des deux modes : mélange de deux groupes enfants immunisés naturellement enfants non immunisés Fréquence Cette fois Groupesmoinsséparés Existence de deux groupes : hypothèse de travail suggérée par les données et non directement observable Le modèledemélange 10

11 Nombre de composants g Peut être connu (par exemple pour les passereaux où la notion de composant a une signification physique bien précise) Plus généralement g est inconnu et doit être estimé :paramètre supplémentaire Problème difficile Plusieurs critères de sélection proposés dans Mixmod Le modèledemélange 11

12 Exemples de mélanges gaussiens (1) Deux composants dans R f(x; π 1,μ 1,μ 2,σ1,σ 2 2)=π e 1 2σ 2 (x μ 1 ) (1 π 2πσ 2 1 ) e 1 2σ 2 (x μ 2 ) πσ 2 2 (a) Les composantes (b) Le mélange Le modèledemélange 12

13 Exemples de mélanges gaussiens (2) π 1 μ 1 σ 1 μ 2 σ 2 (a) (b) (c) (d) (e) (b) (a) (b) (c) (d) Le modèledemélange 13 (e) (f)

14 Exemples de mélanges gaussiens (3) Deux composants dans R z x y Le modèledemélange 14

15 Utilisations du modèle de mélange Cadre non supervisé Estimation de densité Population hétérogène Estimation de densité semi-paramétrique Classification automatique Cadre supervisé : analyse discriminante Utilisations du modèledemélange 15

16 Estimation de densité Nombreuses approches Méthode des moments Pearson Estimation des 5 paramètres d un modèledemélanges gaussiens unidimensionnel à 2 composants (π 1,μ 1,μ 2,σ 2 1,σ 2 2)parlaméthode des moments Équation polynomiale de degré 9 Méthodes graphiques Méthode du maximum de vraisemblance Méthodes bayésiennes La plus utilisée aujourd hui : Maximum de vraisemblance via EM Utilisations du modèledemélange 16

17 Deux approches Approche estimation Estimation des paramètres Classification automatique Calcul des t ik, probabilités d appartenance de l individu x i à la classe k, àpartir des paramètres estimés Affectation de chaque individu dans la classe maximisant t ik (MAP : Maximum a posteriori) Approche classification Estimation simultanée des paramètres et de la partition Utilisations du modèledemélange 17

18 Analyse Discriminante Discrimination, reconnaissance des formes statistiques,... Données les x 1,...,x n les labels z 1,...,z n But de la discrimination : étant donné cet ensemble d apprentissage, construire une fonction de décision permettant d affecter tout nouvel individu x, de classe inconnue, à l une des g classes définies a priori Utilisations du modèledemélange 18

19 Les algorithmes de Mixmod Algorithme EM Le modèledemélange est typique d un modèle à structure cachée Données manquantes : labels Problèmesimpleàrésoudre s il n y avait pas de données manquantes EM : outil de référence pour l estimation du maximum de vraisemblance d un modèledemélange Notations z i et (z i1,...,z ig ):z ik = δ zi =k Les algorithmes de Mixmod 19

20 EM s appuie sur la log-vraisemblance complétée L(θ; x, z) = k,i z ik log π k f(x i ; α k ) plus simple à manipuler que la log-vraisemblance L(θ; x) = i log k π k f(x i ; α k ) Maximisation itérative de Q(θ, θ ) = E(L(θ; x, z) x, θ )= i,k E(z ik x, θ )logπ k f(x i ; α k ) = i,k t ik log π k f(x i ; α k ) «vraisemblance pondérée» où t ik = E(z ik x, θ )=P (z ik =1 x, θ ) d appartenance de x i au composant k probabilité conditionnelle Les algorithmes de Mixmod 20

21 Algorithme : À partir d une valeur initiale θ, répétition jusqu à la convergence des 2 étapes suivantes Étape E : calcul des t ik t ik = π kf(x i ; α k ) l π lf(x i ; α l ) Étape M : maximisation de i,k t ik log π k f(x i ; α k ) π k = 1 n i t ik α k :résolution d équations de vraisemblance qui dépendent du modèle de mélange retenu Les algorithmes de Mixmod 21

22 Caractéristiques de EM EM fait croître la vraisemblance àchaqueitération Convergence vers un estimateur du maximum de vraisemblance des paramètres Sous certaines conditions, convergence vers l unique estimateur consistant Simple à mettre en place Bon comportement pratique Peut être toutefois assez lent (modèle de mélange avec des classes très mélangées) Solution dépendant fortement de la position initiale Très utilisé : ouvrage très complet de McLachlan et Krishnan (1997) Les algorithmes de Mixmod 22

23 Exemple d un mélange gaussien de R à 2 composants Initialisation de π 1, π 2, μ 1, μ 1, σ 2 1 et σ 2 2 Étape E : calcul des t ik pour i =1,...,n et k =1, 2 t ik = π k ϕ(x i ; μ k,σ 2 k ) 2 l=1 π lϕ(x i ; μ l,σ 2 l ) ÉtapeM:sionnoten 1 = i t i1 et n 2 = i t i2,onobtient π 1 = n 1 n μ 1 = 1 n 1 i et π 2 = n 2 n t i1 x i et μ 2 = 1 t i2 x i n 2 σ1 2 = 1 t i1 (x i μ 1 ) 2 et σ2 2 = 1 t i2 (x i μ 2 ) 2 n 1 n 2 i i i Les algorithmes de Mixmod 23

24 Applications aux données passereaux et oreillons Paramètres π 1 π 2 μ 1 μ 2 σ 2 1 σ 2 2 nb d itér. Passereaux initiaux obtenus Oreillons initiaux obtenus Densité Densité Longueur de l aile Log concentration d anticorps Les algorithmes de Mixmod 24

25 L algorithme CEM Classification EM : version classifiante de l algorithme EM Objectif : estimation simultanée des paramètres et de la partition Critère maximisé : vraisemblance complétée L(θ; x, z) = k,i z ik log π k f(x i ; α k ) Ajout d une étape C de classification À partir d une valeur initiale θ, répétition jusqu à la convergence des 3 étapes suivantes Étape E : calcul des t ik comme dans l algorithme EM Étape C : z i =max k (t ik ) Étape M : maximisation de i,k z ik log π k f(x i ; α k ) p k = 1 n i z ik = 1 n n k α k : EMV en utilisant les classes de z comme sous-échantillons Les algorithmes de Mixmod 25

26 Caractéristiques de CEM Fait croître la vraisemblance complétée Algorithme stationnaire (convergence en un nombre fini d itérations) Fournit des estimateurs biaisés (échantillons tronqués) Estimation non convergente : nb de paramètres quand n Adapté à des classes bien séparées Beaucoup plus rapide que l algorithme EM : temps réel ou très grosses données Algorithme de classification très général Permet de relier le modèledemélange à des algorithmes de classification classiques comme l algorithme des K-means Les algorithmes de Mixmod 26

27 L algorithme SEM Version stochastique de l algorithme EM (stochastic EM) Ajout d une étape S de classification aléatoire À partir d une valeur initiale θ, répétition jusqu à la convergence des 3 étapes suivantes Étape E : calcul des t ik comme dans l algorithme EM Étape S : tirage au hasard d une classe d affectation pour chaque point suivant la distribution (t ik,k =1,...,g) Étape M : comme dans CEM Les algorithmes de Mixmod 27

28 Caractéristiques de SEM Pas de convergence au sens habituel SEM génère une chaîne de Markov dont la distribution stationnaire est (plus ou moins) concentrée autour de l estimateur du maximum de vraisemblance Estimation à partir de SEM SEMmean : effectuer la moyenne des valeurs obtenues après une période de chauffe SEMmax : retenir la valeur du paramètre ayant conduit à la plus grande vraisemblance Les algorithmes de Mixmod 28

29 Modèle de mélange gaussien f(x; θ) = k π k ϕ(x; μ k, Σ k ) Loi conditionnelle ϕ : loi normale multidimensionnelle ϕ(x; μ k, Σ k )= 1 (2π) p 2 Σ k 1 2 exp{ 1 2 (x μ k) Σ 1 k (x μ k) Paramètre θ =(π 1,...,π g, μ 1,...,μ g, Σ 1,...,Σ g ) Proportions π k Vecteurs moyennes μ k Matrices de variance Σ k Modèle de mélange gaussien 29

30 Modèle parcimonieux Nombreux paramètres n petit, p ou g grand : trop de paramètres Nécessaire de diminuer le nombre de paramètres Modèles parcimonieux obtenus en imposant des contraintes Proportions π k Matrices de variances Σ k Modèle de mélange gaussien 30

31 Décomposition des matrices de variances (1) Décomposition en valeurs propres et vecteurs propres Σ k = D k B k D k D k matrice des vecteurs propres B k matrice diagonale des valeurs propres décroissantes (unicité) B k décomposée en B k = λ k A k avec A k =1 Finalement Σ k = λ k D k A k D k A k matrice diagonale de déterminant 1 et àvaleursdécroissantes : forme D k matrice orthogonale : orientation λ k réel positif : volume Modèle de mélange gaussien 31

32 Décomposition des matrices de variances (2) Exemple dans R 2 D matrice de rotation définie par un angle θ A est une matrice diagonale de termes diagonaux a et 1/a Ellipse d équidensité λa λ a μ θ A = a 0 0 1/a D = cos θ sinθ -sin θ cos θ Modèle de mélange gaussien 32

33 28 modèles différents (1) En s appuyant sur la décomposition proportions + volumes + formes + orientations Mixmod propose 28 modèles différents Modèles généraux : en imposant que les proportions, les volumes, les orientations et les formes des classes soient les mêmes ou non, on obtient 16 modèles [π k λ k D k A k ],... [πλda] Modèles diagonaux : en imposant en plus que les matrices de variance soient diagonales, on obtient 8 modèles [π k λ k B k ],... [πλb] Modèles sphériques : en imposant en plus que les matrices de variance soient proportionnelles àlamatriceidentité, on obtient 4 modèles [π k λ k I] [πλ k I] [π k λi] [πλi] Modèle de mélange gaussien 33

34 28 modèles différents (2) Modèle de mélange gaussien 34

35 Les algorithmes Les étapes (éventuelles) E, C et S des différents algorithmes sont directes Seule l étape M doit être étudiée Pour unifier la présentation, on utilise la matrice de classification c =(c ik )avec c ik = t ik pour EM et c ik = z ik pour CEM et SEM c : partition pour CEM et SEM et «partition floue» pour EM M est donc dans tous les cas la maximisation en θ de c ik ln π k ϕ(x i ; μ k, Σ k ) i,k Si on note n k = i c ik les effectifs des classes (floues ou non), pour tous les modèles π k = n k /n et μ k = x k =1/n k c ik x i Σ k :dépend des modèles ; par exemple, pour le modèle le plus complexe Σ k = 1 n k cik (x i x k )(x i x k ) Modèle de mélange gaussien 35 i

36 Liens avec des algorithmes classiques CEM pour le modèle [πλi] :algorithmedesk-means minimisant le critère d inertie intraclasse trace(w ) (Ward, 1963) où W = i,k c ik (x i x k )(x i x k ) CEM pour le modèle [πλda] :algorithmeproposé par Friedman et Rubin (1967) minimisant W CEM pour le modèle [πλ k I]:algorithmeproposé par Scott et Symons (1971) minimisant k n k ln tr( W k n k ) En discrimination, les modèles [π k λda] et[π k λ k D k A k ] correspondent aux méthodes de discrimination linéaire et quadratique habituelles Modèle de mélange gaussien 36

37 Choix de modèle Nécessité desélectionner un modèle parmi les 28 modèles potentiels le nombre de classes Les objectifs dépendent de la situation Estimation de densité Classification automatique Discrimination En fonction de ces différents situations, Mixmod propose plusieurs solutions Choix de modèle 37

38 Choix de modèle pour l estimation de densité Solution classique : choisir le modèle maximisant la vraisemblance intégrée f(x K) = f(x K, θ)π(θ K)dθ Θ K où f(x K, θ) = i f(x i K, θ) etπ(θ K) est une distribution a priori sur θ faiblement informative Approximation par le critère BIC log f(x K) log f(x K, ˆθ) ν K 2 log n où ˆθ est l EMV de θ et ν K est le nombre de paramètres libres du modèle Critère BIC constitué d une différence de deux termes Vraisemblance : a tendance à fournir le modèlelepluscomplexe Terme de pénalisation : fonction croissante du nombre de paramètres Bon comportement pratique de ce critère (Roeder and Wasserman 1997) Choix de modèle 38

39 Choix de modèle pour la classification automatique ICL Idée : choisir la partition de plus grande probabilité Max. de la vrais. complétée intégrée f(x, z K) = Θ K f(x, z K, θ)π(θ K)dθ Elle peut être approchée par ICL(K) =logf(x, ẑ K, ˆθ) ν K 2 log n où ẑ =MAP(ˆθ) ICL = BIC modifié par un terme d entropie pénalisant les partitions trop floues ICL(K) =BIC(K) E(K) avec E(K) = i,k t ik log t ik 0 NEC Entropie normalisée (Celeux and Soromenho 1996) Utile et parcimonieux pour le choix du nombre de classes pour un modèle fixé Choix de modèle 39

40 Choix du modèle pour la discrimination Nombre de classes connus et proportions variables Choix de l un des 14 modèles Objectif : sélectionner le modèle qui fournira le plus petit taux d erreur de classement pour les futurs individus Deux solutions dans Mixmod Sélectionner le modèle minimisant le taux d erreur par validation croisée ; solution recommandée pour des échantillons de petite ou moyenne taille Sélectionner le modèle maximisant le critère BIC ; solution recommandée pour des échantillons de grande taille En plus du choix du nombre classes, Mixmod peut évaluer la qualité durésultat par une double validation croisée Choix de modèle 40

41 Stratégies d utilisation des différents algorithmes Trouver la valeur maximisant la vraisemblance (complétée ou non) pour un modèle et pour un nombre de classes fixés La solution obtenue dépend de la position initiale Stratégie : répéter l algorithme et retenir la meilleure Existence de stratégies plus fines et assez performantes s appuyant sur une caractéristique de Mixmod de pouvoir enchaîner de manière très simple les différents algorithmes Stratégies d utilisation des différents algorithmes 41

42 Exemple de stratégies d utilisation de EM Répéter p fois Sélectionner une solution initiale Au hasard Meilleure solution obtenue après plusieurs lancements de CEM Meilleure solution obtenue après plusieurs lancements de EM stoppés dès que la croissance du critère devient faible Meilleure solution (ou solution moyenne) obtenue par SEM Lancer EM pour un nombre d itérations fixés et grand Retenir la meilleure solution parmi les p solutions ainsi obtenues Stratégies d utilisation des différents algorithmes 42

43 Autres caractéristiques de Mixmod Initialisation des algorithmes variée : aléatoire, paramètre, partition Individus pondérés (exemple des passereaux) Étiquetage partiel des individus Modèle multinomial pour les variables qualitatives Autres caractéristiques de Mixmod 43

MIXMOD. Un ensemble logiciel de classification des données par modèles de mélanges MIXMOD. F. Langrognet () MIXMOD Avril 2012 1 / 28

MIXMOD. Un ensemble logiciel de classification des données par modèles de mélanges MIXMOD. F. Langrognet () MIXMOD Avril 2012 1 / 28 MIXMOD Un ensemble logiciel de classification des données par modèles de mélanges MIXMOD F. Langrognet () MIXMOD Avril 2012 1 / 28 PLAN 1 La classification des données 2 MIXMOD, ensemble logiciel de classification

Plus en détail

Arbres binaires. Hélène Milhem. Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012

Arbres binaires. Hélène Milhem. Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 Arbres binaires Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Arbres binaires IUP SID 2011-2012 1 / 35 PLAN Introduction Construction

Plus en détail

Rmixmod Le package R de MIXMOD R

Rmixmod Le package R de MIXMOD R Rmixmod Le package R de MIXMOD R MIXMOD Rencontres R 2012 - Bordeaux Florent Langrognet Laboratoire de Mathématiques de Besançon F. Langrognet () Rmixmod Juillet 2012 1 / 41 Rmixmod 1 Contexte Le projet

Plus en détail

Séance 12: Algorithmes de Support Vector Machines

Séance 12: Algorithmes de Support Vector Machines Séance 12: Algorithmes de Support Vector Machines Laboratoire de Statistique et Probabilités UMR 5583 CNRS-UPS www.lsp.ups-tlse.fr/gadat Douzième partie XII Algorithmes de Support Vector Machines Principe

Plus en détail

Le logiciel mixmod d analyse de mélange pour la classification et l analyse discriminante

Le logiciel mixmod d analyse de mélange pour la classification et l analyse discriminante Le logiciel mixmod d analyse de mélange pour la classification et l analyse discriminante Christophe Biernacki 1, Gilles Celeux 2,AnwuliEchenim 2,3, Gérard Govaert 4, Florent Langrognet 3 (1) UMR 8524,

Plus en détail

Analyse des données individuelles groupées

Analyse des données individuelles groupées Analyse des données individuelles groupées Analyse des Temps de Réponse Le modèle mixte linéaire (L2M) Y ij, j-ième observation continue de l individu i (i = 1,, N ; j =1,, n) et le vecteur des réponses

Plus en détail

5 Méthodes algorithmiques

5 Méthodes algorithmiques Cours 5 5 Méthodes algorithmiques Le calcul effectif des lois a posteriori peut s avérer extrêmement difficile. En particulier, la prédictive nécessite des calculs d intégrales parfois multiples qui peuvent

Plus en détail

MIXMOD : un logiciel de classification supervisée et non supervisée pour données quantitatives et qualitatives

MIXMOD : un logiciel de classification supervisée et non supervisée pour données quantitatives et qualitatives MIXMOD : un logiciel de classification supervisée et non supervisée pour données quantitatives et qualitatives Florent Langrognet Laboratoire de Mathématiques de Besançon UMR6623, CNRS & Université de

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Introduction au modèle linéaire général

Introduction au modèle linéaire général Résumé Introductions au modèle linéaire général Retour au plan du cours Travaux pratiques 1 Introduction L objet de ce chapitre est d introduire le cadre théorique global permettant de regrouper tous les

Plus en détail

Projet : Recherche de source d onde gravitationnelle (analyse de données Metropolis Hastings Markov Chain) 1

Projet : Recherche de source d onde gravitationnelle (analyse de données Metropolis Hastings Markov Chain) 1 Université Paris Diderot Physique L2 2014-2015 Simulations Numériques SN4 Projet : Recherche de source d onde gravitationnelle (analyse de données Metropolis Hastings Markov Chain) 1 Objectifs : Simuler

Plus en détail

Régression logistique

Régression logistique Régression logistique Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Régression logistique p. 1 Introduction Objectifs Le classifieur de Bayes est basé sur la comparaison des probabilités

Plus en détail

- Mobiliser les résultats sur le second degré dans le cadre de la résolution d un problème.

- Mobiliser les résultats sur le second degré dans le cadre de la résolution d un problème. Mathématiques - classe de 1ère des séries STI2D et STL. 1. Analyse On dote les élèves d outils mathématiques permettant de traiter des problèmes relevant de la modélisation de phénomènes continus ou discrets.

Plus en détail

Régression de Poisson

Régression de Poisson ZHANG Mudong & LI Siheng & HU Chenyang 21 Mars, 2013 Plan Composantes des modèles Estimation Qualité d ajustement et Tests Exemples Conclusion 2/25 Introduction de modèle linéaire généralisé La relation

Plus en détail

SY09 Rapport TP4 : Analyse discriminante, régression logistique

SY09 Rapport TP4 : Analyse discriminante, régression logistique UNIVERSITÉ DE TECHNOLOGIE DE COMPIÈGNE SY09 Rapport TP4 : Analyse discriminante, régression logistique CUNI Frédéric 15 juin 2015 Objectifs du TP : Le but de ce TP est l application de l analyse discriminante

Plus en détail

MIXMOD R Un ensemble logiciel, pour quelles utilisations et quels utilisateurs?

MIXMOD R Un ensemble logiciel, pour quelles utilisations et quels utilisateurs? MIXMOD R Un ensemble logiciel, pour quelles utilisations et quels utilisateurs? Florent Langrognet F. Langrognet () 4 e rencontre MIXMOD Septembre 2013 1 / 70 PLAN 1 MIXMOD Fiche d identité, fonctionnalités

Plus en détail

Les données manquantes en statistique

Les données manquantes en statistique Les données manquantes en statistique N. MEYER Laboratoire de Biostatistique -Faculté de Médecine Dép. Santé Publique CHU - STRASBOURG Séminaire de Statistique - 7 novembre 2006 Les données manquantes

Plus en détail

MIXMOD R Un ensemble logiciel de classification des données par modèles de mélange

MIXMOD R Un ensemble logiciel de classification des données par modèles de mélange MIXMOD R Un ensemble logiciel de classification des données par modèles de mélange Florent Langrognet MIXMOD F. Langrognet () MIXMOD - ENVOL 2012 Janvier 2013 1 / 96 PLAN 1 Pourquoi les modèles de mélanges

Plus en détail

La classification 2012-2013. Fabien Chevalier Jérôme Le Bellac

La classification 2012-2013. Fabien Chevalier Jérôme Le Bellac La classification 2012-2013 Fabien Chevalier Jérôme Le Bellac Introduction : Classification : méthode d analyse de données Objectif : Obtenir une représentation schématique simple d'un tableau de données

Plus en détail

SPLEX Statistiques pour la classification et fouille de données en

SPLEX Statistiques pour la classification et fouille de données en SPLEX Statistiques pour la classification et fouille de données en génomique Classification Linéaire Binaire CLB Pierre-Henri WUILLEMIN DEcision, Système Intelligent et Recherche opérationnelle LIP6 pierre-henri.wuillemin@lip6.fr

Plus en détail

Analyse de données longitudinales continues avec applications

Analyse de données longitudinales continues avec applications Université de Liège Département de Mathématique 29 Octobre 2002 Analyse de données longitudinales continues avec applications David MAGIS 1 Programme 1. Introduction 2. Exemples 3. Méthodes simples 4.

Plus en détail

Analyse discriminante

Analyse discriminante Analyse discriminante Christine Decaestecker & Marco Saerens ULB & UCL LINF2275 1 Analyse Discriminante Particularités: 2 formes/utilisations complémentaires: méthode factorielle: description "géométrique"

Plus en détail

Introduction aux Méthodes de Monte Carlo

Introduction aux Méthodes de Monte Carlo Méthodes de Monte Carlo pour la Modélisation et le Calcul Intensif Applications à la Physique Numérique et à la Biologie Séminaire CIMENT GRID Introduction aux Méthodes de Monte Carlo Olivier François

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Classification non supervisée

Classification non supervisée AgroParisTech Classification non supervisée E. Lebarbier, T. Mary-Huard Table des matières 1 Introduction 4 2 Méthodes de partitionnement 5 2.1 Mesures de similarité et de dissimilarité, distances.................

Plus en détail

Analyse d images, vision par ordinateur. Partie 6: Segmentation d images. Segmentation? Segmentation?

Analyse d images, vision par ordinateur. Partie 6: Segmentation d images. Segmentation? Segmentation? Analyse d images, vision par ordinateur Traitement d images Segmentation : partitionner l image en ses différentes parties. Reconnaissance : étiqueter les différentes parties Partie 6: Segmentation d images

Plus en détail

Méthodes avancées en décision

Méthodes avancées en décision Méthodes avancées en décision Support vector machines - Chapitre 2 - Principes MRE et MRS Principe MRE. Il s agit de minimiser la fonctionnelle de risque 1 P e (d) = y d(x;w, b) p(x, y) dxdy. 2 La densité

Plus en détail

MCMC et approximations en champ moyen pour les modèles de Markov

MCMC et approximations en champ moyen pour les modèles de Markov MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:

Plus en détail

Introduction aux Support Vector Machines (SVM)

Introduction aux Support Vector Machines (SVM) Introduction aux Support Vector Machines (SVM) Olivier Bousquet Centre de Mathématiques Appliquées Ecole Polytechnique, Palaiseau Orsay, 15 Novembre 2001 But de l exposé 2 Présenter les SVM Encourager

Plus en détail

Mclust : Déceler des groupes dans un jeu de données grâce aux mélanges gaussiens.

Mclust : Déceler des groupes dans un jeu de données grâce aux mélanges gaussiens. Adrien Perrard. UMR 7205, MNHN Mclust : Déceler des groupes dans un jeu de données grâce aux mélanges gaussiens. Partition et mélanges gaussiens Partition et mélanges gaussiens Partition et mélanges gaussiens

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Classification Exemple : Enquête d opinion sur les OGM. Pauline Le Badezet Alexandra Lepage

Classification Exemple : Enquête d opinion sur les OGM. Pauline Le Badezet Alexandra Lepage Classification Exemple : Enquête d opinion sur les OGM Pauline Le Badezet Alexandra Lepage SOMMAIRE Introduction Méthodologie Méthode de partitionnement Classification Ascendante Hiérarchique Interprétation

Plus en détail

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring Les méthodes d évaluation du risque de crédit pour les PME et les ménages Caractéristiques Comme les montants des crédits et des

Plus en détail

Examen d accès - 28 Septembre 2012

Examen d accès - 28 Septembre 2012 Examen d accès - 28 Septembre 2012 Aucun document autorisé - Calculatrice fournie par le centre d examen Cet examen est un questionnaire à choix multiples constitué de 50 questions. Plusieurs réponses

Plus en détail

Outils Statistiques du Data Mining

Outils Statistiques du Data Mining Outils Statistiques du Data Mining Pr Roch Giorgi roch.giorgi@univ-amu.fr SESSTIM, Faculté de Médecine, Aix-Marseille Université, Marseille, France http://sesstim-orspaca.org http://optim-sesstim.univ-amu.fr

Plus en détail

Probabilités. I- Expérience aléatoire, espace probabilisé : ShotGun. 1- Définitions :

Probabilités. I- Expérience aléatoire, espace probabilisé : ShotGun. 1- Définitions : Probabilités I- Expérience aléatoire, espace probabilisé : 1- Définitions : Ω : Ensemble dont les points w sont les résultats possibles de l expérience Des évènements A parties de Ω appartiennent à A une

Plus en détail

Projet informatique «Voyageur de commerce» Résolution approchée par algorithme génétique du problème du voyageur de commerce

Projet informatique «Voyageur de commerce» Résolution approchée par algorithme génétique du problème du voyageur de commerce Année 2007-2008 Projet informatique «Voyageur de commerce» Résolution approchée par algorithme génétique du problème du voyageur de commerce B. Monsuez Projet informatique «Voyageur de commerce» Résolution

Plus en détail

MÉTHODES DE CLASSIFICATION

MÉTHODES DE CLASSIFICATION MÉTHODES DE CLASSIFICATION Pierre-Louis GONZALEZ MÉTHODES DE CLASSIFICATION Objet Opérer des regroupements en classes homogènes d un ensemble d individus. Données Les données se présentent en général sous

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Analyse discriminante sur données binaires lorsque les populations d apprentissage et de test sont différentes

Analyse discriminante sur données binaires lorsque les populations d apprentissage et de test sont différentes Analyse discriminante sur données binaires lorsque les populations d apprentissage et de test sont différentes Julien Jacques, Christophe Biernacki Laboratoire de Statistiques et Analyse des Données, Université

Plus en détail

Master 1 Informatique Éléments de statistique inférentielle

Master 1 Informatique Éléments de statistique inférentielle Master 1 Informatique Éléments de statistique inférentielle Faicel Chamroukhi Maître de Conférences UTLN, LSIS UMR CNRS 7296 email: chamroukhi@univ-tln.fr web: chamroukhi.univ-tln.fr 2014/2015 Faicel Chamroukhi

Plus en détail

Arbres de décisions et forêts aléatoires.

Arbres de décisions et forêts aléatoires. Arbres de décisions et forêts aléatoires. Pierre Gaillard 7 janvier 2014 1 Plan 1 Arbre de décision 2 Les méthodes d ensembles et les forêts aléatoires 2 Introduction 3 Introduction Jeu de données (ex

Plus en détail

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7. Statistique Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.fr Cours Statistique, 2010 p. 1/52 Plan du cours Chapitre 1 : Estimation

Plus en détail

Champ de Markov couple pour la segmentation d images texturées

Champ de Markov couple pour la segmentation d images texturées Champ de Markov couple pour la segmentation d images texturées Juliette Blanchet INRIA Rhône-Alpes Equipes Mistis et Lear 1 Segmention d images par champ de Markov caché 2 Segmentation de textures 3 Résultats

Plus en détail

Introduction au cours STA 102 Analyse des données : Méthodes explicatives

Introduction au cours STA 102 Analyse des données : Méthodes explicatives Analyse des données - Méthodes explicatives (STA102) Introduction au cours STA 102 Analyse des données : Méthodes explicatives Giorgio Russolillo giorgio.russolillo@cnam.fr Infos et support du cours Slide

Plus en détail

Probabilités 5. Simulation de variables aléatoires

Probabilités 5. Simulation de variables aléatoires Probabilités 5. Simulation de variables aléatoires Céline Lacaux École des Mines de Nancy IECL 27 avril 2015 1 / 25 Plan 1 Méthodes de Monte-Carlo 2 3 4 2 / 25 Estimation d intégrales Fiabilité d un système

Plus en détail

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Philippe Gagnepain Université Paris 1 Ecole d Economie de Paris Centre d économie de la Sorbonne-UG 4-Bureau 405 philippe.gagnepain@univ-paris1.fr

Plus en détail

Examen d accès - 1 Octobre 2009

Examen d accès - 1 Octobre 2009 Examen d accès - 1 Octobre 2009 Aucun document autorisé - Calculatrice fournie par le centre d examen Ce examen est un questionnaire à choix multiples constitué de 50 questions. Plusieurs réponses sont

Plus en détail

DATA MINING 2 Réseaux de Neurones, Mélanges de classifieurs, SVM avancé

DATA MINING 2 Réseaux de Neurones, Mélanges de classifieurs, SVM avancé I. Réseau Artificiel de Neurones 1. Neurone 2. Type de réseaux Feedforward Couches successives Récurrents Boucles de rétroaction Exemples de choix pour la fonction : suivant une loi de probabilité Carte

Plus en détail

Travaux Dirigés de Probabilités - Statistiques, TD 4. Lois limites ; estimation.

Travaux Dirigés de Probabilités - Statistiques, TD 4. Lois limites ; estimation. Travaux Dirigés de Probabilités - Statistiques, TD 4 Lois limites ; estimation. Exercice 1. Trois machines, A, B, C fournissent respectivement 50%, 30%, 20% de la production d une usine. Les pourcentages

Plus en détail

STA108 Enquêtes et sondages. Sondages àplusieurs degrés et par grappes

STA108 Enquêtes et sondages. Sondages àplusieurs degrés et par grappes STA108 Enquêtes et sondages Sondages àplusieurs degrés et par grappes Philippe Périé, novembre 2011 Sondages àplusieurs degrés et par grappes Introduction Sondages à plusieurs degrés Tirage des unités

Plus en détail

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Ludovic Denoyer 21 septembre 2015 Ludovic Denoyer () FDMS 21 septembre 2015 1 / 1 Contexte Observation La plupart des bonnes

Plus en détail

Sélection- validation de modèles

Sélection- validation de modèles Sélection- validation de modèles L. Rouvière laurent.rouviere@univ-rennes2.fr JANVIER 2015 L. Rouvière (Rennes 2) 1 / 77 1 Quelques jeux de données 2 Sélection-choix de modèles Critères de choix de modèles

Plus en détail

Arbres binaires de décision

Arbres binaires de décision 1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression

Plus en détail

Introduction à l approche bootstrap

Introduction à l approche bootstrap Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?

Plus en détail

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE Pierre-Louis Gonzalez 1 I INTRODUCTION 1 variable qualitative. Tri à plat. Représentations graphiques. Modélisation : loi binomiale loi multinomiale

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Le Data Mining au service du Scoring ou notation statistique des emprunteurs!

Le Data Mining au service du Scoring ou notation statistique des emprunteurs! France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Université Paris1, Licence 00-003, Mme Pradel : Principales lois de Probabilité 1 DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Notations Si la variable aléatoire X suit la loi L, onnoterax

Plus en détail

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

La survie nette actuelle à long terme Qualités de sept méthodes d estimation La survie nette actuelle à long terme Qualités de sept méthodes d estimation PAR Alireza MOGHADDAM TUTEUR : Guy HÉDELIN Laboratoire d Épidémiologie et de Santé publique, EA 80 Faculté de Médecine de Strasbourg

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

L essentiel sur les tests statistiques

L essentiel sur les tests statistiques L essentiel sur les tests statistiques 21 septembre 2014 2 Chapitre 1 Tests statistiques Nous considérerons deux exemples au long de ce chapitre. Abondance en C, G : On considère une séquence d ADN et

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme Distance et classification Cours 4: Traitement du signal et reconnaissance de forme Plan Introduction Pré-traitement Segmentation d images Morphologie mathématique Extraction de caractéristiques Classification

Plus en détail

Chaînes de Markov Cachées Floues et Segmentation d Images

Chaînes de Markov Cachées Floues et Segmentation d Images Introduction Chaînes de Markov Cachées Floues et Segmentation d Images Cyril Carincotte et Stéphane Derrode Équipe GSM Groupe Signaux Multi-dimensionnels Institut Fresnel (UMR 6133) EGIM Université Paul

Plus en détail

Statistique : Résumé de cours et méthodes

Statistique : Résumé de cours et méthodes Statistique : Résumé de cours et méthodes 1 Vocabulaire : Population : c est l ensemble étudié. Individu : c est un élément de la population. Effectif total : c est le nombre total d individus. Caractère

Plus en détail

Soutien illimité 7j/7 en maths: Coach, profs, exercices & annales, cours. Sujet de Bac 2013 Maths S Obligatoire & Spécialité - Liban

Soutien illimité 7j/7 en maths: Coach, profs, exercices & annales, cours. Sujet de Bac 2013 Maths S Obligatoire & Spécialité - Liban Sujet de Bac 2013 Maths S Obligatoire & Spécialité - Liban EXERCICE 1 : 4 Points Cet exercice est un questionnaire à choix multiples. Aucune justification n est demandée. Pour chacune des questions, une

Plus en détail

Exercices de simulation 1

Exercices de simulation 1 Licence MIA 2ème année Année universitaire 2009-2010 Simulation stochastique C. Léonard Exercices de simulation 1 Les simulations qui suivent sont à effectuer avec Scilab. Le générateur aléatoire de Scilab.

Plus en détail

Regime Switching Model : une approche «pseudo» multivarie e

Regime Switching Model : une approche «pseudo» multivarie e Regime Switching Model : une approche «pseudo» multivarie e A. Zerrad 1, R&D, Nexialog Consulting, Juin 2015 azerrad@nexialog.com Les crises financières survenues dans les trente dernières années et les

Plus en détail

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire

Plus en détail

Table des matières. I Mise à niveau 11. Préface

Table des matières. I Mise à niveau 11. Préface Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

COURS DE STATISTIQUES (24h)

COURS DE STATISTIQUES (24h) COURS DE STATISTIQUES (24h) Introduction Statistiques descriptives (4 h) Rappels de Probabilités (4 h) Echantillonnage(4 h) Estimation ponctuelle (6 h) Introduction aux tests (6 h) Qu est-ce que la statistique?

Plus en détail

Annexe commune aux séries ES, L et S : boîtes et quantiles

Annexe commune aux séries ES, L et S : boîtes et quantiles Annexe commune aux séries ES, L et S : boîtes et quantiles Quantiles En statistique, pour toute série numérique de données à valeurs dans un intervalle I, on définit la fonction quantile Q, de [,1] dans

Plus en détail

Chapitre 1. L algorithme génétique

Chapitre 1. L algorithme génétique Chapitre 1 L algorithme génétique L algorithme génétique (AG) est un algorithme de recherche basé sur les mécanismes de la sélection naturelle et de la génétique. Il combine une stratégie de survie des

Plus en détail

Université d Orléans - Maitrise Econométrie Econométrie des Variables Qualitatives

Université d Orléans - Maitrise Econométrie Econométrie des Variables Qualitatives Université d Orléans - Maitrise Econométrie Econométrie des Variables Qualitatives Examen Décembre 00. C. Hurlin Exercice 1 (15 points) : Politique de Dividendes On considère un problème de politique de

Plus en détail

Reconnaissance des formes

Reconnaissance des formes Reconnaissance des formes Discrimination A. Belaïd LORIA - Nancy Discrimination linéaire Notion d hyperplan Discrimination linéaire Principe Une forme x R d (vecteur forme) Rôle de la Trouver D : R d x

Plus en détail

OPTIMISATION DE LA TARIFICATION DES RÉSEAUX MOBILES

OPTIMISATION DE LA TARIFICATION DES RÉSEAUX MOBILES OPTIMISATION DE LA TARIFICATION DES RÉSEAUX MOBILES ST50 - Projet de fin d études Matthieu Leromain - Génie Informatique Systèmes temps Réel, Embarqués et informatique Mobile - REM 1 Suiveur en entreprise

Plus en détail

INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV

INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV Séminaire MTDE 22 mai 23 INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV Vincent Mazet CRAN CNRS UMR 739, Université Henri Poincaré, 5456 Vandœuvre-lès-Nancy Cedex 1 juillet 23 Sommaire

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry Outils mathématiques pour le datamining http://wwwelsewarefr/univevry Géométrie Distance Distance entre parties Matrice de variance/covariance Inertie Minimisation Probabilités Définition Théorème de Bayes

Plus en détail

La régression logistique. Par Sonia NEJI et Anne-Hélène JIGOREL

La régression logistique. Par Sonia NEJI et Anne-Hélène JIGOREL La régression logistique Par Sonia NEJI et Anne-Hélène JIGOREL Introduction La régression logistique s applique au cas où: Y est qualitative à 2 modalités Xk qualitatives ou quantitatives Le plus souvent

Plus en détail

Méthodes de Monte-Carlo Simulation de grandeurs aléatoires

Méthodes de Monte-Carlo Simulation de grandeurs aléatoires Méthodes de Monte-Carlo Simulation de grandeurs aléatoires Master Modélisation et Simulation / ENSTA TD 1 2012-2013 Les méthodes dites de Monte-Carlo consistent en des simulations expérimentales de problèmes

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Simulation de variables aléatoires S. Robin INA PG, Biométrie Décembre 1997 Table des matières 1 Introduction Variables aléatoires discrètes 3.1 Pile ou face................................... 3. Loi de

Plus en détail

Simulation d un système d assurance automobile

Simulation d un système d assurance automobile Simulation d un système d assurance automobile DESSOUT / PLESEL / DACHI Plan 1 Introduction... 2 Méthodes et outils utilisés... 2.1 Chaines de Markov... 2.2 Méthode de Monte Carlo... 2.3 Méthode de rejet...

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

La nouvelle planification de l échantillonnage

La nouvelle planification de l échantillonnage La nouvelle planification de l échantillonnage Pierre-Arnaud Pendoli Division Sondages Plan de la présentation Rappel sur le Recensement de la population (RP) en continu Description de la base de sondage

Plus en détail

Chapitre 3 : INFERENCE

Chapitre 3 : INFERENCE Chapitre 3 : INFERENCE 3.1 L ÉCHANTILLONNAGE 3.1.1 Introduction 3.1.2 L échantillonnage aléatoire 3.1.3 Estimation ponctuelle 3.1.4 Distributions d échantillonnage 3.1.5 Intervalles de probabilité L échantillonnage

Plus en détail

Apprentissage Automatique Numérique

Apprentissage Automatique Numérique Apprentissage Automatique Numérique Loïc BARRAULT Laboratoire d Informatique de l Université du Maine (LIUM) loic.barrault@lium.univ-lemans.fr 16 septembre 2015 1/42 Problème classique Automatique Autre

Plus en détail

STATISTIQUES. Cours I : Test d hypothèses. Télécom Physique Strasbourg Module 2101. Fabrice Heitz. Octobre 2014

STATISTIQUES. Cours I : Test d hypothèses. Télécom Physique Strasbourg Module 2101. Fabrice Heitz. Octobre 2014 Télécom Physique Strasbourg Module 2101 STATISTIQUES Cours I : Test d hypothèses Fabrice Heitz Octobre 2014 Fabrice Heitz (Télécom PS) Statistiques 2014 1 / 75 Cours I TESTS D HYPOTHÈSES Fabrice Heitz

Plus en détail

Pierre-Louis GONZALEZ

Pierre-Louis GONZALEZ SEGMENTATION Pierre-Louis GONZALEZ 1 I. Les méthodes de segmentation. Introduction Les méthodes de segmentation cherchent à résoudre les problèmes de discrimination et de régression en divisant de façon

Plus en détail

Théorie des graphes. Introduction. Programme de Terminale ES Spécialité. Résolution de problèmes à l aide de graphes. Préparation CAPES UCBL

Théorie des graphes. Introduction. Programme de Terminale ES Spécialité. Résolution de problèmes à l aide de graphes. Préparation CAPES UCBL Introduction Ces quelques pages ont pour objectif de vous initier aux notions de théorie des graphes enseignées en Terminale ES. Le programme de Terminale (voir ci-après) est construit sur la résolution

Plus en détail

Lois de probabilité. Anita Burgun

Lois de probabilité. Anita Burgun Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage

Plus en détail

INTERNATIONAL CHAIR IN MATHEMATICAL PHYSICS AND APPLICATIONS (ICMPA) UNESCO CHAIR IN MATHEMATICAL PHYSICS AND APPLICATIONS

INTERNATIONAL CHAIR IN MATHEMATICAL PHYSICS AND APPLICATIONS (ICMPA) UNESCO CHAIR IN MATHEMATICAL PHYSICS AND APPLICATIONS INTERNATIONAL CHAIR IN MATHEMATICAL PHYSICS AND APPLICATIONS (ICMPA) UNESCO CHAIR IN MATHEMATICAL PHYSICS AND APPLICATIONS established in 2006 at the University of Abomey-Calavi (Republic of Benin) UNITWIN/UNESCO

Plus en détail

Initiation à la fouille de données et à l apprentissage automatiq

Initiation à la fouille de données et à l apprentissage automatiq Initiation à la fouille de données et à l apprentissage automatique 1 Laboratoire d Informatique Fondamentale de Marseille Université de Provence christophe.magnan@lif.univ-mrs.fr www.lif.univ-mrs.fr/

Plus en détail

Informatique visuelle - Vision par ordinateur. Pré-traitement d images

Informatique visuelle - Vision par ordinateur. Pré-traitement d images Informatique visuelle - Vision par ordinateur Pré-traitement d images Elise Arnaud elise.arnaud@imag.fr cours inspiré par X. Descombes, J. Ros, A. Boucher, A. Manzanera, E. Boyer, M Black, V. Gouet-Brunet

Plus en détail

Le programme de mathématiques Classes de première STI2D STL

Le programme de mathématiques Classes de première STI2D STL Journée de l inspection 15 avril 2011 - Lycée F. BUISSON 18 avril 2011 - Lycée J. ALGOUD 21 avril 2011 - Lycée L. ARMAND Le programme de mathématiques Classes de première STI2D STL Déroulement de la journée

Plus en détail

Distributions bayésiennes nonparamétriques sur les matrices binaires triangulaires infinies : Applications aux modèles graphiques

Distributions bayésiennes nonparamétriques sur les matrices binaires triangulaires infinies : Applications aux modèles graphiques Distributions bayésiennes nonparamétriques sur les matrices binaires triangulaires infinies : Applications aux modèles graphiques Patrick Dallaire Université Laval Département d informatique et de génie

Plus en détail