Plan. Définition et Objectifs Analyse discriminante Régression logistique Arbres de décision Réseaux bayésiens Exemple
|
|
- Christine Rochon
- il y a 8 ans
- Total affichages :
Transcription
1 La classification
2 Plan Définition et Objectifs Analyse discriminante Régression logistique Arbres de décision Réseaux bayésiens Exemple
3 Définition et Objectifs Prévoir l appartenance à une «classe» non observée à partir de variables observées Rappel sur la terminologie (Stat/Marketing) Applications typiques Scoring de risque Connaissant les caractéristiques individuelles d un emprunteur, quel est le risque qu il ne rembourse pas son crédit? Scoring marketing A qui envoyer le mailing de lancement d un nouveau produit?
4 Caractérisation Un problème supervisé (par opposition à la segmentation ou à l association) Deux utilisations : Descriptive : Déterminer les règles de séparation Décisionnelle : Attribuer un nouvelle individu à une classe. Utilisation descriptive Problème de type géométrique Utilisation décisionnelle Problème de type probabiliste. La nature fondamentale du problème est un calcul de probabilité conditionnelle : P(Incident Caractéristiques) P(Répons ing )
5 Caractérisation (suite) Les variables observées peuvent être Qualitatives ou quantitatives La variable à prévoir est binaire (Oui/Non) ou discrète Le modèle est mis au point sur un ensemble de données où toutes les variables sont observées (y compris la classe) Exemple : Score de crédit Données : Historique de dossiers de crédit Variables explicatives : CSP, Age, Revenus, Situation Familiale, etc. Variable à prévoir : Incident de remboursement
6 Techniques disponibles Analyse factorielle discriminante Modèle logit/probit Arbres de décision Réseaux bayésiens Réseaux neuronaux
7 Analyse factorielle discriminante
8 Analyse discriminante Méthode géométrique (descriptive) Basée uniquement sur une notion de distance Maximisation du rapport Inertie Interclasse / Inertie totale
9 Principe de l analyse discriminante Axe 2 Axe 1 Chercher le meilleur axe de séparation Axe Optimal
10 Régression logistique
11 Cadre théorique On suppose que la classe détermine la distribution conditionnelle des variables observées f j (x) est la densité de probabilité de x pour les individus du groupe j. Classe x 1 x 2 x n Observant un point de coordonnées (x 1, x 2,, x p ) la probabilité d appartenir à un groupe j est p j.f j (x)/σp j.f j (x) On affecte le point au groupe de probabilité a posteriori maximale, i.e. à celui pour lequel p j.f j (x) est maximal
12 Méthodes de résolution Méthodes paramétriques On choisit une famille paramétrée de lois de probabilité pour f j (x) Les observations permettent d estimer les paramètres Méthodes non paramétriques Variantes de la méthode du noyau
13 Cas simple Hypothèses On considère deux classes, et f 1 (x) et f 2 (x) suivent une loi normale Les matrices de variance/covariance sont identiques pour les deux classes Résultat On peut calculer un score s(x) fonction linéaire des variables x. La probabilité d appartenance au groupe 1 est alors p=1/(1+exp(-s(x)))
14 La régression logistique On part de la forme obtenue précédemment p=1/(1+exp(-s(x))) Qui se transforme en : s(x)=ln(p/1-p) s(x) est une combinaison linéaire des x i s(x)=β 0 + β 1.x 1 + β 1.x β 1.x n Ses coefficients β i sont estimés par le MV L= i C1 f1(x i ) i C2 f2(x i )
15 Arbres de décision
16 Arbres de décision Une méthode de régression Basée sur la théorie de l information Fonctionnant pour des variables continues ou discrètes Recherche itérative de variables discriminantes Produisant des modèles faciles à interpréter (sous forme de règles SI ALORS SINON)
17 Principe Un arbre de décision est construit récursivement En recherchant à chaque fois le critère qui fait gagner le plus d «ordre»
18 Utilisation d un arbre de décision R < a? SI R<A ALORS La boule est bleue SINON SI M <b ALORS La boule est rouge SINON La boule est bleue Rayon < a? Oui Ranger la boule dans la classe «bleue» Oui Ranger la boule dans la classe «rouge» Feuille Non Masse < b? Noeud Non Ranger la boule dans la classe «bleue»
19 Construction d un arbre de décision Théorie de l information (Shannon, 1948) AAAAAAAA p(a)=1 p(b)=0 A AABABABBA p(a)=0.5 p(b)=0.5??
20 Entropie Entropie = mesure du désordre Cas de deux événements S = p.log p i i ( ) i (.log( ).log( )) S = p p + p p S P1
21 Algorithme C4.5 C4.5 Si E ne contient que des éléments de la même classe Terminer Sinon Trouver le test T qui fasse gagner le plus d entropie T sépare E en E1 et E2 : Appliquer C4.5 à E1 et E2
22 Exemple d arbre obtenu Si Ancienneté Bancaire = 0 Risque Elevé Sinon (Ancienneté Bancaire > 0) Si Revenus <=4 Si Allocations <=2 Si DateEmbaucheConjoint = 0 Si DateEmbauche <= 3 Risque Elevé Sinon (DateEmbauche > 3) Risque Faible Sinon (DateEmbaucheConjoint > 0) Risque Faible Si Allocations >2 Risque Elevé Sinon (Revenus > 4) Risque Faible
23 Réseaux bayésiens
24 Les réseaux bayésiens Introduction L inférence ou le calcul de P(X e) L apprentissage ou le calcul de P Applications des réseaux bayésiens Conclusion
25 Une représentation graphique de la causalité A B A A V B V B F F V F S il existe une relation causale de A vers B, toute information sur A peut modifier la connaissance que j ai de B, et, réciproquement, toute information sur B peut modifier la connaissance que j ai de A. L information ne circule pas seulement dans le sens des flèches
26 Sherlock Holmes & Thomas Bayes Ce matin-là, alors que le temps est clair et sec, M. Holmes sort de sa maison. Il s aperçoit que la pelouse de son jardin est humide. Il se demande alors s il a plu pendant la nuit, ou s il a simplement oublié de débrancher son arroseur automatique. Il jette alors un coup d œil à la pelouse de son voisin, M. Watson, et s aperçoit qu elle est également humide. Il en déduit alors qu il a probablement plu, et il décide de partir au travail sans vérifier son arroseur automatique
27 Modèle de causalité A J P V A P J V J ai oublié de débrancher mon arroseur automatique Il a plu pendant cette nuit L herbe de mon jardin est humide L herbe du jardin de mon voisin est humide A A P P S il Si S il a plu j ai plu pendant oublié pendant de la débrancher nuit, la nuit, l herbe l herbe mon de mon du arroseur jardin automatique, de est mon humide. voisin est l herbe également de mon humide jardin est humide J J V V
28 Utilisation du modèle A P La connaissance de J renforce la croyance en l une des deux causes A ou P J V A J P V La connaissance de V augmente la croyance en la cause P. Par rapport à l état précédent, la cause A devient moins plausible
29 Le cas général X Z Y Connexion convergente X et Y causent Z X X Z Z Y Y Connexion en série X cause Z, Z cause Y X Z Y Connexion divergente Z cause X et Y.
30 Circulation de l information (1) X Z Y X Z 0 Y X = tremblement de terre Y = cambriolage Z = alarme X? Y L information ne peut circuler de X à Y que si Z est connu.
31 Circulation de l information (2) X Z Y X? Y X = ensoleillement Y = prix du blé Z = récolte X Z 0 Y L information ne peut circuler de X à Y que si Z n est pas connu.
32 Circulation de l information (3) X Z Y X X? Z 0 Y Y X = la pelouse de mon jardin est humide Y = la pelouse de mon voisin est humide Z = il a plu cette nuit. L information ne peut circuler de X à Y que si Z n est pas connu.
33 d-séparation (blocage) On dira que X et Y sont d-séparés par Z si pour tous les chemins entre X et Y, l une au moins des deux conditions suivantes est vérifiée : Le chemin converge en un nœud W, tel que W Z, et W n est pas une cause directe de Z. Le chemin passe par Z, et est soit divergent, soit en série au nœud Z. On notera X Z Y
34 d-séparation : exemple A B D : B E G Le chemin A-B-D est en série en B ( B ). Le chemin A-C-D est convergent en C ( C ). A D A D E : C F Tous les chemins de A à E passent par D. Le chemin A-B-D-E est en série en D (B D E). Le chemin A-C-D-E est divergent en D (C D E).
35 Une représentation probabiliste associée Un nœud = une variable aléatoire Si A n a aucune cause directe, nous devrons définir p(a), c està-dire les deux nombres p(a=vrai) et p(a=faux). Si B a une seule cause directe A, nous devrons définir p(b A), c est-à-dire les quatre nombres p(b=v A=V),, etc. Si C a deux causes directes A et B nous devrons définir p(c A,B), c est-à-dire les huit nombres p(c=v A=V, B=V), etc.
36 Retour à l exemple (1) A P J V Probabilités inconditionnelles Evénement Probabilité Commentaire A A P P = V 0.4 M. Holmes oublie assez souvent de débrancher son arroseur automatique = F 0.6 = V 0.4 La région est relativement pluvieuse = F 0.6
37 Retour à l exemple (2) A P Probabilités conditionnelles J J J V P A = V A= F = V P = F P = V P = F = V = F V V P = V P = F = V 1 0 = F 0 1
38 Retour à l exemple (3) Ce matin-là, alors que le temps est clair et sec, M. Holmes sort de sa maison. Il s aperçoit que la pelouse de son jardin est humide. Il se demande alors s il a plu pendant la nuit, ou s il a simplement oublié de débrancher son arroseur automatique. Il jette alors un coup d œil à la pelouse de son voisin, M. Watson, et s aperçoit qu elle est également humide. Il en déduit alors qu il a probablement plu, et il décide de partir au travail sans vérifier son arroseur automatique. Comparer p(a=v J=V) et p(p=v J=V) Comparer p(a=v J=V, V=V) et p(p=v J=V, V=V)
39 Retour à l exemple (4) A et P sont d-séparés Si J est connu, l information peut circuler de A à P (A J P est une connexion convergente) A et P sont indépendants P(A=F et P=F J=V) = 0 P(A=F J=V) = P(P=F J=V) = A et P ne sont pas indépendants conditionnellement à J A P J V
40 Résumé La transposition d un graphe causal en espace probabilisé conduit à des résultats conformes au raisonnement intuitif que l on peut mener directement sur ce graphe Ces résultats sont quantitatifs Les calculs mis en œuvre, même sur des cas très simples, sont lourds Les propriétés graphiques (d-séparation) peuvent être mises en correspondance avec les propriétés d indépendance de l espace probabilisé associé.
41 Réseaux bayésiens : définition Un réseau bayésien est défini par un graphe acyclique orienté G = (V,E), où V est l ensemble des nœuds de G, et E l ensemble des arcs de G un espace probabilisé fini (Ω, Z,P) un ensemble de variables aléatoires correspondant aux nœuds du graphe, telles que pv (, V,..., V ) = pv ( CV ( )) 1 2 n Π i= 1, n i i
42 Théorème fondamental Soit B=(G,P) un réseau bayésien Si X, Y, Z sont des ensembles de nœuds tels que X et Y sont d-séparés dans G par Z, alors X et Y sont indépendants conditionnellement à Z
43 Inférence dans les réseaux bayésiens Inférence = Révision des probabilités Calculer P(X e) La complexité dépend de la complexité du réseau
44 Inférence : approche intuitive A B C Cas d une chaîne Calculer P(C A=Vrai)? déf RB déf Cond Th. Bayes pabc (,, ) = pc ( B). pb ( A). pa ( ) pabc (,, ) = pc ( AB, ). pb ( A). pa ( ) pc ( AB, ) = pc ( B) pc ( A) = pc ( AB, ). pb ( A) B pc ( A) = pc ( B). pb ( A) B
45 Inférence : approche intuitive (suite) C A B E D A B B C B D E = XOR( C, D) Calculer P(E A=Faux)?
46 Inférence : conditionnement C A=F B E pe ( = VA= F)? D B=V C B=F C A=F E A=F E B=V D B=F D pe ( = VA= FB, = V)* pb ( = VA= F) + pe ( = VA= FB, = F)* pb ( = FA= F)
47 Inférence : aspects théoriques Problème NP-complet dans le cas général Méthodes simples (réseaux sans boucles) Méthodes «graphiques» (réseaux avec boucles) Méthodes approchées (réseaux de grande taille)
48 Inférence dans les réseaux sans boucle Chaîne Arbre Polyarbre
49 Principe X X P( X e) Amont( X ). Aval( X )
50 Inférence dans les réseaux avec boucle Transformation du réseau bayésien P(X e) Propagation dans l arbre de regroupement Inférence dans le réseau bayésien
51 A quoi sert un réseau bayésien? Inférence = raisonnement à partir de données partielles Exemple d application = diagnostic Médical Autre : évaluation de risque, scoring, etc.
52 Questions 1. D où viennent les probabilités? 2. D où vient le graphe
53 Réponses 1. Apprentissage de paramètres La structure étant supposée connue, Utiliser une base de cas pour déterminer les tables de probabilités 2. Apprentissage de structure Utiliser une base de cas pour déterminer les arcs du réseau
54 Approches Trois possibilités Demander aux experts du domaine: Surtout valable pour le graphe Approche statistique Calcul du maximum de vraisemblance Approche bayésienne Distribution des paramètres ou de la structure postérieurement à l observation des données
55 Exemple Pile Face Comment estimer la probabilité θ? Fréquence θ = p p + f Bayes p( θ X( p, f )) = k. p( X( p, f ) θ). p( θ) p( θ X( p, f )) = k. θ ( 1 θ). p( θ) p f
56 Apprentissage de paramètres La structure est donnée Le jeu de paramètres à estimer s en déduit X Z Y θ θ θ θ θ θ θ θ θ θ θ θ 111,, 121,, 211,, 221,, 311,, 312,, 313,, 314,, 321,, 322,, 323,, 324,, ( V) ( F) ( V) ( F) ( ) I( ) = px= = px= = py= = py= ( ) ( ( ) I( )) ( ( ) I( )) ( ( ) I( )) ( ( ) I( )) ( ( ) I( )) ( ( ) I( )) ( ( ) I( )) = pz= V X= V Y= V = pz= V X= V Y= F = pz= V X= F Y= V = pz= V X= F Y= F = pz= F X= V Y= V = pz= F X= V Y= F = pz= F X= F Y= V = pz= F X= F Y= F
57 Apprentissage statistique de paramètres Approche Maximum de vraisemblance Φ Θ n qi ri D i, j, k i, j, k i= j= 1 k = 1 ( ) ( ) Θ = N.log θ MV i, j arg max 1 ( i, j ΦD ) Résultat : fréquences = MV θ i, j, k Θ i, j = N i, j, k N i, j
58 Apprentissage bayésien de paramètres Formule générale ( Θ D) ( D Θ). ( Θ) P P P A Posteriori = Vraisemblance. A Priori Résultat dépend de la probabilité a priori cas de Dirichlet θ N + α MAP i, j, k i, j, k i, j, k = Ni, j+ αi, j
59 Apprentissage statistique de structure Contraindre la structure Cas général :? Cas de l arbre Théorème de Chow et Liu Arbre couvrant de poids maximal ( ) k k i j W Xi, X j = N xi, x j.log k, k i j N x ( k ) i N x i k i i, x k j j. N x k j j
60 Apprentissage bayésien de structure Même principe général Problème M MAP Distribution des structures Calcul de P(M D) = argmaxp M ( M D) Recherche ( structures possibles pour dix variables)
61 Algorithme K2
62 L apprentissage vu comme inférence cas 1 modèle cas 2 cas n
63 Conclusions Avantages Formalisme unifié Apprentissage et apprentissage incrémental Données incomplètes Requêtes d inférence multiples Limites Complexité : inférence et apprentissage sont NPcomplets! Lisibilité Probabilités?
64 Exemple Questionnaire adaptatif (Crédit en ligne) Vendre sur Internet Risque de déconnexion Accélérer le processus de vente Vente de crédit Risque d impayé Obtenir des informations sur le client Compromis à trouver Variable-clé = longueur du questionnaire
65 Démarche revenu âge sitfam sithab nbenf Utiliser un réseau bayésien pour : Créer un modèle de score Guider le questionnaire Poser les questions les plus utiles En fonction des réponses obtenues score ancban
66 Questionnaire adaptatif Principe Un score d'acceptation (proba MP) définitif est fixé (S1), par exemple 0.06 Un score de rejet définitif est fixé (S2), par exemple 0.20 Le questionnaire adaptatif fonctionne comme suit : TantQue la proba MP est comprise entre S1 et S2, Faire Parmi les questions non encore posées, déterminer celle apportant le plus d'information Poser la question Calculer la nouvelle proba MP Fin TantQue
67 Résultats Nombre moyen de questions posées : 9 Questionnaires complets = 35% Nombre moyen de questions (incomplets) = 7 Erreurs = 4% Erreur BP = 4% Erreur MP = 4%
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailLe Data Mining au service du Scoring ou notation statistique des emprunteurs!
France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative
Plus en détailRaisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Plus en détailMaster d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien
Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien Denis Cousineau Sous la direction de Roberto di Cosmo Juin 2005 1 Table des matières 1 Présentation
Plus en détailIntroduction au datamining
Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring
ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring Les méthodes d évaluation du risque de crédit pour les PME et les ménages Caractéristiques Comme les montants des crédits et des
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailProbabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...
1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailProbabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2
Probabilités Table des matières I Petits rappels sur le vocabulaire des ensembles 2 I.1 s................................................... 2 I.2 Propriétés...................................................
Plus en détailArbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
Plus en détailAPPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE
SûretéGlobale.Org La Guitonnière 49770 La Meignanne Téléphone : +33 241 777 886 Télécopie : +33 241 200 987 Portable : +33 6 83 01 01 80 Adresse de messagerie : c.courtois@sureteglobale.org APPORT DES
Plus en détailP1 : Corrigés des exercices
P1 : Corrigés des exercices I Exercices du I I.2.a. Poker : Ω est ( l ensemble ) des parties à 5 éléments de l ensemble E des 52 cartes. Cardinal : 5 I.2.b. Bridge : Ω est ( l ensemble ) des parties à
Plus en détailÉquations non linéaires
Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et
Plus en détailILT. Interfacultair Instituut voor Levende Talen. T@@lvaardig. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven
IL If I L S V Ey G Khk U L 13/02/02 pé? xp qé xp pz à pz p héhq pé p à q z p à p héhq fé à p à q pz xp q 'p (è) f, '-à- p. x. ' é ff. N xp à py qq' q z b ( f) P xp pô pp L p - pé pz ': z qq', q -? Bj,
Plus en détailBaccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé
Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé A. P. M. E. P. Exercice 1 5 points 1. Réponse d. : 1 e Le coefficient directeur de la tangente est négatif et n est manifestement pas 2e
Plus en détailThéorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Plus en détailChapitre 5 : Flot maximal dans un graphe
Graphes et RO TELECOM Nancy A Chapitre 5 : Flot maximal dans un graphe J.-F. Scheid 1 Plan du chapitre I. Définitions 1 Graphe Graphe valué 3 Représentation d un graphe (matrice d incidence, matrice d
Plus en détailProbabilités conditionnelles
Probabilités conditionnelles Exercice Dans une usine, on utilise conjointement deux machines M et M 2 pour fabriquer des pièces cylindriques en série. Pour une période donnée, leurs probabilités de tomber
Plus en détailLes critères de segmentation Critères Variables retenues Description Exemple Pays, région, ville, Chauffage,
SYNTHÈSE DU CHAPITRE 11 : LA SEGMENTATION DE LA DEMANDE. La segmentation. La segmentation de la demande consiste à définir des groupes de clients (des segments de clientèle) ayant des comportements homogènes
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailAlgorithmes d'apprentissage
Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt
Plus en détailRéseaux bayésiens. 3 e édition Patrick Naïm, Pierre-Henri Wuillemin, Philippe Leray, Olivier Pourret, Anna Becker
Réseaux bayésiens 3 e édition Patrick Naïm, Pierre-Henri Wuillemin, Philippe Leray, Olivier Pourret, Anna Becker Avec la contribution de Bruce G. Marcot, Carmen Lacave et Francisco J. Díez Groupe Eyrolles,
Plus en détailData Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.
des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le
Plus en détailProbabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailClassification non supervisée
AgroParisTech Classification non supervisée E. Lebarbier, T. Mary-Huard Table des matières 1 Introduction 4 2 Méthodes de partitionnement 5 2.1 Mesures de similarité et de dissimilarité, distances.................
Plus en détailVision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007
Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................
Plus en détailPourquoi l apprentissage?
Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage
Plus en détailProbabilités. C. Charignon. I Cours 3
Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3
Plus en détailAnalyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57
Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation
Plus en détailApprentissage Automatique
Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Plus en détailchoisir H 1 quand H 0 est vraie - fausse alarme
étection et Estimation GEL-64943 Hiver 5 Tests Neyman-Pearson Règles de Bayes: coûts connus min π R ( ) + ( π ) R ( ) { } Règles Minimax: coûts connus min max R ( ), R ( ) Règles Neyman Pearson: coûts
Plus en détailChristophe CANDILLIER Cours de DataMining mars 2004 Page 1
Christophe CANDILLIER Cours de DataMining mars 2004 age 1 1. Introduction 2. rocessus du DataMining 3. Analyse des données en DataMining 4. Analyse en Ligne OLA 5. Logiciels 6. Bibliographie Christophe
Plus en détailExercices sur le chapitre «Probabilités»
Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Pour démarrer Exercices sur le chapitre «Probabilités» Exercice 1 (Modélisation d un dé non cubique) On considère un parallélépipède rectangle de
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailTexte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
Plus en détailCalculs de probabilités conditionelles
Calculs de probabilités conditionelles Mathématiques Générales B Université de Genève Sylvain Sardy 20 mars 2008 1. Indépendance 1 Exemple : On lance deux pièces. Soit A l évènement la première est Pile
Plus en détailCorrection du baccalauréat ES/L Métropole 20 juin 2014
Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)
Plus en détailProjet SINF2275 «Data mining and decision making» Projet classification et credit scoring
Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Année académique 2006-2007 Professeurs : Marco Saerens Adresse : Université catholique de Louvain Information Systems
Plus en détailGEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau
GEA II Introduction aux probabilités Poly. de révision Lionel Darondeau Table des matières Énoncés 4 Corrigés 10 TD 1. Analyse combinatoire 11 TD 2. Probabilités élémentaires 16 TD 3. Probabilités conditionnelles
Plus en détailAnalyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Plus en détailQu est-ce qu une probabilité?
Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont
Plus en détailExercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,
Plus en détailALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII
ALGORITHMIQUE II NOTION DE COMPLEXITE 1 2 Comment choisir entre différents algorithmes pour résoudre un même problème? Plusieurs critères de choix : Exactitude Simplicité Efficacité (but de ce chapitre)
Plus en détailExo7. Probabilité conditionnelle. Exercices : Martine Quinio
Exercices : Martine Quinio Exo7 Probabilité conditionnelle Exercice 1 Dans la salle des profs 60% sont des femmes ; une femme sur trois porte des lunettes et un homme sur deux porte des lunettes : quelle
Plus en détaildonnées en connaissance et en actions?
1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)
Plus en détailObjectifs du cours d aujourd hui. Informatique II : Cours d introduction à l informatique et à la programmation objet. Complexité d un problème (2)
Objectifs du cours d aujourd hui Informatique II : Cours d introduction à l informatique et à la programmation objet Complexité des problèmes Introduire la notion de complexité d un problème Présenter
Plus en détailBACCALAUREAT GENERAL MATHÉMATIQUES
BACCALAUREAT GENERAL FEVRIER 2014 MATHÉMATIQUES SERIE : ES Durée de l épreuve : 3 heures Coefficient : 5 (ES), 4 (L) 7(spe ES) Les calculatrices électroniques de poche sont autorisées, conformement à la
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane
Plus en détailFORMULAIRE DE STATISTIQUES
FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)
Plus en détailDistribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités
Chapitre 2 Le calcul des probabilités Equiprobabilité et Distribution Uniforme Deux événements A et B sont dits équiprobables si P(A) = P(B) Si il y a équiprobabilité sur Ω, cad si tous les événements
Plus en détailDétection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux
Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux hétérogènes Laurent Déjean Thales Airborne Systems/ENST-Bretagne Le 20 novembre 2006 Laurent Déjean Détection en
Plus en détailCoup de Projecteur sur les Réseaux de Neurones
Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche
Plus en détailAgenda de la présentation
Le Data Mining Techniques pour exploiter l information Dan Noël 1 Agenda de la présentation Concept de Data Mining ou qu est-ce que le Data Mining Déroulement d un projet de Data Mining Place du Data Mining
Plus en détailUtilisation des tableaux sémantiques dans les logiques de description
Utilisation des tableaux sémantiques dans les logiques de description IFT6281 Web Sémantique Jacques Bergeron Département d informatique et de recherche opérationnelle Université de Montréal bergerja@iro.umontreal.ca
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailCALCUL DES PROBABILITES
CALCUL DES PROBABILITES Exemple On lance une pièce de monnaie une fois. Ensemble des événements élémentaires: E = pile, face. La chance pour obtenir pile vaut 50 %, pour obtenir face vaut aussi 50 %. Les
Plus en détailExemples de problèmes et d applications. INF6953 Exemples de problèmes 1
Exemples de problèmes et d applications INF6953 Exemples de problèmes Sommaire Quelques domaines d application Quelques problèmes réels Allocation de fréquences dans les réseaux radio-mobiles Affectation
Plus en détailFeuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.
Université de Nantes Année 2013-2014 L3 Maths-Eco Feuille 6 : Tests Exercice 1 On cherche à connaître la température d ébullition µ, en degrés Celsius, d un certain liquide. On effectue 16 expériences
Plus en détailLes probabilités. Chapitre 18. Tester ses connaissances
Chapitre 18 Les probabilités OBJECTIFS DU CHAPITRE Calculer la probabilité d événements Tester ses connaissances 1. Expériences aléatoires Voici trois expériences : - Expérience (1) : on lance une pièce
Plus en détailPlus courts chemins, programmation dynamique
1 Plus courts chemins, programmation dynamique 1. Plus courts chemins à partir d un sommet 2. Plus courts chemins entre tous les sommets 3. Semi-anneau 4. Programmation dynamique 5. Applications à la bio-informatique
Plus en détailChaînes de Markov au lycée
Journées APMEP Metz Atelier P1-32 du dimanche 28 octobre 2012 Louis-Marie BONNEVAL Chaînes de Markov au lycée Andreï Markov (1856-1922) , série S Problème 1 Bonus et malus en assurance automobile Un contrat
Plus en détailCHAPITRE 5. Stratégies Mixtes
CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,
Plus en détailBaccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01
Plus en détailLa NP-complétude. Johanne Cohen. PRISM/CNRS, Versailles, France.
La NP-complétude Johanne Cohen PRISM/CNRS, Versailles, France. Références 1. Algorithm Design, Jon Kleinberg, Eva Tardos, Addison-Wesley, 2006. 2. Computers and Intractability : A Guide to the Theory of
Plus en détailAgrégation des portefeuilles de contrats d assurance vie
Agrégation des portefeuilles de contrats d assurance vie Est-il optimal de regrouper les contrats en fonction de l âge, du genre, et de l ancienneté des assurés? Pierre-O. Goffard Université d été de l
Plus en détailJournées d études IARD
Journées d études IARD Gestion des risques liés à la refonte tarifaire d un portefeuille automobile Niort, le 20 mars 2014 Marie Foucher mfoucher@galea-associes.eu Pierre Thérond ptherond@galea-associes.eu
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailFIMA, 7 juillet 2005
F. Corset 1 S. 2 1 LabSAD Université Pierre Mendes France 2 Département de Mathématiques Université de Franche-Comté FIMA, 7 juillet 2005 Plan de l exposé plus court chemin Origine du problème Modélisation
Plus en détail«Cours Statistique et logiciel R»
«Cours Statistique et logiciel R» Rémy Drouilhet (1), Adeline Leclercq-Samson (1), Frédérique Letué (1), Laurence Viry (2) (1) Laboratoire Jean Kuntzmann, Dép. Probabilites et Statistique, (2) Laboratoire
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur
Plus en détailLoi d une variable discrète
MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une
Plus en détailIntégration et probabilités TD1 Espaces mesurés Corrigé
Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.
Plus en détailLes algorithmes de fouille de données
Février 2005 Les algorithmes de fouille de données DATAMINING Techniques appliquées à la vente, aux services client, interdictions. Cycle C Informatique Remerciements Je remercie les personnes, les universités
Plus en détailResolution limit in community detection
Introduction Plan 2006 Introduction Plan Introduction Introduction Plan Introduction Point de départ : un graphe et des sous-graphes. But : quantifier le fait que les sous-graphes choisis sont des modules.
Plus en détailRappels sur les suites - Algorithme
DERNIÈRE IMPRESSION LE 14 septembre 2015 à 12:36 Rappels sur les suites - Algorithme Table des matières 1 Suite : généralités 2 1.1 Déition................................. 2 1.2 Exemples de suites............................
Plus en détailProbabilités conditionnelles Loi binomiale
Exercices 23 juillet 2014 Probabilités conditionnelles Loi binomiale Équiprobabilité et variable aléatoire Exercice 1 Une urne contient 5 boules indiscernables, 3 rouges et 2 vertes. On tire au hasard
Plus en détailIndépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles
Chapitre 3 Événements indépendants et Probabilités conditionnelles Indépendance Indépendance Probabilité conditionnelle Definition Deux événements A et B sont dits indépendants si P(A B) = P(A).P(B) Attention
Plus en détailExercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010
Exercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010 Exercices fortement conseillés : 6, 10 et 14 1) Un groupe d étudiants est formé de 20 étudiants de première année
Plus en détailChapitre 3. Mesures stationnaires. et théorèmes de convergence
Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailLes Réseaux Bayesiens
Les Réseaux Bayesiens A quoi sert un réseau bayésien? à représenter la connaissance d un système technique Le "système" dont on représente la connaissance au moyen d'un réseau bayésien peut être aussi
Plus en détailACP Voitures 1- Méthode
acp=princomp(voit,cor=t) ACP Voitures 1- Méthode Call: princomp(x = voit, cor = T) Standard deviations: Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 2.1577815 0.9566721 0.4903373 0.3204833 0.2542759 0.1447788
Plus en détailSaisie des chauffe-eau thermodynamiques à compression électrique
Fiche d application : Saisie des chauffe-eau thermodynamiques à compression électrique Date Modification Version 01 décembre 2013 Précisions sur les CET grand volume et sur les CET sur air extrait 2.0
Plus en détailDe la mesure à l analyse des risques
De la mesure à l analyse des risques Séminaire FFA Jean-Paul LAURENT Professeur à l'isfa jean-paul.laurent@univ-lyon1.fr http://laurent.jeanpaul.free.fr/ 0 De la la mesure à l analyse des risques! Intégrer
Plus en détailRéseaux bayésiens : Apprentissage et diagnostic de systemes complexes
Réseaux bayésiens : Apprentissage et diagnostic de systemes complexes Ph. Leray To cite this version: Ph. Leray. Réseaux bayésiens : Apprentissage et diagnostic de systemes complexes. Modeling and Simulation.
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailLe théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Plus en détailESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit
ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Plan de la séance 3 : Le risque de crédit (1) Les opérations de crédit Définition d un crédit La décision de crédit Les crédits aux petites
Plus en détailAnnexe 6. Notions d ordonnancement.
Annexe 6. Notions d ordonnancement. APP3 Optimisation Combinatoire: problèmes sur-contraints et ordonnancement. Mines-Nantes, option GIPAD, 2011-2012. Sophie.Demassey@mines-nantes.fr Résumé Ce document
Plus en détailMaster IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1
Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs
Plus en détailStructure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données
Structure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données et le Data Mining Nous suivons le plan suivant : Fonctionnement de Spad Catalogue des méthodes (statistiques
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailEconomie de l Incertain et des Incitations
Economie de l Incertain et des Incitations CHAPITRE 2 Eléments de théorie des jeux en information symétrique et asymétrique Equilibres Bayesiens - Université de Tours - M1 AGE - Arnold Chassagnon - Automne
Plus en détail