Extraction de Connaissances à partir des Données

Dimension: px
Commencer à balayer dès la page:

Download "Extraction de Connaissances à partir des Données"

Transcription

1 Extraction de Connaissances à partir des Données MASTER 2 SRO G. Simon

2 Plan Généralités sur l ECD Le pré-traitement des données La fouille de données Optimiser la fouille Visualisation Les systèmes d ECD

3 Généralités sur l ECD L ECD dans l entreprise - Etude de cas La discipline ECD Architecture type d un système d ECD La fouille de données Typologie des applications

4 Le cercle de l'ecd Identifier opportunités Données Extraire Connaissances Evaluer Actions Agir

5 Etude de cas : Un fournisseur Télécom Tester un nouveau produit sur la clientèle Un marché très étroit Trouver le meilleur ciblage D'après l'expérience : 2% à 5% répondent positivement Pour 500 achats, il faudrait contacter 16 à prospects au hasard

6 Etude de cas : Résultats 450 Prospects répondants courrier ciblé courrier de masse taille de campagne

7 Etude de cas : Appliquer l'ecd Apprentissage supervisé pour définir 2 classes de clients susceptibles d acheter ou pas La base de données a été construite à partir des réponses à un produit similaire Les données caractéristiques : Les appels détaillés Les données marketing Des données démographiques Les minutes d'utilisation La sphère d'influence L'indicateur de vagabondage

8 Etude de cas : Résultats chiffrés Campagne Test : 2 séries de courriers Un groupe au hasard : 3% de réponses Une sélection faite sur le modèle : 15% de réponses Extension : Réintégration des résultats pour définir le marché global à l'aide de la campagne test

9 Conclusions Les résultats de la démarche ECD ne sont pas toujours "chiffrables" La démarche doit s'intégrer dans la vie et les cycles de management de l'entreprise Sans cesse de nouvelles applications Une étude préalable permet d'appréhender rapidement les résultats à espérer

10 Généralités sur l ECD L ECD dans l entreprise - étude de cas La discipline ECD Architecture type d un système d ECD La fouille de données Typologie des applications

11 La définition de référence de l'ecd «L'ECD est le processus non-trivial d'identification de structures inconnues, valides et potentiellement exploitables dans les bases de données» Fayyad, 1996

12 Domaines d'étude de l'ecd Extraction de Connaissances à partir des Données (Knowledge Discovery in Databases) Fouille de Données (Data Mining)

13 Résultat : les connaissances Utilité modifient le comportement de l'agent qui les possèdent inconnues auparavant Transmissibilité vers les humains : compréhensibilité vers d'autres systèmes fondés sur les connaissances relative indépendance par rapport à l'agent qui les a produites

14 Résultat : les connaissances (2) Généralité "Jean Dupont a acheté une moto" est une donnée "Les célibataires masculins en dessous de la quarantaine achètent sensiblement plus de motos que la moyenne" est une connaissance

15 Support : les données Disponibilité ont été collectées avant l'ecd et pour d'autres raisons bruit, valeurs manquantes, etc. Grande quantité relative, dans le cas des phénomènes très complexes Complexité structure bases de données gérées par des SGBD

16 Méthode : l extraction Réalisée généralement par un agent automatique qui "apprend" les régularités des données les techniques d'apprentissage automatique adaptées à l'ecd portent le nom de Fouille de Données (Data Mining) la FD est plus pragmatique que l'aa : le "tout automatique" est abandonné en faveur d'une étroite collaboration avec l'utilisateur humain (ex : techniques de visualisation) l'ecd ne se réduit pas à la FD (en amont : sélection, nettoyage des données, en aval : aide à la compréhension des connaissances découvertes)

17 Disciplines co-fondatrices de l'ecd Intelligence Artificielle (dans le sens large du terme) représentation des connaissances apprentissage automatique résolution de problèmes Statistiques, analyse de données Bases de données Visualisation

18 Généralités sur l ECD L ECD dans l entreprise - étude de cas Domaine d étude de l ECD Architecture type d un système d ECD La fouille de données Typologie des applications

19 Interaction avec l utilisateur Visualisation Sélection Présentation Apport Interactions SGBD Préparation Fouille de données

20 Le processus d'ecd (vision académique) Fouille de Données Interprétation et évaluation Sélection et pré-traitement p(x)=0.02 Connaissances Données Sources de données Données préparées Régularités et modèles («connaissances» informatiques)

21 Le processus d'ecd (vision industrielle) Compréhension du problème Compréhension des données Déploiement Données Préparation des données Fouille des données CRISP-DM Cross Industry Standard Process for Data Mining mai 1998 Evaluation

22 Généralités sur l ECD L ECD dans l entreprise - étude de cas Domaine d étude de l ECD Architecture type d un système d ECD La fouille de données Typologie des applications

23 Fouille de données (FD) En anglais : Data Mining la composante centrale du processus d ECD la plus automatisée en amont : sélection, mise en forme, nettoyage des données en aval : présentation des connaissances découvertes

24 Disciplines co-fondatrices de la FD Statistiques Apprentissage symbolique Algorithmes génétiques Fouille de données Réseaux de neurones Optimisation Résolution de problèmes

25 Les principales étapes de la FD Initialisation : construction d une (ou de plusieurs) hypothèse(s) initiale(s) Recherche d une (ou de plusieurs) hypothèse(s) améliorée(s) Post-traitement de la (des) hypothèse(s) obtenue(s) Hypothèse = modèle expliquant les données

26 Questions fondamentales Quel type de connaissances recherche-t-on? Comment représenter ces connaissances? Comment évaluer ces connaissances? Comment rechercher ces connaissances?

27 Représentation des connaissances Rôle formaliser pour manipuler efficacement sur machine assurer la communication entre utilisateur et FD Problématique : degré d expressivité du formalisme ni trop recherche complexe risque de sur-spécialisation ni trop peu prise en compte de l ensemble des besoins de l utilisateur ne pas limiter l espace des connaissances à découvrir

28 Les principaux formalismes Symboliques (logiques) arbres de décision règles programmes logiques Numériques modèles statistiques réseaux de neurones Mixtes : réseaux bayésiens

29 Les arbres de décision Le client est-il susceptible d acheter une moto? M Sexe F Age < 40 Non oui non Oui Non

30 Le neurone artificiel e 1 w 1 Neurone e 2 w 2 w m Σ ρ ρ p w e = i= 1 w i e i σ( ρ ρ 1 w e) = + 1 ρ ρ e w e s e p

31 Les réseaux multi-couches X 1 Y 1 X 2 Y 2 X 3 X n Entrées Couche(s) cachée(s) Sorties Y m

32 Les cartes de Kohonen Voisinage carré de dimension 1 : x 1 x 2 x n connexion récurrente connexion adaptative

33 Les réseaux bayésiens Fumeur Mineur Cancer Emphysème Rayons X Dyspnée P(E F,M) = 0.9 P(E F, M) = 0.3 P(E F,M) = 0.5 P(E F, M) = 0.1

34 Evaluation des connaissances Rôle guider l algorithme de FD fournir un degré de confiance pour les connaissances découvertes Problématique données souvent affectées par des erreurs ou incohérences (bruit) existence de régularités fortuites dans les données d apprentissage nécessité de tester les connaissances sur des données distinctes

35 Généralités sur l ECD L ECD et l entreprise - étude de cas Domaine d étude de l ECD Architecture type d un système d ECD La fouille de données Typologie des applications

36 Applications de l'ecd Domaines d'application de l'ecd Principales catégories d'applications Exemples de résultats recherchés

37 Domaines d'application de l'ecd Activités commerciales : grande distribution, vente par correspondance, banques, assurances segmentation de la clientèle détermination du profil du consommateur analyse du "panier de la ménagère" mise au point des stratégies de rétention de la clientèle prédiction des ventes détection des fraudes identification des clients à risque

38 Domaines d'application de l'ecd Activités financières recherche des corrélations "cachées" entre les indicateurs financiers prédiction de l'évolution de ces indicateurs Activités de gestion des ressources humaines prévision du plan de carrière aide au recrutement

39 Domaines d'application de l'ecd (2) Activités industrielles détection et diagnostic des pannes et des défauts réglage des équipements

40 Domaines d'application de l'ecd (3) Activités scientifiques diagnostic médical étude du génome analyses chimiques et pharmaceutiques exploitation des données astronomiques reconnaissance de la parole

41 L'approche scientifique de l'ecd Mettre en évidence des groupes d'applications avec des besoins communs Rechercher des solutions génériques pour chacun de ces groupes Adapter, éventuellement, ces solutions génériques aux particularités de chaque application Critère de regroupement : la nature des connaissances recherchées

42 Les principales catégories d'applications Les tâches supervisées le but principal est d'apprendre à prédire certaines valeurs à partir d'autres valeurs Les tâches non-supervisées le but principal est de décrire les relations qui existent au sein des données

43 Tâches supervisées discrimination "Les clients susceptibles de quitter votre compagnie téléphonique pour une autre sont ceux qui totalisent des appels à l'étranger en valeur de plus de 1.000F/mois et qui ont fait déjà plus de trois réclamations." régression "Le nombre de sinistres déclarés par un conducteur auto assuré chez vous est inversement proportionnel à l'ancienneté de son permis, avec des coefficients de proportionnalité différents selon le sexe"

44 Tâches non-supervisées clustering (classification non-supervisée) "Dans votre chaîne de magasins de sport, il existe deux groupes distincts de magasins selon l'évolution de leur chiffre d'affaires pendant l'hiver" découverte d'associations "Parmi les achats des différents produits que vous proposez, il existe les associations suivantes : vos clients qui achètent de la bière achètent aussi des chips dans 80% des cas,..."

45 Tâches non-supervisées (2) découverte de relations numériques "Parmi les différents paramètres qui caractérisent ce type d'acier, il existe les relations suivantes : la dureté est inversement proportionnelle au taux de carbone,..." découverte de relations causales "Le fait de fumer est une des causes directes du cancer du poumon. La toux est un de ses effets directs."

46 Plan Généralités sur l ECD Le pré-traitement des données La fouille de données Optimiser la fouille Visualisation Les systèmes d ECD

47 Représentation et pré-traitement des données Les exemples Les attributs Le codage des attributs La réduction des dimensions Autres pré-traitements

48 Les exemples La plupart des méthodes de fouille de données travaillent sur des ensembles d'exemples, caractérisés par les mêmes attributs (variables, champs, etc.) Attributs Température Humidité Sensation Exemples agréable lourd

49 Les attributs Caractérisent les différents aspects (traits, facettes, paramètres) des exemples Extrêmement hétérogènes Pour un traitement informatique on doit les répartir dans des types qui partagent : le même encodage les mêmes opérations inter- et intra-type Certains types «usuels» pour l'ecd

50 Les types d attributs Atomiques nominaux : valeurs identifiées par des noms, sans autre relation entre elles que l'exclusion réciproque numériques : valeurs identifiées par des nombres discrets (entiers Z) continus (réels R) binaires : 2 valeurs qui peuvent être vues comme : nominales (vrai/faux) numériques (0/1)

51 Les types d attributs (suite) hiérarchiques : relation d'ordre partiel couleur chaude froide Structurés jaune rouge vert bleu multimédia (textes, images, sons, films), séquences d'événements, etc. applications en TextMining et WebMining

52 Le codage Une méthode de FD n est pas capable de traiter tous ces types simultanément La plupart : binaires, nominaux et / ou numériques Certaines méthodes imposent des restrictions sur la distribution des valeurs des attributs numériques nécessité de réaliser des codages Attention : perte d'information!

53 Le codage : binarisation Effet : nominal binaire Méthode : attribut nominal à n valeurs n attributs binaires Perte d'information : l'exclusion mutuelle des valeurs de l'attribut initial Application : découverte d'associations, réseaux neuronaux

54 Le codage : normalisation Effet : restriction de la plage de variation d'un attribut numérique Méthodes : linéaire : XN centrage-réduction : Perte d'information : l'échelle Application : clustering = ( X min( X )) ( X ) min( X ) ( max ) XN = [ 0, 1] ( X E( X )) σ( X ) ( ), σ( XN ) E XN = 0 = 1

55 Le codage : discrétisation Effet : continu discret Méthodes : intervalles d'égale largeur intervalles d'égale fréquence Perte d'information : diminution de la précision si les valeurs discrètes ainsi obtenues sont traitées comme nominales : perte de la relation d'ordre

56 Le codage : discrétisation (suite) Application : découverte d'associations, certains arbres de décision et réseaux bayésiens La qualité de la discrétisation est très dépendante des objectifs de la FD certaines méthodes de FD réalisent elles-mêmes cette opération ex: discrétisation locale et supervisée au cours de l'induction d'arbres de décision

57 Le codage des attributs structurés Effet : attribut structuré plusieurs attributs atomiques Méthodes intervention des experts (étiquetage) extraction automatique de paramètres (peut s'appuyer à son tour sur la FD) Exemples : texte pré-traitement lexical pour extraire des termes pertinents construction du vecteur de fréquence des termes pertinents son fréquence fondamentale + formants

58 Représentation et pré-traitement des données Les exemples Les attributs Le codage des attributs La réduction des dimensions Autres pré-traitements

59 La réduction des dimensions Problème : BD de quelques centaines de millions d'exemples avec quelques centaines d'attributs la plupart des méthodes de FD sont incapables de les traiter directement Solutions : réduire le nombre d exemples réduire le nombre d attributs

60 Réduction du nombre d'exemples : Technique d Echantillonnage tirage aléatoire d'un nombre prédéfini d'exemples dans l'ensemble d'exemples original si la taille de l'échantillon n'est pas appropriée à la granularité du phénomène étudié, certaines régularités seront omises par la FD le mode de tirage peut être uniforme ou surpondérer certaines populations

61 Réduction du nombre d'attributs Nécessaire pour les méthodes de FD très sensibles aux attributs non-pertinents (KPPV) ou à la redondance des attributs (classificateur «naïf» de Bayes) Deux approches principales la sélection/pondération des attributs les plus pertinents l'extraction d'un nombre réduit d'attributs synthétiques à partir des attributs originaux

62 Extraction d'attributs Concentrer (la plus grande partie de) l'information apportée par les attributs originaux dans un petit nombre d'attributs dérivés combinaisons linéaires, logiques, etc. e.g. les axes factoriels issus de l'analyse en composantes principales Inconvénient : diminution de la compréhensibilité des modèles obtenus

63 Attributs dérivés Adapter les exemples aux biais de représentation des méthodes de FD utilisées e.g. combinaisons linéaires d'attributs afin de permettre aux arbres de décision de découvrir des frontières obliques entre les classes Par expertise intuitif : e.g. dérivation de durées, évolutions par visualisation

64 Représentation et pré-traitement des données Les exemples Les attributs Le codage des attributs La réduction des dimensions Autres pré-traitements

65 Autres pré-traitements Détection et élimination des exemples aberrants par visualisation par limitation aux valeurs «plausibles» des attributs (ex : écart à la moyenne inférieur à trois écarts-types) Traitement des valeurs manquantes élimination des exemples correspondants remplacement par des valeurs inférées à partir des autres exemples (e.g. la moyenne, apprentissage) certaines méthodes de FD traitent elles-mêmes les valeurs manquantes

66 Plan Généralités sur l ECD Le pré-traitement des données La fouille de données Optimiser la fouille Visualisation Les systèmes d ECD

67 La fouille de données L Apprentissage Automatique (AA) Fouille de données supervisée Fouille de données non supervisée

68 La fouille de données : rappels Dépend de la représentation des connaissances Repose sur l Apprentissage automatique chercher un modèle qui «explique» au mieux les données Nécessite l évaluation des connaissances obtenues

69 Apprentissage automatique (AA) On dit qu'un programme informatique apprend de l'expérience E, par rapport à un ensemble de tâches T et à une mesure de performance P, si ses performances dans l'accomplissement des tâches de T, telles qu'elles sont mesurées par P, s'améliorent avec l'expérience E» Autrement dit : un programme apprend s il profite d'expériences passées pour s'améliorer

70 Typologie de l'aa apprentissage analytique résultats certains obtenus par déduction apprentissage empirique résultats incertains obtenus par induction

71 Rappel : le raisonnement déductif Va du général vers le particulier en préservant la vérité Exemple Hypothèse 1 : Humain(X) Mortel(X) Hypothèse 2 : Humain(Socrate) Déduction : Mortel(Socrate) Limite : ne permet pas de générer de nouvelles connaissances Raisonnement et apprentissage humains fondés sur l INDUCTION

72 L induction : exemple Observation 1 : Clyde est gris Observation 2 : Clyde est un éléphant Induction : Tous les éléphants sont gris Et si Clyde avait été albinos?

73 L induction : caractéristiques Raisonnement du particulier vers le général Importance du nombre de cas observés (exemples) la probabilité que les connaissances induites soient fondées augmente avec ce nombre MAIS attention au sur-apprentissage! Importance du choix des cas observés cas particuliers, bruit Raisonnement logiquement incorrect indispensable à la généralisation et donc à l apprentissage

74 Exemple d'inférence y Quelle est la relation entre x et y? x

75 Déduction : rejet des mauvaises hypothèses y La déduction nous permet de rejeter une infinité d'hypothèses : celles qui sont en désaccord avec les exemples x

76 Déduction : impossibilité de discerner y Mais il reste encore une infinité d'autres hypothèses entre lesquelles la déduction ne peut pas discerner! x

77 Inférence intuitive biaisée y Et pourtant la meilleure solution nous paraît évidente : la plus «simple» des hypothèses en accord avec les exemples x

78 Le biais d'induction Dans la plupart des cas la seule adéquation aux exemples (critère imposé par la déduction) ne suffit pas pour choisir entre les hypothèses possibles Tout autre critère de sélection ou de préférence que l'adéquation aux exemples s'appelle biais d'induction Le biais d'induction peut être plus ou moins explicite dans un algorithme d'apprentissage - mais il existe toujours! (e.g. réseau de neurones à structure figée) Le biais d'induction le plus utilisé : le rasoir d'ockham «Toutes choses égales par ailleurs, préfère l'hypothèse la plus simple»

79 Généralisation du rasoir d'ockham y Ce biais est si fort qu'il nous pousse parfois à négliger certaines imperfections des hypothèses, pourvu qu'elles soient simples (on peut penser dans ce cas que les imperfections sont causées plutôt par le bruit de mesure que par une relation plus complexe entre x et y) x

80 Les algorithmes de l ASA : principe Recherchent l hypothèse expliquant au mieux les exemples Dépendent du formalisme de représentation de l hypothèse S appuient sur une fonction d évaluation de la qualité de l hypothèse Commencent par une hypothèse initiale soit très générale soit très spécifique Utilisent une procédure de recherche heuristique

81 Les algorithmes de l ASA : pseudo-code Initialisation : une hypothèse initiale Recherche d une hypothèse améliorée : tant que non (condition d arrêt) choix des meilleures transformations de l hypothèse courante pour améliorer la fonction d évaluation Obtention des hypothèses améliorées Retour de la «meilleure» hypothèse obtenue Choix : effectué par une méthode heuristique

82 Types d apprentissages Apprentissage supervisé l'utilisateur indique un attribut particulier que l'agent devra apprendre à prédire à partir des autres attributs Apprentissage non-supervisé, sans guidage, où tous les attributs sont traités de la même manière inventer de nouveaux concepts (partitions «naturelles» des exemples), e.g. les K-means, cartes auto-organisatrices découvrir des relations entre les attributs, e.g. recherche d associations, réseaux bayésiens

83 La fouille de données L Apprentissage Automatique (AA) Fouille de données supervisée Fouille de données non supervisée

84 Fouille de données supervisée Les exemples expériences passées, énoncés de problèmes déjà résolus accompagnés de leurs solutions Le but : apprendre à résoudre des problèmes du même type La solution est représentée comme un attribut particulier (éventuellement structuré), que l'agent doit apprendre à prédire à partir des autres attributs de l exemple on l appelle généralement la classe

85 Fouille de données supervisée (2) Soit X 1, X 2,, X n les attributs prédictifs et Y l'attribut à prédire On peut exprimer la relation entre Y et X 1, X 2,, X n de manière déterministe Y = f(x 1, X 2,, X n ) de manière probabiliste P(Y X 1, X 2,, X n ) Selon le type de Y on parlera de : discrimination (Y est nominal : la classe) régression (Y est numérique)

86 Modèles de représentation des connaissances et apprentissage Symbolique Arbres de décision Règles transformation d arbre en règles induction de règles à partir d exemples Connexionniste réseaux de neurones multi-couches à rétro-propagation du gradient «Paresseux» (l'induction est retardée) K plus proches voisins Raisonnement à partir de cas

87 Induction d arbres de décision Méthode d inférence inductive la plus répandue Approximation de fonctions à valeurs discrètes (discrimination) attribut classe à n valeurs possibles prédire les différentes valeurs de la classe en fonction des valeurs des attributs Robuste au bruit Fonctionne avec des valeurs manquantes

88 Induction d'arbres de décision (IAD) CART (Breiman & all, Classification and regression trees, Wadsworth International Group, Belmont, 1984) ID3 (Quinlan, Induction of decision trees, Machine Learning, 1(1), 1986) C4.5 (Quinlan, C4.5: Programs for machine learning, Morgan Kaufmann, 1993) C5 (Quinlan, commercial - non-publié)

89 C4.5 : origine Algorithme d induction d arbres de décision Auteur : John Ross Quinlan (1993) Successeur de l algorithme ID3 Version commerciale : C5.0 Le plus connu et le plus utilisé Prise en compte du bruit et des valeurs manquantes Très efficace sur de gros volumes de données

90 Arbres de décision : rappel fondés sur une logique propositionnelle les nœuds non-terminaux = tests sur les valeurs d'un attribut les branches partant d'un nœud = les résultats possibles du test les feuilles = les valeurs de classe

91 Arbres de décision : les tests sur les attributs nominaux par défaut : une branche par valeur possible en option : regroupement de plusieurs valeurs par branche sur les attributs numériques (discrets ou continus) test d inégalité par rapport à un seuil seuil calculé automatiquement par C4.5 2 sous-arbres créés en fonction de ce seuil

92 Arbres de décision : inférences Objectif : classer un nouvel exemple oui M Age < 40 non Sexe F Non Anne a 40 ans Yves a 62 ans Jacques a 30 ans Kevin a 3 ans Oui Non Qui achète une moto?

93 Stratégie de recherche de C4.5 : généralités hypothèse (ASA) = arbre de décision recherche du «meilleur arbre» expliquant au mieux les exemples ayant un fort pouvoir prédictif le plus simple : principe du «rasoir d Occam» fonction d évaluation de la qualité des tests de l arbre stratégie de construction de l arbre : «diviser pour régner» : récursive, en profondeur d abord stratégie de recherche gloutonne : par escalade

94 Algorithme C4.5 (1) Données : l ensemble d apprentissage (EA) et la description des classes et attributs Résultat : un arbre de décision et son taux d erreur prédit (mauvais classement sur EA) Algorithme Créer le nœud racine Construire_arbre(EA,racine) erreur_prédite = élaguer_arbre(racine)

95 Algorithme C4.5 (2) Procédure construire_arbre(e,nœud) si tous les exemples de E appartiennent à une même classe C alors étiqueter nœud avec C sinon si E est vide alors étiqueter nœud avec la classe majoritaire du père de nœud sinon chercher le meilleur test X pour nœud (gain informationnel) si aucun test acceptable alors étiqueter nœud avec la classe majoritaire de E sinon pour chaque branche i de X soit E i l ensemble d exemples correspondant à cette branche créer noeud i ; construire_arbre(e i,noeud i )

96 C4.5 : Fonction d évaluation (1) Gain Informationnel Fondement théorique : théorie de l information la quantité d information portée par un message de probabilité p est -log 2 (p) en bits. p = 1 : aucune information apportée p = 0 : information potentiellement infinie Notations S = le nombre d exemples dans S freq(c i,s) = le nombre d exemples de S appartenant à la classe C i

97 C4.5 : Fonction d évaluation (2) Gain Informationnel Objectif : évaluer la qualité d un test X de n branches séparant un ensemble d exemples E en n sous ensembles E 1,, E n (appelés partitions) X doit être le plus discriminant possible peut-être réalisé en cherchant à créer les partitions les plus «pures» Principe : mesurer la quantité d information nécessaire pour classer les exemples de E avant et après l ajout du test X Mesure : la différence avant/après (le gain) On note k le nombre de classes différentes dans E

98 C4.5 : Fonction d évaluation (3) Principe calculatoire Probabilité de la classe C i : Quantité d info portée pour transmettre qu un exemple appartient à C i : p( Ci) = log2 Pour n importe quelle classe C i de E: k = freq(ci,e) info(e) - E log i= 1 freq( Ci, E) E freq(ci,e) E 2 freq(ci,e) E n Ei Après l ajout du test X : infox( E ) = info( Ei) i= 1 E Qualité de X : gain(x) = info(e) - info x (E)

99 Algorithmique de l'évaluation des tests Tests sur les attributs nominaux par défaut : une branche par valeur (évaluation triviale) en option : regroupement de valeurs (évaluation coûteuse ) Tests sur les attributs numériques : inégalités tri des exemples selon les valeurs de l'attribut considéré seuils exigibles : (x k +x k+1 )/2 astuce : ne tester que les seuils entre 2 exemples de classes différentes

100 Exemple Quinlan (2) Choix du test racine : D : [9+,5-] info(d)=0,940 Humidité D 1 : [3+,4-] info(d 1 )=0,985 Forte gain(humidité) Normale D 2 : [6+,1-] info(d 2 )=0,592 = 0,940-(7/14) 0,985-(7/14) 0,592 = 0,151

101 Exemple Quinlan (3) D : [9+,5-] info(d)=0,940 Vent Faible Fort... D 1 : [6+,2-] info(d 1 )=0,811 gain(vent) D 2 : [3+,3-] info(d 2 )=1,000 = 0,940-(8/14) 0,811-(6/14) = 0,048

102 Exemple Quinlan (4) Meilleur test : {1,2,...,14} [9+,5-] Ciel {1,2,8,9,11} [2+,3-] Ensoleillé Couvert Pluvieux {3,7,12,13} [4+,0-]? Oui {4,5,6,10,14} [3+,2-] gain(humidité)=0,970-(3/5) 0,000-(2/5) 0,000=0,970 gain(température)=0,970-(2/5) 0,000-(2/5) 1,000-(1/5) 0,000=0,570 Humidité gain(vent)= 0,970 -(2/5) 1,000-(3/5) 0,918=0,019...

103 Exemple Quinlan (5) Au final : Ciel [9+,5-] Ensoleillé Couvert Pluvieux [2+,3-] [4+,0-] [3+,2-] Humidité Oui Vent Normale [2+,0-] Forte [0+,3-] Faible [3+,0-] Fort [0+,2-] Oui Non Oui Non

104 Le rapport de gain de C4.5 Le gain informationnel favorise d'une manière injustifiée les tests avec un grand nombre de branches L'information potentielle générée par un test est : split_info On définit alors : ( ) i i X log E 2 i C4.5 choisit le test qui maximise gain_ratio parmi les tests avec un gain supérieur à la moyenne E E = E ( T ) gain _ ratio = gain split_info ( T ) ( T )

105 Valeurs manquantes : problème Il est possible que des valeurs de certains attributs manquent pour certains exemples non-pertinentes, omissions à la saisie, etc. Problèmes : comment apprendre à partir d'exemples avec des valeurs manquantes? une fois l'apprentissage effectué, comment classer des exemples avec des valeurs manquantes?

106 Valeurs manquantes : solutions élimination des exemples avec des valeurs manquantes remplacement des valeurs manquantes par des valeurs inférées à partir des autres exemples (ex: la moyenne) modification de l'algorithme d'apprentissage afin de prendre en compte les exemples incomplets C4.5 : Modification de la fonction d'évaluation en tenant compte dans le calcul du gain de P(A), A étant l attribut du test

107 Bruit : problème Présence de valeurs incorrectes pour les attributs ou la classe de certains exemples Difficile à déceler (à la différence des valeurs manquantes) Effet sur l'apprentissage : les algorithmes essaient de modéliser les exemples aberrants au même titre que les exemples corrects (surspécialisation) en conséquence, les résultats de l'apprentissage ont un faible pouvoir prédictif

108 Bruit : exemple Expérience fictive : prédire l'état d'ébullition de l'eau à partir de la température et de la capacité de la casserole Une mesure erronée C 0,5 X X O X X X X O O O X O O O 100 O O T < 0,5 Oui < 100 C T 0,5 Non 100 Oui

109 Bruit : solutions pour l IAD Pour combattre l'influence néfaste du bruit sur l'iad, il faut éliminer les branches de l'arbre qui correspondent aux exemples aberrants : élagage 2 grandes familles d'approches pré-élagage : arrêter la ramification de l'arbre, au cours de la recherche, au moment où on considère que l'impureté des classes peut être imputée au bruit post-élagage : induction d'un arbre de décision complet suivie d'une étape de post-traitement destinée à éliminer les branches causées par le bruit

110 Modèles de représentation des connaissances et apprentissage Symbolique Arbres de décision Règles transformation d arbre en règles induction de règles à partir d exemples Connexionniste réseaux de neurones multi-couches à rétro-propagation du gradient «Paresseux» (l'induction est retardée) K plus proches voisins

111 Problème de la complexité des AD Concept à découvrir : Si (A et B) ou (C et D) Alors Oui Sinon Non A AD équivalent : B C Oui C D Non D Non Oui Non Oui Non

112 Problème de la complexité des AD (2) Certains concepts simples ont une représentation par AD complexe peu compréhensible fragmentation importante des exemples : tests peu fiables aux niveaux bas de l'ad Solution possible : représenter les hypothèses directement sous forme de règles transformation des arbres de décision en règles induction de règles directement à partir des exemples

113 Transformation des AD en règles L'algorithme le plus connu : C4.5rules (Quinlan, C4.5: Programs for machine learning, Morgan Kaufmann, 1993) 5 étapes production des règles correspondant à chaque feuille simplification des conditions de chacune des règles regroupement des règles par classe et simplification de chaque paquet de règles (critère MDL) ordonnancement des paquets de règles et choix de la règle par défaut (classe majoritaire pour les exemples non-couverts) simplification de l'ensemble des règles réduire les erreurs sur l ensemble d apprentissage

114 Transformation des AD en règles (2) Production des règles correspondant à chaque feuille la prémisse d'une règle est constituée par la conjonction des tests figurant sur le chemin qui relie la feuille à la racine Simplification des conditions de chacune des règles certaines conditions sont superflues ou causées par le bruit élimination de ces conditions afin de diminuer (ou ne pas augmenter) le taux d'erreur de la règle

115 Modèles de représentation des connaissances et apprentissage Symbolique Arbres de décision Règles transformation d arbre en règles induction de règles à partir d exemples Connexionniste réseaux de neurones multi-couches à rétro-propagation du gradient «Paresseux» (l'induction est retardée) K plus proches voisins

116 Induction de règles à partir des exemples La transformation des AD en règles est un processus relativement complexe Autre solution : l'induction de règles directement à partir des exemples, sans passer par les AD une à une : «séparer pour régner» toutes en même temps : avec des AG, par exemple programmation logique inductive (PLI) passage au premier ordre

117 Induction de règles par la méthode «séparer pour régner» Les algorithmes les plus connus AQ15 (Michalski & all., The multi-purpose incremental learning system AQ15 and its testing application to three medical domains, 5-th National Conference on AI, Morgan-Kaufmann, 1986) CN2 (Clark & Niblett, The CN2 induction algorithm, Machine Learning, 3(4), Kluwer Academic Publishers, 1989)

118 Algorithme «séparer pour régner» pour l'induction de règles ordonnées exemples les exemples d'apprentissage ; règles {} répète prémisse conjonction de conditions qui couvrent un ensemble d'exemples le plus homogène possible d.p.d.v de la classe (recherche heuristique) classe la classe majoritaire parmi les exemples couverts par prémisse règles règles {Si prémisse Alors classe} enlève de exemples les exemples couverts par prémisse jusqu'à ce que prémisse = 'vrai' retourne règles

119 Discussion L'algorithme produit des règles ordonnées Si... Alors... Sinon Si... Alors Sinon... à l'exploitation, la première règle dont la prémisse est vraie est appliquée pas de conflit à résoudre Critère d'arrêt tous les exemples sont couverts : risque de sur-spécialisation compromis entre la complexité du paquet de règles et sa précision (critère MDL)

120 Modèle de représentation des connaissances Symbolique Arbres de décision Règles Connexionniste réseaux de neurones multi-couches à rétro-propagation du gradient «Paresseux» (l'induction est retardée) le raisonnement à partir des cas

121 Réseaux de neurones Apprentissage de fonctions à valeurs réelles ou discrètes Robuste aux bruits et aux erreurs Fonctionnement complexe obtenu par l'interconnexion d'unités de traitement très simples connexionnisme L'apprentissage peut être long Approximateur de fonctions type «boite noire», i.e. perte de lisibilité par rapport à d'autres approximateurs comme les arbres de décisions ou les règles

122 Le plus simple : le perceptron Objectif : associer des configurations en entrée à des réponses particulières Architecture : couche d entrée : répercute les entrées (0 ou 1) couche de sortie : fournit les réponses (0 ou 1) Principe : soumettre les données (avec réponse) en entrée ajustement des poids synaptiques répéter jusqu à ce que le réseau fournisse la réponse correcte Souvent : un neurone de sortie par valeur de classe

123 Perceptron : architecture x 1 w 1 Perceptron avec un neurone de sortie x 2 w 2 w m Σ ρ ρ p w x = i= 1 w i x i s S = 1 si w ρ x ρ > seuil -1 sinon x p (les sorties peuvent être différentes)

124 Application : Reconnaissance des Neurones d entrée chiffres de 0 à 9 nombre : 64 (matrice 8*8 pour représenter les chiffres) valeur en sortie 1 si la case correspondant au neurone est remplie dans la représentation graphique 0 sinon Neurones de sortie s i nombre : 10 objectif à atteindre par apprentissage valeur en sortie = 1 si le chiffre i est soumis en entrée valeur en sortie = 0 sinon Un neurone d entrée est connecté à tous les neurones de sortie

125 Perceptron: séparation linéaire des classes ET, OU,!ET,!OU mais pas OUX exemple du ET exemple du OU séparation linéaire séparation non linéaire (oux)

126 Règle d'apprentissage L'espace de recherche est caractérisé par le vecteur de poids à valeurs réelles pour chaque neurone de sortie Règle d'apprentissage d un neurone de sortie principe : minimiser l erreur commise par le neurone t = réponse attendue ; s = réponse du neurone η = taux d apprentissage (compris entre 0 et 1) w i = w i + w i w i = η (t-s) x i (règle de Windrow-Hoff) Convergence après multiples applications si les exemples sont linéairement séparables

127 Réseau multi-couches Le perceptron simple ne modélise que des fonctions linéaires (droites, hyper-plans) Le perceptron multi-couches : une couche cachée permet d approximer des fonctions linéaires par intervalle (solution pour le OUX) Un réseau multi-couches peut exprimer une variété très riche de fonctions non linéaires présence de plusieurs couches cachées unités de seuillage avec sortie non linéaire en fonction des entrées

128 Neurone artificiel avec fonction de seuillage sigmoïdale x 1 w 1 Neurone x 2 w 2 w m Σ ρ ρ p w x = i= 1 w i x i σ ρ ρ s 1 1+ e ( w x) = ρ w x ρ x p

129 Les réseaux multi-couches : architecture x 1 s 1 x 2 s 2 x 3 x n Entrées Couche(s) cachée(s) Sorties s m

130 Réseau multi-couches : principes Le réseau multi-couches calcule une fonction non-linéaire ρ ρ ρ des entrées et des poids : Principe : s = calculer la réponse du réseau (seuillage sigmoïdal) calculer le terme d erreur de chaque neurone de sortie rétro-propager ce terme d erreur jusqu à la couche d entrée rétro-propagation du gradient d erreur f ( x, w)

131 Ensemble de validation Descente de gradient sur l'ensemble d'apprentissage et monitoring de l'erreur sur l'ensemble de validation erreur ensemble de validation ensemble d'apprentissage nb. itérations

132 Modèles de représentation des connaissances et apprentissage Symbolique Arbres de décision Règles transformation d arbre en règles induction de règles à partir d exemples Connexionniste réseaux de neurones multi-couches à rétro-propagation du gradient «Paresseux» Raisonnement à partir de cas

133 Algorithmes d'apprentissage «paresseux» La plupart des algorithmes d'apprentissage supervisé : induction pour produire une représentation prédictive globale à partir des exemples d'apprentissage (lente, unique, peu de mémoire occupée) déduction pour réaliser des prédictions (rapide, répétée) Les algorithmes «paresseux» (lazy learning) : simple mémorisation des exemples d'apprentissage (rapide, unique, beaucoup de mémoire occupée) induction d'une représentation prédictive locale (a priori plus précise) pour chacune des prédictions réalisées (lente, répétée) permet d'apprendre des fonctions (réelles ou discrètes) très complexes mais bien décrites localement

134 La fouille de données L Apprentissage Automatique (AA) Fouille de données supervisée Fouille de données non supervisée

135 Fouille de données non supervisée Invention de nouveaux concepts (Clustering) les K-moyennes les cartes auto-organisatrices Découverte de relations entre les attributs Découverte d'associations Apprentissage de réseaux bayésiens

136 Clustering Catégorisation, partitionnement, segmentation Objectif : trouver des regroupements «naturels» (clusters) des exemples regrouper les exemples jugés similaires inventer un nouvel attribut C dont les valeurs c 1, c 2,, c k indiquent le cluster auquel un exemple appartient à la différence de la discrimination, les valeurs de C ne sont pas fournies avec les exemples d'apprentissage critère pour réaliser les regroupements : minimiser la similarité inter-cluster maximiser la similarité intra-cluster Exemple d'application : segmentation de la clientèle en groupes homogènes

137 La méthode des K-moyennes Cherche k partitions (clusters) des exemples, où k est un paramètre fourni par l'utilisateur S'applique uniquement à des données numériques Cherche à minimiser la distorsion (la somme des distances entre les exemples et les centres de gravités des clusters auxquels ils appartiennent) Un exemple est représenté par un vecteur

138 Algorithme des K-moyennes Répartir (aléatoirement) les exemples en k clusters : Répète Pour chaque cluster Calculer le centre de gravité du cluster : Vider le cluster : Pour chaque exemple i, 1 i k = { } Trouver le cluster I telle que Actualiser le cluster I : Jusqu'à condition d'arrêt c i c, c, 2, 1 Λ x ρ ρ ρ ρ ρ dist ( x, m I ) = mindist ( x, mi ) 1 i k ρ c c { x} I I ρ m i x c = ρ c i i ρ x c k

139 Discussion L'algorithme peut être arrêté quand les centres de gravité ne se déplacent plus significativement ou quand la distorsion descend sous un seuil donné Il est démontré que l'algorithme des K-moyennes converge vers un minimum local de la distorsion Très sensible aux partitions initiales (solution possible : exécutions répétées avec des initialisations différentes) Demande à l'utilisateur de deviner une bonne valeur pour le paramètre k

140 Méthodes de clustering hiérarchique Produisent une hiérarchie de clusters, représentée sous la forme d'un arbre Avantages : représente explicitement les relations entre les clusters permet à l'utilisateur de choisir a posteriori le niveau de détail qui l'intéresse Approches : agglomérative (ascendante) divisive (descendante : similaire à l'iad)

141 Clustering hiérarchique agglomératif Algorithme : créer un cluster par exemple d'apprentissage tant qu'il reste plus d'un cluster calculer la matrice des similarités entre les clusters combiner en un seul cluster les deux clusters les plus similaires Résultat : la trace des combinaisons de clusters forme un arbre binaire (hiérarchie de clusters)

142 Discussion Comment calculer la distance entre deux clusters? minimum, maximum ou moyenne des distances entre deux exemples appartenant à chacun des clusters Forte complexité : la première étape implique déjà le calcul des distances entre toutes les paires d'objets : O(N 2 ) Grand nombre de variantes

143 Fouille de données non supervisée Invention de nouveaux concepts (Clustering) les K-moyennes les cartes auto-organisatrices Découverte de relations entre les attributs Découverte d'associations Apprentissage de réseaux bayésiens

144 Cartes auto-organisatrices de Kohonen Approche connectionniste (RN) Principes : Transformation de l'espace n-dimensionnel des exemples en un espace bi-dimensionnel Préservation du voisinage : deux exemples qui sont similaires dans l'espace original seront également proches dans l'espace 2D Contrainte : représentation numérique Utile pour mettre en évidence l organisation d un espace de données (aspect graduel du voisinage)

145 Structure d une carte de Kohonen Voisinage carré de dimension 1 : x 1 x 2 x n connexion adaptative connexion récurrente

146 Principes de l'algorithme d apprentissage d une carte Chaque neurone se spécialise dans la reconnaissance d'un cluster d'exemples similaires Les neurones voisins dans le réseau représentent des clusters proches dans l'espace des exemples Après la présentation d'un exemple x ρ, le vecteur des poids du neurone le plus actif (le vainqueur), ρ ainsi que ceux de son voisinage est rapproché de x L'apprentissage est contrôlé par un paramètre η qui décroît au cours de l'apprentissage Le voisinage des neurones se rétrécit également au cours de l'apprentissage

147 Algorithme d apprentissage d une carte de Kohonen tant que la condition d'arrêt n'est pas remplie ρ présenter un exemple x au réseau ρ ρ calculer les sorties des neurones : f ( w, x) pour le neurone i rechercher le neurone de sortie maximale i * adapter les poids des neurones k de la carte selon la règle : ρ w k ρ w k i ρ ρ + ηtv ( k, i*, t)( x wk ) avec V(k,i *,t) = 1 si k est au voisinage de i * à l instant t

148 Fouille de données non supervisée Invention de nouveaux concepts (Clustering) les K-moyennes les cartes auto-organisatrices Découverte de relations entre les attributs Découverte d'associations Apprentissage de réseaux bayésiens

149 Découverte d'associations Données : ensemble d'exemples décrits par des attributs binaires Connaissances recherchées : p i= 1 règles d'association P C suffisamment représentatives i et précises (P i = var. propositionelle, C = var. conclusion) le symbole de l'implication logique est utilisé abusivement

150 Le problème Difficulté ni le nombre de prémisses ni la conclusion ne sont fixés d'avance espace de recherche immense (exponentiel par rapport au nombre d'attributs) Solution analyser la structure de l'espace de recherche pour élaguer certaines voies de recherche

151 Notations et définitions : fréquence notation ensembliste pour les conjonctions : { } 1, 2, Λ, p p i= 1 P = P P P P e = un exemple, A(e) = «A est vrai dans e» fréquence d'un ensemble d'attributs Q fréq ( Q ) = ( e ), { e} { e A A Q } i

152 Représentativité et support support d'une règle d'association estimation de la probabilité d'avoir simultanément vraies les prémisses et la conclusion de la règle ie. support une règle R est suffisamment représentative si support ( R) σ l'utilisateur ( P C ) = fréq ( P C ) où σ est un paramètre fourni par

153 Précision et confiance confiance d'une règle d'association estimation de la probabilité d'avoir la conclusion vraie quand les prémisses sont vraies ie. confiance une règle R est suffisamment précise si confiance( R) γ l'utilisateur ( P C) = fréq fréq ( P C) ( P) où γ est un paramètre fourni par

154 Principe de la découverte d'associations Propriété tous les sous-ensembles d attributs d'un ensemble fréquent (fréquence σ) sont également fréquents Algorithme Etape 1 : recherche incrémentale de tous les ensembles fréquents Etape 2 : génération des règles d'association à partir des ensembles fréquents découverts à l'étape 1

155 Algorithme de découverte d'associations : étape 1 Etape 1 : Recherche des ensembles fréquents C := l'ensemble de tous les singletons d attributs (*candidats*) F := {} (*ensembles fréquents*) i := 1 (*taille des candidats*) tant que C {} F' := les ensembles fréquents de C (par rapport au support) F := F F' C := ensembles d'attributs de taille i+1 tels que tous leurs sous-ensembles de taille i soient fréquents (C est l ensemble de toutes les unions de taille i+1 d éléments de F) i := i+1

156 Algorithme de découverte d'associations : étape 2 Etape 2 : Génération de règles F := les ensembles fréquents trouvés à l'étape précédente pour chaque ensemble fréquent E F pour chaque attribut A E si confiance(e\{a} A) γ alors E\{A} A est une règle d'association

157 Discussion Complexité algorithmique avec certaines astuces algorithmiques on peut arriver à une complexité linéaire par rapport à la taille des données on peut explorer dans un temps raisonnable des ensembles de quelques dizaines de millions d'exemples Problème : milliers de règles découvertes estimation statistique de la confiance dans les règles découvertes estimation de l'intérêt des règles découvertes

158 Fouille de données non supervisée Invention de nouveaux concepts (Clustering) les K-moyennes les cartes auto-organisatrices Découverte de relations entre les attributs Découverte d'associations Apprentissage de réseaux bayésiens

159 Introduction ASA largement orienté symbolique compréhensibilité bruit, valeurs manquantes? Statistiques descriptives et Analyse de Données quasi-exclusivement numérique imposent des hypothèses très fortes (gaussienne ) difficulté d inteprétation des résultats techniques éprouvées

160 Apport des réseaux bayésiens Hybridation entre la compréhensibilité des résultats des méthodes symboliques les fondements probabilistes rigoureux des méthodes statistiques la structure en réseau de composants simples des approches connexionistes Les réseaux bayésiens représentent toutes les relations entres les attributs décrivant les exemples

161 Rôle Qu est ce qu un réseau bayésien? Représente les Distributions de Probabilités Jointes P(X1,,Xn) Exploite les relations d indépendance conditionnelle pour réduire la quantité d information nécessaire simplifier les inférences Définition : graphe orienté sans cycle orienté dont les nœuds sont étiquetés par les variables du domaine les nœuds sont reliés entre eux par des axes orientés chaque nœud contient une table de probas conditionnelles { U1, U 2 U n} P ( X parents( X )) où parents( X ) =,...,

162 Exemple : contexte Système de sécurité doté d une alarme fonctionne correctement pour les cambriolages se déclenche parfois à tort pour des tremblements de terre mineurs John et Mary se proposent d appeler quand ils entendent l alarme mais John confond parfois la sonnerie du téléphone avec l alarme Mary n entend pas toujours l alarme

163 Exemple : réseau bayésien obtenu C P( C ) = 0, 001 T ( ) P T = 0, 002 C = cambriolage T = Tremblement de terre A = alarme J = Appel de John M = Appel de Mary A ( ) = ( T) = ( C T) = ( ) P A C, T 0, 95 P A C, 0, 94 P A, 0, 29 P A C, T = 0, 001 J ( ) ( A) P J A P J = 0, 9 = 0, 05 M ( ) ( A) P M A P M = 0, 7 = 0, 01

164 Construction de RB Algorithme : Choix d'un ordre sur les variables Pour i de 1 à n : création du nœud correspondant à la variable X i recherche d'un ensemble minimal de variables Pa i, parmi les variables déjà traitées, tels que la variable X i est indépendante des variables {X i-1, X i-2,, X 1 }\Pa i si on connaît les variables Pa i création d arcs orientés entre les variables Pa i et la variable X i création de la TPC correspondant à la variable X i La complexité du réseau obtenu est très dépendante de l'ordre des variables Dans la pratique, on s'appuie sur les relations de causalité directe entre les variables

165 Inférence à partir des RB Problème général : cf inférence probabiliste Avantages par rapport aux arbres de décision : rôle des variables non figé à l avance inférences possibles «dans tous les sens» Inférences s appuient sur les tables de probabilités des nœuds les indépendances conditionnelles (structure du réseau) l axiomatique probabiliste Existence d algorithmes mais complexité importante dans l absolu

166 «Diagnostique» Types d inférences des effets vers la cause : chaînage arrière exemple : P(C J)? Causale des causes vers les effets : chaînage avant exemple : P(J C)? Inter-causale entre les causes et un effet connu exemple : P(C A T)? Mixte : combine un ou plusieurs des types précédents exemple : P(A J T)? (diagnostique + causale)

167 Plan Généralités sur l ECD Le pré-traitement des données La fouille de données Optimiser la fouille Visualisation Les systèmes d ECD

168 Optimiser la fouille Evaluation des résultats de la fouille Gestion des accès aux bases de données

169 Evaluation des résultats de la FD L'évaluation ultime est réalisée par l'utilisateur, sur la base de critères souvent subjectifs : intérêt, nouveauté, facilité de compréhension ECD : efforts de formalisation de ces critères, afin de les rendre objectifs et d'automatiser leur évaluation Deux grands groupes de critères : concernant la forme des résultats produits concernant les performances de ces résultats

170 Evaluation de la forme Critère d'ockham : «Toutes choses égales par ailleurs, on préfère l'explication la plus simple» Avantages des explications simples: plus faciles à comprendre risque de sur-spécialisation réduit Mesures syntaxiques de complexité («simplicité») nombre de nœuds des arbres de décision nombre de règles, etc.

171 Evaluation des performances Selon le type de méthode de FD : taux d'erreur pour la discrimination distorsion pour le clustering, etc. L'évaluation de ces critères sur l'ensemble d'apprentissage donne des estimations trop optimistes Meilleures estimations obtenues sur des exemples qui n'ont pas servi à la FD

Introduction au datamining

Introduction au datamining Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des

Plus en détail

Pourquoi l apprentissage?

Pourquoi l apprentissage? Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme

Plus en détail

Algorithmes d'apprentissage

Algorithmes d'apprentissage Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt

Plus en détail

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com Intelligence Artificielle et Systèmes Multi-Agents Badr Benmammar bbm@badr-benmammar.com Plan La première partie : L intelligence artificielle (IA) Définition de l intelligence artificielle (IA) Domaines

Plus en détail

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1 Christophe CANDILLIER Cours de DataMining mars 2004 age 1 1. Introduction 2. rocessus du DataMining 3. Analyse des données en DataMining 4. Analyse en Ligne OLA 5. Logiciels 6. Bibliographie Christophe

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane

Plus en détail

L apprentissage automatique

L apprentissage automatique L apprentissage automatique L apprentissage automatique L'apprentissage automatique fait référence au développement, à l analyse et à l implémentation de méthodes qui permettent à une machine d évoluer

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes. Introduction L'objectif de mon TIPE est la reconnaissance de sons ou de notes de musique à l'aide d'un réseau de neurones. Ce réseau doit être capable d'apprendre à distinguer les exemples présentés puis

Plus en détail

Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto. des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

Apprentissage Automatique

Apprentissage Automatique Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs

Plus en détail

Raisonnement probabiliste

Raisonnement probabiliste Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte

Plus en détail

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Année académique 2006-2007 Professeurs : Marco Saerens Adresse : Université catholique de Louvain Information Systems

Plus en détail

Les algorithmes de fouille de données

Les algorithmes de fouille de données Février 2005 Les algorithmes de fouille de données DATAMINING Techniques appliquées à la vente, aux services client, interdictions. Cycle C Informatique Remerciements Je remercie les personnes, les universités

Plus en détail

données en connaissance et en actions?

données en connaissance et en actions? 1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)

Plus en détail

Apprentissage. Intelligence Artificielle NFP106 Année 2012-2013. Plan. Apprentissage. Apprentissage

Apprentissage. Intelligence Artificielle NFP106 Année 2012-2013. Plan. Apprentissage. Apprentissage Intelligence Artificielle NFP106 Année 2012-2013 Apprentissage! F.-Y. Villemin! Plan! Apprentissage! Induction! Règles d'inférence inductive! Apprentissage de concepts!! Arbres de décision! ID3! Analogie

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI 1 Déroulement d un projet en DATA MINING, préparation et analyse des données Walid AYADI 2 Les étapes d un projet Choix du sujet - Définition des objectifs Inventaire des données existantes Collecte, nettoyage

Plus en détail

Structure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données

Structure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données Structure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données et le Data Mining Nous suivons le plan suivant : Fonctionnement de Spad Catalogue des méthodes (statistiques

Plus en détail

Analyse de grandes bases de données en santé

Analyse de grandes bases de données en santé .. Analyse de grandes bases de données en santé Alain Duhamel Michaël Genin Mohamed Lemdani EA 2694 / CERIM Master 2 Recherche Biologie et Santé Journée Thématique Fouille de Données Plan. 1 Problématique.

Plus en détail

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55

Plus en détail

Arbres binaires de décision

Arbres binaires de décision 1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression

Plus en détail

Agenda de la présentation

Agenda de la présentation Le Data Mining Techniques pour exploiter l information Dan Noël 1 Agenda de la présentation Concept de Data Mining ou qu est-ce que le Data Mining Déroulement d un projet de Data Mining Place du Data Mining

Plus en détail

Le Data Mining au service du Scoring ou notation statistique des emprunteurs!

Le Data Mining au service du Scoring ou notation statistique des emprunteurs! France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

La segmentation à l aide de EG-SAS. A.Bouhia Analyste principal à la Banque Nationale du Canada. Chargé de cours à l UQAM

La segmentation à l aide de EG-SAS. A.Bouhia Analyste principal à la Banque Nationale du Canada. Chargé de cours à l UQAM La segmentation à l aide de EG-SAS A.Bouhia Analyste principal à la Banque Nationale du Canada. Chargé de cours à l UQAM Définition de la segmentation - Au lieu de considérer une population dans son ensemble,

Plus en détail

APPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE

APPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE SûretéGlobale.Org La Guitonnière 49770 La Meignanne Téléphone : +33 241 777 886 Télécopie : +33 241 200 987 Portable : +33 6 83 01 01 80 Adresse de messagerie : c.courtois@sureteglobale.org APPORT DES

Plus en détail

Spécificités, Applications et Outils

Spécificités, Applications et Outils Spécificités, Applications et Outils Ricco Rakotomalala Université Lumière Lyon 2 Laboratoire ERIC Laboratoire ERIC 1 Ricco Rakotomalala ricco.rakotomalala@univ-lyon2.fr http://chirouble.univ-lyon2.fr/~ricco/data-mining

Plus en détail

Méthodes d apprentissage statistique «Machine Learning»

Méthodes d apprentissage statistique «Machine Learning» Méthodes d apprentissage statistique «Machine Learning» Fabrice TAILLIEU, Sébastien DELUCINGE, Rémi BELLINA Le marché de l assurance a rarement été marqué par un environnement aussi difficile qu au cours

Plus en détail

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Une comparaison de méthodes de discrimination des masses de véhicules automobiles p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans

Plus en détail

Traitement bas-niveau

Traitement bas-niveau Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.

Plus en détail

Entrepôt de données 1. Introduction

Entrepôt de données 1. Introduction Entrepôt de données 1 (data warehouse) Introduction 1 Présentation Le concept d entrepôt de données a été formalisé pour la première fois en 1990 par Bill Inmon. Il s agissait de constituer une base de

Plus en détail

Data Mining. Master 1 Informatique - Mathématiques UAG

Data Mining. Master 1 Informatique - Mathématiques UAG Data Mining Master 1 Informatique - Mathématiques UAG 1.1 - Introduction Data Mining? On parle de Fouille de données Data Mining Extraction de connaissances à partir de données Knowledge Discovery in Data

Plus en détail

Travailler avec les télécommunications

Travailler avec les télécommunications Travailler avec les télécommunications Minimiser l attrition dans le secteur des télécommunications Table des matières : 1 Analyse de l attrition à l aide du data mining 2 Analyse de l attrition de la

Plus en détail

Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining.

Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining. 2 jours : Mardi 15 et mercredi 16 novembre 2005 de 9 heures 30 à 17 heures 30 Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining. Madame, Monsieur, On parle

Plus en détail

Travaux pratiques avec RapidMiner

Travaux pratiques avec RapidMiner Travaux pratiques avec RapidMiner Master Informatique de Paris 6 Spécialité IAD Parcours EDOW Module Algorithmes pour la Fouille de Données Janvier 2012 Prise en main Généralités RapidMiner est un logiciel

Plus en détail

Chapitre 1 : Introduction aux bases de données

Chapitre 1 : Introduction aux bases de données Chapitre 1 : Introduction aux bases de données Les Bases de Données occupent aujourd'hui une place de plus en plus importante dans les systèmes informatiques. Les Systèmes de Gestion de Bases de Données

Plus en détail

LE PROBLEME DU PLUS COURT CHEMIN

LE PROBLEME DU PLUS COURT CHEMIN LE PROBLEME DU PLUS COURT CHEMIN Dans cette leçon nous définissons le modèle de plus court chemin, présentons des exemples d'application et proposons un algorithme de résolution dans le cas où les longueurs

Plus en détail

RapidMiner. Data Mining. 1 Introduction. 2 Prise en main. Master Maths Finances 2010/2011. 1.1 Présentation. 1.2 Ressources

RapidMiner. Data Mining. 1 Introduction. 2 Prise en main. Master Maths Finances 2010/2011. 1.1 Présentation. 1.2 Ressources Master Maths Finances 2010/2011 Data Mining janvier 2011 RapidMiner 1 Introduction 1.1 Présentation RapidMiner est un logiciel open source et gratuit dédié au data mining. Il contient de nombreux outils

Plus en détail

CAPTEURS - CHAINES DE MESURES

CAPTEURS - CHAINES DE MESURES CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,

Plus en détail

Algorithmes de recherche

Algorithmes de recherche Algorithmes de recherche 1 Résolution de problèmes par recherche On représente un problème par un espace d'états (arbre/graphe). Chaque état est une conguration possible du problème. Résoudre le problème

Plus en détail

Big Data et Graphes : Quelques pistes de recherche

Big Data et Graphes : Quelques pistes de recherche Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université

Plus en détail

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

Chapitre 6 Apprentissage des réseaux de neurones et régularisation Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la

Plus en détail

L'intelligence d'affaires: la statistique dans nos vies de consommateurs

L'intelligence d'affaires: la statistique dans nos vies de consommateurs L'intelligence d'affaires: la statistique dans nos vies de consommateurs Jean-François Plante, HEC Montréal Marc Fredette, HEC Montréal Congrès de l ACFAS, Université Laval, 6 mai 2013 Intelligence d affaires

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

Apprentissage incrémental par sélection de données dans un flux pour une application de sécurité routière

Apprentissage incrémental par sélection de données dans un flux pour une application de sécurité routière Apprentissage incrémental par sélection de données dans un flux pour une application de sécurité routière Nicolas Saunier INRETS Télécom Paris Sophie Midenet INRETS Alain Grumbach Télécom Paris Conférence

Plus en détail

LOGO. Module «Big Data» Extraction de Connaissances à partir de Données. Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS Claudia.Marinica@u-cergy.

LOGO. Module «Big Data» Extraction de Connaissances à partir de Données. Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS Claudia.Marinica@u-cergy. Module «Big Data» Extraction de Connaissances à partir de Données Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS Claudia.Marinica@u-cergy.fr 14 Janvier 2015 Pourquoi l extraction de connaissances à partir de

Plus en détail

Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction.

Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction. Exploitation et analyse des données appliquées aux techniques d enquête par sondage. Introduction. Etudes et traitements statistiques des données : le cas illustratif de la démarche par sondage INTRODUCTION

Plus en détail

Big Data et Graphes : Quelques pistes de recherche

Big Data et Graphes : Quelques pistes de recherche Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci http://liris.cnrs.fr/hamamache.kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de

Plus en détail

Soutenance de stage Laboratoire des Signaux et Systèmes

Soutenance de stage Laboratoire des Signaux et Systèmes Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud

Plus en détail

Rapport d'analyse des besoins

Rapport d'analyse des besoins Projet ANR 2011 - BR4CP (Business Recommendation for Configurable products) Rapport d'analyse des besoins Janvier 2013 Rapport IRIT/RR--2013-17 FR Redacteur : 0. Lhomme Introduction...4 La configuration

Plus en détail

Cours de Master Recherche

Cours de Master Recherche Cours de Master Recherche Spécialité CODE : Résolution de problèmes combinatoires Christine Solnon LIRIS, UMR 5205 CNRS / Université Lyon 1 2007 Rappel du plan du cours 16 heures de cours 1 - Introduction

Plus en détail

LIVRE BLANC Décembre 2014

LIVRE BLANC Décembre 2014 PARSING MATCHING EQUALITY SEARCH LIVRE BLANC Décembre 2014 Introduction L analyse des tendances du marché de l emploi correspond à l évidence à une nécessité, surtout en période de tension comme depuis

Plus en détail

Les 10 grands principes de l utilisation du data mining pour une gestion de la relation client réussie

Les 10 grands principes de l utilisation du data mining pour une gestion de la relation client réussie Les 10 grands principes de l utilisation du data mining pour une gestion de la relation client réussie Découvrir les stratégies ayant fait leurs preuves et les meilleures pratiques Points clés : Planifier

Plus en détail

Masters Spécialisés «Actuariat et Prévoyance» et «Actuariat et Finance»

Masters Spécialisés «Actuariat et Prévoyance» et «Actuariat et Finance» Masters Spécialisés «Actuariat et Prévoyance» et «Actuariat et Finance» Introduction au Data Mining K. EL HIMDI elhimdi@menara.ma 1 Sommaire du MODULE Partie 1 : Introduction au Data Mining Partie 2 :

Plus en détail

Spécifications, Développement et Promotion. Ricco RAKOTOMALALA Université Lumière Lyon 2 Laboratoire ERIC

Spécifications, Développement et Promotion. Ricco RAKOTOMALALA Université Lumière Lyon 2 Laboratoire ERIC Spécifications, Développement et Promotion Ricco RAKOTOMALALA Université Lumière Lyon 2 Laboratoire ERIC Ricco? Enseignant chercheur (CNU.27) En poste à l Université Lyon 2 Faculté de Sciences Eco. Recherche

Plus en détail

PLATEFORME MÉTIER DÉDIÉE À LA PERFORMANCE DES INSTALLATIONS DE PRODUCTION

PLATEFORME MÉTIER DÉDIÉE À LA PERFORMANCE DES INSTALLATIONS DE PRODUCTION PLATEFORME MÉTIER DÉDIÉE À LA PERFORMANCE DES INSTALLATIONS DE PRODUCTION KEOPS Automation Espace Performance 2B, rue du Professeur Jean Rouxel BP 30747 44481 CARQUEFOU Cedex Tel. +33 (0)2 28 232 555 -

Plus en détail

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories : La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.

Plus en détail

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION Classe de terminale de la série Sciences et Technologie du Management et de la Gestion Préambule Présentation Les technologies de l information

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall L utilisation d un réseau de neurones pour optimiser la gestion d un firewall Réza Assadi et Karim Khattar École Polytechnique de Montréal Le 1 mai 2002 Résumé Les réseaux de neurones sont utilisés dans

Plus en détail

Jade. Projet Intelligence Artificielle «Devine à quoi je pense»

Jade. Projet Intelligence Artificielle «Devine à quoi je pense» Jade Projet Intelligence Artificielle «Devine à quoi je pense» Réalisé par Djénéba Djikiné, Alexandre Bernard et Julien Lafont EPSI CSII2-2011 TABLE DES MATIÈRES 1. Analyse du besoin a. Cahier des charges

Plus en détail

Conception d une Plateforme Open Source d Extraction et de Gestion des Connaissances

Conception d une Plateforme Open Source d Extraction et de Gestion des Connaissances Département d Informatique MEMOIRE Présenté par : KADEM Habib Pour obtenir LE DIPLOME DE MAGISTER Spécialité : Informatique Option : Informatique & Automatique Intitulé : Conception d une Plateforme Open

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Introduction à l Informatique Décisionnelle - Business Intelligence (7)

Introduction à l Informatique Décisionnelle - Business Intelligence (7) Introduction à l Informatique Décisionnelle - Business Intelligence (7) Bernard ESPINASSE Professeur à Aix-Marseille Université (AMU) Ecole Polytechnique Universitaire de Marseille Septembre 2013 Emergence

Plus en détail

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie... 1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................

Plus en détail

Ebauche Rapport finale

Ebauche Rapport finale Ebauche Rapport finale Sommaire : 1 - Introduction au C.D.N. 2 - Définition de la problématique 3 - Etat de l'art : Présentatio de 3 Topologies streaming p2p 1) INTRODUCTION au C.D.N. La croissance rapide

Plus en détail

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle CHAPITRE I Modélisation de processus et estimation des paramètres d un modèle I. INTRODUCTION. Dans la première partie de ce chapitre, nous rappelons les notions de processus et de modèle, ainsi que divers

Plus en détail

Le scoring est-il la nouvelle révolution du microcrédit?

Le scoring est-il la nouvelle révolution du microcrédit? Retour au sommaire Le scoring est-il la nouvelle révolution du microcrédit? BIM n 32-01 octobre 2002 Frédéric DE SOUSA-SANTOS Le BIM de cette semaine se propose de vous présenter un ouvrage de Mark Schreiner

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU $SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU Fabien FIGUERES fabien.figueres@mpsa.com 0RWVFOpV : Krigeage, plans d expériences space-filling, points de validations, calibration moteur. 5pVXPp Dans le

Plus en détail

QU EST-CE QUE LE DECISIONNEL?

QU EST-CE QUE LE DECISIONNEL? La plupart des entreprises disposent d une masse considérable d informations sur leurs clients, leurs produits, leurs ventes Toutefois ces données sont cloisonnées par les applications utilisées ou parce

Plus en détail

Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données

Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Marc Boullé Orange Labs 2 avenue Pierre Marzin 22300 Lannion marc.boulle@orange-ftgroup.com,

Plus en détail

Rappels sur les suites - Algorithme

Rappels sur les suites - Algorithme DERNIÈRE IMPRESSION LE 14 septembre 2015 à 12:36 Rappels sur les suites - Algorithme Table des matières 1 Suite : généralités 2 1.1 Déition................................. 2 1.2 Exemples de suites............................

Plus en détail

Le data mining et l assurance Mai 2004. Charles Dugas Président Marianne Lalonde Directrice, développement des affaires

Le data mining et l assurance Mai 2004. Charles Dugas Président Marianne Lalonde Directrice, développement des affaires Le data mining et l assurance Mai 2004 Charles Dugas Président Marianne Lalonde Directrice, développement des affaires AGENDA Qu est-ce que le data mining? Le projet et les facteurs de réussite Les technologies

Plus en détail

SAS ENTERPRISE MINER POUR L'ACTUAIRE

SAS ENTERPRISE MINER POUR L'ACTUAIRE SAS ENTERPRISE MINER POUR L'ACTUAIRE Conférence de l Association des Actuaires I.A.R.D. 07 JUIN 2013 Sylvain Tremblay Spécialiste en formation statistique SAS Canada AGENDA Survol d Enterprise Miner de

Plus en détail

Le cinquième chapitre

Le cinquième chapitre Le cinquième chapitre Objectif : présenter les supports matériels ou immatériels permettant d'étayer cette nouvelle approche de la fonction maintenance. I. Evolution du domaine technique - Différents domaines

Plus en détail

Introduction aux outils BI de SQL Server 2014. Fouille de données avec SQL Server Analysis Services (SSAS)

Introduction aux outils BI de SQL Server 2014. Fouille de données avec SQL Server Analysis Services (SSAS) MIT820: Entrepôts de données et intelligence artificielle Introduction aux outils BI de SQL Server 2014 Fouille de données avec SQL Server Analysis Services (SSAS) Description générale Ce tutoriel a pour

Plus en détail

Fast and furious decision tree induction

Fast and furious decision tree induction Institut National des Sciences Appliquées de Rennes Rapport de pré-étude Encadrants : Nikolaos Parlavantzas - Christian Raymond Fast and furious decision tree induction Andra Blaj Nicolas Desfeux Emeline

Plus en détail

Business & High Technology

Business & High Technology UNIVERSITE DE TUNIS INSTITUT SUPERIEUR DE GESTION DE TUNIS Département : Informatique Business & High Technology Chapitre 8 : ID : Informatique Décisionnelle BI : Business Intelligence Sommaire Introduction...

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

DATAMINING C4.5 - DBSCAN

DATAMINING C4.5 - DBSCAN 14-16 rue Voltaire 94270 Kremlin Bicêtre Benjamin DEVÈZE Matthieu FOUQUIN PROMOTION 2005 SCIA DATAMINING C4.5 - DBSCAN Mai 2004 Responsable de spécialité SCIA : M. Akli Adjaoute Table des matières Table

Plus en détail

EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG

EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG Exploitations pédagogiques du tableur en STG Académie de Créteil 2006 1 EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG Commission inter-irem lycées techniques contact : dutarte@club-internet.fr La maquette

Plus en détail

1. Vocabulaire : Introduction au tableau élémentaire

1. Vocabulaire : Introduction au tableau élémentaire L1-S1 Lire et caractériser l'information géographique - Le traitement statistique univarié Statistique : le terme statistique désigne à la fois : 1) l'ensemble des données numériques concernant une catégorie

Plus en détail

Table des matières. I Mise à niveau 11. Préface

Table des matières. I Mise à niveau 11. Préface Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3

Plus en détail

Annexe A de la norme 110

Annexe A de la norme 110 Annexe A de la norme 110 RAPPORTS D ÉVALUATION PRÉPARÉS AUX FINS DES TEXTES LÉGAUX OU RÉGLEMENTAIRES OU DES INSTRUCTIONS GÉNÉRALES CONCERNANT LES VALEURS MOBILIÈRES Introduction 1. L'annexe A a pour objet

Plus en détail

1.5 0.5 -0.5 -1.5 0 20 40 60 80 100 120. (VM(t i ),Q(t i+j ),VM(t i+j ))

1.5 0.5 -0.5 -1.5 0 20 40 60 80 100 120. (VM(t i ),Q(t i+j ),VM(t i+j )) La logique oue dans les PME/PMI Application au dosage de l'eau dans les bétons P.Y. Glorennec INSA de Rennes/IRISA glorenne@irisa.fr C. Hérault Hydrostop christophe@hydrostop.fr V. Hulin Hydrostop vincent@hydrostop.fr

Plus en détail

Data Mining. Bibliographie (1) Sites (1) Bibliographie (2) Plan du cours. Sites (2) Master 2 Informatique UAG

Data Mining. Bibliographie (1) Sites (1) Bibliographie (2) Plan du cours. Sites (2) Master 2 Informatique UAG Data Mining Master 2 Informatique UAG Bibliographie (1) U. Fayyad, G. Piatetsky-Shapiro, P. Smyth, R. Uthurusamy, editors, Advances in Knowledge Discovery and Data Mining, AAAI/MIT Press, 1996 Gilbert

Plus en détail

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007 Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................

Plus en détail

Annexe 6. Notions d ordonnancement.

Annexe 6. Notions d ordonnancement. Annexe 6. Notions d ordonnancement. APP3 Optimisation Combinatoire: problèmes sur-contraints et ordonnancement. Mines-Nantes, option GIPAD, 2011-2012. Sophie.Demassey@mines-nantes.fr Résumé Ce document

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

IBM SPSS Direct Marketing

IBM SPSS Direct Marketing IBM SPSS Statistics 19 IBM SPSS Direct Marketing Comprenez vos clients et renforcez vos campagnes marketing Points clés Avec IBM SPSS Direct Marketing, vous pouvez : Comprendre vos clients de manière plus

Plus en détail

DEMANDE D INFORMATION RFI (Request for information)

DEMANDE D INFORMATION RFI (Request for information) DOD SEICAM RFI Demande d information EVDEC Réf. : RFI_EVDEC- GT5_Outil_reporting_BI_v4.doc Page 1/11 DEMANDE D INFORMATION RFI (Request for information) OUTIL INTÉGRÉ DE REPORTING ET D ANALYSE DÉCISIONNELLE

Plus en détail

Intelligence artificielle appliquée à l automatique

Intelligence artificielle appliquée à l automatique Intelligence artificielle appliquée à l automatique par Sylviane GENTIL Professeur à l École nationale supérieure d ingénieurs électriciens Institut national polytechnique de Grenoble 1. Définitions et

Plus en détail

Rapport de Stage. Titre : Clustering à l aide d une représentation supervisée

Rapport de Stage. Titre : Clustering à l aide d une représentation supervisée Nicolas Creff Du 1er février au 31 juillet 2011 Promotion 2011 Majeure SCIA Rapport de Stage Titre : Clustering à l aide d une représentation supervisée Sujet : Personnalisation de scores à l aide de la

Plus en détail

Améliorer les performances du site par l'utilisation de techniques de Web Mining

Améliorer les performances du site par l'utilisation de techniques de Web Mining Améliorer les performances du site par l'utilisation de techniques de Web Mining CLUB SAS 2001 17/18 octobre 2001 Stéfan Galissie LINCOLN stefan.galissie@lincoln.fr contact@web-datamining.net 2001 Sommaire

Plus en détail

Régression linéaire. Nicolas Turenne INRA nicolas.turenne@jouy.inra.fr

Régression linéaire. Nicolas Turenne INRA nicolas.turenne@jouy.inra.fr Régression linéaire Nicolas Turenne INRA nicolas.turenne@jouy.inra.fr 2005 Plan Régression linéaire simple Régression multiple Compréhension de la sortie de la régression Coefficient de détermination R

Plus en détail

Chapitre 9 : Informatique décisionnelle

Chapitre 9 : Informatique décisionnelle Chapitre 9 : Informatique décisionnelle Sommaire Introduction... 3 Définition... 3 Les domaines d application de l informatique décisionnelle... 4 Architecture d un système décisionnel... 5 L outil Oracle

Plus en détail