TEXT MINING ET INTELLIGENCE ECONOMIQUE : AUJOURD HUI ET DEMAIN
|
|
|
- Jean-Pascal Gaulin
- il y a 10 ans
- Total affichages :
Transcription
1 TEXT MINING ET INTELLIGENCE ECONOMIQUE : AUJOURD HUI ET DEMAIN Xavier Polanco Unité de Recherche et Innovation Institut de l Information Scientifique et Technique Centre National de la Recherche Scientifique [email protected] La Fouille de Données Textuelles (FDT), c est-à-dire le Text-Mining (TM), est ici présentée par rapport à l'intelligence Economique (IE). L intelligence cycle (Pinkerton, 1994) implique la conversion de l information primaire (en anglais raw information) en information utile à l'entreprise. Dans la mesure où cette information primaire se trouve sous la forme de documents, de données textuelles, et qu'il s'agit de la transformer en connaissance, la FDT apparaît pour la competitive intelligence ou intelligence économique comme le moyen adéquat pour accomplir cette tâche essentielle. Ce texte présente d'abord ce que la FDT représente aujourd'hui, pour ensuite conclure avec quelques remarques sur ses perspectives. INTRODUCTION L argumentation industrielle ou commerciale en faveur du text mining dans le contexte de l intelligence économique est souvent basée sur le fait qu'un pourcentage assez important de l'information à traiter par les entreprises, en vue de la prise de décisions stratégiques, est de nature textuelle. Le World Wide Web est encore une autre raison en faveur de l intérêt pour le text mining. En effet, avec le Web les données non structurées (telles que le texte) sont devenues le type prédominant de données en ligne. Dans ce cadre, l information utile ne se trouve pas être explicite comme dans une base des données de type relationnel, mais implicite au sens où elle est «enfouie» dans les textes, d où la métaphore de la «fouille» (ou en anglais mining) : le système doit extraire l'information qui a été encodée dans le texte par son auteur. Souvent la veille technologique et l intelligence économique sont présentées comme des activités connexes ou bien similaires sinon synonymes. Ce fait permet d'étendre l'apport de la fouille de données textuelles au domaine de la veille technologique et scientifique, dans la mesure où l'information scientifique et technique est de nature textuelle tels que les articles scientifiques, la documentation technique et les brevets. 1
2 PRESENTATION Cette présentation s'adresse aux praticiens de la veille et de l'intelligence économique. Son objectif est de montrer ce que la fouille des données textuelles représente. Elle peut également être étendue aux praticiens des études quantitatives de la science et de la technologie, notamment à ceux pour qui la science est analysée au travers des publications et la technologie au travers des brevets. Les publications scientifiques et les brevets sont des données textuelles dont s'occupe justement le text mining. Plan : 1. Data Mining et Text Mining 2. Architecture et système 3. Techniques et méthodes 4. Traitement linguistique 5. Structure de classification 6. Extraction de règles d'association Chaque item de ce plan de présentation sera développé avec le souci de fournir une information synthétique sans chercher à développer une véritable argumentation technique. L'ambition est de fournir l'information nécessaire pour se faire une vision de la fouille de données textuelles. 1 - Data Mining et Text Mining Commençons par la distinction entre data mining et text mining c est-à-dire entre fouille des données et fouille de données textuelles. Le but de la fouille de données a été définie comme "the non trivial extraction of implicit, previously unknown, and potentially useful information from given data" (Frawley et al, 1991, p. 1-27, cité in Feldman, 1998, p. 65). Ou encore : "The non trivial process of identifying valid, novel, potentially useful, and ultimately understable patterns in data" (Fayyad et al., 1999). Historiquement, le data mining est à la base du text mining au sens où celui-ci est l extension du même but et du même processus vers des données textuelles. La distinction est donc fondée à son origine principalement sur la nature des données auxquelles s'adressent l'une et l'autre, d'une part des données numériques et factuelles, et d'autre part des données textuelles. Un autre élément de distinction est l'état de structuration des données. En général le data mining travaille sur des données structurées et stockées dans des bases de données 2
3 relationnelles. En revanche, le text mining travaille sur des données textuelles non structurées (Feldman et al., 1998a et 1998b; Landau et al., 1998). Le text mining se distingue du data mining également par les moyens techniques spécifiques qu'il le faut employer pour traiter les données textuelles et non structurées. Une définition générale du text mining est la suivante : l'extraction d'information à partir des formes ou patrons non manifestes (au sens de hidden patterns) dans des grands corpus de textes. Autrement dit, l'objectif est le traitement de grandes quantités d'information qui sont disponibles sous une forme textuelle et non structurée. (Feldman et al., 1998a ; Landau et al., 1998). L intelligence économique est sensée assurer aux acteurs économiques une information exploitable et utile, dans la mesure où cette information est textuelle (notes, lettres, rapports techniques, articles scientifiques, brevets, etc.), l'intérêt que le text mining peut représenter pour l'intelligence économique vis-à-vis du simple data mining est alors évident. 2 Architecture et système Considérons maintenant les principaux outils composants d un système de fouille de textes en général. Ici on se limite à l'esquisse d'une architecture générale et abstraite. L'important est de savoir que chacun de ces outils est indispensable pour mener à bien une opération de fouille de données textuelles. 1. Un outil d'accès et collecte des données 2. Un outil d'ingénierie du document 3. Un outil d'ingénierie du langage écrit 4. Un outil de fouille (ou mining tool) 5. Un outil de visualisation La théorie, les méthodes et les techniques appliquées à l'occasion de la conception et du développement de chacun de ces cinq outils, leur donnant ainsi une réalité technologique particulière, ce sont des éléments à tenir en compte. On voit donc que les systèmes de fouille de données textuelles sont des systèmes complexes réunissant des compétences diverses. L'outil d'accès et de collecte des données textuelles doit être capable d'opérer aussi bien à partir du Web sur de documents HTML, que sur des bases de données soit bibliographiques soit textuelles au sens du texte plein (ou full-text). L'outil d'ingénierie du document sert à la gestion et le traitement des documents qui sont sous la forme de données hétérogènes et sans structure fixe, dites données semi-structurées (DSS), afin de leur appliquer un formalisme du type SGML ou XML et réaliser ainsi l'étiquetage de leurs attributs (par exemple, la date, le titre, les auteurs, la source, le corps du texte, et l'ensemble de termes caractérisant le document). L'outil d'ingénierie linguistique est destiné au traitement du langage écrit pour l'extraction de termes et l'indexation automatique des documents, mais aussi pour la gestion 3
4 de ressources terminologiques telles que thesaurus, vocabulaires d'indexation, bases de termes, etc. L'outil de fouille de textes réalise la fonction générale de l'acquisition de connaissances à partir des données textuelles qui ont été collectées, formatées et indexées préalablement. Et enfin, l'outil de visualisation doit fournir à l'utilisateur les moyens hypertexte et graphiques pour explorer et analyser les résultats. Les propriétés interactives et itératives de cette architecture s'avèrent être d'une extrême importance dans la fouille de textes comme dans tout autre système destiné à l'analyse de l'information, où l'intervention des experts du domaine est nécessaire, et les retours en arrière dans le processus sont des décisions fréquentes. D'où la nécessité d'une architecture informatique modulaire et flexible du système. Cette présentation va par la suite se concentrer (ci-dessous sections 4, 5 et 6) sur la nature des outils [3] et surtout [4], parce qu ils représentent les éléments les plus spécifiques d un système de fouille des données textuelles. Quant aux produits commerciaux de fouille de données ou data mining, une remarque générale est qu'ils ne sont au fond que des outils statistiques (Ultsch, 1999) : "The terms Data Mining and Knowledge Discovery are often used in those systems in an inflationary way for statistical tools enhanced with a fancy visualization interface. The difference between exploratory statistical analysis and Data Mining lies in the aim which is sought. Data Mining aims at Knowledge Discovery". Un système de data mining ne se réduit pas à un simple outil d'analyse statistique des données. L'intention finale de la fouille des données est donc l'extraction de connaissance (en anglais knowledge discovery). 3 Techniques et méthodes très diverses Selon l'appel au Text Mining Workshop de l'international Joint Conference on Artificial Intelligence (IJCAI 99), les techniques utilisées par le text mining sont celles de la fouille des données (ou data mining), de l'apprentissage automatique, de la recherche d'information, de la compréhension du langage naturel, du raisonnement à partir de cas, des statistiques, et enfin de la gestion de connaissances. Le but étant d'aider les personnes à obtenir de la connaissance à partir de grandes quantités de textes semi-structurés. Comme le montre Text Mining Workshop IJCAI 99, la fouille de données textuelles est un terme recouvrant des activités très diverses. Selon Toussaint, Simon et Cherfi (2000), une première différence entre les méthodes vient des données qui sont fournies à l'algorithme de fouille et de la qualité de ces données selon la capacité des algorithmes à prendre en compte des données de qualité "inférieure". Le second aspect de différenciation porte sur l'algorithme de fouille, sur le type de données qui sont fournies à l'utilisateur final, qui, dans tous les cas, doit être un expert. Nous avons vu ci-dessus, dans la section 1, que le texte mining se distingue du data mining par les moyens techniques qu'il le faut employer pour traiter les données textuelles. Ces données sont des textes et aussi des données non structurées ou semi-structurées. De là donc deux tâches : traiter automatiquement le langage naturel dans sa forme écrite, manipuler des 4
5 données non structurées ou semi-structurées. Lesquelles demandent des outils spécialement adaptés. Au sujet du problème de la manipulation de données semi-structurée (DSS), Al Hulou, Napoli et Nauer (2000) analysent comment le langage de description de documents XML, avec les outils qui lui sont associés et l'essor qu'il connaît, peut servir comme un formalisme de représentation intermédiaire entre DSS et représentation de connaissances par objet (RCO). Comme il a été dit plus haut, l'intention finale de la fouille de données textuelles est l'extraction de connaissances, d'où le besoin également d'un système de représentation de connaissances et de raisonnement (être capable de faire des inférences). 4 - Traitement linguistique La capacité à traiter automatiquement le langage écrit apparaît comme une étape importante de la fouille de données textuelles. La plupart des systèmes ont relayé au second plan les données issues de l'indexation manuelle et exploitent les résultats d'une indexation automatique. L approche d ingénierie linguistique est la suivante. En entrée des données textuelles que l on doit soumettre à un traitement permettant l extraction automatique d éléments linguistique plus complexes que des simples mots. L'étiquetage des textes (ou tagging), l assignation automatique de catégories morpho-syntaxiques telles que le nom, le verbe, l'adjectif, etc., aux mots du document, et la lemmatisation, sont les étapes de ce traitement. Ensuite vient la phase de l extraction de termes à partir des textes étiquetés, laquelle est suivie d une phase de filtrage. Ce filtrage est généralement statistique et il consiste en calculer un score aux termes. Les termes sont sélectionnés en fonction de leur score. Seulement les termes ayant un score supérieur à un seuil déterminé sont sélectionnés comme candidats pour l indexation de documents. L'indexation des documents peut se faire avec les termes que l'on obtient soit par une extraction fondée sur de patrons syntaxiques, soit à partir d'un référentiel terminologique, tel qu'un thesaurus, et de méta-règles de variation. Toussaint, Simon et Cherfi (2000) utilisent cette dernière méthode. Feldman et ses collègues (1998b) utilisent la première approche. Les expériences prouvent que l approche linguistique assure une meilleure performance des algorithmes de fouille. Dans l'article "Text Mining at the Term Level", Feldman et ses collègues (1998b) montrent l'intérêt de travailler au niveau du terme et non du mot. Ainsi ils désignent leur système comme un "term-based text mining system". La capacité à manipuler de données semi-structurées, l'exploitation d'une indexation automatique fondée sur une analyse morphologique et syntaxique des textes sont des conditions préalables et nécessaires mais pas suffisantes. Pour que la fouille à proprement parler se réalise, il faut encore l'application d'algorithmes capables de construire une structure classificatoire (taxonomie) et d'effectuer l extraction de règles d'association 5
6 Passons donc à ce que l'on peut considérer comme le cœur du processus de la fouille de données textuelles. 5 Structure de classification La nécessité d'une taxonomie est une question cruciale pour la fouille de textes. La taxonomie est construite dans le but de structurer l ensemble de termes hiérarchiquement. Une telle structure classificatoire est importante pour la plupart d'algorithmes de fouille de textes. Le système doit donc disposer d un moyen de construction de la taxonomie en question. Ainsi par exemple Simon (2000) montre que la théorie des treillis de Galois permet de produire à la fois un outil de classification hiérarchique et un outil de construction de règles d association. Toussaint, Simon et Cherfi (2000) proposent une méthode de fouille de données fondée sur les treilles de Galois et sur l'extraction de règles d'association en vue d'aider des experts dans leur tâche de veille scientifique. Rappelons au passage que les treilles de Galois sont connus aussi sous l'appellation de conceptual clustering. Les treillis de Galois opèrent avec les notions d'intension et d'extension et la relation de subsomption. Un treillis de Galois permet la construction des deux types de structures propres à la fouille de données textuelles : [1] une structure de classification qui regroupe les documents en fonction des termes qui leurs sont associés et réciproquement ; [2] l'extraction de règles d'association entre les termes associés aux documents. Quelle qu'elle soit la méthode de construction de cette taxonomie, il est important de noter que chaque nœud représente un concept. Dans le cas d une taxonomie fondée sur le treillis de Galois : chaque élément du treillis est considéré comme un concept formel et le graphe (diagramme de Hasse) comme une relation de généralisation/spécialisation entre les concepts. Le treillis est donc perçu comme une hiérarchie de concepts. Chaque concept est une paire composée d une extension représentant un sous-ensemble des instances de l application et d une intention représentant les propriétés communes aux instances (Godin et al. 1995). L'aspect pragmatique de la taxonomie. Elle permet à l'utilisateur de définir les tâches de fouille d'une manière concise. Ceci suppose une interface de visualisation graphique et de navigation dans la structure classificatoire (taxonomie) et les règles d'association obtenues et d'observer le type de relation existant entre les termes participant à une règle. Un exemple (Feldman et al., 1998) : "the user can specify interest only in the relationships of companies in the context of business alliances. In order to do so, we need two nodes in the term taxonomy marked business alliances and companies. The first node contains all terms related to alliance such as joint venture, strategic alliance, combined initiative etc., while the second node is the parent of all company names". La construction de cette structure classificatoire permet de mettre en évidence les concepts potentiellement intéressants pour l analyste. De plus, elle permet l extraction de règles d association. 6
7 6 - Extraction de règles d association Les règles d'association ont été présentées en 1993 par R. Agrawal, T. Imielinski et A. Swani dans leur article "Mining Association Rules between Sets of Items in Large Databases". La signification intuitive d'une règle d'association X = > Y, où X et Y sont des ensembles d'items, est qu'une transaction contenant X est susceptible de contenir également Y (Agrawal et al. 1996). L'application type est l'analyse des données du panier de supermarché, où des règles, comme celle-ci, par exemple, "34% de tous les clients qui achètent de poissons également achètent du vin blanc", peuvent être trouvées. Les règles d'association s'avèrent par ailleurs être tout à fait utiles dans des applications économiques. Les règles d'association peuvent être calculées soit par l'algorithme d'agrawal, comme c'est le cas dans Feldman (1998b) ; soit à partir des treillis de Galois comme le propose Simon (2000) et le font Toussaint, Simon, Cherfi (2000). Ce second approche est tout récent et il est encore au niveau de la recherche (au sein de l'équipe Orpailleur du LORIA à Nancy) - Les règles d'association extraient des patrons à partir des données du type [ jus de raisin => chromatographie ] : celle-ci montre que dans le corpus analysé, les documents s'intéressant au jus de raisin le font systématiquement en rapport avec la chromatographie ; [ histamine => amine biogène ] : l'histamine est une amine biogène qui est tout particulièrement étudiée dans le corpus par sa toxicité dans les aliments. Lors de la phase d'interprétation, il est indispensable de disposer d'un outil de visualisation et navigation. PERSPECTIVES La nouvelle économie et avec elle la gestion croissante de connaissances dans la vie des organisations sont des facteurs définissant un nouvel horizon pour la veille et l'intelligence économique, mais aussi pour la bibliométrie qui les est associée. Dans ce nouveau contexte, la demande de fouille de données textuelles de la part de la veille et de l'intelligence économique ne peut que s'accroître. Si cette demande se développe, elle devra en exercer un effet d'orientation sur la recherche dans le domaine de la fouille de données textuelles et sur la mise au point de systèmes viables. Ceci pose le problème de savoir quel est l'état de l'offre du côté de la fouille de données textuelles. Notre présentation a voulu montrer succinctement ce que représente un système de fouille de données textuelles (section 2), la diversité de disciplines et méthodes que la fouille de données textuelles mobilise (section 3), et puis l'état actuel de la fouille de données textuelles sur le plan de l'ingénierie linguistique (section 4 ) et de l'ingénierie de la connaissance (section 5 et 6). Pour l analyse des perspectives de la fouille de données textuelles, il est nécessaire de tenir en compte les sections 2 et 3, autrement dit le fait de son appartenance à un réseau 7
8 multidisciplinaire et dans lequel elle devra évoluer suivant une fertilisation croisée. Tenir compte également de ce que nous avons évoqué dans les sections 4, 5 et 6 reconnaissant les deux dernières comme le noyau propre ou strictement spécifique de la fouille de données textuelles. L'évolution de la fouille de données textuelles est ainsi liée à un ensemble de disciplines informatiques dont le souci principal est de savoir comment traiter à l'aide des ordinateurs les contenus de l'information et leur conversion en connaissances. Admettons de les grouper sous le label commun de technologies de l intelligence. Ces domaines de recherche seraient les suivants : Extraction d information (Cowie et Lehnert, 1996). Traitement automatique du langage naturel. Visualisation de l information (Card et al., 1999). Recherche d information mais dans sa nouvelle de version de modern information retrieval (Baeza-Yates et Ribeiro-Neto, 1999). Gestion de connaissances (O'Leary, 1998). Ce cluster de recherches constitue le voisinage de la fouille des données textuelles, laquelle appartient en propre au cluster noyau formé par : Fouille de données (Data Mining) Fouille de données de la Toile (Web Mining ou Internet Data Mining) Fouille de données textuelles (Text Mining) Extraction de connaissances (Knowledge Discovery in Databases) Dans ce réseau scientifique et technologique, l'avenir de la relation entre la fouille des textes et la veille et l'intelligence économique est en train de se construire. AVERTISSEMENT Ce document est exclusivement destiné aux participants du colloque Veille technologique, Intelligence économique et Bibliométrie. Colloque organisé par la section Bibliothéconomie du DEC Sciences du Livre de l Université Catholique de Louvain-la-Neuve, les janvier Seulement après l intervention, la discussion et les remarques dans le cadre de ce colloque, l auteur envisage de le transformer dans un article pour être publié BIBLIOGRAPHIE R. Agrawal, H. Mannila, R. Srikant, H. Toiven, A. Ikeri Verkamo (1996) Fast Discovery of Association Rules, in Fayyad et al. (1996) p. p
9 R. Al Hulou, A. Napoli, E. Nauer (2000) XML : un formalisme de représentation intermédiaire entre donnée semi-structurées et représentations par objets, in C. Dony, H. A. Sahraoui (eds) Langages et Modèles à Objets. Paris, HERMES, p R. Baeza-Yates, B. Ribeiro-Neto (1999) Modern Information Retrieval. ACM Press / Addison-Wesley Longman. S. K. Card, J. D. MacKinlay, B. Schneiderman (eds) (1999) Readings in Information Visualization. Using Vision to Think. San Francisco, Cal., Morgan Kaufman Publishers, Inc. J. Cowie, W. Lehnert (1996) Information Extraction, Communications of the ACM, vol. 30 (1), p U. M. Fayyad, G. Piatetsky-Shapiro, P. Smyth, R. Uthurusamy (eds) (1996) Advances in Knowledge Discovery and Data Mining. Menlo Park, Cal. AAAI Press / The MIT Press. U. M. Fayyad, G. Piatetsky-Shapiro, P. Smyth (1999) Data Mining and Knowledge Discovery in Databases: Introduction to the Special Issue. Communications of the ACM, vol. 39 (1). R. Feldman, Y Aumann, A. Zilberstein, Y. Ben-Yuda (1998a) Trend Graphs: Visualizing the Evolution of Concept Relationships in Large Document Collections, in Zytkow et Quafafou (1998) p R. Feldman, M. Fresko, Y. K Kinar, Y Lindell, O. Liphstar, M. Rajman, Y. Scheler, O. Zamir (1998b) Text Mining at the Term Level, in Zytkow et Quafafou (1998) p R. Godin, G. Mineau, R. Missaoui (1995) Méthodes de classification conceptuelle basées sur les treillis de Galois. Revue d intelligence artificielle, vol. 9 (2), p D. Landau, R. Feldman, Y. Aumann, M. Fresko, Y. Lindell, O. Lipshtat, O. Zamir (1998) TextViz: An Integrated Visual Environment for Text Mining, in Zytkow et Quafafou (1998) p D. E. O'Leary (1998) Knowledge Management Systems: Converting and Connection. IEEE Intelligent Systems, vol. 1 (3), p R. L. Pinkerton (1994) Competitive Intelligence Revisited: A History and Assessment of Its Use in Marketing. Competitive Intelligence Review, vol. 5 (4), p A. Simon (2000) Outils classificatoires par objets pour l extraction de connaissances dans des bases de données. Thèse de doctorat de l Université Henri Poincaré Nancy 1. Y. Toussaint, A. Simon, H. Cherfi (2000) Apport de la fouille de données textuelles pour l'analyse de l'information. Actes des Journée Francophones d Ingénierie des Connaissances (IC 2000), Toulouse, p A. Ultsch (1999) Data Mining and Knowledge Discovery with Emergent Self-organizing Feature Map for Multivariate Time Series, in E. Oja, S. Kaski (eds) Kohonen Maps. Amsterdam, ELSEVIER, p J. M. Zytkow, et M. Quafafou (eds) (1998) Principles of Data Mining and Knowledge Discovery. Proceedings of the Second European Symposium, PKDD'98, Nantes. Berlin, Springer, (Lecture Notes in Artificial Intelligence 1510). 9
OASIS www.oasis-open.org/committees/xacml/docs/docs.shtml Date de publication
Statut du Committee Working Draft document Titre XACML Language Proposal, version 0.8 (XACML : XML Access Control Markup Language) Langage de balisage du contrôle d'accès Mot clé Attestation et sécurité
Intelligence Economique - Business Intelligence
Intelligence Economique - Business Intelligence Notion de Business Intelligence Dès qu'il y a une entreprise, il y a implicitement intelligence économique (tout comme il y a du marketing) : quelle produit
Ingénierie et gestion des connaissances
Master Web Intelligence ICM Option Informatique Ingénierie et gestion des connaissances Philippe BEAUNE [email protected] 18 novembre 2008 Passer en revue quelques idées fondatrices de l ingénierie
Introduction au datamining
Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des
Hervé Couturier EVP, SAP Technology Development
Hervé Couturier EVP, SAP Technology Development Hervé Biausser Directeur de l Ecole Centrale Paris Bernard Liautaud Fondateur de Business Objects Questions à: Hervé Couturier Hervé Biausser Bernard Liautaud
CommentWatcher. plateforme Web open-source pour analyser les discussions sur des forums en ligne. Marian-Andrei RIZOIU
CommentWatcher plateforme Web open-source pour analyser les discussions sur des forums en ligne Marian-Andrei RIZOIU 2ème octobre 2013 BLEND 2013 Lyon, France Contexte Laboratoire ERIC Université Lumière
EXTRACTION DE CONNAISSANCES À PARTIR DE DONNÉES TEXTUELLES VUE D ENSEMBLE
ème Colloque National AIP PRIMECA La Plagne - 7- avril 7 EXTRACTION DE CONNAISSANCES À PARTIR DE DONNÉES TEXTUELLES VUE D ENSEMBLE Bruno Agard Département de Mathématiques et de Génie Industriel, École
Structure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données
Structure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données et le Data Mining Nous suivons le plan suivant : Fonctionnement de Spad Catalogue des méthodes (statistiques
Business & High Technology
UNIVERSITE DE TUNIS INSTITUT SUPERIEUR DE GESTION DE TUNIS Département : Informatique Business & High Technology Chapitre 8 : ID : Informatique Décisionnelle BI : Business Intelligence Sommaire Introduction...
EXPLORATION DES BASES DE DONNÉES INDUSTRIELLES À L AIDE DU DATA MINING PERSPECTIVES
EXPLORATION DES BASES DE DONNÉES INDUSTRIELLES À L AIDE DU DATA MINING PERSPECTIVES Bruno Agard (1), Andrew Kusiak (2) (1) Département de Mathématiques et de Génie Industriel, École Polytechnique de Montréal,
Macroscope et l'analyse d'affaires. Dave Couture Architecte principal Solutions Macroscope
Macroscope et l'analyse d'affaires Dave Couture Architecte principal Solutions Macroscope Avis Avis d intention Ce document a pour but de partager des éléments de vision et d intentions de Fujitsu quant
L'évolution de VISUAL MESSAGE CENTER Architecture et intégration
L'évolution de VISUAL MESSAGE CENTER Architecture et intégration Sommaire Résumé exécutif Base technologique : VISUAL Message Center 2 3 VISUAL Message Center Core Engine VISUAL Message Center Extended
LIVRE BLANC Décembre 2014
PARSING MATCHING EQUALITY SEARCH LIVRE BLANC Décembre 2014 Introduction L analyse des tendances du marché de l emploi correspond à l évidence à une nécessité, surtout en période de tension comme depuis
Big Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université
Structuration des décisions de jurisprudence basée sur une ontologie juridique en langue arabe
Structuration des décisions de jurisprudence basée sur une ontologie juridique en langue arabe Karima Dhouib, Sylvie Després Faiez Gargouri ISET - Sfax Tunisie, BP : 88A Elbustan ; Sfax [email protected],
Introduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
TEXT MINING Tour d Horizon
TEXT MINING Tour d Horizon Media Campus WAN IFRA "Structurer, optimiser et valoriser son contenu éditorial : les outils de text mining" 24 novembre 2009, PARIS Philippe BONNY Cabinet de Conseil et d Etudes
Introduction à l Informatique Décisionnelle - Business Intelligence (7)
Introduction à l Informatique Décisionnelle - Business Intelligence (7) Bernard ESPINASSE Professeur à Aix-Marseille Université (AMU) Ecole Polytechnique Universitaire de Marseille Septembre 2013 Emergence
Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar [email protected]
Intelligence Artificielle et Systèmes Multi-Agents Badr Benmammar [email protected] Plan La première partie : L intelligence artificielle (IA) Définition de l intelligence artificielle (IA) Domaines
TEXT MINING. 10.6.2003 1 von 7
TEXT MINING 10.6.2003 1 von 7 A LA RECHERCHE D'UNE AIGUILLE DANS UNE BOTTE DE FOIN Alors que le Data Mining recherche des modèles cachés dans de grandes quantités de données, le Text Mining se concentre
O b s e r v a t o i r e E V A P M. Taxonomie R. Gras - développée
O b s e r v a t o i r e E V A P M É q u i p e d e R e c h e r c h e a s s o c i é e à l ' I N R P Taxonomie R. Gras - développée Grille d'analyse des objectifs du domaine mathématique et de leurs relations
ÉCONOMIE ET GESTION LYCÉES TECHNOLOGIQUE ET PROFESSIONNEL
ÉCONOMIE ET GESTION LYCÉES TECHNOLOGIQUE ET PROFESSIONNEL Au niveau du second degré, l'économie et gestion recouvre un ensemble de champs disciplinaires relevant de l'économie, du droit, des sciences de
IODAA. de l 1nf0rmation à la Décision par l Analyse et l Apprentissage / 21
IODAA de l 1nf0rmation à la Décision par l Analyse et l Apprentissage IODAA Informations générales 2 Un monde nouveau Des données numériques partout en croissance prodigieuse Comment en extraire des connaissances
Bachelier Bibliothécaire- Documentaliste!
Bachelier Bibliothécaire- Documentaliste Structure du profil d'enseignement et du programme d'études détaillé Année académique : 2015-2016 Haute Ecole Paul-Henri Spaak Catégorie sociale (IESSID) 1 1. Le
Application de K-means à la définition du nombre de VM optimal dans un cloud
Application de K-means à la définition du nombre de VM optimal dans un cloud EGC 2012 : Atelier Fouille de données complexes : complexité liée aux données multiples et massives (31 janvier - 3 février
ISTEX, vers des services innovants d accès à la connaissance
ISTEX, vers des services innovants d accès à la connaissance Synthèse rédigée par Raymond Bérard, directeur de l ABES, à partir du dossier de candidature d ISTEX aux Initiatives d excellence et des réunions
LES OUTILS D ALIMENTATION DU REFERENTIEL DE DB-MAIN
LES OUTILS D ALIMENTATION DU REFERENTIEL DE DB-MAIN Les contenues de ce document sont la propriété exclusive de la société REVER. Ils ne sont transmis qu à titre d information et ne peuvent en aucun cas
Le Product Backlog, qu est ce c est?
Le Product Backlog, qu est ce c est? Ludovic Larché Agile Tour 2012 à Rennes le 4 octobre 2012 Sommaire > Rappels théoriques : qu est ce qu un Product Backlog? > Le Product Backlog n est pas seul! > Techniques
Forthcoming Database
DISS.ETH NO. 15802 Forthcoming Database A Framework Approach for Data Visualization Applications A dissertation submitted to the SWISS FEDERAL INSTITUTE OF TECHNOLOGY ZURICH for the degree of Doctor of
Sélection d un moteur de recherche pour intranet : Les sept points à prendre en compte
Sélection d un moteur de recherche pour intranet : Les sept points à prendre en compte 1Les bases : vos objectifs 2 Sélection d un moteur de recherche pour intranet : Les sept points à prendre en compte
Big Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci http://liris.cnrs.fr/hamamache.kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de
PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES
Leçon 11 PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES Dans cette leçon, nous retrouvons le problème d ordonnancement déjà vu mais en ajoutant la prise en compte de contraintes portant sur les ressources.
SECTION 5 BANQUE DE PROJETS
SECTION 5 BANQUE DE PROJETS INF 4018 BANQUE DE PROJETS - 1 - Banque de projets PROJET 2.1 : APPLICATION LOGICIELLE... 3 PROJET 2.2 : SITE WEB SÉMANTIQUE AVEC XML... 5 PROJET 2.3 : E-LEARNING ET FORMATION
Traitement et exploration du fichier Log du Serveur Web, pour l extraction des connaissances: Web Usage Mining
Traitement et exploration du fichier Log du Serveur Web, pour l extraction des connaissances: Web Usage Mining Mostafa HANOUNE*, Fouzia BENABBOU* *Université Hassan II- Mohammedia, Faculté des sciences
Initiation à la recherche documentaire
Initiation à la recherche documentaire 1 Objectifs Cette séance est destinée à reprendre les principes de la démarche documentaire pour construire un parcours pertinent en terme de méthodologie et de résultats
Entrepôt de données 1. Introduction
Entrepôt de données 1 (data warehouse) Introduction 1 Présentation Le concept d entrepôt de données a été formalisé pour la première fois en 1990 par Bill Inmon. Il s agissait de constituer une base de
LOGO. Module «Big Data» Extraction de Connaissances à partir de Données. Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS Claudia.Marinica@u-cergy.
Module «Big Data» Extraction de Connaissances à partir de Données Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS [email protected] 14 Janvier 2015 Pourquoi l extraction de connaissances à partir de
PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN
PROGRAMME DU CONCOURS DE RÉDACTEUR INFORMATICIEN 1. DÉVELOPPEMENT D'APPLICATION (CONCEPTEUR ANALYSTE) 1.1 ARCHITECTURE MATÉRIELLE DU SYSTÈME INFORMATIQUE 1.1.1 Architecture d'un ordinateur Processeur,
Apprentissage Automatique
Apprentissage Automatique Introduction-I [email protected] www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
La gestion électronique de documents
La gestion électronique de documents La GED (Gestion Électronique de Documents) ou GEIDE (Gestion Électronique de d'informations et de Documents pour l'entreprise) a pour fonction d'organiser et de gérer
Spécificités, Applications et Outils
Spécificités, Applications et Outils Ricco Rakotomalala Université Lumière Lyon 2 Laboratoire ERIC Laboratoire ERIC 1 Ricco Rakotomalala [email protected] http://chirouble.univ-lyon2.fr/~ricco/data-mining
Les Utilisateurs dans SharePoint
Les Utilisateurs dans SharePoint La gestion des utilisateurs dans SharePoint SharePoint dont le cœur est l'outil collaboratif, Windows SharePoint Services. Chaque utilisateur (ou collaborateur) peut créer
Bases de données avancées Introduction
Bases de données avancées Introduction Dan VODISLAV Université de Cergy-Pontoise Master Informatique M1 Cours BDA Plan Objectifs et contenu du cours Rappels BD relationnelles Bibliographie Cours BDA (UCP/M1)
MODE D'EMPLOI. La gestion des versions permettra de compléter et de faire évoluer les fiches dans le temps. NOM DE LA RESSOURCE CONTACT FOURNISSEUR
MODE D'EMPLOI Fiche réalisée le Version Rédacteur La gestion des versions permettra de compléter et de faire évoluer les fiches dans le temps. NOM DE LA RESSOURCE Nom, prénom CONTACT FOURNISSEUR Mail Téléphone
Visualisation en Fouille de Données
Université Nice Sophia Antipolis Master Informatique, Fondements & Ingénierie (IFI) Visualisation en Fouille de Données Elaboré par : Abir DILOU Mouna REKIK Encadré par : Mr. Nicolas PASQUIER Année universitaire
La carte, le territoire et l'explorateur où est la visualisation? Jean-Daniel Fekete Equipe-projet AVIZ INRIA [email protected] www.aviz.
La carte, le territoire et l'explorateur où est la visualisation? Jean-Daniel Fekete Equipe-projet AVIZ INRIA [email protected] www.aviz.fr Quelques exemples 1 La campagne de Russie de Napoléon
Présentation de l'architecture QlikView. Livre blanc sur la technologie QlikView. Date de publication : octobre 2010 www.qlikview.
Présentation de l'architecture QlikView Livre blanc sur la technologie QlikView Date de publication : octobre 2010 Sommaire Signification de la plate-forme QlikView... 3 La majorité des logiciels de BI
Introduction aux bases de données
Introduction aux bases de données Références bibliographiques Jeff Ullman,Jennifer Widom, «A First Course in Database systems», Prentice-Hall, 3rd Edition, 2008 Hector Garcia-Molina, Jeff Ullman, Jennifer
Chapitre 1 : Introduction aux bases de données
Chapitre 1 : Introduction aux bases de données Les Bases de Données occupent aujourd'hui une place de plus en plus importante dans les systèmes informatiques. Les Systèmes de Gestion de Bases de Données
Pentaho Business Analytics Intégrer > Explorer > Prévoir
Pentaho Business Analytics Intégrer > Explorer > Prévoir Pentaho lie étroitement intégration de données et analytique. En effet, les services informatiques et les utilisateurs métiers peuvent accéder aux
Business Intelligence avec SQL Server 2012
Editions ENI Business Intelligence avec SQL Server 2012 Maîtrisez les concepts et réalisez un système décisionnel Collection Solutions Informatiques Extrait Alimenter l'entrepôt de données avec SSIS Business
Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence
Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence Gwenole Fortin To cite this version: Gwenole Fortin. Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence. 2006.
Gestion collaborative de documents
Gestion collaborative de documents ANT box, le logiciel qui simplifie votre GED Les organisations (entreprises, collectivités, associations...) génèrent chaque jour des millions de documents, e-mails,
Performances. Gestion des serveurs (2/2) Clustering. Grid Computing
Présentation d Oracle 10g Chapitre VII Présentation d ORACLE 10g 7.1 Nouvelles fonctionnalités 7.2 Architecture d Oracle 10g 7.3 Outils annexes 7.4 Conclusions 7.1 Nouvelles fonctionnalités Gestion des
Historique. Architecture. Contribution. Conclusion. Définitions et buts La veille stratégique Le multidimensionnel Les classifications
L intelligence économique outil stratégique pour l entreprise Professeur Bernard DOUSSET [email protected] http://atlas.irit.fr Institut de Recherche en Informatique de Toulouse (IRIT) Equipe Systèmes d
Préparer un état de l art
Préparer un état de l art Khalil DRIRA LAAS-CNRS, Toulouse Unité de recherche ReDCAD École Nationale d ingénieurs de Sfax Étude de l état de l art? Une étude ciblée, approfondie et critique des travaux
www.machpro.fr : Machines Production a créé dès 1995, le site internet
www.machpro.fr : www.machpro.fr Machines Production a créé dès 1995, le site internet www.machpro.fr destiné à fournir aux lecteurs de la revue et aux mécanautes un complément d'information utile et régulièrement
Une méthode d apprentissage pour la composition de services web
Une méthode d apprentissage pour la composition de services web Soufiene Lajmi * Chirine Ghedira ** Khaled Ghedira * * Laboratoire SOIE (ENSI) University of Manouba, Manouba 2010, Tunisia [email protected],
Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.
Introduction L'objectif de mon TIPE est la reconnaissance de sons ou de notes de musique à l'aide d'un réseau de neurones. Ce réseau doit être capable d'apprendre à distinguer les exemples présentés puis
L hypertexte, le multimédia, c est quoi?
L hypertexte, le multimédia, c est quoi? Hervé Platteaux Centre NTE et Département de pédagogie Université de Fribourg Cours de pédagogie - Second cycle Session du 29 octobre 2001 Selon vous, l hypertexte
Travailler avec les télécommunications
Travailler avec les télécommunications Minimiser l attrition dans le secteur des télécommunications Table des matières : 1 Analyse de l attrition à l aide du data mining 2 Analyse de l attrition de la
Bigdata et Web sémantique. les données + l intelligence= la solution
Bigdata et Web sémantique les données + l intelligence= la solution 131214 1 big data et Web sémantique deux notions bien différentes et pourtant... (sable et silicium). «bigdata» ce n est pas que des
Le "tout fichier" Le besoin de centraliser les traitements des fichiers. Maitriser les bases de données. Historique
Introduction à l informatique : Information automatisée Le premier ordinateur Définition disque dure, mémoire, carte mémoire, carte mère etc Architecture d un ordinateur Les constructeurs leader du marché
Formation Méthode MDM. Architecture et procédés de modélisation des données de référence
Architecture et procédés de modélisation des données de référence Objectifs de la session Les participants découvrent l architecture et les procédés de modélisation utilisés pour les projets de Master
PRODIGE V3. Manuel utilisateurs. Consultation des métadonnées
PRODIGE V3 Manuel utilisateurs Consultation des métadonnées Pour plus d'information sur le dispositif : à remplir par chaque site éventuellement 2 PRODIGE V3 : Consultation des métadonnées SOMMAIRE 1.
Introduction aux outils BI de SQL Server 2014. Fouille de données avec SQL Server Analysis Services (SSAS)
MIT820: Entrepôts de données et intelligence artificielle Introduction aux outils BI de SQL Server 2014 Fouille de données avec SQL Server Analysis Services (SSAS) Description générale Ce tutoriel a pour
Bases de Données. Plan
Université Mohammed V- Agdal Ecole Mohammadia d'ingénieurs Rabat Bases de Données Mr N.EL FADDOULI 2014-2015 Plan Généralités: Définition de Bases de Données Le modèle relationnel Algèbre relationnelle
Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services
69 Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services M. Bakhouya, J. Gaber et A. Koukam Laboratoire Systèmes et Transports SeT Université de Technologie de Belfort-Montbéliard
Extrait du site de l'oseo (ex.anvar) http://www.anvar.fr/projlanc.htm. Reste à déterminer les points incontournables
Extrait du site de l'oseo (ex.anvar) http://www.anvar.fr/projlanc.htm Notez que vous trouverez les fiches citées à chaque étape sur le site (Normalement, les liens ont été conservés et fonctionnent) Reste
RAPID 3.34 - Prenez le contrôle sur vos données
RAPID 3.34 - Prenez le contrôle sur vos données Parmi les fonctions les plus demandées par nos utilisateurs, la navigation au clavier et la possibilité de disposer de champs supplémentaires arrivent aux
Le cinquième chapitre
Le cinquième chapitre Objectif : présenter les supports matériels ou immatériels permettant d'étayer cette nouvelle approche de la fonction maintenance. I. Evolution du domaine technique - Différents domaines
ORACLE TUNING PACK 11G
ORACLE TUNING PACK 11G PRINCIPALES CARACTÉRISTIQUES : Conseiller d'optimisation SQL (SQL Tuning Advisor) Mode automatique du conseiller d'optimisation SQL Profils SQL Conseiller d'accès SQL (SQL Access
Plateforme de capture et d analyse de sites Web AspirWeb
Projet Java ESIAL 2A 2009-2010 Plateforme de capture et d analyse de sites Web AspirWeb 1. Contexte Ce projet de deuxième année permet d approfondir par la pratique les méthodes et techniques acquises
Présentation de la majeure ISN. ESILV - 18 avril 2013
Présentation de la majeure ISN ESILV - 18 avril 2013 La Grande Carte des Métiers et des Emplois Sociétés de service Entreprises Administrations Grand- Public Sciences Utiliser Aider à utiliser Vendre APPLICATIONS:
TRS: Sélection des sous-graphes représentants par l intermédiaire des attributs topologiques et K-medoïdes
TRS: Sélection des sous-graphes représentants par l intermédiaire des attributs topologiques et K-medoïdes Mohamed Moussaoui,Wajdi Dhifli,Sami Zghal,Engelbert Mephu Nguifo FSJEG, Université de Jendouba,
Recherche d information en langue arabe : influence des paramètres linguistiques et de pondération de LSA
RÉCITAL 2005, Dourdan, 6-10 juin 2005 Recherche d information en langue arabe : influence des paramètres linguistiques et de pondération de LSA Siham Boulaknadel (1,2), Fadoua Ataa-Allah (2) (1) LINA FRE
Annexe sur la maîtrise de la qualité
Version du 09/07/08 Annexe sur la maîtrise de la qualité La présente annexe précise les modalités d'application, en matière de maîtrise de la qualité, de la circulaire du 7 janvier 2008 fixant les modalités
SAP BusinessObjects Web Intelligence (WebI) BI 4
Présentation de la Business Intelligence 1. Outils de Business Intelligence 15 2. Historique des logiciels décisionnels 16 3. La suite de logiciels SAP BusinessObjects Business Intelligence Platform 18
Séminaires Système D Information. Formation Conduite du Changement. Préambule
Séminaires Système D Information Formation Conduite du Changement Préambule Sommaire Préambule L entreprise : système complexe en mouvement permanent Mickael Porter Harvard Business School - L avantage
T C C. Conseil Efficacité. Ingénierie. Performance Basicité. Simplicité. Comment concevez-vous votre système d'information aujourd'hui?
Comment concevez-vous votre système d'information aujourd'hui? Et demain, comment le voyez-vous? Intégration WWW Conseil Efficacité Globale Ingénierie Performance Basicité Simplicité 110101001 Réseaux
Brève introduction à la recherche d!information sur le Web à base d!agents logiciels
Plan Brève introduction à la recherche d!information sur le Web à base d!agents logiciels Bernard ESPINASSE Université d!aix-marseille 2010 Rappels sur les agents logiciels Problématique de la RI sur le
Référencement naturel
Référencement naturel 1er novembre 2011 Pour optimiser votre positionnement dans les moteurs de recherche, renforcer votre visibilité en ligne et améliorer le contenu de votre site web pour le référencement
ÉVALUATION PRIMAIRE D UN SYSTÈME D AIDE AU CONTRÔLE AÉRIEN EN ROUTE
Proceedings of the SELF-ACE 001 Conference Ergonomics for changing work ÉVALUATION PRIMAIRE D UN SYSTÈME D AIDE AU CONTRÔLE AÉRIEN EN ROUTE CELLIER JEAN-MARIE Laboratoire Travail et Cognition (LTC), UMR
MODELISATION UN ATELIER DE MODELISATION «RATIONAL ROSE»
MODELISATION UN ATELIER DE MODELISATION «RATIONAL ROSE» Du cours Modélisation Semi -Formelle de Système d Information Du Professeur Jean-Pierre GIRAUDIN Décembre. 2002 1 Table de matière Partie 1...2 1.1
Introduction à la B.I. Avec SQL Server 2008
Introduction à la B.I. Avec SQL Server 2008 Version 1.0 VALENTIN Pauline 2 Introduction à la B.I. avec SQL Server 2008 Sommaire 1 Présentation de la B.I. et SQL Server 2008... 3 1.1 Présentation rapide
Evolution et architecture des systèmes d'information, de l'internet. Impact sur les IDS. IDS2014, Nailloux 26-28/05/2014 pascal.dayre@enseeiht.
Evolution et architecture des systèmes d'information, de l'internet. Impact sur les IDS IDS2014, Nailloux 26-28/05/2014 [email protected] 1 MVC et le web 27/05/14 2 L'évolution des systèmes informatiques
Stages 2014-2015 ISOFT : UNE SOCIETE INNOVANTE. Contact : Mme Lapedra, [email protected]
Stages 2014-2015 ISOFT : UNE SOCIETE INNOVANTE Contact : Mme Lapedra, [email protected] ISoft, éditeur de logiciels, est spécialisé dans l informatique décisionnelle et l analyse de données. Son expertise
Utilisation d outils de Visual Data Mining pour l exploration d un ensemble de règles d association
Utilisation d outils de Visual Data Mining pour l exploration d un ensemble de règles d association Gwenael Bothorel, Mathieu Serrurier, Christophe Hurter To cite this version: Gwenael Bothorel, Mathieu
QlikView sur Mobile : Au-delà du reporting
QlikView sur Mobile : Au-delà du reporting Un Livre Blanc QlikView Octobre 2011 qlikview.com Table des matières QlikView sur Mobile, la solution de Business Discovery 3 La Business Discovery mobile 3 La
De la modélisation linguistique aux applications logicielles: le rôle des Entités Nommées en Traitement Automatique des Langues
De la modélisation linguistique aux applications logicielles: le rôle des Entités Nommées en Traitement Automatique des Langues Maud Ehrmann Joint Research Centre Ispra, Italie. Guillaume Jacquet Xerox
AGROBASE : un système de gestion de données expérimentales
AGROBASE : un système de gestion de données expérimentales Daniel Wallach, Jean-Pierre RELLIER To cite this version: Daniel Wallach, Jean-Pierre RELLIER. AGROBASE : un système de gestion de données expérimentales.
Catalogue des Formations
Catalogue des Formations When skills meet your need Pilotage et management SI Base de donnée et Aide à la décision Développement www.intellectus.ma www.fb.com/intellectusconsulting [email protected]
Qu'est-ce que le BPM?
Qu'est-ce que le BPM? Le BPM (Business Process Management) n'est pas seulement une technologie mais, dans les grandes lignes, une discipline de gestion d'entreprise qui s'occupe des procédures contribuant
La gestion opérationnelle de l information commerciale
La gestion opérationnelle de l information commerciale La maîtrise du Process Commercial Du ciblage à la commande avec les solutions PREMIDATA PREMIUM 23 avenue de Genève 74 000 ANNECY Tél : 04.50.46.54.56
Contenu disciplinaire (CK)
Compilation des suggestions apportées par les participants aux ateliers du Rendez-vous des conseillers pédagogiques Colloque de l AQPC 2013 Application technologique Trouver les causes, la biologie derrière
ENSEIGNEMENT ASSISTÉ PAR ORDINATEUR ET E.A.O. ET LANGUES ÉTRANGÈRES À L'UNIVERSITÉ
192 ENSEIGNEMENT ASSISTÉ PAR ORDINATEUR ET LANGUES ÉTRANGÈRES À L'UNIVERSITÉ 1. APPLICATIONS PÉDAGOGIQUES DE L'INFORMATIQUE ET ENSEIGNEMENT ASSISTÉ PAR ORDINATEUR (EAOI. 1.1 Différents niveaux d'intervention
TangibleData. Manipulation tangible et multitouch de bases de données
TangibleData Manipulation tangible et multitouch de bases de données Tangible Data est un environnement de manipulation et d exploration tangible de base de données pour extraire efficacement des informations
Data Mining. Master 1 Informatique - Mathématiques UAG
Data Mining Master 1 Informatique - Mathématiques UAG 1.1 - Introduction Data Mining? On parle de Fouille de données Data Mining Extraction de connaissances à partir de données Knowledge Discovery in Data
et Groupe Eyrolles, 2006, ISBN : 2-212-11747-7
Tsoft et Groupe Eyrolles, 2006, ISBN : 2-212-11747-7 OEM Console Java OEM Console HTTP OEM Database Control Oracle Net Manager 6 Module 6 : Oracle Enterprise Manager Objectifs Contenu A la fin de ce module,
