Datamining. Glossaire. Xavier Dubuc
|
|
|
- Carole Larose
- il y a 10 ans
- Total affichages :
Transcription
1 Datamining Glossaire Xavier Dubuc 3 juin
2 Table des matières 1 Classification 3 2 Règles d association Introduction Apriori Génération de candidats et pruning Rule Generation Représentation compacte des frequent itemsets Méthodes alternatives pour générer des FI FP-Growth Algorithm Clustering Différents types de clustering (pages 5-7) Différents types de clusters (pages 7-9) K-means (pages 10-29) Agglomerative Hierarchical Clustering (pages 29-40) DBSCAN (pages 40-46) Cluster Evaluation (pages 46-69) Unsupervised (using Cohesion et Separation) Unsupervised (using proximity matrix) Unsupervised for hierarchical Deviner le nombre de clusters Clustering tendency Supervised Cluster Validity for Hierarchical Clustering Dasgupta & Long 11 2
3 1 Classification voir fichier txt 2 Règles d association 2.1 Introduction Le support d une règle X Y est s si s% des transactions contiennent les élements de X Y. La confiance d une règle X Y est c si c% des transactions qui contiennent X contiennent aussi Y. Une règle d association est une expression implicative de la forme X Y où X et Y sont des ensembles disjoints. La puissance d une règle peut être mesurée en terme de confiance et de support. Le problème Association Rule Discovery consiste en : pour un set de transactions T, trouver toutes les règles ayant un support minsup et une confiance > minconf. (avec minsup proche de 0.1 en général et minconf proche de 1 en général, ces 2 bornes étant données) Afin d éviter la génération de règles inutiles, on va générer des itemsets et la première application que l on peut faire est que si on a un itemset {A, B, C} qui est pas assez supporté, alors toutes les règles A B, A C, AB C,... ne le seront pas non plus, et donc on peut directement les oublier. On procède donc de la manière suivante : 1. Trouver les frequent itemset (ceux qui ont un support suffisant) 2. Extraire les strong rules des frequent itemset, c est-à-dire les règles ayant une haute valeur de confiance. La partie 1. reste exponentielle, on entrevoit 2 solutions : A. réduire le nombre d itemset candidats à être frequent itemset (FI) (apriori utilise cette approche), B. réduire le nombre de comparaisons en utilisant des structures plus avancées. (cf plus loin) 2.2 Apriori Le principe apriori se base sur le théorème et le corollaire suivant : Théorème : Si un itemset est fréquent, alors tous ses sous-ensembles doivent l être aussi. Corollaire : Si un itemset est non-fréquent alors tout superset le contenant ne l est pas non plus. (superset = set plus grand) L algorithme va utiliser ces 2 principes pour pruner l arbre/le graphe, on appelle ça le support-based pruning. Ceci est rendu possible car le support est anti-monotone, cad support(a) n est jamais plus grand que le support des sous ensembles de A. Generation des FI dans l algorithme apriori On calcule le support de chaque élément isolé et on supprime ceux qui n ont pas un support assez grand. On itère avec les 2-itemset créés à partir des 1-itemset restants, et ainsi de suite jusqu à ne plus en trouver. Cet algorithme est level-wise, c est-à-dire qu il traverse le treillis des itemsets niveau par niveau des 1- itemset jusqu à la taille maximale des frequent itemsets. Il emploie une strategie generate-and-test, c est-à-dire qu il génère à chaque itération les candidats puis il calcule pour chaque le support et supprime ceux qui ne sont pas assez supportés. O(k max + 1) où k max est la taille maximale des frequent itemsets. 2.3 Génération de candidats et pruning L algorithme apriori fait appel à 2 opérations (qui n accèdent pas à la DB) : * générer des candidats, * pruner/élaguer les candidats 3
4 Mettons en lumière cette dernière opération, on considère un k-itemset X tel que X = {i 1, i 2,..., i k }. L algorithme doit déterminer si tous les sous-ensembles de X, X {i j } ( j = 1,..., k) sont fréquents et si l un d entre eux ne l est pas, X est élagué directement. Cette opération se fait en O(k) par itemset de taille k et même en O(k m) en fait avec m le nombre d itemsets de taille k 1 utilisés pour générer l itemset de taille k considéré. (logique vu qu il ne faut plus que vérifier que les k m autres sont fréquents eux aussi) Pour générer les itemsets de manière efficiente il faudrait : 1. éviter de générer trop d itemsets candidats inutiles, 2. assurer que l ensemble des candidats est complet, 3. un itemset ne doit être générer qu une seule fois On peut soit tout générer et puis faire du pruning mais complexité exponentielle alors on utilise plutot une récursivité : frequent k-itemset = frequent (k 1)-itemset frequent 1-itemset Malgré cela, ça se peut qu on génère plusieurs fois le même itemset (par exemple {a, b, c} = {b, c} {a} = {a, b} {c}) mais on peut éviter ça en gardant les itemsets triés par ordre lexicographique et en ne générant que les k-itemsets tels que le (k 1)- itemset est avant le 1-itemset dans l ordre lexicographique. {Bread,Diaper} + {Milk} OK {Bread,Milk} + {Diaper} NON {Diaper,Milk} + {Bread} NON Cette approche n est pas encore parfaite car elle génère tout de même quelques itemsets inutiles. Bread, Diaper, Milk est généré avec {Bread, Diaper} + {Milk} alors que Bread, Milk n est pas frequent. Plusieurs heuristiques existent pour éviter ça comme par exemple le fait que chaque élément d un k-itemset fréquent doit apparaitre dans au moins k 1 (k 1)-itemset fréquents sinon le k-itemset n est pas fréquent. L approche réellement utilisée par apriori est de fusionner des (k 1)-itemsets et ce, uniquement si leur (k 2) premiers éléments sont identiques (et seulement eux). Il faut cependant s assurer que les (k 2) autres sous-ensembles sont également fréquents. Compter le support count des itemsets La manière naïve de le faire est de regarder chaque itemset généré et de les comparer à chaque transaction afin de compter le support count. On peut également générer tous les itemsets contenus par une transaction et augmenter le support de chacun d entre eux qui sont candidats fréquents. Il faut donc comparer les itemsets générés aux itemsets candidats afin d incrémenter le support des candidats matchés. On peut le faire avec un arbre de hashage. Voir Figure 6.11 page Rule Generation Chaque itemset fréquent peut générer 2 k 2 règles différentes (on ignore les règles avec un ensemble vide). Une règle peut se générer en partitionnant l itemset en 2 ensembles non vides : X itemset : X Y X, il faut cependant que cette règle satisfasse au seuil de confiance. Pour calculer la confiance de la règle, il n est requis aucun calcul supplémentaire car c est un ratio de support count qui ont été calculés précédemment (vu que les sous ensembles des itemsets fréquents sont des itemsets fréquents) Pruning basé sur la confiance suivant : On a pas de règle d antimonotonie mais on a tout de même le théorème Si une règle X Y X ne satisfait pas le seuil de confiance, alors pour tout X X la règle X Y X ne la satisfait pas non plus. Génération de règles dans l algorithme Apriori C est un algorithme level-wise, même style de principe que pour les frequent itemsets. On génère les règles avec le plus d éléments à gauche de la fleche puis, si la règle n a pas assez de confiance on abandonne la génération à partir de cet itemset. Sinon, si {a, b, c} d et {a, b, d} c ont une confiance assez élevée on teste {a, b} {d, f}. 4
5 2.5 Représentation compacte des frequent itemsets Il est important de pouvoir identifier un sous-ensemble de frequent itemsets représentatifs desquels on peut déduire tous les autres frequent itemsets.2 représentations sont données : 1. Maximal frequent itemsets Un maximal frequent itemset est un itemset frequent tel qu aucun de ses supersets directs ( fils dans le treilli) n est fréquent. C est l ensemble le plus petit d itemsets fréquents tels que tous les autres itemsets fréquents peuvent en être dérivés. Le problème de ceci est que on perd les informations du support sur les sous-set de ces maximal frequent itemsets. Parfois il est préférable d avoir une représentation un peu plus grande mais qui conserve ces informations afin de ne pas devoir les recalculer à nouveau. 2. Closed frequent itemsets Un frequent itemset est un closed frequent itemset si aucun de ses supersets immédiats n a le même support count que lui. Vu autrement, un frequent itemset n est pas closed si au moins un de ses supersets immédiats a le même support que lui. Aussi, une règle X Y est redondante s il existe X X et Y Y tels que X Y avec le même support et la même confiance. Ce genre de règle ne sont pas générées si les closed frequent itemsets sont utilisés pour la génération. 2.6 Méthodes alternatives pour générer des FI Même si apriori améliore de manière considérable les performances pour générer les règles d associations, il souffre toujours d un overhead I/O assez important car il faut passer plusieurs fois sur la BDD des transactions. La génération des FI peut être vue comme un traversée du treillis des itemsets. Plusieurs manières peuvent être envisagées pour la traversée : general-to-specific (de haut en bas) (utilisé par Apriori) specific-to-general (de bas en haut), utile pour trouver des itemsets très spécifiques dans des transitions denses, la limite des FI est localisée vers le bas du treillis. bidirectionnal : combinaison des 2 précédentes recquiert plus d espace de stockage. classes d équivalence : on pourrait imaginer que la recherche se fait d abord dans une classe particulière avant de se poursuivre dans une autre. Par exemple dans apriori les classes d équivalence sont définies au travers de la taille des itemsets. On peut aussi les définir selon le préfixe ou le suffixe des itemsets. Dans ces 2 derniers cas on utilise un arbre de préfixe/suffixe. DF / BF (profondeur/largeur) : apriori utilise un parcours en largeur, on pourrait alors imaginer un parcours en profondeur, l avantage est qu on trouve les maximal FI plus rapidement en trouvant la bordure de FI plus rapidement. La représentation du data set de transactions (cette représentation a de l influence sur le coût d I/O) peut être vue de 2 façons : 1. horizontale : transaction associée à une liste d item 2. verticale : item associé à une liste de transactions contenant l item Ces 2 représentations demandent beaucoup de mémoire, il existe une meilleure manière de faire, développée dans la section suivante. 2.7 FP-Growth Algorithm Représentation On utilise une structure de données plus compacte : le FP-Tree. C est un peu comme un prefix-tree où on compte le nombre de chemins matchés. A 3 \ B 3 / \ 1 C D 1 Ce FP-tree signifie qu on a 3 transactions contenant A et B et 1 contenant C et 1 contenant D, on a donc le set de transactions suivant : {AB, ABC, ABD}. Dans le FP-tree on ajoute également des liens entre tous les noeuds correspondant des liens entre tous les noeuds correspondant à un même item pris dans des transactions différentes (afin de compter rapidement le support count) 5
6 A 4 / \ 1 C B 3 / \ 1 C D 1 Ici, pareil qu avant sauf qu on a {AC} comme transaction supplémentaire. On met alors un lien entre les deux C afin de compter rapidement que C est supporté = 2 fois. On considère que chaque transaction est triée dans l ordre du support global, dans l exemple : A > B > C > D (en support count 4 > 3 > 2 > 1)) Generation des frequent itemsets dans l algorithme FP-Growth (CF. FIGURES DU PDF)On va explorer le FP-Tree du bas vers le haut. Dans l exemple précédent, l algorithme va d abord rechercher les itemsets fréquents se terminant par e, puis par d, c, b et a. Cette façon de faire est équivalente à la façon suffix-based vue plus tôt. On considère que l itemset {e} est fréquent, dès lors l algorithme doit résoudre les sous-problèmes des frequents itemsets finissant par de, ce, be et ae. On construit alors le conditional FP-Tree de e, c est-à-dire qu on enlève les transactions qui ne contiennent pas e, on enlève les noeuds contenant e (ils sont inutiles à présent). A présent cet arbre reflète les transactions existantes contenant à la fois les éléments mentionnés et e, il se peut alors que certains éléments ne soient plus fréquents (comme b qui a un support count de 1 (et comme on avait pris un support count minimum de 2)). On applique l algorithme pour trouver les frequent itemsets finissant par d dans le conditionnal tree de e et on trouve ainsi les frequent itemsets se terminant par de. (et ainsi de suite) 3 Clustering 3.1 Différents types de clustering (pages 5-7) Hierarchical clustering création d une hiérarchie de clusters avec une relation d inclusion entre les différents niveaux, avec un nombre de clusters variant de 1 à k. Partitional clustering Complete clustering partition des données en k sous-ensembles (clusters). aucun point n est ommis. Partial clustering certains points sont ommis (ils sont considérés comme du bruit). 3.2 Différents types de clusters (pages 7-9) Well-separated un cluster est défini comme un ensemble d objets dans lequel chaque objet est plus proche de chacun des autres objets du cluster que de n importe quel autre objet n étant pas dans le cluster. Prototype-based un cluster est défini comme un ensemble d objets qui est plus proche du prototype représentant le cluster que de tout autre prototype. Graph-based un cluster est défini comme une composante connexe (c est-à-dire une partie graphe où d un noeud on peut aller à tous les autres). Ceci assume le fait que les données sont définies comme des noeuds de graphes reliés entre eux. Density-based densité. un cluster est défini comme une région dense d objets entourée par une région de faible Shared-propriety un cluster est un ensemble d objets qui partagent la même propriété. 6
7 3.3 K-means (pages 10-29) Crée un partitional, prototype-based clustering dans lequel les prototypes sont les centroïdes des clusters (la moyenne des données en général). L idée est simple, elle consiste à choisir K points comme centroïdes initials, assigner ensuite les points au prototype le plus proche et recalculer les centroïdes et ensuite itérer jusqu à ce que les centroïdes ne soient plus modifiés. Symbol x C i c i c m i m K Description un objet le ième cluster le centroïde du cluster C i le centroïde de tous les points le nombre d objets dans le ième cluster le nombre d objets dans le dataset le nombre de clusters Le but du clustering est de minimiser une fonction objectif. Dans le cas de données dans des espaces euclidiens, on peut prendre la Sum of the Squared Error (SSE) ou appelé également scatter. SSE = K i=1 Ainsi, le centroïde du ième cluster est alors défini par : x C i dist(c i, x) 2 c i = 1 m i x C i x c est à dire la moyenne du cluster, comme dit plus haut. (en utilisant la distance euclidienne, pour la distance de Manhattan par exemple il s agit de la médiane du cluster) Pour la sélection des centroïdes initiaux on peut faire ça de manière aléatoire ou via le farthest-first traversal, c est-à-dire en choisissant un point au hasard comme centre et puis prendre le centre le plus loin de ce point, ensuite le point le plus loin des 2 sélectionnés jusque là, etc... Améliorer k-means via postprocessing On peut identifier le cluster ayant la SSE la plus grande et le splitter en 2 et ensuite fusionner 2 autres qui augmentent le moins le SSE (ceux dont le centroides sont les plus proches). On peut également ajouter un nouveau centroïde ou disperser un cluster en supprimant son centre et réassignant les points aux autres clusters. Bisecting k-means (page 22-24) Cela consiste à séparer un cluster au choix en 2 à chaque étape (en commençant avec le cluster contenant tous les points) jusqu à obtenir k clusters. 3.4 Agglomerative Hierarchical Clustering (pages 29-40) On peut faire des clustering hiérarchique en partant du k-clustering avec les clusters ne contenant qu un élément et au fur et à mesure les fusionner ensemble pour arriver au 1-clustering. On peut également partir du 1-clustering pour descendre au k-clustering en divisant des clusters en 2. Dans la manière agglomerative, à chaque itération on fusionne les 2 clusters les plus proches et on met la matrice des distances à jour. Proximité entre clusters (page 31) single-link, la distance entre les clusters C i et C j est donnée par : min proximity(x, y) x C i, y C j 7
8 complete-link, la distance entre les clusters C i et C j est donnée par : max proximity(x, y) x C i, y C j group average, la distance entre les clusters C i et C j est donnée par : ( ) 1 proximity(x, y) m i + m j y C j x C i On peut également définir le proximité entre 2 clusters, dans le cas d un clustering prototype-based, comme la distance entre les centroïdes de ces clusters. La méthode de Ward permet de faire quelque chose de ce genre en exprimant la distance entre 2 clusters en terme d augmentation de SSE en cas de fusion entre ces 2 clusters. 3.5 DBSCAN (pages 40-46) Density based clustering. La densité est définie via l approche center-based, c est-à-dire que la densité pour un point est le nombre de points se situant dans un rayon ɛ défini. On peut alors classifier les points selon leur densité : core point : point vraiment à l intérieur d un cluster, border point : point sur le bord d un cluster, noise point : point à ignorer car ne fait pas partie d un cluster (le clustering density-based est partial). Algorithme L algorithme DBSCAN est alors simple, il consiste à labeller les noeuds comme noise, border ou core point, d éliminer ensuit les noise points, on connecte ensuite chaque core point se trouvant à moins de ɛ de distance (données représentées dans un graphe). On considère ensuite tous les noeuds connectés ensemble comme un seul cluster. Finalement on assigne les border points au cluster le plus proche. Définir ɛ L idée est de prendre pour ɛ la distance du kème voisin le plus proche (la k-dist ). (en général k = 4) Caractéristiques DBSCAN permet de trouver des clusters que k-means serait incapable de trouver, mais il peut se réveler très mauvais dans le cas de clusters de densités très variables. 3.6 Cluster Evaluation (pages 46-69) Just as people can find patterns in clouds, data mining algorithms can find clusters in random data 3.7 Unsupervised (using Cohesion et Separation) Nous cherchons à donner une valeur à la validité d un cluster et on définit la validité d un clustering comme : K w i validity(c i ) i=1 où w i est un poids associé au cluster C i. La fonction validity peut, dans ce chapitre, être définie comme la cohésion ou la séparation. graph-based cohesion(c i ) = proximity(x, y) x, y C j separation(c i, C j ) = proximity(x, y) x C i, y C j 8
9 prototype-based cohesion(c i ) = x C i proximity(x, c i ) separation(c i, C j ) = proximity(c i, c j ) separation(c i ) = proximity(c i, c) Lorsque la proximité est la distance euclidienne au carré cohesion(c i ) = SSE(C i ) Et on a également : separation(c i ) = SSB(C i ) = dist(c i, c) 2 K T OT AL SSB = m i dist(c i, c) 2 i=1 SSB + SSE = constante = T SS(Total Square of Sum) Silhouette Coefficient Pour le ième objet, soient : a i = distance moyenne par rapport à tous les autres objets du cluster b i = distance moyenne par rapport à tous les objets contenus dans un autre cluster, le cluster le plus proche alors le coefficient silhouette de i est : s i = b i a i max(a i, b i ) Plus il est proche de 1 plus il est pur c est-à-dire que a i est proche de 0 et que donc l objet a une très bonne cohésion. Dès qu il est négatif, il y a un problème car cela signifie que a i > b i ce qui veut dire que l élément n est pas dans le bon cluster. 3.8 Unsupervised (using proximity matrix) Correlation between similarity matrix and ideal similarity matrix La matrice idéale contient un 1 entre deux objets appartenant au même cluster et 0 autrement, en groupant les éléments par cluster, cette matrice a une structure en blocs de 1. Pour la matrice actuelle de similarité on peut, par exemple, modifier les distances comme suit : d ij min i,j d ij s ij = max i,j d i,j min i,j d ij 3.9 Unsupervised for hierarchical The cophenetic distance la distance cophenetic entre 2 objets est la proximité à laquelle un algorithme agglomératif de clustering hiérarchique met ces 2 objets dans le même cluster. The cophenetic correlation coefficient (CPCC) cophenetics et la matrice original de dissimilarité. est la corrélation entre la matrice des distances 3.10 Deviner le nombre de clusters On peut regarder sur un graphique refletant l évolution de la mesure d évaluation du cluster en fonction du nombre de cluster là où il y a un perturbement significatif (une chute, un pic,...). 9
10 3.11 Clustering tendency Il s agit de deviner si un jeu de données à des clusters ou pas. L idée est de générer des points aléatoirement et de sommer les distances vers le plus proche voisin de chacun de ces points. On divise cette somme ensuite par cette même somme à laquelle on ajoute la somme des distances vers le plus proche voisin des points du jeu de données. En fonction du nombre obtenu, on est à même de dire qu il y a de fortes chances qu il y ait des clusters ou non. Si ce coefficient est proche de 1, alors le jeu de données est fortement clusterisé (car la somme des distances vers le plus proche voisin n influence pratiquement pas le quotient. Dans le cas contraire, une valeur proche de 0 indique que cette somme influence particulièrement ce quotient et que donc elle est important ; cela signifie que les points sont plutôt assez bien disséminés Supervised classification-oriented ceux assignés aux clusters. Identique à la classification avec entropy et autres, juste que les labels prédits sont similarity-oriented On compare la matrice idéale de clustering, c est-à-dire 1 pour chaque paire d éléments d un même clustering, 0 sinon à la matrice idéale des classes dans laquelle on a 1 en ij si i et j ont la même classe, 0 sinon. On peut alors calculer une corrélation ou utiliser la Rand statistic et le coefficient de Jacquard. Rand statistic et le coefficient de Jaccard On définit : f 00 comme le nombre de paire d objets de classe différente et de cluster différent f 01 comme le nombre de paire d objets de classe différente et de cluster identique f 10 comme le nombre de paire d objets de classe identique et de cluster différent f 11 comme le nombre de paire d objets de classe identique et de cluster identique Alors, la Rand statistic est définie comme : Rand statistic = et le coefficient de Jacquard : Jaccard = f 00 + f 11 f 00 + f 01 + f 10 + f 11 (càd la proportion d objets bien classés ) f 11 f 01 + f 10 + f 11 (idem, sans tenir compte des objets de classes différentes)) 3.13 Cluster Validity for Hierarchical Clustering On considère TOUS les clusters (donc de TOUS LES NIVEAUX) comme un seul ensemble de clusters. On va calculer le fait qu au moins un cluster est relativement pur, c est-à-dire qu il ne contient que des éléments (ou presque) d une seule et même classe. Pour ce faire on calcul les F -mesures de tous les clusters et pour chaque classe on prend le maximum des F -mesures atteinte par n importe quel cluster. On prend ensuite une moyenne pondérée de ces F -mesures et cela nous donne la validité du clustering hiérarchique. (2precision(i, j)recall(i, j)) F mesure(i, j) = (precision(i, j) + recall(i, j)) F total = j m j m max i F (i, j) 10
11 4 Dasgupta & Long Le clustering qu ils effectuent cherche à minimise le rayon maximum d un cluster (et donc la distance maximale entre 2 éléments d un même cluster). Cet algorithme, qui en fait génère un arbre T, se base sur une première étape consistant à effectuer un farthest-first traversal (FFT). Ce FFT consiste à choisir un point aléatoirement et d ensuite sélectionner le point le plus loin du premier choisi, puis celui qui est le plus loin de tous les points déjà sélectionnés jusque là, etc. A chaque itération on relie le point j que l on vient de sélectionner au point i des points déjà sélectionnés auparavant le plus proche de lui et on note la distance entre ces 2 points R j. Ensuite on divise l arbre en niveau de granularité, ces niveaux sont des sous ensembles d éléments définis comme suit : L 0 = {1} { L j = i R 2 j < R i R } 2 j 1 j > 0 (où R = R 2, la distance maximale dans les R i ) On relie ensuite les éléments de la manière suivante : chaque noeud i est relié à son voisin le plus proche à un niveau inférieur. On obtient alors un nouvel arbre que l on nomme T. On ordonne les arêtes de cet arbre de manière décroissante et on renomme ces arêtes R 2 > R 3 >... R k+1. Finalement on obtient un k-clustering en enlevant dans l ordre les (k 1) arêtes de l arbre (donc si on veut un 2 clustering, on enlève l arête R 2, pour un 3-clustering on enlève R 2 et R 3, etc). 11
Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
La classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
LOGO. Module «Big Data» Extraction de Connaissances à partir de Données. Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS Claudia.Marinica@u-cergy.
Module «Big Data» Extraction de Connaissances à partir de Données Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS [email protected] 14 Janvier 2015 Pourquoi l extraction de connaissances à partir de
Etude d Algorithmes Parallèles de Data Mining
REPUBLIQUE TUNISIENNE MINISTERE DE L ENSEIGNEMENT SUPERIEUR, DE LA TECHNOLOGIE ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE DE TUNIS ELMANAR FACULTE DES SCIENCES DE TUNIS DEPARTEMENT DES SCIENCES DE L INFORMATIQUE
Le Data Mining au service du Scoring ou notation statistique des emprunteurs!
France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative
Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring
Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Année académique 2006-2007 Professeurs : Marco Saerens Adresse : Université catholique de Louvain Information Systems
Big Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci http://liris.cnrs.fr/hamamache.kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de
Implémentation parallèle de certains algorithmes de fouille de données avec le framework MapReduce
Implémentation parallèle de certains algorithmes de fouille de données avec le framework MapReduce Algorithmes : K-means et Apriori Maria Malek LARIS-EISTI [email protected] 1 Cloud Computing et MapReduce
République Algérienne Démocratique et Populaire
République Algérienne Démocratique et Populaire وزارة التعليم العالي والبحث العلمي Ministère de l Enseignement Supérieur et de la Recherche Scientifique UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE d ORAN
Big Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université
Agrégation des portefeuilles de contrats d assurance vie
Agrégation des portefeuilles de contrats d assurance vie Est-il optimal de regrouper les contrats en fonction de l âge, du genre, et de l ancienneté des assurés? Pierre-O. Goffard Université d été de l
Application de K-means à la définition du nombre de VM optimal dans un cloud
Application de K-means à la définition du nombre de VM optimal dans un cloud EGC 2012 : Atelier Fouille de données complexes : complexité liée aux données multiples et massives (31 janvier - 3 février
ESIEA PARIS 2011-2012
ESIEA PARIS 2011-2012 Examen MAT 5201 DATA MINING Mardi 08 Novembre 2011 Première Partie : 15 minutes (7 points) Enseignant responsable : Frédéric Bertrand Remarque importante : les questions de ce questionnaire
Définitions. Numéro à préciser. (Durée : )
Numéro à préciser (Durée : ) On étudie dans ce problème l ordre lexicographique pour les mots sur un alphabet fini et plusieurs constructions des cycles de De Bruijn. Les trois parties sont largement indépendantes.
Introduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Chapitre 5 : Flot maximal dans un graphe
Graphes et RO TELECOM Nancy A Chapitre 5 : Flot maximal dans un graphe J.-F. Scheid 1 Plan du chapitre I. Définitions 1 Graphe Graphe valué 3 Représentation d un graphe (matrice d incidence, matrice d
Une nouvelle approche de détection de communautés dans les réseaux sociaux
UNIVERSITÉ DU QUÉBEC EN OUTAOUAIS Département d informatique et d ingénierie Une nouvelle approche de détection de communautés dans les réseaux sociaux Mémoire (INF 6021) pour l obtention du grade de Maîtrise
Initiation à LabView : Les exemples d applications :
Initiation à LabView : Les exemples d applications : c) Type de variables : Créer un programme : Exemple 1 : Calcul de c= 2(a+b)(a-3b) ou a, b et c seront des réels. «Exemple1» nom du programme : «Exemple
Image d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
données en connaissance et en actions?
1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)
1 de 46. Algorithmique. Trouver et Trier. Florent Hivert. Mél : [email protected] Page personnelle : http://www.lri.fr/ hivert
1 de 46 Algorithmique Trouver et Trier Florent Hivert Mél : [email protected] Page personnelle : http://www.lri.fr/ hivert 2 de 46 Algorithmes et structures de données La plupart des bons algorithmes
Objets Combinatoires élementaires
Objets Combinatoires élementaires 0-0 Permutations Arrangements Permutations pour un multi-ensemble mots sous-ensemble à k éléments (Problème du choix) Compositions LE2I 04 1 Permutations Supposons que
Chapitre 7. Récurrences
Chapitre 7 Récurrences 333 Plan 1. Introduction 2. Applications 3. Classification des récurrences 4. Résolution de récurrences 5. Résumé et comparaisons Lectures conseillées : I MCS, chapitre 20. I Rosen,
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,
Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
2.4 Représentation graphique, tableau de Karnaugh
2 Fonctions binaires 45 2.4 Représentation graphique, tableau de Karnaugh On peut définir complètement une fonction binaire en dressant son tableau de Karnaugh, table de vérité à 2 n cases pour n variables
Optimisation for Cloud Computing and Big Data
1 / 23 Optimisation for Cloud Computing and Big Data Olivier Beaumont, Lionel Eyraud-Dubois 2 / 23 Aujourd hui Problèmes de fiabilité on va oublier la dynamicité Placement de VMs en programmation par contraintes
DATAMINING C4.5 - DBSCAN
14-16 rue Voltaire 94270 Kremlin Bicêtre Benjamin DEVÈZE Matthieu FOUQUIN PROMOTION 2005 SCIA DATAMINING C4.5 - DBSCAN Mai 2004 Responsable de spécialité SCIA : M. Akli Adjaoute Table des matières Table
Les algorithmes SLIQ et SSDM
Les algorithmes SLIQ et SSDM Guillaume CALAS et Henri-François CHADEISSON [email protected] et [email protected] Spécialisation Sciences Cognitives et Informatique Avancée 14-16 rue Voltaire, 94270
Arbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS
Sauvegarde collaborative entre pairs 1 Sauvegarde collaborative entre pairs Ludovic Courtès LAAS-CNRS Sauvegarde collaborative entre pairs 2 Introduction Pourquoi pair à pair? Utilisation de ressources
Pourquoi l apprentissage?
Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage
Conception d un lecteur de musique intelligent basé sur l apprentissage automatique.
Université de Mons Faculté des Sciences Institut d Informatique Service d Algorithmique Conception d un lecteur de musique intelligent basé sur l apprentissage automatique. Mémoire réalisé par Xavier DUBUC
TRS: Sélection des sous-graphes représentants par l intermédiaire des attributs topologiques et K-medoïdes
TRS: Sélection des sous-graphes représentants par l intermédiaire des attributs topologiques et K-medoïdes Mohamed Moussaoui,Wajdi Dhifli,Sami Zghal,Engelbert Mephu Nguifo FSJEG, Université de Jendouba,
Fonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01
IBM SPSS Modeler Social Network Analysis 15 Guide de l utilisateur
IBM SPSS Modeler Social Network Analysis 15 Guide de l utilisateur Remarque : Avant d utiliser ces informations et le produit qu elles concernent, lisez les informations générales sous Avis sur p. 24.
INF6304 Interfaces Intelligentes
INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie
Introduction aux outils BI de SQL Server 2014. Fouille de données avec SQL Server Analysis Services (SSAS)
MIT820: Entrepôts de données et intelligence artificielle Introduction aux outils BI de SQL Server 2014 Fouille de données avec SQL Server Analysis Services (SSAS) Description générale Ce tutoriel a pour
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Raisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
La NP-complétude. Johanne Cohen. PRISM/CNRS, Versailles, France.
La NP-complétude Johanne Cohen PRISM/CNRS, Versailles, France. Références 1. Algorithm Design, Jon Kleinberg, Eva Tardos, Addison-Wesley, 2006. 2. Computers and Intractability : A Guide to the Theory of
COURS DE DATA MINING 4 : MODELISATION NON-SUPERVISEE CLASSIFICATIONS AUTOMATIQUES
COURS DE DATA MINING 4 : MODELISATION NON-SUPERVISEE CLASSIFICATIONS AUTOMATIQUES EPF 4/ 5 ème année - Option Ingénierie d Affaires et de Projets - Finance Bertrand LIAUDET 4 : Modélisation non-supervisée
Baccalauréat ES/L Amérique du Sud 21 novembre 2013
Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée
Rappels sur les suites - Algorithme
DERNIÈRE IMPRESSION LE 14 septembre 2015 à 12:36 Rappels sur les suites - Algorithme Table des matières 1 Suite : généralités 2 1.1 Déition................................. 2 1.2 Exemples de suites............................
La segmentation à l aide de EG-SAS. A.Bouhia Analyste principal à la Banque Nationale du Canada. Chargé de cours à l UQAM
La segmentation à l aide de EG-SAS A.Bouhia Analyste principal à la Banque Nationale du Canada. Chargé de cours à l UQAM Définition de la segmentation - Au lieu de considérer une population dans son ensemble,
Resolution limit in community detection
Introduction Plan 2006 Introduction Plan Introduction Introduction Plan Introduction Point de départ : un graphe et des sous-graphes. But : quantifier le fait que les sous-graphes choisis sont des modules.
Extraction d informations stratégiques par Analyse en Composantes Principales
Extraction d informations stratégiques par Analyse en Composantes Principales Bernard DOUSSET IRIT/ SIG, Université Paul Sabatier, 118 route de Narbonne, 31062 Toulouse cedex 04 [email protected] 1 Introduction
Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.
des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le
CHAPITRE VIII : Les circuits avec résistances ohmiques
CHAPITRE VIII : Les circuits avec résistances ohmiques VIII. 1 Ce chapitre porte sur les courants et les différences de potentiel dans les circuits. VIII.1 : Les résistances en série et en parallèle On
Introduction à la théorie des graphes. Solutions des exercices
CAHIERS DE LA CRM Introduction à la théorie des graphes Solutions des exercices Didier Müller CAHIER N O 6 COMMISSION ROMANDE DE MATHÉMATIQUE 1 Graphes non orientés Exercice 1 On obtient le graphe biparti
Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.
ANALYSE 5 points Exercice 1 : Léonie souhaite acheter un lecteur MP3. Le prix affiché (49 ) dépasse largement la somme dont elle dispose. Elle décide donc d économiser régulièrement. Elle a relevé qu elle
Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Travail de session : Mémoire. Le clustering de données. Par Nicolas Sola & Mathieu Schmitt
Travail de session : Mémoire Le clustering de données Par Nicolas Sola & Mathieu Schmitt Résumé Le travail du clustering consiste à regrouper les données en classe ; nous obtenons par ce biais une forte
Intégration de la dimension sémantique dans les réseaux sociaux
Intégration de la dimension sémantique dans les réseaux sociaux Application : systèmes de recommandation Maria Malek LARIS-EISTI [email protected] 1 Contexte : Recommandation dans les réseaux sociaux
Bases de données réparties: Fragmentation et allocation
Pourquoi une base de données distribuée? Bibliographie Patrick Valduriez, S. Ceri, Guiseppe Delagatti Bases de données réparties: Fragmentation et allocation 1 - Introduction inventés à la fin des années
Stéphane Tufféry DATA MINING & STATISTIQUE DÉCISIONNELLE. 04/04/2008 Stéphane Tufféry - Data Mining - http://data.mining.free.fr
Stéphane Tufféry DATA MINING & STATISTIQUE DÉCISIONNELLE 1 Plan du cours Qu est-ce que le data mining? A quoi sert le data mining? Les 2 grandes familles de techniques Le déroulement d un projet de data
Localisation des fonctions
MODALISA 7 Localisation des fonctions Vous trouverez dans ce document la position des principales fonctions ventilées selon l organisation de Modalisa en onglets. Sommaire A. Fonctions communes à tous
Introduction aux algorithmes MapReduce. Mathieu Dumoulin (GRAAL), 14 Février 2014
Introduction aux algorithmes MapReduce Mathieu Dumoulin (GRAAL), 14 Février 2014 Plan Introduction de la problématique Tutoriel MapReduce Design d algorithmes MapReduce Tri, somme et calcul de moyenne
Objectifs du cours d aujourd hui. Informatique II : Cours d introduction à l informatique et à la programmation objet. Complexité d un problème (2)
Objectifs du cours d aujourd hui Informatique II : Cours d introduction à l informatique et à la programmation objet Complexité des problèmes Introduire la notion de complexité d un problème Présenter
# let rec concat l1 l2 = match l1 with [] -> l2 x::l 1 -> x::(concat l 1 l2);; val concat : a list -> a list -> a list = <fun>
94 Programmation en OCaml 5.4.8. Concaténation de deux listes Définissons maintenant la fonction concat qui met bout à bout deux listes. Ainsi, si l1 et l2 sont deux listes quelconques, concat l1 l2 constitue
Eteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques :
MTH EN JEN 2013-2014 Elèves de seconde, première et terminale scientifiques : Lycée Michel Montaigne : HERITEL ôme T S POLLOZE Hélène 1 S SOK Sophie 1 S Eteindre Lycée Sud Médoc : ROSIO Gauthier 2 nd PELGE
Traitement bas-niveau
Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.
AGASC / BUREAU INFORMATION JEUNESSE 06700 Saint Laurent du Var Tel : 04.93.07.00.66 [email protected] www.agasc.fr. Word: Les tableaux.
Word: Les tableaux Introduction 6 ième partie Il est préférable par moments de présenter de l'information sous forme de tableau. Les instructions qui suivent démontrent comment créer un tableau et comment
Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé
Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé A. P. M. E. P. Exercice 1 5 points 1. Réponse d. : 1 e Le coefficient directeur de la tangente est négatif et n est manifestement pas 2e
RÉALISATION DE GRAPHIQUES AVEC OPENOFFICE.ORG 2.3
RÉALISATION DE GRAPHIQUES AVEC OPENOFFICE.ORG 2.3 Pour construire un graphique : On lance l assistant graphique à l aide du menu Insérer è Diagramme en ayant sélectionné au préalable une cellule vide dans
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
INTRODUCTION AU DATA MINING
INTRODUCTION AU DATA MINING 6 séances de 3 heures mai-juin 2006 EPF - 4 ème année - Option Ingénierie d Affaires et de Projets Bertrand LIAUDET TP DE DATA MINING Le TP et le projet consisteront à mettre
Continuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Historique. Architecture. Contribution. Conclusion. Définitions et buts La veille stratégique Le multidimensionnel Les classifications
L intelligence économique outil stratégique pour l entreprise Professeur Bernard DOUSSET [email protected] http://atlas.irit.fr Institut de Recherche en Informatique de Toulouse (IRIT) Equipe Systèmes d
Transmission d informations sur le réseau électrique
Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en
I.D.S. Systèmes de détection d intrusion - Link Analysis. par: FOUQUIN MATHIEU. responsable: AKLI ADJAOUTE DEVÈZE BENJAMIN.
EPITA SCIA PROMO 2005 14-16 rue Voltaire 94270 Kremlin-Bicêtre I.D.S. Systèmes de détection d intrusion - Link Analysis Juillet 2004 par: DEVÈZE BENJAMIN FOUQUIN MATHIEU responsable: AKLI ADJAOUTE TABLE
Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Texte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires
Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires Julien Jorge [email protected] Laboratoire d Informatique de Nantes Atlantique,
Visualisation en Fouille de Données
Université Nice Sophia Antipolis Master Informatique, Fondements & Ingénierie (IFI) Visualisation en Fouille de Données Elaboré par : Abir DILOU Mouna REKIK Encadré par : Mr. Nicolas PASQUIER Année universitaire
Résolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Algorithmes de recherche
Algorithmes de recherche 1 Résolution de problèmes par recherche On représente un problème par un espace d'états (arbre/graphe). Chaque état est une conguration possible du problème. Résoudre le problème
Optimisation, traitement d image et éclipse de Soleil
Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement
TP3 : Manipulation et implantation de systèmes de fichiers 1
École Normale Supérieure Systèmes et réseaux Année 2012-2013 TP3 : Manipulation et implantation de systèmes de fichiers 1 1 Répertoire de travail courant Le but de l exercice est d écrire une commande
Équations non linéaires
Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et
Enjeux mathématiques et Statistiques du Big Data
Enjeux mathématiques et Statistiques du Big Data Mathilde Mougeot LPMA/Université Paris Diderot, [email protected] Mathématique en Mouvements, Paris, IHP, 6 Juin 2015 M. Mougeot (Paris
INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies
INF 232: Langages et Automates Travaux Dirigés Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies Année Académique 2013-2014 Année Académique 2013-2014 UNIVERSITÉ JOSEPH
Introduction au Data-Mining
Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane
Statistique : Résumé de cours et méthodes
Statistique : Résumé de cours et méthodes 1 Vocabulaire : Population : c est l ensemble étudié. Individu : c est un élément de la population. Effectif total : c est le nombre total d individus. Caractère
CHAPITRE 5. Stratégies Mixtes
CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,
Jean-Philippe Préaux http://www.i2m.univ-amu.fr/~preaux
Colonies de fourmis Comment procèdent les colonies de fourmi pour déterminer un chemin presque géodésique de la fourmilière à un stock de nourriture? Les premières fourmis se déplacent au hasard. Les fourmis
BMO Société d assurance-vie. Glossaire d aide juin 2009
BMO Société d assurance-vie Glossaire d aide juin 2009 TABLE DES MATIÈRES Utiliser Recherche rapide pour les comptes indiciels gérés 3 Utiliser Recherche avancée pour les comptes indiciels gérés 4 Trier
Programmation Linéaire - Cours 1
Programmation Linéaire - Cours 1 P. Pesneau [email protected] Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.
Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007
Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................
BACCALAUREAT GENERAL MATHÉMATIQUES
BACCALAUREAT GENERAL FEVRIER 2014 MATHÉMATIQUES SERIE : ES Durée de l épreuve : 3 heures Coefficient : 5 (ES), 4 (L) 7(spe ES) Les calculatrices électroniques de poche sont autorisées, conformement à la
Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes
Loris MARCHAL Laboratoire de l Informatique du Parallélisme Équipe Graal Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes Thèse réalisée sous la direction
Résolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Cours de Probabilités et de Statistique
Cours de Probabilités et de Statistique Licence 1ère année 2007/2008 Nicolas Prioux Université Paris-Est Cours de Proba-Stat 2 L1.2 Science-Éco Chapitre Notions de théorie des ensembles 1 1.1 Ensembles
Théorie des Graphes Cours 3: Forêts et Arbres II / Modélisation
IFIPS S7 - informatique Université Paris-Sud 11 1er semestre 2009/2010 Théorie des Graphes Cours 3: Forêts et Arbres II / 1 Forêts et arbres II Théorème 1.1. Les assertions suivantes sont équivalentes
COURS SYRRES RÉSEAUX SOCIAUX INTRODUCTION. Jean-Loup Guillaume
COURS SYRRES RÉSEAUX SOCIAUX INTRODUCTION Jean-Loup Guillaume Le cours Enseignant : Jean-Loup Guillaume équipe Complex Network Page du cours : http://jlguillaume.free.fr/www/teaching-syrres.php Évaluation
Traitement des données avec Microsoft EXCEL 2010
Traitement des données avec Microsoft EXCEL 2010 Vincent Jalby Septembre 2012 1 Saisie des données Les données collectées sont saisies dans une feuille Excel. Chaque ligne correspond à une observation
Coup de Projecteur sur les Réseaux de Neurones
Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche
Analyse dialectométrique des parlers berbères de Kabylie
Saïd GUERRAB Analyse dialectométrique des parlers berbères de Kabylie Résumé de la thèse (pour affichage) Il est difficile de parler du berbère sans parler de la variation. Il y a d abord une variation
Complément d information concernant la fiche de concordance
Sommaire SAMEDI 0 DÉCEMBRE 20 Vous trouverez dans ce dossier les documents correspondants à ce que nous allons travailler aujourd hui : La fiche de concordance pour le DAEU ; Page 2 Un rappel de cours
