Apprentissage automatique et fouille de données (part 3)
|
|
- Mathilde Corriveau
- il y a 7 ans
- Total affichages :
Transcription
1 Apprentissage automatique et fouille de données (part 3) Telecom Saint-Etienne Elisa Fromont 1
2 Apprentissage par optimisation Apprentissage par exploration Induction de règles par couverture séquentielle PLI Inférence grammaticale Apprentissage par optimisation SVM (surfaces séparatrices linéaires) Apprentissage de réseaux connexionnistes Arbres de décision Réseaux bayésiens Modèles de Markov cachés (HMM) A la limite : Apprentissage par évolution simulée Approches symboliques Les résultats de l apprentissage sont interprétables Approches numériques traiter directement des données sous forme de nombres - Avantage : méthodes souvent beaucoup plus efficaces - Inconvénient : résultats (modèles prédictifs ou descriptifs) beaucoup plus difficiles à interpréter (pas toujours une traduction symbolique possible) 2
3 Apprentissage de réseaux connexionnistes (= réseaux de neurones artificiels) 1943 : présentation par W. MC Culloch (chercheur en neurologie américain) et W. Pitts du neurone formel, abstraction du neurone physiologique : F. Rosenblatt développe le modèle du perceptron = réseau de neurones possédant deux couches de neurones : une première couche relative à la perception et une seconde liée à la prise de décision L objectif initial (cognitivisme) : analyse des différentes étapes du processus en jeu dans la production d une pensée rationnelle afin de tenter d en reproduire les aspects les plus complexes. 3
4 Composant d un réseau : neurone Réseaux : modélisés selon les systèmes neuronaux biologiques Système complexe construit à partir d unités simples 1 unité = neurone formel - Plusieurs entrées et sorties permettent de le connecter à d autres neurones - Quand le signal d entrée est suffisamment fort (= activation), le neurone se déclenche (i.e., il propage le signal) - Valeurs manipulées réelles ou binaires (0/1 ou -1/1) - Le calcul des «sorties» en fonction des «entrées» peut-être déterministe ou probabiliste 4
5 Réseaux connexionnistes Constitués de : neurones connections entre neurones (peuvent être pondérées) entrées / sorties Les réseaux peuvent apprendre à associer les entrées et sorties des neurones en adaptant les poids Ex (classification) : - Entrées : pixels d une photo - Sorties = classification d une photo (personne? arbre? ) Types de réseaux : feed forward : neurones connectés dans un sens (orientés de l'entrée vers la sortie) récurrents : sortie d un neurone utilisée comme entrée d'un neurone d une «couche» précédente 5
6 Le perceptron (à seuil) [1958] Type le plus simple de réseaux de neurones Simule 1 neurone Entrée : vecteur X de R d = (x 1,, x d ) + un vecteur de poids w = (w 1,, w d ) associé à chaque information Sortie O = égale à 1 si la somme des (entrée poids) est strictement supérieure à une valeur seuil θ (aussi appelé biais), 0 sinon Pour homogénéiser les notations, on peut voir le seuil θ comme une entrée normale de coefficient x 0 (souvent pris égal à 1) de poids w 0 (qui donne la valeur du seuil w 0 = -θ). Schématiquement : x 1 x 2 x 3 x 4 x 5 w 1 w 5 θ O = 1 si σ > θ O = 0 (ou -1) sinon calcule σ = w i x i 6
7 Perceptron à deux entrées Entrée représentée dans un espace 2-D Le perceptron apprend une fonction de la forme : Si w1x1 + w2x2 -w0x0 (ax+by >c) alors +, sinon - i.e., crée une séparation linéaire entre les classes + et
8 Perceptrons à n entrées En général, les perceptrons construisent un hyperplan dans un espace à n dimensions Un coté de l hyperplan = +, autre coté = - Classes doivent être linéairement séparables pour pouvoir être apprises par un perceptron Ex : apprentissage de fonctions booléennes encoder vrai/faux comme 1, 0 Y a t-il un perceptron permettant d encoder : 1. A B? 2. A B? 3. A xor B? 0,1 1,1 0,0 1,0 8
9 Fonctions de transfert (ou fonctions d activation) (a) : seuil (fonction de Heavyside) (b) : linéaire par morceaux (c) : sigmoïde g(x) = (1 + e βx ) - 1 (d) : gaussienne 9
10 Fonction de sortie : sigmoïde Change de manière continue (au lieu d une seule fois pour la fonction seuil) Offre des avantages pour entrainer des réseaux multicouche x 1 x 2 x 3 x 4 x 5 w 1 w 5 f ( x) 1 = 1 + e x f(x) X 10
11 Fonctions de sortie non linéaires La fonction sigmoïde (non linéaire) permet d obtenir des séparations non linéaires e.g., 5 aires pour 5 classes a,b,c,d,e Représentation très puissante Comparée aux surfaces de décisions créées par les arbres de décision, IBL,... e c b d a 11
12 Apprentissage de réseaux connexionistes Protocole : Données présentées séquentiellement (apprentissage incrémental) Suite des données utilisées (> nb d exemples) : - Tirage aléatoire avec remise dans l ensemble des exemples disponibles - Plusieurs passages successifs sur la totalité de cet ensemble Codage des exemples : Entrée : vecteur x de R d = (x 1,, x d ) Sortie désirée : vecteur u T = (u 1,,u C ) ( C = nombre de classes du problème) Exemple z = (x,u) : si l exemple est de la classe 1, u 1 = 1 et u T = (1, 0, 0,, 0) Algorithme : pour chaque neurone, comparer le résultat qui était attendu pour les exemples avec le résultat obtenu puis minimiser l'erreur quadratique commise en modifiant les poids 12
13 Apprentissage à partir du perceptron : Algorithme de Widrow-Hoff = apprentissage par correction d erreur si α = 1 (appelé descente de gradient si α 1) Idée : on modifie les poids de i = α*(u - y)*xi après chaque exemple Inconvénient : mieux (plus efficace) mais attention au sur-apprentissage si répété trop de fois Entrée : n poids (w 1, w n ) reliant les n entrées à notre neurone ayant des valeurs quelconques prises aléatoirement m exemples (x,u) où x est un vecteur à n composantes x i et u son vecteur de classe Le taux d'apprentissage alpha α (0 α 1 : arbitraire) Sortie : les n poids modifiés POUR TOUT exemple = (x,u) Calculer la sortie y du neurone POUR 1 <= i <= n wi = wi + α*(u- y)*xi FIN POUR FIN POUR 13
14 Ex : apprentissage du OU les descriptions appartiennent à {0,1} 2, les entrées du perceptron appartiennent à {0,1} 3, la première composante correspond à l'entrée x 0 et vaut toujours 1, les deux composantes suivantes correspondent aux variables x 1 et x 2. On suppose qu'à l'initialisation, les poids suivants ont été choisis : w 0 =0 ; w 1 = 1 et w 2 = -1. On suppose que les exemples sont présentés dans l'ordre lexicographique. α = 1. Etiquette de sortie l exemple étape w 0 w 1 w 2 Entrée Σ 0 2w i x i o c w 0 w 1 w 2 init x1 1+0x0-1+0x x1 1+1x 0-1+1x (-1)x1 1+(-1)x0 0+(-1)x x1 1+1x0 0+1x (-1)x1 1+(-1)x0 1 +(-1)x Plus aucune modification des poids à partir de là.
15 Théorème Si l échantillon d entrée S est linéairement séparable et si les exemples sont présentés équitablement (la procédure du choix des exemples n en exclut aucun), la procédure d apprentissage par correction d erreur converge vers un perceptron linéaire à seuil qui calcul S. (preuve admise ) Que se passe-t-il si l échantillon d entrée n est pas linéairement séparable?? pas de convergence. 15
16 Réseau multicouche Approxime n importe qu elle fonction f : R d R C Augmente la puissance de représentation en combinant des neurones en un réseau Couche de sortie sortie Couche cachée Entrées -1-1 X Y neurone 1 neurone 2 16
17 Architecture multicouche feedforward Chaque couche a pour entrées les sorties de la couche précédente (couche inférieure) Les unités d une couche sont reliées à toutes celles de la couche supérieure Couches successives = différentes représentations des entrées Souvenez vous de l importance des représentations... Les réseaux à deux couches sont très populaires (ex : le réseau du T précédent possède 2 couches de neurones) 17
18 1 couche vs multicouche 18
19 Transmission de l information dans un réseaux multicouche Règle de propagation : σj = w(0,j) + i source(j) w(i,j) yi Source(j) Dest(j) 1 1 i w(i,j) j w(j,k) k n m Pour la couche d entrée σi = xi w(0,j) 0 19
20 Apprentissage par réseaux connexionnistes algorithme de retropropagation du gradient Minimise l erreur par descente de gradient (cf : perceptron) Principe : l erreur à une sortie d une couche est attribuée 1. aux poids des connections avec cette couche Adapter ces poids 2. aux entrées de cette couche (sauf pour la première) - Rétro-propager l erreur aux entrées - Utiliser le même principe pour adapter les poids de la couche précédente Processus itératif, peut être lent Source(j) 1 w(i,j) i n 0 j w(0,j) Dest(j) 1 w(j,k) k m 20
21 Algorithme : utilisation de la règle du généralisée (pas prouvée ici) Règle dictant le changement de poids entre le neurone i et le neurone j w(i,j) = α*δj*yi = proportionnelle à une mesure d erreur δj caractéristique du neurone j et à la valeur d entrée yi Pour les connexions aboutissant aux neurones de sortie : δj = (uj yj) yj (1-yj) Calcul de l erreur aux unités cachés récursivement par descente de gradient : δj = yj (1-yj) k dest(j) δk w(j,k) 21
22 Algorithme du perceptron multicouche TANT QUE l apprentissage n a pas convergé FAIRE tirer au hasard un exemple d apprentissage POUR chaque couche en partant de la dernière couche FAIRE POUR chaque neurone de cette couche FAIRE calculer δj POUR chaque connexion w(i,j) menant au neurone j FAIRE calculer w(i,j) = α*δj*yi fin POUR fin POUR fin POUR POUR chaque connexion w(i,j) faire w(i,j) w(i,j) + w(i,j) fin POUR fin TANT QUE 22
23 Intérêt des réseaux connexionistes Utiles pour modéliser des fonctions complexes, non linéaires dont les entrées/sorties sont numériques Les entrées/sorties symboliques sont représentables en utilisant un encodage spécial cf. true/false = 1/-1 Les réseaux à 2 ou 3 couches peuvent approximer un très grand nombre de fonctions (si il y a suffisamment de neurones dans les couches cachées) Robuste au bruit Mais : risque de sur-apprentissage! - Si l apprentissage est trop long - Evité grâce à l utilisation d un ensemble de validation Exemples d utilisation: typique: reconnaissance d image, reconnaissance de la parole, - ex: images: une entrée par pixel (voir ) Moins typique : problèmes symboliques - cas où les arbres de décisions fonctionneraient aussi - les performances des réseaux et des arbres sont comparables 23
24 Limitations Comment choisir l architecture d un réseau?? Nombre de neurones cachés? Nombre de couches cachées? Interconnections? Construction ad hoc, essai/erreur, méthodes heuristiques (ne trouvent pas forcement l architecture idéale) Algorithmes constructifs (on part d un réseau minimal et on ajoute des neurones et des couches) ex : utilisation d algorithmes génétiques Comment choisir les paramètres? α? (par exemple utilisation d algorithmes génétiques) Pouvoir explicatif des réseaux très limité ( boîte noire ) Modèle = poids dans un réseau Pas d explication simple de la raison pour laquelle un réseau fait une certaine prédiction - Contraste avec par ex : arbres de décisions (peuvent fournir la règle qui a été utilisée) Les réseaux ne sont pas facilement convertibles en modèles symboliques (arbres, ensemble de règles) 24
25 Applications: Optical Character Recognition 25
26 Applications industrielles Reconnaissance de codes postaux (AT&T, la Poste) Contrôle de paramètres de processus de production industrielle de pâte à papier (Siemens) Prévision de consommation d eau (Générale des eaux) Logiciels d aide à la décision Prévisions météorologiques 26
27 Exercice (construction «à la main») 1. Construire un perceptron à seuil à deux entrées qui implémente la fonction booléenne A B 2. Construire un réseau à 2 couches qui implémente A XOR B 27
28 Exercice 3. Pour un vecteur d entrée X T =(x1, x2) = (1,1), α= 1, u = 0, fonction sigmoïde Calculer la valeur des sorties à chaque neurone Calculer la valeur des nouveaux poids/sorties après une étape de rétropropagation x2 x1 X0=1 w(1,4) w(1,3) w(2,4) w(2,3) w(0,4) w(0,3) X0=1 4 3 w(4,5) w(3,5) w(0,5) 5 w(0,3) = 0,2 w(0,4) = -0,3 w(0,5) = 0,4 w(1,3) = 0,1 w(1,4) = -0,2 w(3,5) = 0,5 w(2,3) = 0,3 w(2,4) = 0,4 w(4,5) = -0,4 28
Coup de Projecteur sur les Réseaux de Neurones
Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche
Plus en détail4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Plus en détailL utilisation d un réseau de neurones pour optimiser la gestion d un firewall
L utilisation d un réseau de neurones pour optimiser la gestion d un firewall Réza Assadi et Karim Khattar École Polytechnique de Montréal Le 1 mai 2002 Résumé Les réseaux de neurones sont utilisés dans
Plus en détailOptimisation de la compression fractale D images basée sur les réseaux de neurones
Optimisation de la compression fractale D images basée sur les réseaux de neurones D r BOUKELIF Aoued Communication Networks,Architectures and Mutimedia laboratory University of S.B.A aoued@hotmail.com
Plus en détailIntroduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.
Introduction L'objectif de mon TIPE est la reconnaissance de sons ou de notes de musique à l'aide d'un réseau de neurones. Ce réseau doit être capable d'apprendre à distinguer les exemples présentés puis
Plus en détailL apprentissage automatique
L apprentissage automatique L apprentissage automatique L'apprentissage automatique fait référence au développement, à l analyse et à l implémentation de méthodes qui permettent à une machine d évoluer
Plus en détailChapitre 6 Apprentissage des réseaux de neurones et régularisation
Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la
Plus en détailMachines virtuelles Cours 1 : Introduction
Machines virtuelles Cours 1 : Introduction Pierre Letouzey 1 pierre.letouzey@inria.fr PPS - Université Denis Diderot Paris 7 janvier 2012 1. Merci à Y. Régis-Gianas pour les transparents Qu est-ce qu une
Plus en détailThéorie et codage de l information
Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailChristophe CANDILLIER Cours de DataMining mars 2004 Page 1
Christophe CANDILLIER Cours de DataMining mars 2004 age 1 1. Introduction 2. rocessus du DataMining 3. Analyse des données en DataMining 4. Analyse en Ligne OLA 5. Logiciels 6. Bibliographie Christophe
Plus en détailContinuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Plus en détailCHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle
CHAPITRE I Modélisation de processus et estimation des paramètres d un modèle I. INTRODUCTION. Dans la première partie de ce chapitre, nous rappelons les notions de processus et de modèle, ainsi que divers
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailAlgèbre binaire et Circuits logiques (2007-2008)
Université Mohammed V Faculté des Sciences Département de Mathématiques et Informatique Filière : SMI Algèbre binaire et Circuits logiques (27-28) Prof. Abdelhakim El Imrani Plan. Algèbre de Boole 2. Circuits
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailDruais Cédric École Polytechnique de Montréal. Résumé
Étude de load balancing par un réseau de neurones de types HME (Hierarchical Mixture of s). Druais Cédric École Polytechnique de Montréal Résumé Cet article tente d introduire le principe de load balancing
Plus en détailDétection de la défaillance des entreprises tunisiennes par la régression logistique semi paramétrique et les réseaux de neurones
Détection de la défaillance des entreprises tunisiennes par la régression logistique semi paramétrique et les réseaux de neurones Abdeljelil Farhat Unité de recherche EAS-Mahdia Faculté des sciences économiques
Plus en détailChp. 4. Minimisation d une fonction d une variable
Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie
Plus en détailProjet de Traitement du Signal Segmentation d images SAR
Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,
Plus en détailCours d introduction à l informatique. Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions
Cours d introduction à l informatique Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions Qu est-ce qu un Une recette de cuisine algorithme? Protocole expérimental
Plus en détailchargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d
Laboratoire de Mécanique et Ingénieriesnieries EA 3867 - FR TIMS / CNRS 2856 ER MPS Modélisation stochastique d un d chargement d amplitude variable à partir de mesures Application à l approche fiabiliste
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE
ALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE P. Baudet, C. Azzaro-Pantel, S. Domenech et L. Pibouleau Laboratoire de Génie Chimique - URA 192 du
Plus en détailAnalyse de grandes bases de données en santé
.. Analyse de grandes bases de données en santé Alain Duhamel Michaël Genin Mohamed Lemdani EA 2694 / CERIM Master 2 Recherche Biologie et Santé Journée Thématique Fouille de Données Plan. 1 Problématique.
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailUne comparaison de méthodes de discrimination des masses de véhicules automobiles
p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans
Plus en détailChapitre 3. Mesures stationnaires. et théorèmes de convergence
Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailMaster IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP
Master IMA - UMPC Paris 6 RDMM - Année 2009-200 Fiche de TP Préliminaires. Récupérez l archive du logiciel de TP à partir du lien suivant : http://www.ensta.fr/~manzaner/cours/ima/tp2009.tar 2. Développez
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailPourquoi l apprentissage?
Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage
Plus en détailApprentissage Automatique
Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Plus en détailModélisation du comportement habituel de la personne en smarthome
Modélisation du comportement habituel de la personne en smarthome Arnaud Paris, Selma Arbaoui, Nathalie Cislo, Adnen El-Amraoui, Nacim Ramdani Université d Orléans, INSA-CVL, Laboratoire PRISME 26 mai
Plus en détailRemerciements : Avant tout, louange à Dieu le tout puissant de m avoir aidé et permis d achever ce modeste travail.
العالي التعلیم وزارة والبحث العلمي BADJI MOKHTAR ANNABA UNIVERSITY UNIVERSITE BADJI MOKHTAR ANNABA جامعة باجي مختار عنابة Faculté: Sciences de l'ingénieur Année : 2010 Département: Electronique MEMOIRE
Plus en détailProgrammation Linéaire - Cours 1
Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.
Plus en détailIFT1215 Introduction aux systèmes informatiques
Introduction aux circuits logiques de base IFT25 Architecture en couches Niveau 5 Niveau 4 Niveau 3 Niveau 2 Niveau Niveau Couche des langages d application Traduction (compilateur) Couche du langage d
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailIntelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com
Intelligence Artificielle et Systèmes Multi-Agents Badr Benmammar bbm@badr-benmammar.com Plan La première partie : L intelligence artificielle (IA) Définition de l intelligence artificielle (IA) Domaines
Plus en détailObjectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
Plus en détailVision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007
Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................
Plus en détailANALYSE STATISTIQUE PRÉDICTIVE
Yoshua Bengio Chaire de Recherche du Canada sur les Algorithmes d Apprentissage Statistique, Université de Montréal Charles Dugas ApSTAT Technologies Inc. Et Aviva Canada SALON INTELLIGENCE D AFFAIRE 8
Plus en détailSudoClick Reconnaissance de grilles de sudoku pour téléphones portables
SudoClick Reconnaissance de grilles de sudoku pour téléphones portables Patrick Anagnostaras 1 24 mai 2008 Department of Informatics - Master Project Report Département d Informatique - Departement für
Plus en détailObjectifs du cours d aujourd hui. Informatique II : Cours d introduction à l informatique et à la programmation objet. Complexité d un problème (2)
Objectifs du cours d aujourd hui Informatique II : Cours d introduction à l informatique et à la programmation objet Complexité des problèmes Introduire la notion de complexité d un problème Présenter
Plus en détailLimitations of the Playstation 3 for High Performance Cluster Computing
Introduction Plan Limitations of the Playstation 3 for High Performance Cluster Computing July 2007 Introduction Plan Introduction Intérêts de la PS3 : rapide et puissante bon marché L utiliser pour faire
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailCours de Master Recherche
Cours de Master Recherche Spécialité CODE : Résolution de problèmes combinatoires Christine Solnon LIRIS, UMR 5205 CNRS / Université Lyon 1 2007 Rappel du plan du cours 16 heures de cours 1 - Introduction
Plus en détailAnalyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Plus en détailData Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.
des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le
Plus en détailConception de réseaux de télécommunications : optimisation et expérimentations
Conception de réseaux de télécommunications : optimisation et expérimentations Jean-François Lalande Directeurs de thèse: Jean-Claude Bermond - Michel Syska Université de Nice-Sophia Antipolis Mascotte,
Plus en détailintelligence artificielle et cognitique"
Dialogue on Education, 11h-11h10 Course overview on "Automatisation avancée, intelligence artificielle et cognitique" Prof. Dr. Jean-Daniel Dessimoz, MBA, HES-SO / HEIG-VD 11:00-11:10, 18 November 2014
Plus en détailProgramme scientifique Majeure INTELLIGENCE NUMERIQUE. Mentions Image et Réalité Virtuelle Intelligence Artificielle et Robotique
É C O L E D I N G É N I E U R D E S T E C H N O L O G I E S D E L I N F O R M A T I O N E T D E L A C O M M U N I C A T I O N Programme scientifique Majeure INTELLIGENCE NUMERIQUE Langage Java Mentions
Plus en détailHealth Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation
Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation Laurent Denis STATXPERT Journée technologique "Solutions de maintenance prévisionnelle adaptées à la production" FIGEAC,
Plus en détailOutils pour les réseaux de neurones et contenu du CD-Rom
Outils pour les réseaux de neurones et contenu du CD-Rom Depuis le développement théorique des réseaux de neurones à la fin des années 1980-1990, plusieurs outils ont été mis à la disposition des utilisateurs.
Plus en détailLes algorithmes de fouille de données
Février 2005 Les algorithmes de fouille de données DATAMINING Techniques appliquées à la vente, aux services client, interdictions. Cycle C Informatique Remerciements Je remercie les personnes, les universités
Plus en détailProcessus d Informatisation
Processus d Informatisation Cheminement de la naissance d un projet jusqu à son terme, deux grandes étapes : Recherche ou étude de faisabilité (en amont) L utilisateur a une idée (plus ou moins) floue
Plus en détailL exclusion mutuelle distribuée
L exclusion mutuelle distribuée L algorithme de L Amport L algorithme est basé sur 2 concepts : L estampillage des messages La distribution d une file d attente sur l ensemble des sites du système distribué
Plus en détailFigure 3.1- Lancement du Gambit
3.1. Introduction Le logiciel Gambit est un mailleur 2D/3D; pré-processeur qui permet de mailler des domaines de géométrie d un problème de CFD (Computational Fluid Dynamics).Il génère des fichiers*.msh
Plus en détailQuatrième partie IV. Test. Test 15 février 2008 1 / 71
Quatrième partie IV Test Test 15 février 2008 1 / 71 Outline Introduction 1 Introduction 2 Analyse statique 3 Test dynamique Test fonctionnel et structurel Test structurel Test fonctionnel 4 Conclusion
Plus en détailMaster d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien
Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien Denis Cousineau Sous la direction de Roberto di Cosmo Juin 2005 1 Table des matières 1 Présentation
Plus en détailIdentification de nouveaux membres dans des familles d'interleukines
Identification de nouveaux membres dans des familles d'interleukines Nicolas Beaume Jérôme Mickolajczak Gérard Ramstein Yannick Jacques 1ère partie : Définition de la problématique Les familles de gènes
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailIntroduction au datamining
Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des
Plus en détailMaster IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008
Master IAD Module PS Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique Gaël RICHARD Février 2008 1 Reconnaissance de la parole Introduction Approches pour la reconnaissance
Plus en détailArchitecture des ordinateurs TD1 - Portes logiques et premiers circuits
Architecture des ordinateurs TD1 - Portes logiques et premiers circuits 1 Rappel : un peu de logique Exercice 1.1 Remplir la table de vérité suivante : a b a + b ab a + b ab a b 0 0 0 1 1 0 1 1 Exercice
Plus en détailAlgorithmes d'apprentissage
Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt
Plus en détailThéorie des Jeux Et ses Applications
Théorie des Jeux Et ses Applications De la Guerre Froide au Poker Clément Sire Laboratoire de Physique Théorique CNRS & Université Paul Sabatier www.lpt.ups-tlse.fr Quelques Définitions de la Théorie des
Plus en détailModèles à Événements Discrets. Réseaux de Petri Stochastiques
Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés
Plus en détailConversion d un entier. Méthode par soustraction
Conversion entre bases Pour passer d un nombre en base b à un nombre en base 10, on utilise l écriture polynomiale décrite précédemment. Pour passer d un nombre en base 10 à un nombre en base b, on peut
Plus en détailHubert & Bruno Lundi 12 octobre 2009 SAINT-QUENTIN (02)
Hubert & Bruno Lundi 12 octobre 2009 SAINT-QUENTIN (02) Ne rien livrer au hasard, c est économiser du travail Pont Sainte Maxence(O C est quoi USB? Comment ça marche? Les standards? La technique en détail
Plus en détailOptimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h
Télécom Physique Strasbourg Master IRIV Optimisation et programmation mathématique Professeur Michel de Mathelin Cours intégré : 20 h Programme du cours d optimisation Introduction Chapitre I: Rappels
Plus en détailCH.6 Propriétés des langages non contextuels
CH.6 Propriétés des langages non contetuels 6.1 Le lemme de pompage 6.2 Les propriétés de fermeture 6.3 Les problèmes de décidabilité 6.4 Les langages non contetuels déterministes utomates ch6 1 6.1 Le
Plus en détailObjets Combinatoires élementaires
Objets Combinatoires élementaires 0-0 Permutations Arrangements Permutations pour un multi-ensemble mots sous-ensemble à k éléments (Problème du choix) Compositions LE2I 04 1 Permutations Supposons que
Plus en détailApprentissage incrémental par sélection de données dans un flux pour une application de sécurité routière
Apprentissage incrémental par sélection de données dans un flux pour une application de sécurité routière Nicolas Saunier INRETS Télécom Paris Sophie Midenet INRETS Alain Grumbach Télécom Paris Conférence
Plus en détailLES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES
LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES Compétences mises en jeu durant l'activité : Compétences générales : S'impliquer, être autonome. Compétence(s) spécifique(s) : Reconnaître des signaux de nature
Plus en détailCOURS SYRRES RÉSEAUX SOCIAUX INTRODUCTION. Jean-Loup Guillaume
COURS SYRRES RÉSEAUX SOCIAUX INTRODUCTION Jean-Loup Guillaume Le cours Enseignant : Jean-Loup Guillaume équipe Complex Network Page du cours : http://jlguillaume.free.fr/www/teaching-syrres.php Évaluation
Plus en détailSommaire. Introduction.2. 1. Définition..2. 2. Historique.2. 3. Domaine d application.2. 4.Les Travaux réalisés sur les domaines d application.
Sommaire Introduction.2 1. Définition..2 2. Historique.2 3. Domaine d application.2 4.Les Travaux réalisés sur les domaines d application.3 5.Algorithme 4 6.Exemple d application 5 7. Avantage et inconvénient..6
Plus en détailAppel à manifestation d intérêt
Investissements d Avenir Développement de l Économie Numérique Appel à manifestation d intérêt Diffusion de la simulation numérique 2014 IMPORTANT ADRESSE DE PUBLICATION DE L APPEL A MANIFESTATION D INTERET
Plus en détailASR1 TD7 : Un microprocesseur RISC 16 bits
{Â Ö Ñ º ØÖ Ý,È ØÖ ºÄÓ Ù,Æ ÓÐ ºÎ ÝÖ Ø¹ ÖÚ ÐÐÓÒ} Ò ¹ÐÝÓÒº Ö ØØÔ»»Ô Ö Óº Ò ¹ÐÝÓÒº Ö» Ö Ñ º ØÖ Ý»¼ Ö½» ASR1 TD7 : Un microprocesseur RISC 16 bits 13, 20 et 27 novembre 2006 Présentation générale On choisit
Plus en détailRésumé des communications des Intervenants
Enseignements de la 1ere semaine (du 01 au 07 décembre 2014) I. Titre du cours : Introduction au calcul stochastique pour la finance Intervenante : Prof. M hamed EDDAHBI Dans le calcul différentiel dit
Plus en détailLes algorithmes de base du graphisme
Les algorithmes de base du graphisme Table des matières 1 Traçage 2 1.1 Segments de droites......................... 2 1.1.1 Algorithmes simples.................... 3 1.1.2 Algorithmes de Bresenham (1965).............
Plus en détailSujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
Plus en détailAPPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE
SûretéGlobale.Org La Guitonnière 49770 La Meignanne Téléphone : +33 241 777 886 Télécopie : +33 241 200 987 Portable : +33 6 83 01 01 80 Adresse de messagerie : c.courtois@sureteglobale.org APPORT DES
Plus en détailContributions à l expérimentation sur les systèmes distribués de grande taille
Contributions à l expérimentation sur les systèmes distribués de grande taille Lucas Nussbaum Soutenance de thèse 4 décembre 2008 Lucas Nussbaum Expérimentation sur les systèmes distribués 1 / 49 Contexte
Plus en détailLa programmation à mémoire adaptative ou l évolution des algorithmes évolutifs
La programmation à mémoire adaptative ou l évolution des algorithmes évolutifs Éric D. Taillard 1 Luca M. Gambardella 1 Michel Gendreau 2 Jean-Yves Potvin 2 1 IDSIA, Corso Elvezia 36, CH-6900 Lugano. E-mail
Plus en détailProgrammation par contraintes. Laurent Beaudou
Programmation par contraintes Laurent Beaudou On se trouve où? Un problème, une solution : la solution est-elle une solution du problème? simulation, vérification 2 On se trouve où? Un problème, une solution
Plus en détailOptimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)
Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases) Heuristique Constructive Itérativement, ajoute de nouvelles composantes à une solution partielle candidate Espace
Plus en détailAlgorithmique des Systèmes Répartis Protocoles de Communications
Algorithmique des Systèmes Répartis Protocoles de Communications Master Informatique Dominique Méry Université de Lorraine 1 er avril 2014 1 / 70 Plan Communications entre processus Observation et modélisation
Plus en détailChapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE
UE4 : Biostatistiques Chapitre 3 : Principe des tests statistiques d hypothèse José LABARERE Année universitaire 2010/2011 Université Joseph Fourier de Grenoble - Tous droits réservés. Plan I. Introduction
Plus en détailCompression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette
Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où
Plus en détailAnalyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57
Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation
Plus en détailRenforcement des trois compétences : compréhension orale, expression orale et expression écrite à partir de documents et vidéos.
Master Mathématiques et Applications Spécialité : Ingénierie mathématique et modélisation Parcours : Mathématique et Informatique : Statistique, Signal, Santé (MI3S) 2015-2016 RÉSUMÉ DES COURS : (dernière
Plus en détailPremière partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Plus en détailPlan. Data mining (partie 2) Data Mining : Utilisateur ou Statisticien? Data Mining : Cocktail de techniques. Master MIAGE - ENITE.
Plan Data mining (partie 2) Introduction 1. Les tâches du data mining 2. Le processus de data mining Master MIAGE - ENITE Spécialité ACSI 3. Les bases de l'analyse de données 4. Les modèles du data mining
Plus en détailThéorèmes de Point Fixe et Applications 1
Théorèmes de Point Fixe et Applications 1 Victor Ginsburgh Université Libre de Bruxelles et CORE, Louvain-la-Neuve Janvier 1999 Published in C. Jessua, C. Labrousse et D. Vitry, eds., Dictionnaire des
Plus en détailProjet Active Object
Projet Active Object TAO Livrable de conception et validation Romain GAIDIER Enseignant : M. Noël PLOUZEAU, ISTIC / IRISA Pierre-François LEFRANC Master 2 Informatique parcours MIAGE Méthodes Informatiques
Plus en détailCalculs de probabilités conditionelles
Calculs de probabilités conditionelles Mathématiques Générales B Université de Genève Sylvain Sardy 20 mars 2008 1. Indépendance 1 Exemple : On lance deux pièces. Soit A l évènement la première est Pile
Plus en détailArbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détail