Réseaux neuronaux Apprentissage non supervisé



Documents pareils
Optimisation de la compression fractale D images basée sur les réseaux de neurones

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

La classification automatique de données quantitatives

L apprentissage automatique

Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining.

Introduction au Data-Mining

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Introduction au datamining

Apprentissage Automatique

Géométrie discrète Chapitre V

Introduction au Data-Mining

Big Data et Graphes : Quelques pistes de recherche

Modélisation et Simulation

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

Limitations of the Playstation 3 for High Performance Cluster Computing

Traitement bas-niveau

BASE. Vous avez alors accès à un ensemble de fonctionnalités explicitées ci-dessous :

Chapitre 5 : Flot maximal dans un graphe

Projet L1, S2, 2015: Simulation de fourmis, Soutenance la semaine du 4 mai.

Masters Spécialisés «Actuariat et Prévoyance» et «Actuariat et Finance»

Les algorithmes de fouille de données

Analyse Sémantique de Nuages de Points 3D et d Images dans les Milieux Urbains

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar

Programmation linéaire

Modélisation multi-agents - Agents réactifs

Sillage Météo. Notion de sillage

Étude de données multisources par simulation de capteurs et clustering collaboratif

Mesure agnostique de la qualité des images.

Big Data et Graphes : Quelques pistes de recherche

Projet de Traitement du Signal Segmentation d images SAR

INF6304 Interfaces Intelligentes

LOGO. Module «Big Data» Extraction de Connaissances à partir de Données. Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS

Application de K-means à la définition du nombre de VM optimal dans un cloud

5. Apprentissage pour le filtrage collaboratif

Agrégation des portefeuilles de contrats d assurance vie

Groupe de Discussion Big Data Aperçu des technologies et applications. Stéphane MOUTON

TABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie

3. Artefacts permettant la mesure indirecte du débit

INTRODUCTION AUX SYSTEMES D EXPLOITATION. TD2 Exclusion mutuelle / Sémaphores

Image d un intervalle par une fonction continue

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

SPOT4 (Take 5) : Sentinel-2 avec deux ans d avance

Les algorithmes de base du graphisme

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.


Historique. Architecture. Contribution. Conclusion. Définitions et buts La veille stratégique Le multidimensionnel Les classifications

VISUALISATION DES DISTANCES ENTRE LES CLASSES DE LA CARTE DE KOHONEN POUR LE DEVELOPPEMENT D'UN OUTIL D'ANALYSE ET DE REPRESENTATION DES DONNEES

Rappels sur les suites - Algorithme

données en connaissance et en actions?

Rétablissement d un réseau cellulaire après un désastre

Algorithmique I. Algorithmique I p.1/??

Rapport de Stage. Titre : Clustering à l aide d une représentation supervisée

Une nouvelle approche de détection de communautés dans les réseaux sociaux

Sommaire. Couverture de zone de surveillance dans les réseaux de capteurs. De quoi parle-t-on ici (1/2)? Objectif. De quoi parle-t-on ici (2/2)?

COACH-II Manuel d utilisation

ETAP Safety Manager Systèmes centraux de contrôle et de gestion

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

BASE DE REFERENCES.

Classification Automatique de messages : une approche hybride

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

Enjeux mathématiques et Statistiques du Big Data

L exclusion mutuelle distribuée

Contrôle Non Destructif : Implantation d'algorithmes sur GPU et multi-coeurs. Gilles Rougeron CEA/LIST Département Imagerie Simulation et Contrôle

TRAVAUX DE RECHERCHE DANS LE

Plus courts chemins, programmation dynamique

Initiation à LabView : Les exemples d applications :

MCMC et approximations en champ moyen pour les modèles de Markov

AMTEC RESOURCES MANAGEMENT LTD. CREATION D UNE BANQUE DE DONNEES DONNEES GEOSPATIALES NATIONALE

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall

Agenda de la présentation

Tirer le meilleur parti de votre système solaire

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Quelques Algorithmes simples

TP 7 : oscillateur de torsion

Définitions. Numéro à préciser. (Durée : )

I. Polynômes de Tchebychev

Texte Agrégation limitée par diffusion interne

Master IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008

Masses de données. 1. Introduction 2. Problématiques 3. Socle de formation (non présenté) 4. Liens avec Formation INSA

ProxiLens : Exploration interactive de données multidimensionnelles à partir de leur projection

Coup de Projecteur sur les Réseaux de Neurones

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

EN BLANC AVANT IMPRESSION»»»

REALISATION d'un. ORDONNANCEUR à ECHEANCES

Optimisation Discrète

Spectrophotométrie. Spectrophotomètre CCD2. Réf : Version 1.0. Français p 2. Version : 4105

Techniques du Data Mining pour la prédiction de faillite des entreprises et la gestion du risque de crédit

Jean-Philippe Préaux

Data Mining. Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

FR Interphone vidéo couleur 7. réf

Microscopie de fluorescence Etat de l art

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Architecture des Systèmes d Information Architecture des Systèmes d Information

NON-LINEARITE ET RESEAUX NEURONAUX

Analyse d images. Edmond.Boyer@imag.fr. Edmond Boyer UFRIMA 1

Complexité et auto-organisation chez les insectes sociaux. Complexité et auto-organisation chez les insectes sociaux

CCP PSI Mathématiques 1 : un corrigé

1 Recherche en table par balayage

COURS SYRRES RÉSEAUX SOCIAUX INTRODUCTION. Jean-Loup Guillaume

Transcription:

Introduction Réseaux neuronaux Apprentissage non supervisé Jerzy Korczak, LSIIT, ULP email : jjk@dpt-info.u-strasbg.fr Objectif commun : génération d une taxonomie des données sans connaissances préalable Utilisation : Clustering : groupement, classification des données Quantisation de vecteurs : discrétisation de l espace Réduction de dimension : projection de caractéristiques Prétraitement des données Extraction de traits caractéristiques 1 2 Méthodes neuronales non supervisées Méthodes neuronales non supervisées Apprentissage compétitif Règle : «winner-take-all» Cartes auto-organisatrices de Kohonen réseau de connexions de dimensionnalité fixé (grille 2D) projection de l espace des données vers la grille 2D Gaz neuronal croissant croissance du réseau neurones ajoutés là où l erreur du réseau est localement élevée 3 4 Cartes auto-organisatrices de Kohonen Cartes de Kohonen : «chapeau mexicain» Inspiration : les neurones d une zone du cerveau se projettent dans une autre zone, en conservant les relations de voisinage. Principe d apprentissage : Si le neurone reçoit un potentiel d action par sa connexion et qu il s active, il y a renforcement de cette connexion ; sinon le poids de cette connexion est diminué. Chaque neurone de la carte de Kohonen est relié à tous les neurones de la carte. Mécanisme d interaction latérale : «chapeau mexicain» Les poids sont déterminés en fonction de la distance entre les neurones concernés selon une fonction «chapeau mexicain». Interaction _ + _ Dans une zone latérale proche du neurone, les neurones qui lui sont connectés ont une action excitatrice action inhibitrice Il vaut mieux choisir ce voisinage assez large au début de l apprentissage pour le rétrécir par la suite (k(t) : fonction décroissante linéaire). 5 6 1

Cartes auto-organisatrices de Kohonen : Algorithme Exemple : Kohonen.exe 1. Initialisation aléatoire des poids des connexions de N entrées vers les M sorties. 2. Initialisation de R (le rayon de voisinage). 3. Présenter au réseau une nouvelle entrée. 4. Calculer la distance entre le neurone j de sortie et le neurone i d entrée pour tout j : d j = Σ (x i (t) w ij (t)) 2 avec x i (t) l entrée du neurone, et w ij (t) le poids de la connexion 5. Sélection le neurone j* de sortie de distance minimale. 6. Mettre à jour les poids des connexions du neurone j* avec ses voisins situés dans un rayon R : w ij (t+1)=w ij (t)) +η(t)(x i (t) w ij (t)) lim t->oo η(t) =0 7. Si η(t)>0, alors diminuer le rayon R et retourner en 3. Sinon l apprentissage est terminé. 7 8 Cartes auto-organisatrices de Kohonen Carte de 10*10 neurones 9 10 GND : Cartes auto organisatrices Apprentissage compétitif doux Apprentissage sans dimensionnalité de réseau imposé (ang. Soft Competitive Learning) Quelques méthodes : Neural Gas Competitive Hebbian Learning Neural Gas plus Competitive Hebbian Learning Growing Neural Gas 11 12 2

Neural Gas [Martinetz, Schulten, 1991] NG ordonne les neurones du réseau en fonction de la distance de leur vecteur de référence avec l exemple présenté. Les neurones les plus proches de l exemple sont modifiés pour se rapprocher de l exemple. Le nombre de neurones modifiés ainsi que l importance de cette modification diminuent avec le temps. Les neurones ne sont pas interconnectés entre eux. Neural Gas : Algorithme 1. Initialisation des N neurones dont les vecteurs de référence sont choisis aléatoirement parmi les données; A ={c 1, c 2,, c N }, t=0 2. Choix d un exemple ξ aléatoirement 3. Ordonner les neurones en fonction de leur distance par rapport à ξ : (i 0, i 1,, i N-1 ), k i (ξ,a). 4. Modifier les vecteurs de référence de neurones selon : w i =ε(t)*h λ *k i (ξ,a)) * (ξ -w i ) avec h λ (k) =exp (-k/λ(t)) et λ(t) et ε(t) qui diminuent dans le temps 5. Incrémenter le compteur de temps t=t+1 6. Si t<t max reprendre à l étape 2. Exemples 13 14 Competitive Hebbian Learning [Martinetz 1993] Growing Neural Gas [Fritzke, 1994] Cette méthode est généralement utilisée avec d autres, par ex. Neural Gas plus Competitive Hebbian Learning Dans cette variante, le nombre de neurones est augmenté durant l apprentissage. Elle ne modifie pas les vecteurs de référence des neurones mais génère les connexions entre les neurones. Les neurones sont connectés. A chaque présentation d un exemple, une connexion entre les deux neurones les plus proches de celui-ci est éventuellement ajoutée. 15 16 Growing Neural Gas : Algorithme 1. Initialisation de 2 neurones dont les vecteurs de référence sont choisis aléatoirement parmi les données; A ={c 1, c 2 }, t=0. Initialisation de l ensemble des connexions C. 2. Choix d un exemple ξ aléatoirement. 3. Déterminer les deux neurones s 1 et s 2 les plus proches de ξ. 4. Rajouter une connexions entre s 1 et s 2. Mettre son âge à 0. C = C U {(s 1,s 2 )}.age (s1,s2) = 0 5. Augmenter l erreur cumulée du neurone : E s1 = II ξ w si II 2. 6. Modifier les vecteurs de référence de neurones du neurone vainqueur et de ses voisins topologiques directs : w si = ε b *(ξ -w si ), w i = ε n *(ξ -w n ) 7. Incrémenter l âge des connections de s i 8. Supprimer les connexions d âge supérieur à a max et supprimer les neurones qui n ont plus de connexions. 9. Si le nombre d exemples présentés est un multiple de l, ajouter un neurone entre celui dont l erreur cumulée est la plus grande et son voisin d erreur cumulée la plus importante. Diminuer l erreur cumulée. 10.Si le critère d arrêt n est pas satisfait, reprendre à l étape 2. 18 17 3

Gaz neuronal croissant : exemple Couverture de la distribution des données Gaz de 100 neurones max. Carte de Kohonen Gaz Neuronal Croissant 19 20 GND : Growing Neural Gas Images de télédétection Satellite SPOT résolution de 20m * 20m en mode MultiSpectral B1 : 0.50 à 0.59 ηm B2 : 0.61 à 0.68 ηm B3 : 0,79 à 0.89 ηm triplet de valeurs entre 0 et 255 dimensions : 3000x3000 pixels - résolution de 1,3m*1,3m 21 22 Applications : Découverte de concepts à partir d images [LSIIT-AFD] Réflectance en fonction de la longueur d onde 23 24 4

Agrégation Segmentation d images de télédétection Résolution de l image déterminée par les capteurs des satellites insuffisante pour certaines applications pixels mixtes Utilisation des informations spatiales des images nécessaire pour décrire certains objets permet d associer une sémantique à des groupes de pixels mixtes Données multi-sources 25 Résultats : Robertsau 1996 26 Fouille d images IRMf Rayon d agrégation 2, rayon d étude de voisinage 1, 20 classes Images 3D prisent dans le temps [http://alsace.u-strasbg.fr/ipb/ Exemple : Une série d IRMf permettant de voir les zones réagissant à un stimulant avec leur niveau d intensité par rapport à leurs emplacements au sein du cerveau. Classification étape 9 Segmentation étape 9 27 28 Adaptations de GNC aux données IRMf Réduction de l ensemble des donné données : Sélection de zones d intérêt Cure de Jouvence : Empêcher la destruction d'un neurone pertinant Inertie d'un neurone : Limiter les mouvements d'un neurone pertinant 29 30 5

Exemple de classe relevant d une activation de type bloc Classifications 31 32 Comparaison avec SPM Quelques références Equipe Apprentissage et Fouille de Données http://lsiit.u-strasbg.fr/afd All seven parts of the FAQ can be downloaded from either of the following URLS: ftp://ftp.sas.com/pub/neural/faq.html.zip ftp://ftp.sas.com/pub/neural/faq.txt.zip Usenet newsgroup comp.ai.neural-nets. Part 1: Introduction Part 2: Learning Part 3: Generalization Part 4: Books, data, etc. Part 5: Free software Part 6: Commercial software Part 7: Hardware and miscellaneous 33 34 6