Les cartes de Kohonen

Documents pareils
Optimisation de la compression fractale D images basée sur les réseaux de neurones

Remerciements : Avant tout, louange à Dieu le tout puissant de m avoir aidé et permis d achever ce modeste travail.

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

Introduction au Data-Mining

Coup de Projecteur sur les Réseaux de Neurones

Analyse de grandes bases de données en santé

Les algorithmes de fouille de données

Introduction au Data-Mining

Introduction au datamining

L apprentissage automatique

Masters Spécialisés «Actuariat et Prévoyance» et «Actuariat et Finance»

Druais Cédric École Polytechnique de Montréal. Résumé

Programme scientifique Majeure INTELLIGENCE NUMERIQUE. Mentions Image et Réalité Virtuelle Intelligence Artificielle et Robotique

Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining.

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall

TRAITEMENT DES DONNEES MANQUANTES AU MOYEN DE L ALGORITHME DE KOHONEN

Classification Automatique de messages : une approche hybride

Robert Guichet. Conférence DERBI Juin 2008

TECHNIQUES DE DISTRIBUTION

1 Complément sur la projection du nuage des individus

ProxiLens : Exploration interactive de données multidimensionnelles à partir de leur projection

ÉCOLE DE TECHNOLOGIE SUPÉRIEURE UNIVERSITÉ DU QUÉBEC MÉMOIRE PRÉSENTÉ À L'ÉCOLE DE TECHNOLOGIE SUPÉRIEURE

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring

GENIE STATISTIQUE GESTION DES RISQUES ET INGENIERIE FINANCIERE MARKETING QUANTITATIF ET REVENUE MANAGEMENT

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

VISUALISATION DES DISTANCES ENTRE LES CLASSES DE LA CARTE DE KOHONEN POUR LE DEVELOPPEMENT D'UN OUTIL D'ANALYSE ET DE REPRESENTATION DES DONNEES

Agenda de la présentation

La classification automatique de données quantitatives

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Rapport de projet tutoré

STRICTEMENT CONFIDENTIEL

SERVICE AU NOUVEL ARRIVANT S.N.A.

Quantification Scalaire et Prédictive

Chapitre 2 : Caractéristiques du mouvement d un solide

SOMMAIRE Equipement Instructions générales. 1.Vue générale. 1.1 Face avant. 1.2 Face arrière. 2 Mode D emploi Adressage DMX

MODE D EMPLOI DU LOGICIEL LIGNES DE TEMPS A partir du film La Mort aux trousses d Alfred Hitchcock

I. Polynômes de Tchebychev

1 Démarrer L écran Isis La boite à outils Mode principal Mode gadget Mode graphique...

Apprentissage Automatique

Charte de protection des mineurs

B.T.S. N.R.C. SESSION 2006 Management et gestion d'activités commerciales. Proposition de Corrigé "JAMPI" Dossier 1 L entreprise et son marché

exigences des standards ISO 9001: 2008 OHSAS 18001:2007 et sa mise en place dans une entreprise de la catégorie des petites et moyennes entreprises.

Outils pour les réseaux de neurones et contenu du CD-Rom

Ecrire pour le Web: ce que nous apprend la modélisation de la reconnaissance orthographique des mots

SudoClick Reconnaissance de grilles de sudoku pour téléphones portables

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

Apprentissage Statistique

Surmonter les 5 défis opérationnels du Big Data

MATHEMATIQUES GRANDEURS ET MESURES

Plan. Data mining (partie 2) Data Mining : Utilisateur ou Statisticien? Data Mining : Cocktail de techniques. Master MIAGE - ENITE.

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x =

Les dessous des moteurs de recommandation

Data Mining. Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Stéphane Tufféry DATA MINING & STATISTIQUE DÉCISIONNELLE. 27/01/2009 Stéphane Tufféry - Data Mining -

DATA MINING EN ASSURANCE : Quelques Utilisations

Partenaires: w w w. c o g m a s t e r. n e t

3 Approximation de solutions d équations

Logique binaire. Aujourd'hui, l'algèbre de Boole trouve de nombreuses applications en informatique et dans la conception des circuits électroniques.

APPLICATION DE RESEAUX DE NEURONES ARTIFICIELS A LA RECONNAISSANCE AUTOMATIQUE DE CARACTERES MANUSCRITS

LES APPRENTISSAGES DES ELEVES Qu est-ce qu apprendre?

données en connaissance et en actions?

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Dossier de Presse 2014

Quelques matériels numériques

LES CARTES À POINTS : POUR UNE MEILLEURE PERCEPTION

Ingénierie de la cognition

DIRECTION GENERALE DES ETRANGERS EN FRANCE DOSSIER DE PRESSE. Le projet de loi relatif au droit des étrangers

FORMATION THÉORIQUE. Trait d Union TM

Exercice 6 Associer chaque expression de gauche à sa forme réduite (à droite) :

4.2 Unités d enseignement du M1

Chapitre 2 Les ondes progressives périodiques

Guide utilisateur Performance

Filière Informatique de gestion. Facturation par APDRG : prédiction des recettes des cas non codés

Documalis. Denis SCHIRRA GSM : Plus d information sur notre site Internet

Support de TD ArcGIS Introduction à l automatisation et au développement avec ArcGIS 10.1 JEAN-MARC GILLIOT e année ingénieur

ACTIVITES PROFESSIONNELLES DE FORMATION : BACHELIER EN MARKETING

Projet # 3 Serrure à deux clés

intelligence artificielle et cognitique"

Recherche et Diffusion de l Information dans les Réseaux. Philippe Robert. Le 8 avril 2014

MABioVis. Bio-informatique et la

Jean Dubuffet AUTOPORTRAIT II

5. Apprentissage pour le filtrage collaboratif

Détection de la défaillance des entreprises tunisiennes par la régression logistique semi paramétrique et les réseaux de neurones

TRAVAUX DU GROUPE GUINEE/CONAKRY ET BISSAO

Grégoire de Lassence. Copyright 2006, SAS Institute Inc. All rights reserved.

L utilisation des réseaux de neurones artificiels en finance. Philippe PAQUET Professeur de Gestion

SUGARCRM MODULE RAPPORTS

UNIVERSITE HASSAN II DE CASABLANCA. FACULTE DES SCIENCES & TECHNIQUES MOHAMMEDIA Département Génie Electrique

Programmation Linéaire - Cours 1

NON-LINEARITE ET RESEAUX NEURONAUX

Manuel d utilisation de la plate-forme de gestion de parc UCOPIA. La mobilité à la hauteur des exigences professionnelles

Objectifs quantitatifs : Générer des flux prospectifs Développer les admissions parallèles

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

LES MUSEES & LES APPLICATIONS CULTURELLES SUR SMARTPHONES ETUDE DE MARCHE

ANIMER. J ai un site internet et maintenant?

Transcription:

Université de La Rochelle Les cartes de Kohonen MASTER IMAE Présentées par Jean-Marc Ogier

Présentation & historique des réseaux neuronaux Début en 1943 : par W. MCCulloch et W. Pitts du neurone formel qui est une abstraction du neurone physiologique En 1949, D. Hebb présente dans son ouvrage "The Organization of Behavior" une règle d'apprentissage. De nombreux modèles de réseaux aujourd'hui s'inpirent encore de la règle de Hebb. En 1958, F. Rosenblatt développe le modèle du Perceptron. C'est un réseau de neurones inspiré du système visuel. Il posséde deux couches de neurones : une couche de perception et une couche lié à la prise de décision. C'est le premier système artificiel capable d'apprendre par expérience. Dans la même période, L'Adaline (ADAptive LINar Element) a été présenté par B. Widrow, chercheur américain à Stanford. base des réseaux multi-couches.

Présentation & historique des réseaux neuronaux En 1969, M. Minsky et S. Papert publient une critique des propriétés du Perceptron. Cela va avoir une grande incidence sur la recherche dans ce domaine. Elle va fortement diminuer jusqu'en 1972, où T. Kohonen présente ses travaux sur les mémoires associatives. et propose des applications à la reconnaissance de formes. C'est en 1982 que J. Hopfield présente son étude d'un réseau complétement rebouclé, dont il analyse la dynamique. Aujourd'hui, les réseaux neuronaux sont utilisés dans de nombreux domaines (entre autres, vie artificielle et intelligence artificielle) à cause de leur propriété en particulier, leur capacité d'apprentissage, et qu'ils soient des systèmes dynamiques.

Quelques mots sur le neurone formel Le neurone v e c t e u r x 1 x 2... x n w 1 w n n " w! x i i i= 1 Fonction seuil 1-1

Modèle de Kohonen Il existe des zones du cerveau (dans le cortex visuel par exemple) qui présentent la même topologie que les capteurs sensoriels. C'est à dire deux zones proches dans le cortex visuel correspondent à deux zones proches dans la rétine, comme l'ont démontré Hubel et Wiesel en 1947.

Structure de la carte La carte de Kohonen est en général à deux dimensions. Chaque neurone de la couche d'entrées est rélié à chaque neurone de la carte de Kohonen (lien 1 vers tous). x 1 x 2... vecteur de paramètres... x n

Autre possibilité : structure hexagonale Autre possibilité : structure hexagonale

Carte de Kohonen Apprentissage Un vecteur en entrée Compétition entre les neurones : calcul de la distance entre le vecteur en entrée et tous les neurones Un neurone vainqueur Evolution des poids synaptiques du vainqueur et de son environnement proche

Carte de Kohonen Equations d apprentissage Règle de modification des poids : soit X le vecteur en entrée, X=[x1 x2... xn], les (xi) étant les valeurs caractéristiques de la forme à apprendre, c est le numéro du neurone vainqueur soit W le vecteur des coeffts synaptiques, W=[w1 w2... wn], on a alors wi( t + 1) = wi( t) + " ( t).[ xi( t)! wi( t)] ci Avec : [xi(t) - wi(t)] : distance euclidienne entre les vecteurs X et W à l instant t α ci (t) : coefficients d apprentissage, fonction linéaire décroissante, grand au début pour accélérer cette phase, et petit après pour affiner. Ce coefficient a une valeur qui décroît aussi pour les neurones voisins, de manière à les spécialiser un peu moins que le neurone vainqueur

Influence sur les voisins α ci (t) dépend de la distance au neurone vainqueur et du temps. Une forme possible pour α ci (t) est : α ci(t) = alpha(t) * exp(-(d(c,i)/(2 radius 2 (t))) Où alpha(t) est une fonction linéaire décroissante, Par exemple alpha(t) = A/(B + t) (A ; B constantes) Les neurones voisins voient donc leurs coefficients synaptiques augmenter proportionnellement à la distance par rapport au neurone vainqueur. Dans le réseau, se créent des zones de neurones sensibles à des formes «ressemblantes» => cartes topologiques. Neurone vainqueur 0 Distance p/r au neurone vainqueur

Réseau de neurones Apprentissage et auto-organisation de la carte topologique classe A classe B classe C

Réseau de neurones 1/ Présentation du projet 2/ Acquisition et prétraitements 3/ Extraction de paramètres 4/ Reconnaissance Reconnaissance Un vecteur en entrée Un neurone réagit Identification: label associé au vainqueur Affectation aux classes «par comptage»

Version supervisée : différentes versions du LVQ (Learning Vector Quantization) A/ LVQ 1 - L apprentissage se fait en fournissant des vecteurs étiquetés : la classe est donnée avec les valeurs caractéristiques. - La même règle de calcul des poids est appliquée, pour le neurone vainqueur et pour ses voisins, à ceci près que l on regarde aussi la classe du neurone vainqueur. Si celle-ci est différente de la classe du vecteur en entrée, on «éloigne» le neurone de cette classe (décrémentation des poids), pour qu il ne gagne pas la fois suivante, et qu il puisse ainsi rejoindre sa bonne classe.

Le LVQ 2 Parmi tous les neurones en compétition, on garde les 2 premiers. Pour avoir une vision plus claire du traitement que nous allons effectuer, représentons graphiquement les différentes situations qui se présentent pour les vecteurs des poids : - Si la classe du vecteur X (entrée) est celle des 2 neurones gagnants : soient (wi) et (wj) les coefficients synaptiques des neurones i et j, Wi (classe A) Wj (classe A) X (classe A) Wi (classe A) X (classe A) Wj (classe A) dans ce cas, aucun coefficient n est modifié, puisque le vecteur d entrée se trouve dans la zone des neurones appropriés.

Le LVQ 2 - Si la classe du vecteur X ne correspond qu à un seul des 2 neurones : si X se trouve dans la zone d indécision, nous allons modifier les coefficients des neurones en fonction de leur classe, pour que cette situation ne se reproduise pas. (rapprochement du bon neurone) Cette zone d indécision se définit avec une mesure de distance entre le vecteur X et celui des 2 neurones retenus. Elle se caractérise par une fenêtre de taille w, que l utilisateur peut paramétrer : Wi (classe A) X (classe B) Wj (classe B)

LVQ2 Soit di et dj les mesures des distances (X,Wi) et (X,Wj), Alors, X se trouvent dans la zone d indécision si : d min( d i j d, d j i ) > s avec s 1! = 1+ w w

Applications concernées Aide à la décision Classification supervisée / non supervisée Data mining Segmentation des images à base de classification à base d attributs,