Université de La Rochelle Les cartes de Kohonen MASTER IMAE Présentées par Jean-Marc Ogier
Présentation & historique des réseaux neuronaux Début en 1943 : par W. MCCulloch et W. Pitts du neurone formel qui est une abstraction du neurone physiologique En 1949, D. Hebb présente dans son ouvrage "The Organization of Behavior" une règle d'apprentissage. De nombreux modèles de réseaux aujourd'hui s'inpirent encore de la règle de Hebb. En 1958, F. Rosenblatt développe le modèle du Perceptron. C'est un réseau de neurones inspiré du système visuel. Il posséde deux couches de neurones : une couche de perception et une couche lié à la prise de décision. C'est le premier système artificiel capable d'apprendre par expérience. Dans la même période, L'Adaline (ADAptive LINar Element) a été présenté par B. Widrow, chercheur américain à Stanford. base des réseaux multi-couches.
Présentation & historique des réseaux neuronaux En 1969, M. Minsky et S. Papert publient une critique des propriétés du Perceptron. Cela va avoir une grande incidence sur la recherche dans ce domaine. Elle va fortement diminuer jusqu'en 1972, où T. Kohonen présente ses travaux sur les mémoires associatives. et propose des applications à la reconnaissance de formes. C'est en 1982 que J. Hopfield présente son étude d'un réseau complétement rebouclé, dont il analyse la dynamique. Aujourd'hui, les réseaux neuronaux sont utilisés dans de nombreux domaines (entre autres, vie artificielle et intelligence artificielle) à cause de leur propriété en particulier, leur capacité d'apprentissage, et qu'ils soient des systèmes dynamiques.
Quelques mots sur le neurone formel Le neurone v e c t e u r x 1 x 2... x n w 1 w n n " w! x i i i= 1 Fonction seuil 1-1
Modèle de Kohonen Il existe des zones du cerveau (dans le cortex visuel par exemple) qui présentent la même topologie que les capteurs sensoriels. C'est à dire deux zones proches dans le cortex visuel correspondent à deux zones proches dans la rétine, comme l'ont démontré Hubel et Wiesel en 1947.
Structure de la carte La carte de Kohonen est en général à deux dimensions. Chaque neurone de la couche d'entrées est rélié à chaque neurone de la carte de Kohonen (lien 1 vers tous). x 1 x 2... vecteur de paramètres... x n
Autre possibilité : structure hexagonale Autre possibilité : structure hexagonale
Carte de Kohonen Apprentissage Un vecteur en entrée Compétition entre les neurones : calcul de la distance entre le vecteur en entrée et tous les neurones Un neurone vainqueur Evolution des poids synaptiques du vainqueur et de son environnement proche
Carte de Kohonen Equations d apprentissage Règle de modification des poids : soit X le vecteur en entrée, X=[x1 x2... xn], les (xi) étant les valeurs caractéristiques de la forme à apprendre, c est le numéro du neurone vainqueur soit W le vecteur des coeffts synaptiques, W=[w1 w2... wn], on a alors wi( t + 1) = wi( t) + " ( t).[ xi( t)! wi( t)] ci Avec : [xi(t) - wi(t)] : distance euclidienne entre les vecteurs X et W à l instant t α ci (t) : coefficients d apprentissage, fonction linéaire décroissante, grand au début pour accélérer cette phase, et petit après pour affiner. Ce coefficient a une valeur qui décroît aussi pour les neurones voisins, de manière à les spécialiser un peu moins que le neurone vainqueur
Influence sur les voisins α ci (t) dépend de la distance au neurone vainqueur et du temps. Une forme possible pour α ci (t) est : α ci(t) = alpha(t) * exp(-(d(c,i)/(2 radius 2 (t))) Où alpha(t) est une fonction linéaire décroissante, Par exemple alpha(t) = A/(B + t) (A ; B constantes) Les neurones voisins voient donc leurs coefficients synaptiques augmenter proportionnellement à la distance par rapport au neurone vainqueur. Dans le réseau, se créent des zones de neurones sensibles à des formes «ressemblantes» => cartes topologiques. Neurone vainqueur 0 Distance p/r au neurone vainqueur
Réseau de neurones Apprentissage et auto-organisation de la carte topologique classe A classe B classe C
Réseau de neurones 1/ Présentation du projet 2/ Acquisition et prétraitements 3/ Extraction de paramètres 4/ Reconnaissance Reconnaissance Un vecteur en entrée Un neurone réagit Identification: label associé au vainqueur Affectation aux classes «par comptage»
Version supervisée : différentes versions du LVQ (Learning Vector Quantization) A/ LVQ 1 - L apprentissage se fait en fournissant des vecteurs étiquetés : la classe est donnée avec les valeurs caractéristiques. - La même règle de calcul des poids est appliquée, pour le neurone vainqueur et pour ses voisins, à ceci près que l on regarde aussi la classe du neurone vainqueur. Si celle-ci est différente de la classe du vecteur en entrée, on «éloigne» le neurone de cette classe (décrémentation des poids), pour qu il ne gagne pas la fois suivante, et qu il puisse ainsi rejoindre sa bonne classe.
Le LVQ 2 Parmi tous les neurones en compétition, on garde les 2 premiers. Pour avoir une vision plus claire du traitement que nous allons effectuer, représentons graphiquement les différentes situations qui se présentent pour les vecteurs des poids : - Si la classe du vecteur X (entrée) est celle des 2 neurones gagnants : soient (wi) et (wj) les coefficients synaptiques des neurones i et j, Wi (classe A) Wj (classe A) X (classe A) Wi (classe A) X (classe A) Wj (classe A) dans ce cas, aucun coefficient n est modifié, puisque le vecteur d entrée se trouve dans la zone des neurones appropriés.
Le LVQ 2 - Si la classe du vecteur X ne correspond qu à un seul des 2 neurones : si X se trouve dans la zone d indécision, nous allons modifier les coefficients des neurones en fonction de leur classe, pour que cette situation ne se reproduise pas. (rapprochement du bon neurone) Cette zone d indécision se définit avec une mesure de distance entre le vecteur X et celui des 2 neurones retenus. Elle se caractérise par une fenêtre de taille w, que l utilisateur peut paramétrer : Wi (classe A) X (classe B) Wj (classe B)
LVQ2 Soit di et dj les mesures des distances (X,Wi) et (X,Wj), Alors, X se trouvent dans la zone d indécision si : d min( d i j d, d j i ) > s avec s 1! = 1+ w w
Applications concernées Aide à la décision Classification supervisée / non supervisée Data mining Segmentation des images à base de classification à base d attributs,