Exercice 1 : Classification, d un point de vue général (4 points)

Documents pareils
Remboursement d un emprunt par annuités constantes

Les jeunes économistes

Mesure avec une règle

Montage émetteur commun

STATISTIQUE AVEC EXCEL

Contrats prévoyance des TNS : Clarifier les règles pour sécuriser les prestations

Plan. Gestion des stocks. Les opérations de gestions des stocks. Les opérations de gestions des stocks

Calculer le coût amorti d une obligation sur chaque exercice et présenter les écritures dans les comptes individuels de la société Plumeria.

Exercices d Électrocinétique

Généralités sur les fonctions 1ES

MÉTHODES DE SONDAGES UTILISÉES DANS LES PROGRAMMES D ÉVALUATIONS DES ÉLÈVES

Editions ENI. Project Collection Référence Bureautique. Extrait

Integral T 3 Compact. raccordé aux installations Integral 5. Notice d utilisation

Fiche n 7 : Vérification du débit et de la vitesse par la méthode de traçage

Q x2 = 1 2. est dans l ensemble plus grand des rationnels Q. Continuons ainsi, l équation x 2 = 1 2

Calcul de tableaux d amortissement

Terminal numérique TM 13 raccordé aux installations Integral 33

1 Introduction. 2 Définitions des sources de tension et de courant : Cours. Date : A2 Analyser le système Conversion statique de l énergie. 2 h.

Chapitre IV : Inductance propre, inductance mutuelle. Energie électromagnétique

ÉLÉMENTS DE THÉORIE DE L INFORMATION POUR LES COMMUNICATIONS.

TD 1. Statistiques à une variable.

BTS GPN 2EME ANNEE-MATHEMATIQUES-MATHS FINANCIERES MATHEMATIQUES FINANCIERES

IDEI Report # 18. Transport. December Elasticités de la demande de transport ferroviaire: définitions et mesures

Réseau RRFR pour la surveillance dynamique : application en e-maintenance.

Chapitre 3 : Incertitudes CHAPITRE 3 INCERTITUDES. Lignes directrices 2006 du GIEC pour les inventaires nationaux de gaz à effet de serre 3.

EH SmartView. Identifiez vos risques et vos opportunités. Pilotez votre assurance-crédit. Services en ligne Euler Hermes

hal , version 1-14 Aug 2009

DES EFFETS PERVERS DU MORCELLEMENT DES STOCKS

1.0 Probabilité vs statistique Expérience aléatoire et espace échantillonnal Événement...2

Stéganographie Adaptative par Oracle (ASO)

GENESIS - Generalized System for Imputation Simulations (Système généralisé pour simuler l imputation)

Pour plus d'informations, veuillez nous contacter au ou à

Assurance maladie et aléa de moralité ex-ante : L incidence de l hétérogénéité de la perte sanitaire

Dirigeant de SAS : Laisser le choix du statut social

Be inspired. Numéro Vert. Via Caracciolo Milano tel fax

LE RÉGIME DE RETRAITE DU PERSONNEL CANADIEN DE LA CANADA-VIE (le «régime») INFORMATION IMPORTANTE CONCERNANT LE RECOURS COLLECTIF

Pro2030 GUIDE D UTILISATION. Français

Projet de fin d études

Économétrie. Annexes : exercices et corrigés. 5 e édition. William Greene New York University

Les déterminants de la détention et de l usage de la carte de débit : une analyse empirique sur données individuelles françaises

COMPARAISON DE MÉTHODES POUR LA CORRECTION

Le Prêt Efficience Fioul

Les déterminants de la détention et de l usage de la carte de débit : une analyse empirique sur données individuelles françaises

Des solutions globales fi ables et innovantes.

En vue de l'obtention du. Présentée et soutenue par Meva DODO Le 06 novembre 2008

RAPPORT DE STAGE. Approcher la frontière d'une sous-partie de l'espace ainsi que la distance à cette frontière. Sujet : Master II : SIAD

Les prix quotidiens de clôture des échanges de quotas EUA et de crédits CER sont fournis par ICE Futures Europe

Professionnel de santé équipé de Médiclick!

UNIVERSITÉ DU QUÉBEC À MONTRÉAL L ASSURANCE AUTOMOBILE AU QUÉBEC : UNE PRIME SELON LE COÛT SOCIAL MARGINAL MÉMOIRE PRÉSENTÉ COMME EXIGENCE PARTIELLE

P R I S E E N M A I N R A P I D E O L I V E 4 H D

Avez-vous vous aperçu cette drôle de trogne? Entre nature et histoire autour de Mondoubleau

CREATION DE VALEUR EN ASSURANCE NON VIE : COMMENT FRANCHIR UNE NOUVELLE ETAPE?

PREMIERS PAS en REGRESSION LINEAIRE avec SAS. Josiane Confais (UPMC-ISUP) - Monique Le Guen (CNRS-CES-MATISSE- UMR8174)

CHAPITRE 14 : RAISONNEMENT DES SYSTÈMES DE COMMANDE

Corrigé du problème de Mathématiques générales Partie I

BUREAU D'APPLICATION DES METHODES STATISTIQUES ET INFORMATIQUES

VIELLE Marc. CEA-IDEI Janvier La nomenclature retenue 3. 2 Vue d ensemble du modèle 4

Système solaire combiné Estimation des besoins énergétiques

Page 5 TABLE DES MATIÈRES

I. Présentation générale des méthodes d estimation des projets de type «unité industrielle»

Grandeur physique, chiffres significatifs

II - Notions de probabilité. 19/10/2007 PHYS-F-301 G. Wilquet 1

GEA I Mathématiques nancières Poly. de révision. Lionel Darondeau

INTRODUCTION. Jean-Pierre MAGNAN Chef de la section des ouvrages en terre Département des sols et fondations Laboratoire central

Dynamique du point matériel

Interface OneNote 2013

Pourquoi LICIEL? Avec LICIEL passez à la vitesse supérieure EPROUVE TECHNICITE CONNECTE STABILITE SUIVIE COMMUNAUTE

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE. MEMOIRE Présentée à

Corrections adiabatiques et nonadiabatiques dans les systèmes diatomiques par calculs ab-initio

CHAPITRE DEUX : FORMALISME GEOMETRIQUE

Impôt sur la fortune et investissement dans les PME Professeur Didier MAILLARD

Mécanique des Milieux Continus

Thermodynamique statistique Master Chimie Université d Aix-Marseille. Bogdan Kuchta

INTERNET. Initiation à

santé Les arrêts de travail des séniors en emploi

Analyse des Performances et Modélisation d un Serveur Web

Paquets. Paquets nationaux 1. Paquets internationaux 11

L enseignement virtuel dans une économie émergente : perception des étudiants et perspectives d avenir

La théorie classique de l information. 1 ère partie : le point de vue de Kolmogorov.

LICENCE DE SCIENCES PHYSIQUES UV 3LSPH50. Année MODÉLISATION. Recherche des paramètres d'une représentation analytique J.P.

THESE. Khalid LEKOUCH

Manuel d'installation du système

Parlons. retraite. au service du «bien vieillir» L Assurance retraite. en chiffres* retraités payés pour un montant de 4,2 milliards d euros

Prise en compte des politiques de transport dans le choix des fournisseurs

LeanConcept. La solution déploiement du Lean Manufacturing. Stockage Logistique Ergonomie Environnement Aménagement Services

1. Les enjeux de la prévision du risque de défaut de paiement

Calculs des convertisseurs en l'electronique de Puissance

Mots-clés : Système multicapteurs, Réseau local, Réseaux de neurones, Supervision, Domotique. xigences système d'une nouvelle

En vue de l'obtention du. Présentée et soutenue par Elayeb Bilel Le 26 juin 2009

ACTE DE PRÊT HYPOTHÉCAIRE

TRAVAUX PRATIQUES SPECTRO- COLORIMETRIE

Ecole Polytechnique de Montréal C.P. 6079, succ. Centre-ville Montréal (QC), Canada H3C3A7

Prêt de groupe et sanction sociale Group lending and social fine

The new Art of Smart. Loewe Art. La nouvelle intelligence télévisuelle.

Contact SCD Nancy 1 : theses.sciences@scd.uhp-nancy.fr

METHODE AUTOMATIQUE POUR CORRIGER LA VARIATION LINGUISTIQUE LORS DE L INTERROGATION DE DOCUMENTS XML DE STRUCTURES HETEROGENES

UNE ETUDE ECONOMÉTRIQUE DU NOMBRE D ACCIDENTS

LA SURVIE DES ENTREPRISES DÉPEND-ELLE DU TERRITOIRE D'IMPLANTATION?

CONSERVATOIRE NATIONAL DES ARTS ET METIERS

Transcription:

Corrgé du Devor survellé de Reconnassance de Formes I3 Informatque Mard 8 anver 003 - durée : heures Tous documents autorsés Noté sur 30 ponts (/0 Exercce : Classfcaton, d un pont de vue général ( ponts On dspose d un certan nombre de vecteurs d exemples pour classes. On souhate réalser une classfcaton en classes, à l ade d un classfeur quelconque. Donnez les dfférentes étapes à suvre, sous forme d algorthme de haut nveau (mas avec suffsamment d nformatons pour permettre à une autre personne sans connassance du domane mas sachant programmer, de les programmer, pour réalser un apprentssage de ces données, ans qu un test de classfcaton avec calcul des taux de classfcaton correcte, en mode d apprentssage nstantané. ( ponts Même chose en mode d apprentssage dfféré (ne donner que les partes dfférentes par rapport à la queston précédente. ( pont 3 Précsez la foncton de classfcaton, touours sous forme algorthmque, dans le cas où le type de classfcaton utlsée est l apprentssage compéttf supervsé (avec pluseurs vecteurs représentatfs par classe. ( pont On peut par exemple écrre séparément les dfférentes partes de l algorthme. On suppose qu avant la constructon et l utlsaton du classfeur, deux étapes préalables ont été réalsées :! Consttuton d une base d apprentssage et d une base de test! Intalsaton des paramètres du classfeur (exemple : ntalsaton des pods d un réseau de neurones à des valeurs aléatores. On consdère le cas de l apprentssage supervsé, pour lequel exstent les modes d apprentssage nstantané et dfféré. On s ntéresse d abord au cas de l apprentssage nstantané. Apprentssage pour un cycle ( cycleprésentaton de tous les exemples d apprentssage Pour chaque exemple de la base d apprentssage Présentaton de cet exemple au classfeur Calcul de la sorte du classfeur Calcul de l erreur de sorte Modfcaton des paramètres du classfeur, en foncton de l erreur Fn Test de classfcaton Intalsaton d un compteur à 0, pour chaque classe Pour chaque exemple de la base de test Présentaton de cet exemple au classfeur Actvaton du classfeur S cet exemple est correctement reconnu Incrémentaton du compteur de sa classe Fn Fn Benoît Decoux

Calcul des taux de reconnassance Pour chaque classe Taux de reconnassance de cette classe Compteur de cette classe / nombre d exemples de cette classe (dans la base de test Fn En mode d apprentssage nstantané, ces dfférentes partes de l algorthme général s organsent de la façon suvante : Constructon et évaluaton du classfeur Pour chaque cycle d apprentssage (* Apprentssage pour un cycle Test de classfcaton Calcul des taux de reconnassance Fn (* usqu à convergence d un crtère, ou pour un nombre d tératons fxé par l utlsateur Dans le cas de l apprentssage en mode dfféré, le taux d erreurs est cumulé sur l ensemble des exemples d apprentssage. La parte de l algorthme concernant l apprentssage est donc remplacée par une accumulaton des erreurs : Accumulaton des erreurs sur un cycle Pour chaque exemple de la base d apprentssage Présentaton de l exemple au classfeur Actvaton du classfeur Calcul de l erreur de sorte et accumulaton de cette erreur Fn L apprentssage proprement dt (modfcaton des paramètres du classfeur se produt mantenant dans la foncton prncpale : Constructon et évaluaton du classfeur Pour chaque cycle d apprentssage Accumulaton des erreurs sur un cycle Modfcaton des paramètres du classfeur, en foncton de cette erreur Calcul des taux de reconnassance Fn 3 Avec la classfcaton par apprentssage compéttf supervsé, dans le cas du mode d apprentssage nstantané, la lgne "Modfcaton des paramètres du classfeur, en foncton de l erreur", se détalle de la façon suvante : Benoît Decoux

Modfcaton des paramètres du classfeur, en foncton de l erreur ndce de la classe du représentant le plus proche de cet exemple s est l ndce de sa classe correcte aouter à w : w +α.(x w. y s n est pas l ndce de sa classe correcte aouter à w : w α.(x w. y On peut détaller encore plus cette parte de l algorthme pour fare apparaître le fat qu l peut exster pluseurs représentants par classe : Recherche de la classe du représentant le plus proche de l exemple à classer Pour chaque classe Pour chaque représentant de cette classe Calcul de la dstance entre l exemple à classer et ce représentant Mémorsaton de cette dstance s c est la plus pette de toutes les dstances calculées auparavant Fn Fn Affectaton à l exemple à classer de la classe du représentant le plus proche de lu Exercce : Fonctons radales de base (6 ponts On consdère un réseau à deux couches de neurones. La premère couche est composée de neurones à fonctons radales de base, dont la foncton d actvaton est défne par : (c (c (x x C (x x g (x exp,,, 3, (c où x est un vecteur d entrée à dmensons et x le vecteur central de la foncton g (x. C - est l nverse d une matrce de covarance, supposée égale à : 0 C 0 La seconde couche du réseau est composée de neurones lnéares, c est à dre dont la foncton d actvaton est défne par : k w kg (x y, k, où w k est le pods de la connexon relant le e neurone de la ère couche au k e neurone de la couche de sorte. On souhate utlser ce réseau pour classfer correctement les vecteurs des ensembles A et B suvants : et a 0,a,a 3,a,a 5,a 5,a 5,a 6,a A 3 5 6 7 8 9 b,b 3,b B 3 3 6 Benoît Decoux 3

Rappelez le prncpe de la classfcaton par un réseau à fonctons radales de base, une fos ses paramètres détermnés, par apprentssage ou non. ( pont (c Détermnez un ensemble de paramètres x et w k adéquats pour que le réseau classfe correctement les vecteurs à dmensons de la fgure c-dessus, appartenant aux classes A ou B (sans calculs, en utlsant un rasonnement géométrque. ( pont 3 On aoute les vecteurs b et b 5 à l ensemble B. Modfez en conséquence un ou 3 pluseurs pods du réseau pour que la classfcaton de tous les vecteurs de A et de B reste correcte. ( pont On suppose les pods w k tous fxés à. Modfez une ou pluseurs matrce de covarance pour que la classfcaton de tous les vecteurs de A et B (avec ses vecteurs aoutés sot correcte. ( pont 5 On suppose mantenant les pods de sorte du réseau ntalsés aléatorement. Proposez un moyen d auster ces pods à des valeurs adéquates, de manère automatque (sans fare de calculs mas en décrvant les dfférentes étapes. ( pont 6 Détermner (sans calcul des paramètres adéquats d un réseau à fonctons radales de base capable de résoudre le problème du OU exclusf. ( pont Après détermnaton des paramètres d un réseau à fonctons radales de base, un vecteur à classfer est présenté en entrée du réseau, ce derner est actvé et la classe représentée par la sorte dont la réponse est maxmale, est assocée à ce vecteur. L actvaton du réseau comporte étapes successves : d abord calcul des sortes des neurones gaussens pus calcul des sortes des neurones lnéares de sorte du réseau. S l on observe la répartton des ponts on s aperçot que les classes ne sont pas lnéarement séparables. Ces ponts sont réparts en 3 groupes dstncts. Il sufft donc de centrer une gaussenne sur chacun des groupes. Il y a gaussennes dsponbles mas en fat 3 suffraent à réalser une classfcaton correcte. Le premer groupe est consttué par les 5 premers ponts de A. On calcule donc la moyenne de ces 5 ponts : x ( c ( t A De même pour les derners ponts de A : x ( c ( t A 5,5, 5 et les ponts de B : x ( c ( t B 3 Ces moyennes consttueront chacune le centre d une gaussenne. Pour le chox des w k, l sufft de prendre la même valeur pour tous pusque tous les ponts des 3 groupes sont plus proches du centre d une gaussenne codant leur classe, que du centre d autres gaussennes. On peut donc prendre par exemple w k. 3 S on aoute ces ponts, on s aperçot que l un d entre eux est à égale dstance du centre de la e gaussenne (codant la classe B, sa classe, que de la ère gaussenne (codant la classe Benoît Decoux

A. Il faut donc pondérer la gaussenne B de façon plus mportante, pour le e neurone de sorte (codant la classe B. Par exemple w, (s la gaussenne B possède l ndce. S on ne peut pas ouer sur les pods de sorte w k pour réalser une classfcaton correcte, on peut ouer sur l étalement des gaussennes. Par exemple en augmentant un peu l étalement de la gaussenne centrée sur les ponts de B, le pont qu pose problème provoquera une réponse plus mportante du neurone gaussen correspondant, et par conséquent une réponse plus mportante du neurone de sorte codant la classe B. On peut donc prendre par exemple :, 0 C B 0, 5 Pour auster automatquement les pods de sorte du réseau, on peut utlser la règle d apprentssage supervsé du perceptron. Les étapes à suvre successvement sont alors les suvantes : Adaptaton des centres et des étendues des gaussennes, par apprentssage ou manuellement (comme c-dessus ; Adaptaton des pods des neurones de sorte par apprentssage supervsé, par exemple en mode nstantané (étapes répétées un certan nombre de fos : - Présentaton d un vecteur en entrée du réseau - Actvaton du réseau (d abord neurones gaussens pus neurones de sorte - Calcul de l erreur de sorte - Adaptaton des pods : on leur aoute la varaton ( d w α.( y y. x où ( d y est la sorte désrée du neurone de sorte, et y est la sorte effectve de ce neurone. 6 Comme c-dessus on consdère le cas à dmensons, c est à dre à entrées. Le prncpe est le même que pour les ensembles de ponts utlsés c-dessus, sauf que dans le cas du OU exclusf l n y a que ponts (les combnasons possbles d entrée, appartenant à classes (0 ou. On peut par exemple utlser gaussennes, centrée chacune sur un pont. Les centres de ces gaussennes seraent donc : (0, 0, (0,, (, 0, (, L étalement des gaussennes n a pas beaucoup d mportance (on peut prendre les mêmes matrces de covarances que c-dessus, et les pods de sorte peuvent être prs tous égaux, à par exemple. Exercce 3 : Perceptron monocouche (6 ponts On consdère un neurone à seul à entrées, dont la foncton d actvaton est défne par : y s w x avec s(x s x 0 0 snon. Benoît Decoux 5

On souhate détermner des pods adéquats pour classfer correctement les vecteurs à dmensons suvants, appartenant à classes, respectvement A et B : a et b On mpose que la classe A sot codée par l état du neurone, et la classe B par l état 0. On appelle x la ère coordonnée de ces ponts et x la e. Donnez les caractérstques de la drote de séparaton du plan (x,x réalsée par ce neurone quand les valeurs ntales de ses pods sont w et w. Ces paramètres sontls adéquats pour réalser une classfcaton correcte? (,5 pont Etudez l évoluton de ces pods lorsqu on les modfe par la règle d apprentssage supervsée du perceptron, applquée aux vecteurs a et b (avec pluseurs tératons d apprentssage. On prendra un coeffcent d apprentssage α égal à 0,. ( pont 3 Comben d tératons d apprentssage sont-elles nécessares pour obtenr une classfcaton correcte de a et b (ustfer la réponse? ( pont Conclure sur les proprétés de ce réseau et de la règle d apprentssage. ( pont 5 En général, dans une applcaton de classfcaton à réseau de neurones, on utlse un neurone de sorte par classe. Donnez des pods adéquats d un réseau de neurones à seul ou lnéares (et dans ce derner cas précsez comment sera prse la décson de classfcaton, permettant de réalser cette opératon, avec les mêmes vecteurs d apprentssage. (,5 pont La sorte du neurone est défne par : ys(w x +w x L équaton de la drote de séparaton du plan est : w x +w x 0 w x x x w C est l équaton d une drote de pente et passant par l orgne, dans le plan (x, x. Cette drote ne réalse pas une classfcaton correcte, car les ponts sont stués du même côté d elle. La règle d apprentssage supervsé du perceptron spécfe la varaton à applquer aux pods d un réseau monocouche à chaque tératon d apprentssage. Elle est défne par : (d w α.(y y. x où w et le pods relant l entrée au neurone, y est la valeur désrée de la sorte du neurone, (d y est la valeur réelle de cette sorte, x est l entrée, α le taux d apprentssage. Ic l n y a qu un seul neurone, donc la règle se smplfe par (d w α.(y y. x,, On présente le pont a en entrée du neurone. On a ys(+ et y (d car on souhate que le neurone réponde pour ce pont. On applque alors la règle d apprentssage : Benoît Decoux 6

w α.(. 0 w w α.(. 0 w Pour le pont b, on a ys(+ et y (d 0 car on souhate que le neurone réponde 0 pour ce pont. w α.(0. α 0, w 0, 8 w α.(0. α 0, w 0, 9 w 0,8 La pente de la drote a dmnué. w 0,9 On réalse une e tératon d apprentssage :! Présentaton du pont a ys(0,8 +0,9 s(,6 or y (d, donc w α.(. 0 w 0, 8 w α.(. 0 w 0, 9! Présentaton du pont b ys(0,8 +0,9 s(,5 or y (d 0, donc w α.(0. 0, w 0, 6 w α.(0. 0, w 0, 8 w 0,6 La pente de la drote dmnue encore. w 0,8 On remarque que seul le pont B provoque une modfcaton des pods ; le pont A est correctement classé. 3 Tant que a et b restent au dessus de la drote, l évoluton des pods, et donc de la pente de cette drote, est la même. Elle prend successvement les valeurs suvantes : 3 e 0, tératon : ; e 0, tératon : ; 5 e 0 tératon : 0 ; 6 e 0, tératon : ; 0,7 0,6 0,5 0, 7 e 0, tératon : 0,3 A ce stade le pont b passe sous la drote et la classfcaton devent correcte pour lu. On peut le vérfer faclement en calculant y : Pont a ys(-0, +0,3 s(0, Pont b ys(-0, +0,3 s(-0,0 donc w 0,, L apprentssage est alors termné. 7 tératons ont été nécessares. Dans cet exemple, l apprentssage par la règle du perceptron converge vers une classfcaton correcte. Cet exemple est une llustraton des proprétés de convergence de cette règle d apprentssage. Selon le théorème du perceptron, s l exste un ensemble de pods w capables de résoudre un problème de classfcaton, la règle d apprentssage les trouve. Benoît Decoux 7

5 Pour le er neurone, on peut utlser les pods obtenus c-dessus. Pour le e, l faudrat que le pont b sot au dessus de la drote de séparaton que ses pods défnssent, et le pont a en dessous. On est oblgé d aouter une entrée à ce neurone, par exemple x 0, assocée aux pods w 0 et w 0. Pusqu on ne modfe pas le er neurone on peut prendre w 0 0. Le e neurone défnt une drote d équaton : w w 0 x x w w Avec une ordonnée à l orgne égale à 6 et une pente égale à 3, on peut constater (graphquement que le pont a est ben au dessus de cette drote et le pont b en dessous. On a donc : w w 0 3 et 6 w w sot, en fxant par exemple w 0 à, w -6 et w -. Exercce : Rétropropagaton du gradent ( ponts On consdère un réseau à couches de neurones, avec neurones dans la couche cachée et neurones dans la couche de sorte. Les neurones de la couche cachée possèdent les mêmes entrées. Les neurones de la couche de sorte sont connectés aux neurones de la couche cachée. Tous les neurones possèdent la même foncton d actvaton non-lnéare : f (x x + e On suppose les pods tous ntalsés à 0. Présentez au réseau le vecteur (, et le lu fare apprendre par l algorthme de rétropropagaton du gradent, par une tératon d apprentssage (donnez les pods du réseau obtenus. (3 ponts Montrez que cette tératon d apprentssage a perms d amélorer la réponse du réseau. ( pont Remarque : pour faclter les calculs on pourra utlser la proprété suvante de la foncton f : f '(x f (x( f (x On utlse la règle d apprentssage du perceptron, qu donne la varaton à applquer à chaque pods, à chaque tératon d apprentssage : (c (c w α. δ. y (c avec δ gradent local au neurone (caché ou de sorte : (c (c δ e.f '( a pour le neurone de la couche de sorte (c (c (c (c+ (c+ δ f '(a. δk. w k pour le neurone de la couche cachée avec k a w y. "c" est l ndce de la couche (c c ou. Benoît Decoux 8

L algorthme de rétropropagaton du gradent consste à présenter une entrée au réseau, à propager l actvté usqu aux neurones de sorte, à calculer l erreur de sorte pus à propager cette erreur à rebours pour corrger les pods à l ade des formules c-dessus. On a : f (x avec x a x w y + e Les pods étant ntalsés à 0, on va avor a 0 pour les neurones de la ère couche, ans que pour les neurones de la e couche (couche de sorte, et donc ntalement : ( f (a f (0 pour et. On cherche alors à calculer : ( ( δ e.f '( a avec : (d ( e y y et y f (a On décde arbtrarement que le er neurone de sorte (d ndce code la classe correcte du vecteur présenté en entrée. Il dot donc répondre pour ce vecteur (dans l déal et le e neurone dot répondre 0. L applcaton numérque donne donc : e - e 0-- On a : f '(a ( f (a ( ( f (a pour et, sot : f '(0 f (0( f (0 ( On en dédut les gradents locaux des neurones de sorte : ( ( δ e.f '( a 8 ( ( δ e.f '( a 8 pus la varaton à applquer aux pods de chacun des neurones de sorte : ( ( ( 0, 0, w α. δ.y 0, w ( 8 6 6 ( ( ( 0, 0, w α. δ.y 0, w ( 8 6 6 ( ( ( 0, 0, w α. δ.y 0, w ( 8 6 6 ( ( ( 0, 0, w α. δ.y 0, w ( 8 6 6 Pour les pods des neurones de la couche cachée on utlse la e formule d apprentssage. On a : ( ( ( ( ( ( ( ( ( δ f '(a. δ.w f '(a δ.w + δ. w k k k ( ( pour,. Pour les même rasons que pour la couche de sorte, on a : Benoît Decoux 9

( ( f '(a f '(a Tous les autres paramètres sont déà connus. On peut donc passer aux applcatons numérques.! er cas : ( ( ( ( ( ( 0, 0, 0, δ f '(a ( δ.w + δ.w + 8 6 8 6 56! e cas : ( ( ( ( ( ( 0, 0, 0, δ f '(a ( δ.w + δ.w + 8 6 8 6 56 Une fos les gradents locaux de la ère couche connus, l ne reste plus qu à calculer les varatons à applquer aux pods de cette couche : ( ( ( 0, 0,0 w α. δ.y 0, 56 5 ( ( ( 0, w α. δ.y 0, 56 ( ( ( 0, w α. δ.y 0, 56 ( ( ( 0, w α. δ.y 0, 56 0,0 5 0,0 5 0,0 5 0,0 w ( 5 0,0 w ( 5 0,0 w ( 5 w ( 0,0 5 Pour savor s la réponse du réseau s est amélorée, l faudrat présenter à nouveau le même vecteur au réseau et propager l actvté usqu à sa sorte. Pus regarder s la réponse du neurone s est rapprochée de et celle du neurone de 0. Les pods des neurones de la ère couche n étant pas encore dfférencés, ce sont donc forcément les pods des neurones de la couche de sorte qu ont commencé à apprendre le problème. Pour que le calcul sot plus rapde, prenons les sortes des neurones de la couche cachée tous les égaux à : On a alors : y y y ( ( ( ( ( ( 0, 0, 0, ( w.y + w.y f + f 0, 503 ( y f 6 6 8 ( ( ( ( 0, 0, 0, f ( w.y + w.y f f 0, 97 CQFD 6 6 8 ( Exercce 5 : Classfcaton bayesenne (5 ponts Soent A et B deux ensembles de vecteurs à dmensons appartenant à deux classes dfférentes : 3 3 3 A a, a, a, a 3 et B b, b, b, b 3 3 3 On souhate modélser chacune de ces classes par une gaussenne. Calculer le vecteur central pour chacune des classes (démonstraton géométrque possble. (0,5 pont Benoît Decoux 0

Calculer la matrce de covarance pour chacune des classes, estmée à partr de ces vecteurs. (,5 pont 3 En dédure l expresson des gaussennes. ( pont Montrer que la classfcaton pour une ressemblance maxmale est correcte pour tous les vecteurs des classes. ( pont 5 Le résultat aurat-l été le même s les gaussennes avaent été sotropes? Justfer la réponse. ( pont a c Rappels : sot la matrce : A b d son détermnant est : dét (A a d b c son nverse est : nv(a dét(a d c Pour calculer le vecteur central de chaque classe, on calcule la moyenne de la ère coordonnée pour tous les ponts, et la moyenne de la e coordonnée, ce qu donne respectvement pour les classes A et B : 3 x ( c A et x ( Bc,5,5 L ndce c est ms pour "valeur centrale". S l on représente ces ponts dans un repère à dmensons (x, x, on peut déà devner que chacun des ensembles va être modélsé par une gaussenne légèrement nclnée par rapport aux axes du repère, et donc que les covarances entre les varables x et x ne vont pas être nulles. La matrce de covarance est défne par : C cov(x,x,,;, b a { } cov(x,x cov(x,x C cov(x,x cov(x,x var(x cov(x,x C cov(x,x var(x La covarance entre varables x et x est défne par : n (c (c cov( x,x ( x,k x ( x,k x,, d et,,d n k où d est la dmenson des vecteurs et n est le nombre de valeurs dfférentes pour les varables. La covarance de la varable avec elle-même est égale à la varance de cette varable, défne par la somme des écarts aux carrés de cette varable par rapport à sa moyenne (calculée sur toutes ses valeurs utlsées : Benoît Decoux

n (c ( x,k x k var(x n Applcaton numérque : on calcule C A à partr des ponts de A : var(x ( [(-3 +(3-3 +(3-3 +(-3 ] De la même manère, pour x on obtent : var(x ( [(-,5 +(-,5 +(-,5 +(-,5 ] cov(x, x ( [(-3 (-,5+(3-3 (-,5+(3-3 (-,5 +(-3 (-,5] ( [(-3 (-,5+(-3 (-,5] ( [0,5+0,5] Et sans calcul on obtent : cov(x, x cov(x, x (une matrce de covarance est symétrque. Fnalement : C A Remarque : on aurat pu utlser cette e méthode : t C A.A. A d où A content tous les vecteurs de données, auxquels on a soustrat leur moyenne (défne cdessus, dsposés en colonnes (et donc A t content les mêmes vecteurs mas dsposés en lgnes. Pour la classe B, on trouverat le même résultat car la dsposton des ponts de cette classe entre eux est la même que celle des ponts de la classe A : C B C A 3 On utlse la formule d une gaussenne de dmenson n : (x x c G(x exp d / (π dét(c où x est un vecteur de dmenson d. T C (x x c et dét(c A dét(c B 6 C A C B Il reste à remplacer d par et les vecteurs centraux par leur valeurs respectves pour que les expressons des gaussennes soent complètes : Benoît Decoux

Benoît Decoux 3,5 3 (x,5 3 (x 0,6exp (x G t A,5 (x,5 (x 0,6exp (x G t B Pour a proeté sur la gaussenne obtenue avec les ponts de A, on obtent :,5 3 (,5 3 ( 0,6exp (a G t A 0,5 0.5 0,6exp t 0,5 0 0,5 ( 0,6exp [ ] 6 0, 0,065 0,6exp 0,5,6exp 0 Pour a proeté sur la gaussenne obtenue avec les ponts de B, on obtent :,5 (,5 ( 0,6exp (a G t B,5 0.5 0 0,6exp t,5 0,5 (0,75 0,6exp [ ] 36 0, 0,565 0,6exp,5,6exp 0 G A (a > G B (a donc le vecteur a est assocé à la classe A par la règle de ressemblance maxmale, ce qu correspond à une classfcaton correcte. Pour les autres ponts on aurat trouvé également une classfcaton correcte. Il serat trop long de fare le même calcul pour tous. S vous l avez fat, vous aurez un bonus au nveau des ponts.

5 Avec des gaussennes sotropes, c est à dre avec des matrces de covarance dagonales, le résultat aurat été le même car tous les vecteurs de la classe A sont plus près du centre de la gaussenne calculée à partr de ces ponts (gaussenne A, que de la gaussenne calculée à partr des vecteurs de la classe B (gaussenne B. Idem pour les vecteurs de B. Mas cec est dû à cette confguraton partculère des vecteurs. On aurat très ben pu avor par exemple un pont de la classe A plus près du centre de la gaussenne B que du centre de la gaussenne A. Et dans ce cas l aurat été classé dans la classe B (donc mal classé avec des gaussennes sotropes et dans la classe A (donc correctement classé avec des gaussennes orentées (non-sotropes. Benoît Decoux

Feulle à rendre à l ssue du devor II Dtes s les affrmatons suvantes sont vraes ou fausses (en mettant une crox dans le bon cercle (5 ponts Bonne réponse : +0,5 pont ; Pas de réponse : 0 pont ; Mauvase réponse : 0,5 pont En général, le fat de normalser les données à apprendre en vue d une classfcaton, amélore les résultats de cette dernère. vra Θ faux Ο Dans le LVQ_PAK, les vecteurs-représentants ntaux des classes sont sélectonnés par la méthode des K plus proches vosns. vra Θ faux Ο 3 Dans l apprentssage compéttf supervsé de type LVQ, on peut ntalser le vecteur pods des neurones à 0. vra Θ faux Ο Un neurone lnéare (dont la sorte est une combnason lnéare de ses entrées à entrées peut séparer un plan en partes par une drote. vra Ο faux Θ 5 Un réseau à fonctons radales de base peut résoudre des problèmes non-lnéarement séparables. vra Θ faux Ο 6 Dans l algorthme de rétropropagaton, le fat d augmenter le nombre de cycles d apprentssage à l nfn a tendance à amener le réseau à apprendre par cœur les données d apprentssage. vra Θ faux Ο 7 Dans l algorthme de rétropropagaton, les neurones peuvent avor une foncton d actvaton lnéare. vra Ο faux Θ 8 S la matrce de covarance d une gaussenne à dmensons est dagonale, l étalement de cette gaussenne est le même dans ces dmensons. vra Ο faux Θ 9 Avec des varables aléatores contnues, on utlse des fonctons de densté de probablté et non pas des probabltés. vra Θ faux Ο 0 La règle d apprentssage supervsé du perceptron (monocouche peut être obtenue en utlsant le prncpe de la descente de gradent. vra Θ faux Ο Benoît Decoux 5