La physiologie du cerveau montre que celui-ci est constitué de cellules (les neurones) interconnectées. Quelques étapes de cette découverte :
|
|
- Paul Chartier
- il y a 8 ans
- Total affichages :
Transcription
1 Chaptre 3 Apprentssage automatque : les réseaux de neurones Introducton Le Perceptron Les réseaux mult-couches 3.1 Introducton Comment l'homme fat-l pour rasonner, parler, calculer, apprendre,...? Comment s'y prendre pour créer une ou de l'ntellgence artfcelle? Deux types d'approches ont été essentellement explorées : procéder d'abord à l'analyse logque des tâches relevant de la cognton humane et tenter de les reconsttuer par programme. C'est cette approche qu a été prvlégée par l'intellgence Artfcelle et la psychologe cogntve classques. Cette démarche est étquetée sous le nom de cogntvsme. pusque la pensée est produte par le cerveau ou en est une proprété, commencer par étuder comment celu-c fonctonne. C'est cette approche qu a condut à l'étude de réseaux de neurones formels. On désgne par connexonnsme la démarche consstant à voulor rendre compte de la cognton humane par des réseaux de neurones. La seconde approche a donc menée à la défnton et l'étude de réseaux de neurones formels qu sont des réseaux complexes d'untés de calcul élémentare nterconnectées. Il exste deux courants de recherche sur les réseaux de neurones : un premer motvé par l'étude et la modélsaton des phénomènes naturels d'apprentssage à l'ade de réseaux de neurones, la pertnence bologque est mportante ; un second motvé par l'obtenton d'algorthmes effcaces ne se préoccupant pas de la pertnence bologque. Nous nous plaçons du pont de vue du second groupe. En effet, ben que les réseaux de neurones formels aent été défns à partr de consdératons bologques, pour la plupart d'entre eux, et en partculer ceux étudés dans ce cours, de nombreuses caractérstques bologques (le temps, la mémore,...) ne sont pas prses en compte. Toutefos, nous donnons, dans la sute de cette ntroducton, un bref aperçu de quelques proprétés élémentares de neurophysologe qu permettent au lecteur de reler neurones réels et neurones formels. Nous donnons ensute un rapde hstorque des réseaux de neurones. Enfn, nous donnons une classfcaton des dfférents types de réseau et les prncpales applcatons Quelques éléments de physologe du cerveau La physologe du cerveau montre que celu-c est consttué de cellules (les neurones) nterconnectées. Quelques étapes de cette découverte : Van Leuwenhook (1718) : premère descrpton fdèle de ce qu'on appellera plus tard les axones, Dutrochet (1824) : observaton du corps cellulare des neurones Valentn : découverte des dendrtes, Deters (1865) : mage actuelle de la cellule nerveuse Sherngton (1897) : les synapses, les neuro-transmetteurs (premère moté du sècle). Page 1 sur 26
2 Fgure 3.1 : Les neurones schématsés Les neurones reçovent les sgnaux (mpulsons électrques) par des extensons très ramfées de leur corps cellulare (les dendrtes) et envoent l'nformaton par de longs prolongements (les axones). Les mpulsons électrques sont régénérées pendant le parcours le long de l'axone. La durée de chaque mpulson est de l'ordre d'1 ms et son ampltude d'envron 100 mvolts. Les contacts entre deux neurones, de l'axone à une dendrte, se font par l'ntermédare des synapses. Lorsqu'un potentel d'acton attent la termnason d'un axone, des neuromédateurs sont lbérés et se lent à des récepteurs post-synaptques présents sur les dendrtes. L'effet peut être exctateur ou nhbteur. Chaque neurone ntègre en permanence jusqu'à un mller de sgnaux synaptques. Ces sgnaux n'opèrent pas de manère lnéare (effet de seul). Quelques nformatons en vrac : le cerveau content envron 100 mllards de neurones. on ne dénombre que quelques dzanes de catégores dstnctes de neurones. aucune catégore de neurones n'est propre à l'homme (cela serat trop beau!). la vtesse de propagaton des nflux nerveux est de l'ordre de 100m/s. C'est à dre ben nféreure à la vtesse de transmsson de l'nformaton dans un crcut électronque. on compte de quelques centanes à pluseurs dzanes de mllers de contacts synaptques par neurone. Le nombre total de connexons est estmé à envron la connectque du cerveau ne peut pas être codée dans un << document bologque >> tel l'adn pour de smples rasons combnatores. La structure du cerveau provent donc en parte des contacts avec l'envronnement. L'apprentssage est donc ndspensable à son développement. le nombre de neurones décrot après la nassance. Cependant, cette affrmaton semble remse en queston. on observe par contre une grande plastcté de l'axone, des dendrtes et des contacts synaptques. Celle-c est surtout très mportante après la nassance (on a observé chez le chat un accrossement des contacts synaptques de quelques centanes à entre le 10ème et le 35ème jour). Cette plastcté est conservée tout au long de l'exstence. les synapses entre des neurones qu ne sont pas smultanément actfs sont affabls pus élmnés. l semble que l'apprentssage se fasse par un double mécansme : des connectons sont étables de manère redondantes et aléatores pus seules les connexons entre des neurones smultanément actfs sont conservés (phase de sélecton) tands que les autres sont élmnés. On parle de stablsaton sélectve. Nous consellons sur le sujet deux lvres accessbles au profane et passonnants : L'homme neuronal de Jean-Perre Changeux et La bologe de la conscence de Gerald Edelman. Pour un survol de quelques pages, vor [ Kor97]. Pour ceux que l'anglas n'effrae pas et qu ament les bandes dessnées, vor [ GZ98]. Les recherches sur la physologe du cerveau sont actuellement Page 2 sur 26
3 très actves Le connexonnsme et les réseaux de neurones formels La queston fondamentale du connexonnsme est : comment rendre compte des processus cogntfs à partr d'un ensemble d'untés, dotées chacunes d'une fable pussance de calcul et nterconnectées en réseau? La défnton de réseaux de neurones formels et l'expérmentaton menée sur ces réseaux permettent d'étuder et de tester cette hypothèse. Ctons quelques étapes dans la formalsaton des réseaux de neurones : Premère défnton d'un neurone formel par McCulloch et Ptts en 1943 Les percepts ou concepts sont physquement représentés dans le cerveau par l'entrée en actvté (smultanée) d'une assemblée de neurones (Donald Hebb, 1949). L'hypothèse concurrente est la spécalsaton de certans neurones dans des tâches cogntves complexes (cf le fameux neurone << grand-mère >>). deux neurones entrant en actvté smultanément vont être assocés (c'est-à-dre que leur contacts synaptques vont être renforcés). On parle de lo de Hebb et d' assocatonnsme Le perceptron de Frank Rosenblatt (1958) : le premer modèle pour lequel un processus d'apprentssage a pu être défn. De cette pérode, date également les travaux de Wdrow et Hoff. Le lvre de Mnsk et Papert "Perceptrons" (1969). Cet ouvrage content une étude crtque très complète des perceptrons. On lu reproche parfos volemment d'avor sonné le glas des recherches sur les réseaux neuronaux dans les années 70, ce que nent leurs auteurs. Ce lvre a été réédté en 1980, avec des ajouts et correctons manuscrtes dans les marges, sans doute pour qu'on ne pusse pas les accuser de camoufler la premère verson du texte! l'algorthme de rétropropagaton du gradent dans les réseaux mult-couches découvert au début des années 80 par Rumelhart et McClelland, Parker, Hnton, Le Cun. Les << nventeurs >> sont nombreux car l'dée de descente de gradent est naturelle. La plupart de ces travaux étaent assocés à des études emprques montrant la pussance du modèle. le modèle de Hopfeld (1982) qu utlse des réseaux totalement connectés basés sur la règle de Hebb qu ont perms de défnr la noton d'attracteurs et de mémore assocatve. les cartes de Kohonen (1984) avec un algorthme non supervsé basé sur l'auto-organsaton. la machne de Boltzman (1985), autre type de réseaux à attracteurs avec une dynamque de Monte-Carlo Classfcaton des réseaux de neurones Un réseau de neurones formels est consttué d'un grand nombre de cellules de base nterconnectées. De nombreuses varantes sont défnes selon le chox de la cellule élémentare, de l'archtecture du réseau et de la dynamque du réseau. Une cellule élémentare peut manpuler des valeurs bnares ou réelles. Les valeurs bnares sont représentées par 0 et 1 ou -1 et 1. Dfférentes fonctons peuvent être utlsées pour le calcul de la sorte. Le calcul de la sorte peut être détermnste ou probablste. L'archtecture du réseau peut être sans rétroacton, c'est à dre que la sorte d'une cellule ne peut nfluencer son entrée. Elle peut être avec rétroacton totale ou partelle. La dynamque du réseau peut être synchrone : toutes les cellules calculent leurs sortes respectves smultanément. La dynamque peut être asynchrone. Dans ce derner cas, on peut avor une dynamque asynchrone séquentelle : les cellules calculent leurs sortes chacune à son tour en séquence ou avor une dynamque asynchrone aléatore. Par exemple, s on consdère des neurones à sorte stochastque -1 ou 1 calculée par une foncton à seul basée sur la foncton sgmoïde, une nterconnecton complète et une dynamque synchrone, on obtent le modèle de Hopfeld et la noton de mémore assocatve. S on consdère des neurones détermnstes à sorte réelle calculée à l'ade de la foncton sgmoïde, une archtecture sans rétroacton en couches successves avec une couche d'entrées et une couche de sortes, une dynamque asynchrone séquentelle, on obtent le modèle du Perceptron mult-couches (PMC) qu sera étudé dans les paragraphes suvants Applcatons des réseaux de neurones Page 3 sur 26
4 Les prncpales applcatons des réseaux de neurones sont l'optmsaton et l'apprentssage. En apprentssage, les réseaux de neurones sont essentellement utlsés pour : l'apprentssage supervsé ; l'apprentssage non supervsé ; l'apprentssage par renforcement. Pour ces tros types d'apprentssage, l y a également un chox tradtonnel entre : l'apprentssage << off-lne >> : toutes les données sont dans une base d'exemples d'apprentssage qu sont tratés smultanément ; l'apprentssage << on-lne >> : Les exemples sont présentés les uns après les autres au fur et à mesure de leur dsponblté. Nous nous lmtons, dans ce cours, à l'apprentssage supervsé à partr d'une base d'exemples. Dans ce cadre, l'apprentssage à l'ade de réseaux de neurones est ben adapté pour l'apprentssage à partr de données complexes (mages sur une rétne, sons,...) mas auss à partr de données symbolques. Les entrées peuvent être représentées par de nombreux attrbuts à valeurs réelles ou symbolques, les attrbuts pouvant être dépendants ou non. La ou les sortes peuvent être réelles ou dscrètes. L'apprentssage à l'ade de réseaux de neurones est tolérant au brut et aux erreurs. Le temps d'apprentssage peut être long, par contre, après apprentssage, le calcul des sortes à partr d'un vecteur d'entrée est rapde. La crtque prncpale est que le résultat de l'apprentssage, c'est-à-dre le réseau de neurones calculé par l'algorthme d'apprentssage, n'est pas nterprétable par l'utlsateur : on ne peut pas donner d'explcaton au calcul d'une sorte sur un vecteur d'entrée. On parle de << boîte nore >>. Cec est la prncpale dfférence entre réseaux de neurones et arbres de décson. S l'utlsateur a beson de pouvor nterpréter le résultat de l'apprentssage, l chosra un système basé sur les arbres de décson, snon les deux méthodes sont concurrentes. Nous n'étudons que le perceptron, brque de base des modèles plus complexes, et le perceptron mult-couches (PMC). L'accent sera ms sur les algorthmes d'apprentssage pour ces deux modèles, en partculer sur l'algorthme de rétropropagaton du gradent applqué aux PMC. Cet algorthme est, en effet, le premer algorthme d'apprentssage convancant dans un modèle suffsamment pussant et cet algorthme a de nombreuses applcatons. 3.2 Le Perceptron Le perceptron est un modèle de réseau de neurones avec algorthme d'apprentssage créé par Frank Rosenblatt en La verson c-dessous est smplfée par rapport à l'orgnale. Vous trouverez une descrpton de cette dernère dans l'exercce?? Défnton du Perceptron Défnton 5 Un perceptron lnéare à seul (vor fgure??) prend en entrée n valeurs x 1,..., x n et calcule une sorte o. Un perceptron est défn par la donnée de n +1 constantes : les coeffcents synaptques w 1,..., w n et le seul (ou le bas) q. La sorte o est calculée par la formule : o = 1s 0snon w x > q Page 4 sur 26
5 Fgure 3.2 : Le perceptron avec seul Les entrées x 1,..., x n peuvent être à valeurs dans {0,1} ou réelles, les pods peuvent être enters ou réels. Une varante très utlsée de ce modèle est de consdérer une foncton de sorte prenant ses valeurs dans {-1,1} plutôt que dans {0,1}. Il exste également des modèles pour lesquels le calcul de la sorte est probablste. Dans la sute de cette parte sur le perceptron, nous consdérerons toujours le modèle détermnste avec une sorte calculée dans {0,1}. Pour smplfer les notatons et certanes preuves, nous allons remplacer le seul par une entrée supplémentare x 0 qu prend toujours comme valeur d'entrée la valeur x 0 =1. À cette entrée est assocée un coeffcent synaptque w 0. Le modèle correspondant est décrt dans la fgure??. On peut décomposer le calcul de la sorte o en un premer calcul de la quantté S w x appelée potentel post-synaptque ou l' entrée totale suv d'une applcaton d'une foncton d'actvaton sur cette entrée totale. La foncton d'actvaton est la foncton de Heavsde défne par : f( x) = 1 x > 0 0snon Fgure 3.3 : Le perceptron avec entrée supplémentare Ben que consdérant une entrée supplémentare x 0, un perceptron est toujours consdéré comme assocant une sorte o aux n entrées x 1,..., x n. L'équvalence entre le modèle avec seul et le modèle avec entrée supplémentare à 1 est mmédate : le coeffcent est l'opposé du seul q. Nous consdérerons toujours ce derner modèle de perceptron lnéare à seul par la sute. w 0 Pour passer du modèle avec sortes à valeurs dans {0,1} au modèle à valeurs dans {-1,1}, l sufft de remplacer la foncton de Heavsde f par la foncton g défne par : g( x) = 2 f( x) - 1. D'autres fonctons d'actvaton peuvent également être utlsées. Exemple 10 Un perceptron qu calcule le OU logque avec les deux versons : seul ou entrée supplémentare est présenté Page 5 sur 26
6 dans la fgure??. Fgure 3.4 : perceptrons qu calculent le OU On vot que quelques uns des trats prncpaux des neurones réels ont été retenus dans la défnton du perceptron : les entrées modélsent les dendrtes, les mpulsons en entrée sont pondérées par les coeffcents synaptques et l'mpulson émse, c'est-à-dre la sorte, obét à un effet de seul (pas d'mpulson s l'entrée totale est trop fable). Un perceptron à n entrées réelles (respectvement bnares) est une foncton de R n (respectvement {0,1} n ) dans {0,1}. S l'on veut fare le len avec les chaptres précédents, on peut vor les neurones d'entrées comme décrvant un espace de descrpton avec des attrbuts réels (respectvement bnares) et le perceptron comme une procédure de classfcaton bnare (c'est-à-dre en deux classes) sur cet espace. Un système d'apprentssage à base de perceptrons dot générer, à partr d'un ensemble d'apprentssage, une hypothèse qu est un perceptron. Nous nous ntéressons, dans la secton suvante, à cet espace d'hypothèses, c'est-à-dre à l'étude des fonctons calculables par perceptron Interprétaton géométrque et lmtatons Défnton 6 Sot S un ensemble d'exemples dans R n { 0,1}. On note S 0 = { s Î R n ( s,0) Î S } et S 1 = { s Î R n ( s,1) Î S }. On dt que S est lnéarement séparable s'l exste un hyperplan H de R n tel que les ensembles S 0 et S 1 soent stués de part et d'autre de cet hyperplan. Théorème 2 Un perceptron lnéare à seul à n entrées dvse l'espace des entrées R n en deux sous-espaces délmtés par un hyperplan. Récproquement, tout ensemble lnéarement séparable peut être dscrmné par un perceptron. Démonstraton : Il sufft pour s'en convancre de se rappeler que l'équaton d'un hyperplan dans un espace de dmenson n est de la forme : a 1 x a n x n = b Un perceptron est donc un dscrmnant lnéare. On montre faclement qu'un échantllon de est séparable par un hyperplan s et seulement s l'échantllon de R n+1 obtenu en rajoutant une entrée toujours égale à 1 est séparable par un hyperplan passant par l'orgne. Toute foncton de dans {0,1} est-elle calculable par perceptron? La réponse est évdemment non. De même, toute foncton booléenne peut-elle être calculée par un perceptron? La réponse est également non. Le contre-exemple le plus smple est le << OU exclusf >> (XOR) sur deux varables. R n Théorème 3 Le XOR ne peut pas être calculé par un perceptron lnéare à seul. Démonstraton : R n Démonstraton algébrque : Supposons qu'l exste un perceptron défn par les coeffcents synaptques ( w 0, w 1, w 2 ) calculant le XOR sur deux entrées booléennes x 1 et x 2. On devrat avor : Page 6 sur 26
7 w w w 2 = w 0 0 (3.1) w w w 2 = w 0 + w 2 > 0 (3.2) w w w 2 = w 0 + w 1 > 0 (3.3) w w w 2 = w 0 + w 1 + w 2 0 (3.4) Il sufft d'addtonner l'équaton?? et l'équaton?? d'une part, l'équaton?? et l'équaton?? d'autre part pour se rendre compte que l'hypothèse est absurde. Démonstraton géométrque : on << vot >> ben qu'aucune drote ne peut séparer les ponts de coordonnées (0,0) et (1,1) des ponts de coordonnées (0,1) et (1,0) (vor Fgure??). S on consdère une entrée x 0 =1, l n'exste pas de plan passant par l'orgne qu sépare les ponts de coordonnées (1,0,0) et (1,1,1) des ponts de coordonnées (1,0,1) et (1,1,0). Fgure 3.5 : Comment trouver une drote séparant les ponts (0,0) et (1,1) des ponts (0,1) et (1,0)? Algorthme d'apprentssage par correcton d'erreur Présentaton de l'algorthme Étant donné un échantllon d'apprentssage S de R n {0,1} (respectvement {0,1} n {0,1}), c'est-à-dre un ensemble d'exemples dont les descrptons sont sur n attrbuts réels (respectvement bnares) et la classe est bnare, l s'agt de trouver un algorthme qu nfère à partr de S un perceptron qu classfe correctement les éléments de S au vu de leurs descrptons s c'est possble ou au meux snon. Exemple 11 Pour apprendre la noton de chffre par ou mpar, on peut consdérer un échantllon composé des 10 chffres écrts sur une rétne à 7 leds. Page 7 sur 26
8 Fgure 3.6 : Les 10 chffres sur une rétne à 7 leds En représentant chaque chffre par le symbole qu le désgne habtuellement, un échantllon d'apprentssage complet est : S = {( ,0), ( ,1), ( ,0), ( ,1), ( ,0), ( ,1), ( ,0), ( ,1), ( ,0), ( ,1)}. Le but sera d'nférer, à partr de S, un perceptron qu prend ses entrées dans {0,1} 7 et qu retourne la classe 0 s le vecteur d'entrée correspond à un chffre par et 1 snon. Sur cet exemple, l'échantllon S est complet (toutes les entrées possbles sont décrtes). Il est fréquent, pour les problèmes concrets, d'avor un échantllon non complet. L'algorthme d'apprentssage peut être décrt succnctement de la manère suvante. On ntalse les pods du perceptron à des valeurs quelconques. A chaque fos que l'on présente un nouvel exemple, on ajuste les pods selon que le perceptron l'a correctement classé ou non. L'algorthme s'arrête lorsque tous les exemples ont été présentés sans modfcaton d'aucun pods. Dans la sute, nous noterons x une descrpton qu sera un élément de R n ou {0,1} n. La -ème composante de x sera notée x. Un échantllon S est un ensemble de couples ( x, c) où c est la classe de x. Lorsqu'l sera utle de désgner un élément partculer de S, nous noterons ( x s, c s ) le s-ème élément de S. x s désgnera la -ème composante du vecteur d'entrée x s. S une entrée x s est présentée en entrée d'un perceptron, nous noterons o s la sorte bnare calculée par le perceptron. Nous rappelons qu'l exste une n+1-ème entrée x 0 de valeur 1 pour le perceptron. L'algorthme d'apprentssage par correcton d'erreur du perceptron lnéare à seul est : Algorthme par correcton d'erreur: Entrée : un échantllon S de R n {0,1} ou {0,1} n {0,1} Intalsaton aléatore des pods w pour entre 0 et n Répéter Prendre un exemple ( x, c) dans S Calculer la sorte o du perceptron pour l'entrée x - - Mse à jour des pods - - Pour de 0 à n w w + ( c- o) x fnpour fnrépéter Sorte : Un perceptron P défn par ( w 0, w 1,..., w n ) La procédure d'apprentssage du perceptron est une procédure de correcton d'erreur pusque les pods ne sont pas modfés lorsque la sorte attendue c est égale à la sorte calculée o par le perceptron courant. Étudons les modfcatons sur les pods lorsque c dffère de o : s o=0 et c=1, cela sgnfe que le perceptron n'a pas assez prs en compte les neurones actfs de l'entrée (c'est-à-dre les neurones ayant une entrée à 1) ; dans ce cas, w w + x ; l'algorthme ajoute la valeur de la rétne aux pods synaptques ( renforcement). s o=1 et c=0, alors w w - x ; l'algorthme retranche la valeur de la rétne aux pods synaptques ( nhbton). Remarquons que, en phase de calcul, les constantes du perceptron sont les pods synaptques alors que les varables sont les entrées. Tands que, en phase d'apprentssage, ce sont les coeffcents synaptques qu sont varables alors que les entrées de l'échantllon S apparassent comme des constantes. Certans éléments mportants ont été lassés volontarement mprécs. En premer leu, l faut précser comment est fat le chox d'un élément de S : aléatorement? En suvant un ordre prédéfn? Dovent-ls être tous présentés? Le crtère d'arrêt de la boucle prncpale de l'algorthme n'est pas défn : après un certan nombre d'étapes? Lorsque tous les exemples ont été présentés? Lorsque les pods ne sont plus modfés pendant un certan nombre d'étapes? Nous revendrons sur toutes ces questons par la sute. Tout d'abord, examnons le comportement de l'algorthme sur deux exemples : Page 8 sur 26
9 Exemple 12 Apprentssage du OU : les descrptons appartennent à {0,1} 2, les entrées du perceptron appartennent à {0,1} 3, la premère composante correspond à l'entrée x 0 et vaut toujours 1, les deux composantes suvantes correspondent aux varables x 1 et x 2. On suppose qu'à l'ntalsaton, les pods suvants ont été choss : w 0 =0 ; w 1 = 1 et w 2 = -1. On suppose que les exemples sont présentés dans l'ordre lexcographque. étape w 0 w 1 w 2 Entrée S 0 2 w x o c w 0 w 1 w 2 nt x1 1+0x0-1+0x x1 1+1x 0-1+1x (-1)x1 1+(-1)x0 0+(-1)x x1 1+1x0 0+1x (-1)x1 1+(-1)x0 1 +(-1)x Aucune entrée ne modfe le perceptron à partr de cette étape. Vous pouvez asément vérfer que ce perceptron calcule le OU logque sur les entrées x 1 et x 2. Exemple 13 Apprentssage d'un ensemble lnéarement séparable : les descrptons appartennent à R 2, le concept cble est défn à l'ade de la drote d'équaton y= x /2. Les couples ( x, y ) tels que y> x /2 sont de classe 1 ; Les couples ( x, y) tels que y x /2 sont de classe 0. L'échantllon d'entrée est S ={((0,2),1), ((1,1),1), ((1,2.5),1), ((2,0),0), ((3,0.5),0)}. On suppose qu'à l'ntalsaton, les pods suvants ont été choss : w 0 =0 ; w 1 = 0 et w 2 = 0. On chost de présenter tous les exemples en alternant exemple postf (de classe 1) et exemple négatf. étape w 0 w 1 w 2 Entrée S 0 2 w x o c w 0 w 1 w 2 nt (1,0,2) (1,2,0) (1,1,1) (1,3,0.5) (1,1,2.5) Aucune entrée ne modfe le perceptron à partr de cette étape car ce perceptron classfe correctement tous les exemples de S. Le perceptron de sorte assoce la classe 1 aux couples ( x, y ) tels que y> x /3-1/3. Page 9 sur 26
10 Fgure 3.7 : échantllon S ; hyperplans séparateurs cble et apprs Dans les deux exemples, l'échantllon d'apprentssage est un ensemble lnéarement séparable. Lors de la phase d'apprentssage, tous les exemples sont présentés jusqu'à la convergence, c'est-à-dre jusqu'à ce qu'une présentaton complète des exemples n'entraîne aucune modfcaton de l'hypothèse en cours. Nous démontrons, dans la secton suvante, que cec est un résultat général. Théorème d'apprentssage par correcton d'erreur Théorème 4 S l'échantllon S est lnéarement séparable et s les exemples sont présentés équtablement (c'est-à-dre que la procédure de chox des exemples n'en exclut aucun), la procédure d'apprentssage par correcton d'erreur converge vers un perceptron lnéare à seul qu calcule S. Démonstraton : Sot un échantllon d'entrée sur n varables réelles (le cas de varables bnares s'en dédut), sot S l'échantllon obtenu en ajoutant une n+1-ème entrée x 0 toujours égale à 1, par hypothèse l'échantllon est lnéarement séparable, donc l exste un hyperplan de R n+1 passant par l'orgne qu sépare S, sot encore, l exste un vecteur v =( v 0,..., v n ) de R n+1 tel que : " ( x,1) Î S x. v= Comme S est fn, cela mplque qu'l exste un réel d strctement postf tel que : n =0 x v >0 et " ( x,0) Î S x. v<0 (3.5) " ( x,1) Î S x. v> d et " ( x,0) Î S x. v<- d (3.6) Sot le vecteur des pods synaptques chos à l'ntalsaton de l'algorthme, sot ( ) la sute des valeurs successves w 0 w Î I dfférentes des vecteurs de pods au cours de l'exécuton de l'algorthme, c'est-à-dre que l'on suppose que, pour tout, w w +1 (le lecteur remarquera qu'l se peut que le vecteur w reste nchangé pour un certan nombre d'exemples). Supposons que l'algorthme d'apprentssage ne s'arrête pas, la présentaton des exemples étant équtable, cec mplque qu'l y a une nfnté de. Nous allons montrer que cette hypothèse est absurde. w Sot M un majorant de { x 2 ( x, c) Î S}, nous allons calculer des bornes pour w 2 et w. v. Lors du passage de w à w, deux cas peuvent se produre : Page 10 sur 26
11 +1 premer cas : l'exemple ( x, c) vérfe c=1 et la sorte calculée sur cette entrée par le perceptron courant est o=0. o=0 donc x. w 0 ; c=1 donc x. v > 0. D'après la règle de mse à jour des pods, on a w +1= w + x. On en dédut que : w +1 2=( w + x ) 2 = w x. w + x 2 w 2 + x 2 w 2 + M ; w +1. v = ( w + x ). v = w. v + x. v > w. v + d. sot w w + M et w. +1 v> w. v+ d (3.7) deuxème cas : l'exemple ( x, c) vérfe c=0 et la sorte calculée sur cette entrée par le perceptron courant est o=1. o=1 donc x. w > 0 ; c=0 donc x. v 0. D'après la règle de mse à jour des pods, on a w +1= w - x. On montre de même que : 2 w < +1 w + M et 2 w. +1 v w. v+ d (3.8) Par conséquent, à l'ade des négaltés?? et??, nous dédusons que, pour tout 0, on a : w w + M et w. +1 v w. v+ d (3.9) D'où, pour tout 1, nous obtenons : w 2 w + et 0 2 M w. v w. 0 v+ d (3.10) Comme d>0, l exste un enter 0 tel que, pour tout 0, w 0. v + d >0, en utlsant les négaltés de??, nous obtenons que, pour tout 0, ( 0 w. v+ d) 2 ( w. v) 2 = w 2 v 2 ( w + ) v 2 (3.11) 0 2 M Cette négalté nous amène à la contradcton recherchée. En effet, le terme de gauche est un polynôme de degré 2 en majoré par le terme de drote qu est lnéare en. Crtques sur la méthode par correcton d'erreur Nous venons de démontrer que s l'échantllon est lnéarement séparable, s tous les exemples sont présentés équtablement et que le crtère d'arrêt est la stablté de l'hypothèse après une présentaton complète de l'échantllon alors l'algorthme s'arrête avec un perceptron qu classfe correctement l'échantllon d'apprentssage. Que se passe-t-l s l'échantllon d'entrée n'est pas lnéarement séparable? L'nconvénent majeur de cet algorthme est que s l'échantllon présenté n'est pas lnéarement séparable, l'algorthme ne convergera pas et l'on aura aucun moyen de le savor. On pourrat penser qu'l sufft d'observer l'évoluton des pods synaptques pour en dédure s l'on dot arrêter ou non l'algorthme. En effet, s les pods et le seul prennent deux fos les mêmes valeurs sans que le perceptron at apprs et alors que tous les exemples ont été présentés, cela sgnfe d'après le théorème précédent que l'échantllon n'est pas séparable. Et l'on peut penser que l'on peut borner les pods et le seul en foncton de la talle de la rétne. C'est vra mas les résultats de complexté énoncés c-dessous (sans démonstraton) montrent que cette dée n'est pas applcable en pratque. Théorème 5 Page 11 sur 26
12 1. Toute foncton booléenne lnéarement séparable sur n varables peut être mplantée par un perceptron dont les pods synaptques enters w sont tels que w ( n +1) n +1/2. 2. Il exste des foncton booléennes lnéarement séparables sur n varables qu requèrent des pods enters supéreurs à 2 n +1/2. Ces résultats sont assez décevants. Le premer montre que l'on peut borner les pods synaptques en foncton de la talle de la rétne, mas par un nombre tellement grand que toute applcaton pratque de ce résultat semble exclue. Le second résultat montre en partculer que l'algorthme d'apprentssage peut nécesster un nombre exponentel d'étapes (en foncton de la talle de la rétne) avant de s'arrêter. En effet, les pods ne varent qu'au plus d'une unté à chaque étape. Même lorsque l'algorthme d'apprentssage du perceptron converge, ren ne garantt que la soluton sera robuste, c'est-à-dre qu'elle ne sera pas remse en cause par la présentaton d'un seul nouvel exemple. Pour s'en persuader, l sufft de se reporter à l'exemple??. Supposons qu'on ajoute l'exemple ((3,1),0), cet exemple remet en cause l'hypothèse générée car le perceptron sort par notre algorthme assoce la classe 1 à la descrpton (3,1). Un << bon >> algorthme d'apprentssage devrat produre une soluton robuste. Graphquement, s on consdère un échantllon lnéarement séparable, une soluton robuste serat << à m-chemn >> entre les ponts de classe 1 et de classe 0 comme le montre la Fgure??. Fgure 3.8 : Un nouvel exemple peut remettre en cause le perceptron apprs. Pre encore, cet algorthme n'a aucune tolérance au << brut >> : s du brut, c'est-à-dre une nformaton mal classée, vent perturber les données d'entrée, le perceptron ne convergera jamas. En effet, des données lnéarement séparables peuvent ne plus l'être à cause du brut. En partculer, les problèmes non-détermnstes, c'est-à-dre pour lesquels une même descrpton peut représenter des éléments de classes dfférentes ne peuvent pas être tratés à l'ade d'un perceptron. S on consdère les données de l'exemple présenté dans la Fgure??, les données ne sont pas lnéarement séparables, mas un << bon >> algorthme d'apprentssage pour le perceptron devrat être capable de produre un séparateur lnéare comme celu qu est présenté dans cette même fgure, ce qu n'est pas le cas de l'algorthme par correcton d'erreur. Page 12 sur 26
13 Fgure 3.9 : Apprentssage en présence de brut Le but des sectons suvantes est de présenter des algorthmes d'apprentssage du perceptron qu produsent des solutons robustes pour des échantllons lnéarement séparables et des solutons << approxmatves >> pour des échantllons non lnéarement séparables Apprentssage par descente de gradent Introducton Plutôt que d'obtenr un perceptron qu classfe correctement tous les exemples, l s'agra mantenant de calculer une erreur et d'essayer de mnmser cette erreur. Pour ntrodure cette noton d'erreur, on utlse des pods réels et on élmne la noton de seul (ou d'entrée supplémentare), ce qu sgnfe que la sorte sera égale au potentel post-synaptque et sera donc réelle. Défnton 7 Un perceptron lnéare prend en entrée un vecteur x de n valeurs x 1,..., x n et calcule une sorte o. Un perceptron est défn par la donnée d'un vecteur w de n constantes : les coeffcents synaptques w 1,..., w n. La sorte o est défne par : o= x. w= n =1 w x (3.12) L'erreur d'un perceptron P défn par w =( w 1,..., w n ) sur un échantllon d'apprentssage S d'exemples ( x s, c s ) est défne en utlsant la foncton erreur quadratque par : E( w) = 1/2 ( c s - o s ) 2 (3.13) ( x s,c s )Î S où o s est la sorte calculée par P sur l'entrée x s. L'erreur mesure donc l'écart entre les sortes attendue et calculée sur l'échantllon complet. On remarque que E( w ) = 0 s et seulement s le perceptron classfe correctement l'échantllon complet. On suppose S fxé, le problème est donc de détermner un vecteur w qu mnmse E( w ). Une méthode qu permet de rechercher le mnmum d'une foncton est d'utlser la méthode du gradent. Cette méthode est rappelée mantenant : Méthode du gradent Sot f une foncton d'une varable réelle à valeurs réelles, suffsamment dérvable dont on recherche un mnmum. La méthode du gradent construt une sute x qu dot en prncpe s'approcher du mnmum. Pour cela, on part d'une valeur Page 13 sur 26
14 n quelconque x 0 et l'on construt la sute récurrente par : pour tout n > 0, x n+1 = x n + D x n avec D x n = - e f'( x n ) où e est une valeur << ben >> chose. On a : f( x n+1 ) = f( x n - e f'( x n ))» f( x n ) - e ( f'( x )) 2 n d'après le théorème des approxmatons fnes s e f'( x n ) est << suffsamment >> pett. On vot que, sous réserve de la correcton de l'approxmaton, f( x n+1 ) est nféreur à f( x n ). Fgure 3.10 : La méthode du gradent On remarque que x n+1 est d'autant plus élogné de x n que la pente de la courbe en x n est grande. On peut décder d'arrêter l'tératon lorsque cette pente est suffsamment fable. Les nconvénents ben connus de cette méthode sont : 1. le chox de e est emprque, 2. s e est trop pett, le nombre d'tératons peut être très élevé, 3. s e est trop grand, les valeurs de la sute rsquent d'oscller autour du mnmum sans converger, 4. ren ne garantt que le mnmum trouvé est un mnmum global. Algorthme d'apprentssage par descente de gradent E est une foncton des n varables w. La méthode du gradent a été rappelée dans le cas d'une varable réelle, mas cette méthode peut être étendue au cas de fonctons de pluseurs varables réelles. Pour mettre en oeuvre la méthode applquée à la foncton erreur quadratque E, nous allons, tout d'abord, évaluer la dérvée partelle de E par rapport à w, pour tout. On a : E( w) 1 = w 2 w S ( c s - o s ) 2 1 = 2 S w ( c s - o s ) 2 1 = 2 S 2 ( c s - o s ) w ( c s - o s )= S ( c s - o s ) w ( c s - w. s x )= S ( c s - o s ) (- x s ) où x s est la ème composante du vecteur x s. L'applcaton de la méthode du gradent nous nvte donc à modfer le pods w après une présentaton complète de S d'une quantté D w défne par : D w = - e E( w) = e w S ( c s - o s ) x s (3.14) L'algorthme d'apprentssage par descente de gradent du perceptron lnéare peut mantenant être défn : Page 14 sur 26
15 Algorthme par descente de gradent : Entrée : un échantllon S de R n {0,1} ; e Intalsaton aléatore des pods w pour entre 1 et n Répéter Pour tout D w 0 fnpour Pour tout exemple ( x s, c s ) de S calculer la sorte o s Pour tout D w D w + e ( c s - o s ) x s fnpour fnpour Pour tout w w + D w fnpour fnrépéter Sorte : Un perceptron P défn par ( w 1,..., w n ) La foncton erreur quadratque ne possède qu'un mnmum (la surface est une paraboloïde). L'algorthme précédent est assuré de converger, même s l'échantllon d'entrée n'est pas lnéarement séparable, vers un mnmum de la foncton erreur pour un e ben chos suffsamment pett. S e est trop grand, on rsque d'oscller autour du mnmum. Pour cette rason, une modfcaton classque est de dmnuer graduellement la valeur de e en foncton du nombre d'tératons. Le prncpal défaut est que la convergence peut être très lente et que chaque étape nécesste le calcul sur tout l'ensemble d'apprentssage. Algorthme d'apprentssage de Wdrow-Hoff Cet algorthme est une varante très utlsée de l'algorthme précédent. Au leu de calculer les varatons des pods en sommant sur tous les exemples de S, l'dée est de modfer les pods à chaque présentaton d'exemple. La règle de modfcaton des pods donnée dans l'équaton?? devent : D w = e ( c s - o s ) x s (3.15) Cette règle est appelée règle delta, ou règle Adalne, ou encore règle de Wdrow-Hoff d'après le nom de ses nventeurs. L'algorthme s'écrt alors : Algorthme de Wdrow-Hoff : Entrée : un échantllon S de R n {0,1} ; e Intalsaton aléatore des pods w pour entre 1 et n Répéter Prendre un exemple ( x, c) dans S Calculer la sorte o du perceptron pour l'entrée x - - Mse à jour des pods - - Pour de 1 à n w w + e ( c- o) x fnpour fnrépéter Sorte : Un perceptron P défn par ( w 0, w 1,..., w n ) En général, on parcourt l'échantllon dans un ordre prédéfn. Le crtère d'arrêt généralement chos est : pour un passage complet de l'échantllon, toutes les modfcatons de pods sont en dessous d'un seul prédéfn. Au coeffcent e près dans la règle de modfcaton des pods, on retrouve l'algorthme d'apprentssage par correcton d'erreur. Pour l'algorthme de Wdrow-Hoff, l y a correcton chaque fos que la sorte totale (qu est un réel) est dfférente de la valeur attendue (égale à 0 ou 1). Ce n'est donc pas une méthode d'apprentssage par correcton d'erreur pusqu'l y a modfcaton du perceptron dans (presque) tous les cas. Rappelons également que l'algorthme par correcton d'erreur produt en sorte un perceptron lnéare à seul alors que l'algorthme par descente de gradent produt un perceptron lnéare. L'avantage de l'algorthme de Wdrow-Hoff par rapport à l'algorthme par correcton d'erreur est que, même s l'échantllon d'entrée n'est pas lnéarement séparable, l'algorthme va converger vers une soluton << optmale >> (sous réserve du bon chox du paramètre e). L'algorthme est, par conséquent, plus robuste au brut (vor Fgure??). Page 15 sur 26
16 L'algorthme de Wdrow-Hoff s'écarte de l'algorthme du gradent sur un pont mportant : on modfe les pods après présentaton de chaque exemple en foncton de l'erreur locale et non de l'erreur globale. Ren ne prouve donc que la dmnuton de l'erreur en un pont ne va pas être compensée par une augmentaton de l'erreur pour les autres ponts. La justfcaton emprque de cette manère de procéder est commune à toutes les méthodes adaptatves : le champ d'applcaton des méthodes adaptatves est justement l'ensemble des problèmes pour lesquels des ajustements locaux vont fnr par converger vers une soluton globale. L'algorthme de Wdrow-Hoff est très souvent utlsé en pratque et donne de bons résultats. La convergence est, en général, plus rapde que par la méthode du gradent. Il est fréquent pour cet algorthme de fare dmnuer la valeur de e en foncton du nombre d'tératons comme pour l'algorthme du gradent Concluson En concluson, l'apprentssage par perceptron ou par la méthode du gradent ne sont ren d'autre que des technques de séparaton lnéare qu'l faudrat comparer aux technques utlsées habtuellement en statstques. Ces méthodes sont non paramétrques, c'est-à-dre qu'elles n'exgent aucune autre hypothèse sur les données que la séparablté. On peut montrer que << presque >> tous les échantllons de mons de 2n exemples sont lnéarement séparables lorsque n est le nombre de varables. Une classfcaton correcte d'un pett échantllon n'a donc aucune valeur prédctve. Par contre, lorsque l'on travalle sur suffsamment de données et que le problème s'y prête, on constate emprquement que le perceptron apprs par un des algorthmes précédents a un bon pouvor prédctf. Il est ben évdent que la plupart des problèmes d'apprentssage qu se posent naturellement ne peuvent pas être résolus par des méthodes auss smples : l n'y a que très peu d'espor que les exemples << naturels >> se répartssent << sagement >> de part et d'autre d'un hyperplan. Une manère de résoudre cette dffculté serat sot de mettre au pont des séparateurs non-lnéares, sot (ce qu revent à peu près au même) de complexfer l'espace de représentaton de manère à lnéarser le problème ntal. C'est ce que permettent de fare les réseaux multcouches que nous étudons mantenant. 3.3 Les réseaux mult-couches Introducton et défnton de l'archtecture Un perceptron lnéare à seul est ben adapté pour des échantllons lnéarement séparables. Cependant, dans la plupart des problèmes réels, cette condton n'est pas réalsée. Un perceptron lnéare à seul est consttué d'un seul neurone. On s'est très vte rendu compte qu'en combnant pluseurs neurones le pouvor de calcul état augmenté. Par exemple, dans le cas des fonctons booléennes, l est facle de calculer le XOR en utlsant deux neurones lnéares à seul. Cet exemple est présenté dans la fgure??. Fgure 3.11 : Il sufft de rajouter un neurone ntermédare entre la rétne et la cellule de décson pour pouvor calculer le XOR Page 16 sur 26
17 La noton de perceptron mult-couches (PMC) a ans été défne. On consdère une couche d'entrée qu correspond aux varables d'entrée, une couche de sortes, et un certan nombre de couches ntermédares. Les lens n'exstent qu'entre les cellules d'une couche avec les cellules de la couche suvante. Le XOR peut être calculé par un perceptron mult-couches présenté dans la fgure?? en transformant légèrement le réseau présenté dans la fgure??. Fgure 3.12 : PMC pour le XOR ; les lens avec pods nul ne sont pas représentés Défnton 8 Un réseau de neurones à couches cachées est défn par une archtecture vérfant les proprétés suvantes : les cellules sont répartes de façon exclusve dans des couches C 0, C 1,..., C q, la premère couche C 0 est la rétne composée des cellules d'entrée qu correspondent aux n varables d'entrée ; les couches C 1,..., C q -1 sont les couches cachées ; la couche C q est composée de la (ou les) cellule(s) de décson, Les entrées d'une cellule d'une couche C avec 1 sont toutes les cellules de la couche C -1 et aucune autre cellule. La dynamque du réseau est synchrone. Le réseau présenté dans la fgure?? pour le calcul du XOR est un réseau à une couche cachée. L'archtecture d'un réseau à couches cachées est sans rétroacton. Dans notre défnton, nous avons supposé qu'une cellule avat pour entrée toutes les cellules de la couche précédente, ce peut être un sous-ensemble des cellules de la couche précédente. Ce qu est prmordal dans la défnton, c'est que les entrées appartennent unquement à la couche précédente, c'est-à-dre que la structure en couches est respectée et qu'l n'y a pas de rétroacton. Supposons que les cellules élémentares soent des perceptrons lnéares à seul, on parle alors de perceptrons mult-couches (PMC) lnéare à seul. Sot n varables bnares, l est facle de montrer que le OU n-are est calculable par un perceptron lnéare à seul et que toute conjoncton sur les lttéraux défns à partr des n varables est calculable par un perceptron lnéare à seul. Étant donné une foncton booléenne sur n varables, cette foncton peut être mse sous forme normale dsjonctve, l sufft alors que chaque cellule de la couche cachée calcule une conjoncton et que la cellule de sorte calcule la dsjoncton des résultats. Nous avons ans démontré que : Proposton 1 Toute foncton booléenne peut être calculée par un PMC lnéare à seul comprenant une seule couche cachée. Cependant, s l'on utlse cette méthode pour construre un réseau de neurones pour calculer une foncton booléenne quelconque, la couche cachée pourra contenr jusqu'à 2 n neurones (où n est la talle de la rétne), ce qu est nacceptable en pratque. On peut montrer par alleurs que cette soluton est lon d'être la melleure (vor le cas de la foncton parté dans Page 17 sur 26
18 l'exercce??). Pour pouvor utlser les réseaux mult-couches en apprentssage, deux choses sont ndspensables : une méthode ndquant comment chosr une archtecture de réseau pour résoudre un problème donné. C'est-à-dre, pouvor répondre aux questons suvantes : comben de couches cachées? comben de neurones par couches cachées? une fos l'archtecture chose, un algorthme d'apprentssage qu calcule, à partr de l'échantllon d'apprentssage, les valeurs des coeffcents synaptques pour construre un réseau adapté au problème. Le premer pont est encore un sujet de recherche actf : quelques algorthmes d'apprentssage auto-constructfs ont été proposés. Leur rôle est double : apprentssage de l'échantllon avec un réseau courant, modfcaton du réseau courant, en ajoutant de nouvelles cellules ou une nouvelle couche, en cas d'échec de l'apprentssage. Il semble assez facle de concevor des algorthmes auto-constructfs qu classent correctement l'échantllon, mas beaucoup plus dffcle d'en obtenr qu aent un bon pouvor de généralsaton. Il a fallu attendre le début des années 80 pour que le deuxème problème trouve une soluton : l'algorthme de rétropropagaton du gradent, découvert smultanément par des équpes françase et amércane. Cet algorthme est, comme son nom l'ndque, basé sur la méthode du gradent. Il est donc nécessare de consdérer des fonctons d'erreur dérvables. Cec mplque qu'l n'est pas possble de consdérer comme cellule élémentare un perceptron lnéare à seul. L'dée est alors de prendre comme cellule élémentare un perceptron lnéare. Malheureusement, dans ce cas, l'ntroducton de cellules supplémentares n'augmente pas l'expressvté. En effet, une combnason lnéare de fonctons lnéares est une foncton lnéare! Nous allons donc avor beson de consdérer une nouvelle cellule élémentare. La sorte de cette cellule sera une foncton de varable réelle dérvable qu est une approxmaton de la foncton de Heavsde. Nous donnons dans la secton suvante la défnton d'une telle cellule et présentons l'algorthme de rétropropagaton du gradent L'algorthme de rétropropagaton du gradent La foncton sgmoïde de paramètre k>0 est défne par : Défnton du PMC s k ( x) = e kx 1 e kx = +1 1+e-kx (3.16) Cette foncton est une approxmaton ndéfnment dérvable de la foncton à seul de Heavsde, d'autant melleure que k est grand. Nous prendrons k=1 dans la sute, sot la foncton s (vor fgure??) défne par : s( x) = e x e x = e-x (3.17) Page 18 sur 26
19 Fgure 3.13 : La foncton sgmoïde On peut remarquer que la dérvée de la foncton s est smple à calculer : s'( x) = e x ( )(1- ( )) (3.18) (1+ ex) 2= s x s x Il est essentel que ce calcul sot smple car la dérvée de cette foncton sera utlsée dans la règle de mse à jour des pods par l'algorthme de rétropropagaton du gradent. On utlse auss parfos, pour cette rason, la foncton th( x) qu est une approxmaton de la foncton de Heavsde dont la dérvée est égale à 1- th 2 ( x). Nous pouvons mantenant défnr les réseaux consdérés dans la sute de ce cours : Défnton 9 Une cellule élémentare à n entrées réelles x = (x 1,...,x n ) est défne par les pods synaptques réels w = (w 1,...,w n ) et la sorte o est calculée par la formule suvante : o( x) = 1 1+e -yoù y = x. w= Introducton de l'algorthme Le prncpe de l'algorthme est, comme dans le cas du perceptron lnéare, de mnmser une foncton d'erreur. Il s'agt ensute de calculer la contrbuton à cette erreur de chacun des pods synaptques. C'est cette étape qu est dffcle. En effet, chacun des pods nflue sur le neurone correspondant, mas, la modfcaton pour ce neurone va nfluer sur tous les neurones des couches suvantes. Ce problème est parfos désgné sous le nom de << Credt Assgnment Problem >>. Sot un PMC défn par une archtecture à n entrées et à p sortes, sot w le vecteur des pods synaptques assocés à tous les lens du réseau. L'erreur du PMC sur un échantllon d'apprentssage S d'exemples ( x s, c s ) est défne par : n =1 w x (3.19) un perceptron mult-couches (PMC) est un réseau de neurones à couches cachées avec les cellules élémentares ans défnes. E( w) = 1/2 ( x s, c s )Î S p k=1 ( c s k - o s k ) 2 (3.20) où o s k est la k-ème composante du vecteur de sorte o s calculé par le PMC sur l'entrée x s. L'erreur mesure donc l'écart entre les sortes attendue et calculée sur l'échantllon complet. On suppose S fxé, le problème est donc de détermner un vecteur w qu mnmse E( w ). Cependant, de la même façon que pour le perceptron avec la règle de Wdrow-Hoff, plutôt que de chercher à mnmser l'erreur globale sur l'échantllon complet, on cherche à mnmser l'erreur sur chaque présentaton ndvduelle d'exemple. L'erreur pour un exemple est : E ( x, c ) ( w) = 1/2 p k=1 ( c k - o ) 2 k (3.21) Nous notons E la foncton E (x,c ), E est une foncton des pods synaptques, pour applquer la méthode du gradent, l nous faut évaluer les dérvées partelles de cette foncton E par rapport aux pods synaptques. Les calculs qu suvent sont facles. La seule complcaton provent de la complexté des notatons et des ndces utlsés, complcaton due à la structure du PMC. Nous utlsons les notatons suvantes (vor fgure??) : Page 19 sur 26
20 chaque cellule est défne par un ndce, le réseau comporte p cellules de sorte, s est l'ndce d'une cellule de sorte, c est la sorte attendue pour cette cellule sur l'entrée x, w j est le pods synaptque assocé au len entre cellule j vers la cellule, ce qu mplque qu'elles se trouvent sur deux couches successves par défnton de l'archtecture, x j est l'entrée assocée au len entre cellule j vers cellule, Pred( ) est l'ensemble des cellules dont la sorte est une entrée de la cellule ; cec mplque que la cellule n'est pas une cellule d'entrée et que tous les éléments de Pred( ) appartennent à la couche précédente de celle à laquelle appartent la cellule, y l'entrée totale de la cellule, sot y = j Î Pred( ) w j x j, o est la sorte de la cellule, sot o = s( y ), Succ( ) est l'ensemble des cellules qu prennent comme entrée la sorte de la cellule, cec mplque la cellule n'est pas une cellule de sorte et que tous les éléments de Succ( ) appartennent à la couche suvante de celle à laquelle appartent la cellule. Fgure 3.14 : notatons utlsées Il nous reste mantenant à évaluer E( w )/ w j que nous noterons E / w j. Tout d'abord remarquons que w j ne peut nfluencer la sorte du réseau qu'à travers le calcul de la quantté, ce qu nous autorse à écrre que : E w = E y j y = E x w y j (3.22) j Il nous sufft donc de calculer E / y, pour cela, nous allons dstnguer deux cas : le cas où la cellule est une cellule de sorte et le cas où c'est une cellule nterne. La cellule est une cellule de sorte Dans ce cas, la quantté ne peut nfluencer la sorte du réseau que par le calcul de. Nous avons donc : y y E y = E o o (3.23) y Nous allons mantenant calculer chacune des deux dérvées partelles apparassant dans l'équaton??. Pour la premère de ces deux dérvées nous avons : o E o = 1 o 2 p ( c k - o k ) 2 Page 20 sur 26
21 Seul le terme correspondant à k= a une dérvée non nulle, ce qu nous donne fnalement : E o = 1 o ( 2 c - o ) 2 = -( c - o ) (3.24) Pour la seconde des deux dérvées de l'équaton??, en utlsant la défnton du calcul de la sorte d'une cellule élémentare et la formule de calcul de la dérvée de la foncton sgmoïde donnée en??, nous avons : o s( y ) = = s( y )(1- ( ))= (1- ) (3.25) y y s y o o En substtuant les résultats obtenus par les équatons?? et?? dans l'équaton??, nous obtenons : E = -( c - ) (1- ) (3.26) y o o o La cellule est une cellule nterne Dans ce cas, la quantté y va nfluencer le réseau par tous les calculs des cellules de l'ensemble Succ( ). Nous avons alors : Sot encore : E y = k Î Succ( ) E y k y k y = k Î Succ( ) E = o (1- ) y o Par l'étude de ces deux cas, nous avons obtenu deux équatons?? et?? qu nous permettent de calculer les dérvées partelles E / y pour toute cellule. Le calcul devra être fat pour les cellules de sorte pus des cellules de l'avant-dernère couche jusqu'aux cellules de la premère couche. C'est pour cette rason que l'on parle de << rétropropagaton >>. Grace à l'équaton??, nous pouvons calculer toutes les dérvées partelles E( w )/ w j. Enfn, pour en dédure la modfcaton à effectuer sur les pods synaptques, l nous reste smplement à rappeler que la méthode du gradent nous ndque que : Tous les éléments sont donc en place pour nous permettre de défnr l'algorthme de rétropropagaton du gradent. Pour écrre l'algorthme, nous allons smplfer quelques notatons. Nous appelons d la quantté - E / y. En utlsant les équatons??,??,?? et??, nous obtenons les formules suvantes : k=1 E y k o y = k o y k Î Succ( ) E( w) D w j = - e (3.28) w j k Î Succ( ) E w (3.27) y k k Algorthme de rétropropagaton du gradent E w (1- ) y k o o k pour une cellule de sorte, nous avons : = (1- )( - ) (3.29) d o o c o pour une cellule nterne, nous avons : la modfcaton du pods est alors défne par : w j = (1- ) d o o k Î Succ( ) d k w k (3.30) Page 21 sur 26
Remboursement d un emprunt par annuités constantes
Sére STG Journées de formaton Janver 2006 Remboursement d un emprunt par annutés constantes Le prncpe Utlsaton du tableur Un emprunteur s adresse à un prêteur pour obtenr une somme d argent (la dette)
Plus en détailLes jeunes économistes
Chaptre1 : les ntérêts smples 1. défnton et calcul pratque : Défnton : Dans le cas de l ntérêt smple, le captal reste nvarable pendant toute la durée du prêt. L emprunteur dot verser, à la fn de chaque
Plus en détailMontage émetteur commun
tour au menu ontage émetteur commun Polarsaton d un transstor. ôle de la polarsaton La polarsaton a pour rôle de placer le pont de fonctonnement du transstor dans une zone où ses caractérstques sont lnéares.
Plus en détailMesure avec une règle
Mesure avec une règle par Matheu ROUAUD Professeur de Scences Physques en prépa, Dplômé en Physque Théorque. Lycée Alan-Fourner 8000 Bourges ecrre@ncerttudes.fr RÉSUMÉ La mesure d'une grandeur par un système
Plus en détailSTATISTIQUE AVEC EXCEL
STATISTIQUE AVEC EXCEL Excel offre d nnombrables possbltés de recuellr des données statstques, de les classer, de les analyser et de les représenter graphquement. Ce sont prncpalement les tros éléments
Plus en détailEditions ENI. Project 2010. Collection Référence Bureautique. Extrait
Edtons ENI Project 2010 Collecton Référence Bureautque Extrat Défnton des tâches Défnton des tâches Project 2010 Sasr les tâches d'un projet Les tâches représentent le traval à accomplr pour attendre l'objectf
Plus en détailQ x2 = 1 2. est dans l ensemble plus grand des rationnels Q. Continuons ainsi, l équation x 2 = 1 2
Exo7 Nombres complexes Vdéo parte. Les nombres complexes, défntons et opératons Vdéo parte. Racnes carrées, équaton du second degré Vdéo parte 3. Argument et trgonométre Vdéo parte 4. Nombres complexes
Plus en détailFiche n 7 : Vérification du débit et de la vitesse par la méthode de traçage
Fche n 7 : Vérfcaton du débt et de la vtesse par la méthode de traçage 1. PRINCIPE La méthode de traçage permet de calculer le débt d un écoulement ndépendamment des mesurages de hauteur et de vtesse.
Plus en détailExercices d Électrocinétique
ercces d Électrocnétque Intensté et densté de courant -1.1 Vtesse des porteurs de charges : On dssout une masse m = 20g de chlorure de sodum NaCl dans un bac électrolytque de longueur l = 20cm et de secton
Plus en détailPlan. Gestion des stocks. Les opérations de gestions des stocks. Les opérations de gestions des stocks
Plan Geston des stocks Abdellah El Fallah Ensa de Tétouan 2011 Les opératons de gestons des stocks Les coûts assocés à la geston des stocks Le rôle des stocks Modèle de la quantté économque Geston calendare
Plus en détail1 Introduction. 2 Définitions des sources de tension et de courant : Cours. Date : A2 Analyser le système Conversion statique de l énergie. 2 h.
A2 Analyser le système Converson statque de l énerge Date : Nom : Cours 2 h 1 Introducton Un ConVertsseur Statque d énerge (CVS) est un montage utlsant des nterrupteurs à semconducteurs permettant par
Plus en détailLE RÉGIME DE RETRAITE DU PERSONNEL CANADIEN DE LA CANADA-VIE (le «régime») INFORMATION IMPORTANTE CONCERNANT LE RECOURS COLLECTIF
1 LE RÉGIME DE RETRAITE DU PERSONNEL CANADIEN DE LA CANADA-VIE (le «régme») INFORMATION IMPORTANTE CONCERNANT LE RECOURS COLLECTIF AVIS AUX RETRAITÉS ET AUX PARTICIPANTS AVEC DROITS ACQUIS DIFFÉRÉS Expédteurs
Plus en détailDirigeant de SAS : Laisser le choix du statut social
Drgeant de SAS : Lasser le chox du statut socal Résumé de notre proposton : Ouvrr le chox du statut socal du drgeant de SAS avec 2 solutons possbles : apprécer la stuaton socale des drgeants de SAS comme
Plus en détailAssurance maladie et aléa de moralité ex-ante : L incidence de l hétérogénéité de la perte sanitaire
Assurance malade et aléa de moralté ex-ante : L ncdence de l hétérogénété de la perte santare Davd Alary 1 et Franck Ben 2 Cet artcle examne l ncdence de l hétérogénété de la perte santare sur les contrats
Plus en détailhal-00409942, version 1-14 Aug 2009
Manuscrt auteur, publé dans "MOSIM' 008, Pars : France (008)" 7 e Conférence Francophone de MOdélsaton et SIMulaton - MOSIM 08 - du mars au avrl 008 - Pars - France «Modélsaton, Optmsaton et Smulaton des
Plus en détail1.0 Probabilité vs statistique...1. 1.1 Expérience aléatoire et espace échantillonnal...1. 1.2 Événement...2
- robabltés - haptre : Introducton à la théore des probabltés.0 robablté vs statstque.... Expérence aléatore et espace échantllonnal.... Événement.... xomes défnton de probablté..... Quelques théorèmes
Plus en détailGEA I Mathématiques nancières Poly. de révision. Lionel Darondeau
GEA I Mathématques nancères Poly de révson Lonel Darondeau Intérêts smples et composés Voc la lste des exercces à révser, corrgés en cours : Exercce 2 Exercce 3 Exercce 5 Exercce 6 Exercce 7 Exercce 8
Plus en détailÉLÉMENTS DE THÉORIE DE L INFORMATION POUR LES COMMUNICATIONS.
ÉLÉMETS DE THÉORIE DE L IFORMATIO POUR LES COMMUICATIOS. L a théore de l nformaton est une dscplne qu s appue non seulement sur les (télé-) communcatons, mas auss sur l nformatque, la statstque, la physque
Plus en détailCOMPARAISON DE MÉTHODES POUR LA CORRECTION
COMPARAISON DE MÉTHODES POUR LA CORRECTION DE LA NON-RÉPONSE TOTALE : MÉTHODE DES SCORES ET SEGMENTATION Émle Dequdt, Benoît Busson 2 & Ncolas Sgler 3 Insee, Drecton régonale des Pays de la Lore, Servce
Plus en détailCHAPITRE 14 : RAISONNEMENT DES SYSTÈMES DE COMMANDE
HAITRE 4 : RAISONNEMENT DES SYSTÈMES DE OMMANDE RAISONNEMENT DES SYSTÈMES DE OMMANDE... 2 INTRODUTION... 22 RAELS... 22 alcul de la valeur ntale de la répone à un échelon... 22 alcul du gan tatque... 22
Plus en détailBTS GPN 2EME ANNEE-MATHEMATIQUES-MATHS FINANCIERES MATHEMATIQUES FINANCIERES
MATHEMATIQUES FINANCIERES I. Concepts généraux. Le référentel précse : Cette parte du module M4 «Acquérr des outls mathématques de base nécessares à l'analyse de données économques» est en relaton avec
Plus en détailContrats prévoyance des TNS : Clarifier les règles pour sécuriser les prestations
Contrats prévoyance des TNS : Clarfer les règles pour sécurser les prestatons Résumé de notre proposton : A - Amélorer l nformaton des souscrpteurs B Prévor plus de souplesse dans l apprécaton des revenus
Plus en détailChapitre IV : Inductance propre, inductance mutuelle. Energie électromagnétique
Spécale PSI - Cours "Electromagnétsme" 1 Inducton électromagnétque Chaptre IV : Inductance propre, nductance mutuelle. Energe électromagnétque Objectfs: Coecents d nductance propre L et mutuelle M Blan
Plus en détailGrandeur physique, chiffres significatifs
Grandeur physque, chffres sgnfcatfs I) Donner le résultat d une mesure en correspondance avec l nstrument utlsé : S avec un nstrument, ren n est ndqué sur l ncerttude absolue X d une mesure X, on consdère
Plus en détailCalculer le coût amorti d une obligation sur chaque exercice et présenter les écritures dans les comptes individuels de la société Plumeria.
1 CAS nédt d applcaton sur les normes IAS/IFRS Coût amort sur oblgatons à taux varable ou révsable La socété Plumera présente ses comptes annuels dans le référentel IFRS. Elle détent dans son portefeulle
Plus en détailTerminal numérique TM 13 raccordé aux installations Integral 33
Termnal numérque TM 13 raccordé aux nstallatons Integral 33 Notce d utlsaton Vous garderez une longueur d avance. Famlarsez--vous avec votre téléphone Remarques mportantes Chaptres à lre en prorté -- Vue
Plus en détailTD 1. Statistiques à une variable.
Danel Abécasss. Année unverstare 2010/2011 Prépa-L1 TD de bostatstques. Exercce 1. On consdère la sére suvante : TD 1. Statstques à une varable. 1. Calculer la moyenne et l écart type. 2. Calculer la médane
Plus en détailGénéralités sur les fonctions 1ES
Généraltés sur les fonctons ES GENERALITES SUR LES FNCTINS I. RAPPELS a. Vocabulare Défnton Une foncton est un procédé qu permet d assocer à un nombre x appartenant à un ensemble D un nombre y n note :
Plus en détailPro2030 GUIDE D UTILISATION. Français
Pro2030 GUIDE D UTILISATION Franças Contents Garante... Introducton... 1 Artcle nº 605056 Rév C Schéma nº A605056 Novembre 2010 2010 YSI Incorporated. Le logo YSI est une marque déposée de YSI Incorporated.
Plus en détailInterface OneNote 2013
Interface OneNote 2013 Interface OneNote 2013 Offce 2013 - Fonctons avancées Lancer OneNote 2013 À partr de l'nterface Wndows 8, utlsez une des méthodes suvantes : - Clquez sur la vgnette OneNote 2013
Plus en détailGENESIS - Generalized System for Imputation Simulations (Système généralisé pour simuler l imputation)
GENESS - Generalzed System for mputaton Smulatons (Système généralsé pour smuler l mputaton) GENESS est un système qu permet d exécuter des smulatons en présence d mputaton. L utlsateur fournt un ensemble
Plus en détailMÉTHODES DE SONDAGES UTILISÉES DANS LES PROGRAMMES D ÉVALUATIONS DES ÉLÈVES
MÉTHODES DE SONDAGES UTILISÉES DANS LES PROGRAMMES D ÉVALUATIONS DES ÉLÈVES Émle Garca, Maron Le Cam et Therry Rocher MENESR-DEPP, bureau de l évaluaton des élèves Cet artcle porte sur les méthodes de
Plus en détailRéseau RRFR pour la surveillance dynamique : application en e-maintenance.
Réseau RRFR pour la survellance dynamue : applcaton en e-mantenance. RYAD ZEMOURI, DANIEL RACOCEANU, NOUREDDINE ZERHOUNI Laboratore Unverstare de Recherche en Producton Automatsée (LURPA) 6, avenue du
Plus en détailChapitre 3 : Incertitudes CHAPITRE 3 INCERTITUDES. Lignes directrices 2006 du GIEC pour les inventaires nationaux de gaz à effet de serre 3.
Chaptre 3 : Incerttudes CHAPITRE 3 INCERTITUDES Lgnes drectrces 2006 du GIEC pour les nventares natonaux de gaz à effet de serre 3.1 Volume 1 : Orentatons générales et établssement des rapports Auteurs
Plus en détailLes déterminants de la détention et de l usage de la carte de débit : une analyse empirique sur données individuelles françaises
Les détermnants de la détenton et de l usage de la carte de débt : une analyse emprque sur données ndvduelles françases Davd Boune Marc Bourreau Abel Franços Jun 2006 Département Scences Economques et
Plus en détailLes déterminants de la détention et de l usage de la carte de débit : une analyse empirique sur données individuelles françaises
Les détermnants de la détenton et de l usage de la carte de débt : une analyse emprque sur données ndvduelles françases Davd Boune a, Marc Bourreau a,b et Abel Franços a,c a Télécom ParsTech, Département
Plus en détailCREATION DE VALEUR EN ASSURANCE NON VIE : COMMENT FRANCHIR UNE NOUVELLE ETAPE?
CREATION DE VALEUR EN ASSURANCE NON VIE : COMMENT FRANCHIR UNE NOUVELLE ETAPE? Boulanger Frédérc Avanssur, Groupe AXA 163-167, Avenue Georges Clémenceau 92742 Nanterre Cedex France Tel: +33 1 46 14 43
Plus en détailLa théorie classique de l information. 1 ère partie : le point de vue de Kolmogorov.
La théore classque de l nformaton. ère parte : le pont de vue de Kolmogorov. La sute de caractères comme outl de descrpton des systèmes. La scence peut être vue comme l art de compresser les données quelles
Plus en détailIntegral T 3 Compact. raccordé aux installations Integral 5. Notice d utilisation
Integral T 3 Compact raccordé aux nstallatons Integral 5 Notce d utlsaton Remarques mportantes Remarques mportantes A quelle nstallaton pouvez-vous connecter votre téléphone Ce téléphone est conçu unquement
Plus en détailRAPPORT DE STAGE. Approcher la frontière d'une sous-partie de l'espace ainsi que la distance à cette frontière. Sujet : Master II : SIAD
UFR SCIENCES ET TECHNOLOGIES DEPARTEMENT DE MATHEMATIQUES ET INFORMATIQUE 63 177 AUBIERE CEDEX Année 2008-2009 Master II : SIAD RAPPORT DE STAGE Sujet : Approcher la frontère d'une sous-parte de l'espace
Plus en détailIDEI Report # 18. Transport. December 2010. Elasticités de la demande de transport ferroviaire: définitions et mesures
IDEI Report # 18 Transport December 2010 Elastctés de la demande de transport ferrovare: défntons et mesures Elastctés de la demande de transport ferrovare : Défntons et mesures Marc Ivald Toulouse School
Plus en détailStéganographie Adaptative par Oracle (ASO)
Stéganographe Adaptatve par Oracle ASO Sarra Kouder, Marc Chaumont, Wllam Puech To cte ths verson: Sarra Kouder, Marc Chaumont, Wllam Puech. Stéganographe Adaptatve par Oracle ASO. CORESA 12: COmpresson
Plus en détailSystème solaire combiné Estimation des besoins énergétiques
Revue des Energes Renouvelables ICRESD-07 Tlemcen (007) 109 114 Système solare combné Estmaton des besons énergétques R. Kharch 1, B. Benyoucef et M. Belhamel 1 1 Centre de Développement des Energes Renouvelables
Plus en détailPrêt de groupe et sanction sociale Group lending and social fine
Prêt de roupe et sancton socale Group lendn and socal fne Davd Alary Résumé Dans cet artcle, nous présentons un modèle d antsélecton sur un marché concurrentel du crédt. Nous consdérons l ntroducton de
Plus en détailCorrections adiabatiques et nonadiabatiques dans les systèmes diatomiques par calculs ab-initio
Correctons adabatques et nonadabatques dans les systèmes datomques par calculs ab-nto Compte rendu du traval réalsé dans le cadre d un stage de quatre mos au sen du Groupe de Spectroscope Moléculare et
Plus en détailBe inspired. Numéro Vert. Via Caracciolo 20 20155 Milano tel. +39 02 365 22 990 fax +39 02 365 22 991
Ggaset SX353 / französsch / A31008-X353-P100-1-7719 / cover_0_hedelberg.fm / 03.12.2003 s Be nspred www.onedrect.fr www.onedrect.es www.onedrect.t www.onedrect.pt 0 800 72 4000 902 30 32 32 02 365 22 990
Plus en détailEH SmartView. Identifiez vos risques et vos opportunités. www.eulerhermes.be. Pilotez votre assurance-crédit. Services en ligne Euler Hermes
EH SmartVew Servces en lgne Euler Hermes Identfez vos rsques et vos opportuntés Plotez votre assurance-crédt www.eulerhermes.be Les avantages d EH SmartVew L expertse Euler Hermes présentée de manère clare
Plus en détailI. Présentation générale des méthodes d estimation des projets de type «unité industrielle»
Evaluaton des projets et estmaton des coûts Le budget d un projet est un élément mportant dans l étude d un projet pusque les résultats économques auront un mpact sur la réalsaton ou non et sur la concepton
Plus en détailDES EFFETS PERVERS DU MORCELLEMENT DES STOCKS
DES EFFETS PERVERS DU MORCELLEMENT DES STOCKS Le cabnet Enetek nous démontre les mpacts négatfs de la multplcaton des stocks qu au leu d amélorer le taux de servce en se rapprochant du clent, le dégradent
Plus en détailVIELLE Marc. CEA-IDEI Janvier 1998. 1 La nomenclature retenue 3. 2 Vue d ensemble du modèle 4
GEMINI-E3 XL France Un outl destné à l étude des mpacts ndustrels de poltques énergétques et envronnementales VIELLE Marc CEA-IDEI Janver 1998 I LA STRUCTURE DU MODELE GEMINI-E3 XL FRANCE 3 1 La nomenclature
Plus en détailP R I S E E N M A I N R A P I D E O L I V E 4 H D
P R I S E E N M A I N R A P I D E O L I V E 4 H D Sommare 1 2 2.1 2.2 2.3 3 3.1 3.2 3.3 4 4.1 4.2 4.3 4.4 4.5 4.6 5 6 7 7.1 7.2 7.3 8 8.1 8.2 8.3 8.4 8.5 8.6 Contenu du carton... 4 Paramétrage... 4 Connexon
Plus en détailLa Quantification du Risque Opérationnel des Institutions Bancaires
HEC Montréal Afflée à l Unversté de Montréal La Quantfcaton du Rsque Opératonnel des Insttutons Bancares par Hela Dahen Département Fnance Thèse présentée à la Faculté des études supéreures en vue d obtenton
Plus en détailMODÈLE D ISING À UNE ET DEUX DIMENSIONS.
Chapter MODÈLE DISIG À UE ET DEUX DIMESIOS.. ITRODUCTIO. ous commençons, dans ce chaptre, létude dun problème de mécanque statstque de la matère condensée où leffet des nteractons est mportant. Le modèle
Plus en détailEn vue de l'obtention du. Présentée et soutenue par Meva DODO Le 06 novembre 2008
THÈSE En vue de l'obtenton du DOCTORAT DE L UNIVERSITÉ DE TOULOUSE Délvré par l'unversté Toulouse III - Paul Sabater Spécalté : Informatque Présentée et soutenue par Meva DODO Le 06 novembre 2008 Ttre
Plus en détailPaquets. Paquets nationaux 1. Paquets internationaux 11
Paquets Paquets natonaux 1 Paquets nternatonaux 11 Paquets natonaux Servces & optons 1 Créaton 3 1. Dmensons, pods & épasseurs 3 2. Présentaton des paquets 4 2.1. Face avant du paquet 4 2.2. Comment obtenr
Plus en détailREPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE. MEMOIRE Présentée à
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE MEMOIRE Présentée à L Unversté de Batna Faculté des Scences Département de Physque
Plus en détailINTRODUCTION. Jean-Pierre MAGNAN Chef de la section des ouvrages en terre Département des sols et fondations Laboratoire central
Etude numérque de la consoldaton undmensonnelle en tenant compte des varatons de la perméablté et de la compressblté du sol, du fluage et de la non-saturaton Jean-Perre MAGNAN Chef de la secton des ouvrages
Plus en détailImpôt sur la fortune et investissement dans les PME Professeur Didier MAILLARD
Conservatore atonal des Arts et Méters Chare de BAQUE Document de recherche n 9 Impôt sur la fortune et nvestssement dans les PME Professeur Dder MAILLARD Avertssement ovembre 2007 La chare de Banque du
Plus en détailPour plus d'informations, veuillez nous contacter au 04.75.05.52.62. ou à contact@arclim.fr.
Régulaton Sondes & Capteurs Détente frgo électronque Supervson & GTC Humdfcaton & Déshu. Vannes & Servomoteurs Comptage eau, elec., énerge Ancens artcles Cette documentaton provent du ste www.arclm.eu
Plus en détailLes prix quotidiens de clôture des échanges de quotas EUA et de crédits CER sont fournis par ICE Futures Europe
Méthodologe CDC Clmat Recherche puble chaque mos, en collaboraton avec Clmpact Metnext, Tendances Carbone, le bulletn mensuel d nformaton sur le marché européen du carbone (EU ETS). L obectf de cette publcaton
Plus en détailPage 5 TABLE DES MATIÈRES
Page 5 TABLE DES MATIÈRES CHAPITRE I LES POURCENTAGES 1. LES OBJECTIFS 12 2. LES DÉFINITIONS 14 1. La varaton absolue d'une grandeur 2. La varaton moyenne d'une grandeur (par unté de temps) 3. Le coeffcent
Plus en détailContact SCD Nancy 1 : theses.sciences@scd.uhp-nancy.fr
AVERTISSEMENT Ce document est le frut d'un long traval approuvé par le jury de soutenance et ms à dsposton de l'ensemble de la communauté unverstare élarge. Il est soums à la proprété ntellectuelle de
Plus en détailProjet de fin d études
Unversté Franços Rabelas Tours Ecole Polytechnque Unverstare de Tours Département Informatque Projet de fn d études Ordonnancement Juste à Temps avec geston des stocks Chopn Antone Mrault Arnaud 3ème année
Plus en détailCorrigé du problème de Mathématiques générales 2010. - Partie I - 0 0 0. 0.
Corrgé du problème de Mathématques générales 2010 - Parte I - 1(a. Sot X S A. La matrce A est un polynôme en X donc commute avec X. 1(b. On a : 0 = m A (A = m A (X n ; le polynôme m A (x n est annulateur
Plus en détailÉconométrie. Annexes : exercices et corrigés. 5 e édition. William Greene New York University
Économétre 5 e édton Annexes : exercces et corrgés Wllam Greene New York Unversty Édton françase drgée par Dder Schlacther, IEP Pars, unversté Pars II Traducton : Stéphane Monjon, unversté Pars I Panthéon-Sorbonne
Plus en détailsanté Les arrêts de travail des séniors en emploi
soldarté et DOSSIERS Les arrêts de traval des sénors en emplo N 2 2007 Les sénors en emplo se dstnguent-ls de leurs cadets en termes de recours aux arrêts de traval? Les sénors ne déclarent pas plus d
Plus en détailINTERNET. Initiation à
Intaton à INTERNET Surfez sur Internet Envoyez des messages Téléchargez Dscutez avec Skype Découvrez Facebook Regardez des vdéos Protégez votre ordnateur Myram GRIS Table des matères Internet Introducton
Plus en détailTRAVAUX PRATIQUES SPECTRO- COLORIMETRIE
UNIVERSITE MONTPELLIER 2 Département de Physque TRAVAUX PRATIQUES DE SPECTRO- COLORIMETRIE F. GENIET 2 INTRODUCTION Cet ensegnement de travaux pratques de seconde année se propose de revor rapdement l'aspect
Plus en détailL enseignement virtuel dans une économie émergente : perception des étudiants et perspectives d avenir
L ensegnement vrtuel dans une économe émergente : percepton des étudants et perspectves d avenr Hatem Dellag Laboratore d Econome et de Fnances applquées Faculté des scences économques et de geston de
Plus en détailEvaluation de performances d'ethernet commuté pour des applications temps réel
Evaluaton de performances d'ethernet commuté pour des applcatons temps réel Ans Koubâa, Ye-Qong Song LORIA-INRIA-INPL, Avenue de la Forêt de Haye - 5456 Vandoeuvre - France Emal : akoubaa@lorafr, song@lorafr
Plus en détailCHAPITRE DEUX : FORMALISME GEOMETRIQUE
CHPITRE DEUX FORMLISME GEOMETRIQUE. CHPITRE DEUX : FORMLISME GEOMETRIQUE verson.3, -8 I. GEOMETRIE DNS L ESPCE-TEMPS ) Prncpe de relatvté Le prncpe de relatvté peut s exprmer ans : toutes les los physques
Plus en détailProfessionnel de santé équipé de Médiclick!
Professonnel de santé équpé de Médclck! Dosser Médcal Partagé en Aqutane Ce gude vous présente les prncpales fonctonnaltés réservées aux professonnels de santé membres du réseau AquDMP. Sommare Connexon
Plus en détailUNIVERSITÉ DU QUÉBEC À MONTRÉAL L ASSURANCE AUTOMOBILE AU QUÉBEC : UNE PRIME SELON LE COÛT SOCIAL MARGINAL MÉMOIRE PRÉSENTÉ COMME EXIGENCE PARTIELLE
UNIVERSITÉ DU QUÉBEC À MONTRÉAL L ASSURANCE AUTOMOBILE AU QUÉBEC : UNE PRIME SELON LE COÛT SOCIAL MARGINAL MÉMOIRE PRÉSENTÉ COMME EXIGENCE PARTIELLE DE LA MAÎTRISE EN ÉCONOMIQUE PAR ERIC LÉVESQUE JANVIER
Plus en détailErP : éco-conception et étiquetage énergétique. Les solutions Vaillant. Pour dépasser la performance. La satisfaction de faire le bon choix.
ErP : éco-concepton et étquetage énergétque Les solutons Vallant Pour dépasser la performance La satsfacton de fare le bon chox. ErP : éco-concepton et étquetage énergétque Eco-concepton et Etquetage
Plus en détailMots-clés : Système multicapteurs, Réseau local, Réseaux de neurones, Supervision, Domotique. xigences système d'une nouvelle
Mots-clés : xgences système d'une nouvelle fonctonnalté dans l'habtat ndvduel : cas de la survellance Système multcapteurs, Réseau local, Réseaux de neurones, Supervson, Domotque. des personnes âgées et
Plus en détailPerformances de la classification par les Séparateurs à Vaste Marge (SVM): application au diagnostic vibratoire automatisé
4th Internatonal Conference on Coputer Integrated Manufacturng CIP 2007 03-04 Noveber 2007 Perforances de la classfcaton par les Séparateurs à Vaste Marge (SVM): applcaton au dagnostc vbratore autoatsé
Plus en détailLe Prêt Efficience Fioul
Le Prêt Effcence Foul EMPRUNTEUR M. Mme CO-EMPRUNTEUR M. Mlle Mme Mlle (CONJOINT, PACSÉ, CONCUBIN ) Départ. de nass. Nature de la pèce d dentté : Natonalté : CNI Passeport Ttre de séjour N : Salaré Stuaton
Plus en détailPrise en compte des politiques de transport dans le choix des fournisseurs
INSTITUT NATIONAL POLYTECHNIQUE DE GRENOBLE N attrbué par la bblothèque THÈSE Pour obtenr le grade de DOCTEUR DE L I.N.P.G. Spécalté : Géne Industrel Préparée au Laboratore d Automatque de Grenoble Dans
Plus en détailEn vue de l'obtention du. Présentée et soutenue par Elayeb Bilel Le 26 juin 2009
THÈSE En vue de l'obtenton du DOCTORAT DE L UNIVERSITÉ DE TOULOUSE Délvré par Insttut Natonal Polytechnque de Toulouse (INPT) Dscplne ou spécalté : Informatque Présentée et soutenue par Elayeb Blel Le
Plus en détailGATE Groupe d Analyse et de Théorie Économique DOCUMENTS DE TRAVAIL - WORKING PAPERS W.P. 08-24. Préférences temporelles et recherche d emploi
GATE Groupe d Analyse et de Théore Économque UMR 5824 du CNRS DOCUMENTS DE TRAVAIL - WORKING PAPERS W.P. 08-24 Préférences temporelles et recherche d emplo «Applcatons économétrques sur le panel Européen
Plus en détailBUREAU D'APPLICATION DES METHODES STATISTIQUES ET INFORMATIQUES
BUREAU DAPPLICATION DES METHODES STATISTIQUES ET INFORMATIQUES BAMSI REPRINT 04/2003 Introducton à l analyse des données Samuel AMBAPOUR BAMSSI I BAMSI B.P. 13734 Brazzavlle BAMSI REPRINT 04/2003 Introducton
Plus en détailLE PRINCIPE DU RAISONNEMENT PAR RÉCURRENCE
LE PRINCIPE DU RAISONNEMENT PAR RÉCURRENCE. Exemple troductf (Les élèves qu coasset déà be le prcpe peuvet sauter ce paragraphe) Cosdéros la sute (u ), défe pour tout, par : u u u 0 0 Cette sute est défe
Plus en détailThermodynamique statistique Master Chimie Université d Aix-Marseille. Bogdan Kuchta
hermodynamque statstque Master Chme Unversté d Ax-Marselle Bogdan Kuchta Plan: Rappel: thermodynamque phénoménologque (dscuter l entrope, l évoluton de gaz parfat,) Premer prncpe Deuxème prncpe (transformaton
Plus en détailCalcul de tableaux d amortissement
Calcul de tableaux d amortssement 1 Tableau d amortssement Un emprunt est caractérsé par : une somme empruntée notée ; un taux annuel, en %, noté ; une pérodcté qu correspond à la fréquence de remboursement,
Plus en détail- Acquisition de signaux en sismologie large bande. - Acquisition de signaux lents, magnétisme, MT.
87 DUCAPTEURAUXEANQUESDEDONNEES. TECHNQUES D'NSTRUMENTATON EN GEOPEY8QUE. J:M. CANTN Unversté Lous Pasteur (Strasbourg 1) nsttut de Physque du Globe de Strasbourg Ecole et Observatore de Physque du Globe.
Plus en détail1. Les enjeux de la prévision du risque de défaut de paiement
Scorng sur données d entreprses : nstrument de dagnostc ndvduel et outl d analyse de portefeulle d une clentèle Mrelle Bardos Ancen chef de servce de l Observatore des entreprses de la Banque de France
Plus en détailAnalyse des Performances et Modélisation d un Serveur Web
SETIT 2009 5 th Internatonal Conference: Scences of Electronc, Technologes of Informaton and Telecommuncatons March 22-26, 2009 TUNISIA Analyse des Performances et Modélsaton d un Serveur Web Fontane RAFAMANTANANTSOA*,
Plus en détailUNE ETUDE ECONOMÉTRIQUE DU NOMBRE D ACCIDENTS
BRUSSELS ECONOMIC REVIEW - CAHIERS ECONOMIQUES DE BRUXELLES VOL. 49 - N 2 SUMMER 2006 UNE ETUDE ECONOMÉTRIQUE DU NOMBRE D ACCIDENTS DANS LE SECTEUR DE L ASSURANCE AUTOMOBILE* MARÍA DEL CARMEN MELGAR**
Plus en détailMEMOIRE. Présenté au département des sciences de la matière Faculté des sciences
REPUBLIQUE LERIEN DEMOCRTIQUE ET POPULIRE Mnstère de l ensegnement supéreur et de la recherche scentfque Unversté El-Hadj Lakhdar-BTN- MEMOIRE Présenté au département des scences de la matère Faculté des
Plus en détailFaire des régimes TNS les laboratoires de la protection sociale de demain appelle des évolutions à deux niveaux :
Réformer en profondeur la protecton socale des TNS pour la rendre plus effcace Résumé de notre proposton : Fare des régmes TNS les laboratores de la protecton socale de deman appelle des évolutons à deux
Plus en détailSurveillance temps-réel des systèmes Homme-Machine. Application à l assistance à la conduite automobile
Survellance temps-réel des systèmes Homme-Machne. Applcaton à l assstance à la condute automoble Mguel Gonzalez-Mendoza To cte ths verson: Mguel Gonzalez-Mendoza. Survellance temps-réel des systèmes Homme-Machne.
Plus en détailDocuments de travail. «La taxe Tobin : une synthèse des travaux basés sur la théorie des jeux et l économétrie» Auteurs
Documents de traval «La taxe Tobn : une synthèse des travaux basés sur la théore des jeux et l économétre» Auteurs Francs Bsmans, Olver Damette Document de Traval n 2012-09 Jullet 2012 Faculté des scences
Plus en détailÉtranglement du crédit, prêts bancaires et politique monétaire : un modèle d intermédiation financière à projets hétérogènes
Étranglement du crédt, prêts bancares et poltque monétare : un modèle d ntermédaton fnancère à projets hétérogènes Mngwe Yuan et Chrstan Zmmermann Introducton et objet de l étude Par étranglement du crédt
Plus en détailACTE DE PRÊT HYPOTHÉCAIRE
- 1 - ACTE DE PRÊT HYPOTHÉCAIRE 5453F QC FR-2010/01 Taux fxe Le. Devant M e, notare soussgné pour la provnce de Québec, exerçant à. ONT COMPARU : ET : (C-après parfos appelé dans le présent Acte l «emprunteur»
Plus en détailParlons. retraite. au service du «bien vieillir» L Assurance retraite. en chiffres* 639 192 retraités payés pour un montant de 4,2 milliards d euros
Édton Pays de la Lore Parlons La lettre aux retratés du régme général de la Sécurté socale 2012 retrate L Assurance retrate en chffres* 12,88 mllons de retratés 17,58 mllons de cotsants 346 000 bénéfcares
Plus en détailUne analyse économique et expérimentale de la fraude à l assurance et de l audit
Une analyse économque et expérmentale de la fraude à l assurance et de l audt Sameh Borg To cte ths verson: Sameh Borg. Une analyse économque et expérmentale de la fraude à l assurance et de l audt. Economes
Plus en détailTHESE. Khalid LEKOUCH
N d ordre : /2012 THESE Présentée à la FACULTE DES SCIENCES D AGADIR En vue de l obtenton du GRADE DE DOCTEUR EN PHYSIQUE (Spécalté : Energétque, Thermque et Métrologe) Par Khald LEKOUCH MODELISATION ET
Plus en détailAVERTISSEMENT. Contact SCD INPL: mailto:scdinpl@inpl-nancy.fr LIENS
AVERTISSEMENT Ce document est le frut d un long traval approuvé par le jury de soutenance et ms à dsposton de l ensemble de la communauté unverstare élarge. Il est soums à la proprété ntellectuelle de
Plus en détailPREMIERS PAS en REGRESSION LINEAIRE avec SAS. Josiane Confais (UPMC-ISUP) - Monique Le Guen (CNRS-CES-MATISSE- UMR8174)
PREMIERS PAS en REGRESSION LINEAIRE avec SAS Josane Confas (UPMC-ISUP) - Monque Le Guen (CNRS-CES-MATISSE- UMR874) e-mal : confas@ccr.jusseu.fr e-mal : monque.leguen@unv-pars.fr Résumé Ce tutorel accessble
Plus en détailAvez-vous vous aperçu cette drôle de trogne? Entre nature et histoire autour de Mondoubleau
Avez-vous vous aperçu cette drôle de trogne? Entre nature et hstore autour de Mondoubleau Thème de la cache : NATURE ET CULTURE Départ : Parkng Campng des Prés Barrés à Mondoubleau Dffculté : MOYENNE Dstance
Plus en détail