COMPRESSION DES IMAGES MEDICALES FIXES PAR RESEAU DE NEURONES Nacéra Benamrane, Maître de conférences en Informatque nabenamrane@yahoo.com, + 213 41 41 53 22 Zakara Benahmed Daho Etudant doctorant z-daho@lycos.com Jun Shen, Professeur en Informatque shen@egd.u-bordeaux.fr +33 5 57 12 10 26 Adresse professonnelle Unversté des Scences et de la Technologe d Oran, Départ d Informatque BP 1505 EL-Mnaouer 31000 Oran, Algére Résumé : Dans cet artcle, nous proposons une technque de compresson des mages fxes basée sur le réseau de Kohonen. Pour paler à l'effet de blocs «ou de pxellsaton» causé par les taux de compressons élevés, les blocs de l'mage à compresser sont classfés, selon leurs degrés d'actvtés, avant de les présenter au réseau de Kohonen pour une quantfcaton vectorelle. Cette classfcaton réalse une dscrmnaton entre les blocs de fables actvtés et les blocs contours de hautes actvtés. Les blocs homogènes et les blocs contours sont codés séparément en utlsant des codebooks dfférents. Par cette technque, nous avons obtenu une améloraton sensble de la qualté vsuelle des mages médcales reconstrutes tout en mantenant un taux de compresson élevé Summary: The mage blocks to be compressed are classfed accordng to ther actvty degree before presentng them to Kohonen s network for a vector quantzaton. Ths classfcaton allows dscrmnaton between the blocks wth hgh actvty (edge blocks) and blocks wth law actvty. The blocks of hgh actvty are dvded nto small blocks of 2x2 pxels. Blocks of hgh and law actvty are coded separately wth dfferent codebooks. We have obtaned a notceable mprovement of vsual qualty of all the rebuld medcal mages whle keepng an mportant compresson rate. Mots clés : Compresson, Images médcales, Réseau de Kohonen, Quantfcaton vectorelle, Classfcaton.
Compresson des mages médcales fxes par réseau de neurones Dans de nombreux domanes, l mage numérsée remplace les mages analogques classques. Dans le domane médcal, l utlsaton des mages radographes, ultrasonores, IRM, pose un grand problème de stockage et d archvage. Par exemple ; un hôptal de 200 lts, produt en moyenne chaque année 875 Go de données mages. En plus du problème de stockage, s de telles mages dovent être transmses va un réseau, la durée de la transmsson est souvent trop longue. Pour paler à tous ces problèmes, la compresson de ces mages devent une opératon nécessare et mpératve. Le but prncpal de la compresson des mages est de rédure la quantté de bts nécessare pour les décrre tout en gardant un aspect vsuel acceptable des mages reconstrutes. La compresson des mages fxes a été réalsée par pluseurs technques parm les plus connues : le JPEG qu est une méthode avec perte standardsé par ISO en août 1990, son prncpe est détallé par Gutter (1995), le codage en sous bandes proposé par Woods (86) et Nezt-Gerek (2000), la transformée en Ondelette proposée par Mallat (1989), le JPEG 2000 qu est une nouvelle norme développée par ISO en 2000, son prncpe est détallé par Ordóňez et al(2003) ect Dans le contexte partculer de l magere médcale, Le duff a proposé une méthode utlsant séparément l ondelettes et le JPEG pour la compresson de séquences spatales d IRM cérébrales, les résultats obtenus par ondelettes sont supéreurs en terme de qualté des mages reconstrutes. Ordóňez et al (2003) ont proposé une technque basée sur le JPEG 2000 pour compresser des mages tumeurs de cerveau en vue d une ndexaton basée sur les nformatons spectrale et spatale. Ces méthodes effectuent la compresson en réalsant une quantfcaton scalare (QS) sur les valeurs obtenues après transformatons. L nconvénent de la quantfcaton scalare est qu elle ne permet pas d exploter la corrélaton spatale qu exste entre les dfférents pxels de l mage. Une autre façon plus ntéressante pour réalser la compresson est de coder non pas les valeurs ndvduellement les unes après les autres, mas de coder un ensemble de valeurs smultanément. Cette manère de procéder est appelée «quantfcaton vectorelle» (QV). La quantfcaton vectorelle (Vector Quantzaton) a été utlsée avec succès pour le codage du sgnal vocal par Lnde (80) ans que pour la compresson des mages fxes par Nasrabas (1988), Gerso (1982) et Ramamurth (1986). Pour réalser la quantfcaton vectorelle pluseurs systèmes ont été proposés par Ramamurth (1986) et Gray (1984). Ces systèmes se basent sur l algorthme de Lynd, Buzo et Gray (1980). Les approches utlsant les réseaux de neurones artfcels pour le tratement ntellgent des données semblent être très prometteuses, cec est essentellement dû à leurs structures offrant des possbltés de calculs parallèles ans que l utlsaton du processus d apprentssage permettant au réseau de s adapter sur les données à trater. Les nouvelles technques basées sur les réseaux de neurones comme outls de compresson ont été proposées par Jang (1999), Robert (1995) et Stanley et al (1990). Le réseau de Kohonen (1990) est un réseau de neurones partculer, l peut être utlsé comme quantfcateur vectorel pour les mages. Cet artcle trate la méthode de compresson basée sur le réseau de neurones de Kohonen pour des mages médcales. Ce paper comprend quatre sectons. Dans la secton 2, le réseau Kohonen est présenté ans que son utlsaton pour réalser la quantfcaton vectorelle. Dans la secton 3, l sera présenté les résultats de compresson obtenus sur des mages médcales. Le problème produt par des blocs de talle mportante sera auss ms en évdence. Une améloraton de la méthode sera proposée dans la secton 4. Enfn, la dernère secton est consacrée pour la concluson et les perspectves. 1 - QV PAR LE RESEAU DE KOHONEN Le réseau de Kohonen (1990) (le Self- Organzng Feature Map) est un réseau à compétton (Jodoun, 1994). Ce réseau est composé d une couche de neurones qu reflète passvement les données d entrée présentées au réseau, et d une carte topologque. Cette dernère est composée d un certan nombre de neurones organsés selon une structure ben défne. Cette structuraton le les neurones ensemble en une surface «élastque», et les
contrant à respecter un certan comportement lors de l apprentssage. Lorsqu une entrée est présentée au réseau va la couche d entrée, les neurones de la carte topologque s actvent dfféremment et une compétton s nstalle entre ces neurones. Le neurone dont le vecteur des pods synaptques se rapprochant le plus de l entrée est déclaré vanqueur de la compétton. Le réseau de Kohonen a été utlsé dans pluseurs applcatons ; par exemple : la reconnassance des formes, tratement acoustque du sgnal vocal, problèmes de classfcatons par Kohonen (1990) et la compresson par Lebal (1989) et Nasrabad (1988). Pour réalser la quantfcaton vectorelle, un dctonnare de données (Codebook) est nécessare (Fgure 1). un Codebook localement optmal. Kohonen (1990) a développé un algorthme dans lequel les pods synaptques w du réseau reflètent, enfn du processus d apprentssage, le contenu des vecteurs des représentants. L adaptaton des pods du réseau se fat selon les règles suvantes : 1) trouver le neurone c, vanqueur de la compétton tel que : d(x,w c ) d(x,w ) ; ; [2] 2) mettre à jour les pods w du réseau : w (t+1)=w (t)+h(c,,t)*[x-w (t)] [3] où w (t) est le vecteur pods du neurone à l nstant t, h est une foncton défne par : X Règle du plus proche vosn Canal de transmsson Décodeur x^ α(t) s N(c,t) ; h(c,,t) = 0 snon avec α(t) [0,1] [4] X x^ Codebook Codebook Fgure 1. Système de compresson Par QV La quantfcaton vectorelle du vecteur d entrée X produra en sorte l ndce de son melleur représentant xˆ chos dans le Codebook suvant la règle du plus proche vosn (Nearest neghbor rule) : xˆ est le melleur représentant de X d(x, xˆ ) d(x, xˆ j ) ;, j [1] avec d est une mesure de dstance. Pluseurs recherches ont montré que l utlsaton du réseau de Kohonen permet de générer un Codebook assurant une melleure représentaton des données à trater, ce qu entraîne une dmnuton du brut de quantfcaton. Le réseau de Kohonen effectue une projecton de l espace des vecteurs d entrées dans un sous-ensemble fn de vecteurs de représentants (le Codebook), produsant ans x^ La foncton h défnt l ampleur de la correcton apportée au neurone vanqueur c ans qu a son vosnage. Le vosnage, à l nstant t, du neurone vanqueur c est détermné par la foncton N qu est une foncton décrossante par rapport au temps. Le vosnage fnal d un neurone se compose du neurone lu-même. La règle [4] permet d attrbuer la même correcton α(t) à tous les neurones appartenant au vosnage du neurone vanqueur à un nstant t. Une autre règle peut être utlsée stpulant que plus un neurone est lon du vanqueur, plus fable sera sa correcton. Dans ce cas, le pas d apprentssage sera en foncton du temps t et de la dstance entre les neurones de la carte topologque. Kohonen a démontré l effcacté de son réseau dans la reconnassance et la compresson du sgnal vocal. Dans la secton qu sut sont exposés les résultats de compresson obtenus sur des mages médcales. 2 - RESULTATS EXPERIMENTAUX ET DISCUSSIONS Les mages utlsées dans le processus d apprentssage sont de type médcal de format 256 x 256 pxels. Chaque pxel est codé sur 8 bts. La fgure 2, montre une des mages utlsées pour l apprentssage.
La qualté des mages reconstrutes est très bonne, néanmons, les mages dfférences montrent que les erreurs de codage sont stuées prncpalement aux contours des mages (zones en grs clar). Dans le tableau 1 est présenté le résultat de l évaluaton du PSNR [6], EQM [5], du Taux de Compresson (TC) et du Nombre de Bts par Pxels (bt rate) (NBP) : Fgure 2. Une mage utlsée dans l apprentssage Lors de l entraînement, les mages sont découpées en blocks carrés qu consttuent les vecteurs d entrées. Après une opératon de normalsaton, les blocs sont utlsés pour la génératon du Codebook suvant les règles [2], [3] et [4]. La qualté des mages reconstrute est évaluée par le PSNR (Peak Sgnal Nose Rato) et par l EQM (Erreur Quadratque Moyenne) : log2(nombre de neurones dans la carte) NBP= talle des vecteurs d'entrées [7] TC= 100*(1 (NBP/ 8)) (en %) [8] Pour un nombre de bts par pxel égal à 2 (taux de compresson égal à 75 %), le PSNR est supéreure à 30 db pour l ensemble des mages de tests. = EQM = (nˆ n )² T 1 T [5] 1 255² PSNR= 10. log 10 (en db) [6] EQM avec T : talle de l mage, n : ème pxel de l mage orgnale, nˆ : ème pxel de l mage reconstrute. Les mages de tests utlsées sont présentées cdessous : Image 1 Image 2 Image 3 Fgure 4. Image 1 reconstrute et l mage dfférence. Fgure 5. Image 2 reconstrute et l mage dfférence Fgure 3. Les mages utlsées dans les tests. 2.1 - Talle des vecteurs d entrées égale à 4 pxels avec une carte topologque de 256 neurones Dans cette expérence, une carte topologque carrée de 16 x 16 neurones a été utlsée. Chaque mage à compresser est découpée en blocks non recouvrant de talle 2 x 2 pxels. Dans les fgures 4, 5 et 6, les mages reconstrutes ans que les mages dfférences sont présentées. Fgure 6. Image 3 reconstrute et l mage dfférence PSNR EQM TC % NBP bts/pxel Image 1 36.21 15.52 75 2 Image 2 35.36 18.90 75 2 Image 3 31.08 50.71 75 2 Tableau 1. Résultats de compressons.
Dans l expérence qu sut, la talle des vecteurs d entrées est augmentée, cec permet d obtenr des taux de compresson plus mportants. 2.2 Talle des vecteurs d entrées égale à 16 pxels Dans cette expérence, les mages à compresser sont découpées en blocks non recouvrant de talle 4 x 4 pxels, cec permet d obtenr un taux de compresson égale à 93,75 % (0.5 bts / pxel) avec une carte de 256 neurones. Cette augmentaton ntéressante du taux de compresson est suve par une dégradaton assez mportante de la qualté des mages reconstrutes. La Fgure 7, montre l mage n 3 reconstrute où l effet de blocs apparaît clarement. Le PSNR obtenu est égal à 24.79 db ce qu correspond à une perte de 6.29 db par rapport au premer test. Les résultats obtenus pour les tros mages de tests sont présentés dans la tableau qu sut : PSNR EQM TC NBP % bts/pxel Image 1 32.03 40.72 93.75 0.5 Image 2 30.03 64.43 93.75 0.5 Image 3 24.79 215.74 93.75 0.5 Tableau 2. Résultats de compressons. Cas des vecteurs d entrées de 16 pxels avec une carte de 16 x 16 neurones. surtout au nveau des contours de l mage. Cette basse de qualté peut très ben être explquée ; plus la talle des blocs est mportante, plus leurs contenus sont varés et donc les chances de trouver des blocs fortement ressemblants dmnuent. Une premère tentatve pour résoudre ce problème consste à augmenter la talle de la carte topologque. Dans le test qu sut, la talle de la carte topologque est doublée à 512 neurones (tableau 3). Les résultats obtenus montrent que même en augmentant la talle de la carte topologque à 512 neurones l effet de blocs persste. Le PSNR augmente de 0.52 db en moyenne. Image 1 PSNR EQM TC NBP (%) bts/pxel 32.85 33.70 92.96 0.5625 Image 2 30.67 55.68 92.96 0.5625 Image 3 24.91 209.87 92.96 0.5625 Tableau 3. Résultats de compressons. Cas des vecteurs d entrées de 16 pxels avec une carte de 16 x 32 neurones. Pour détermner des solutons effcaces à ce problème, examnons le Codebook obtenu dans le cas des blocs de 16 pxels avec une carte de 256 neurones. Fgure 7. Image 3 reconstrute. Le tableau 2 montre qu en utlsant des vecteurs de dmensons 16, un gan mportant de 1.5 bts par pxel peut être attent. Mas, en contre parte, une basse moyenne de 5.26 db est enregstrée dans la qualté des mages reconstrutes. Donc, les performances (en terme de qualté des mages) du système de compresson par le réseau de Kohonen dmnuent quand la talle des blocs d entrées augmente, l effet de bloc devenant en outre de plus en plus sensble Fgure 8. Codebook obtenu par un réseau de Kohonen de 256 neurones dans la carte avec des blocs de talle 4 x 4. Dans la fgure 8 est observé que les blocs contours sont fablement représentés contrarement aux blocks homogènes. Ces derners occupent une grande parte du Codebook. Ans, la cause effectve de l effet de blocs peut être explqué par le fat qu l y a un nombre nsuffsant de vecteurs dans le Codebook permettant de représenter les dfférents blocs contours contenus dans les mages auss, la mesure de dstance d utlsée, pour détermner le représentant du vecteur d entrée, ne peut garantr qu un bloc contour
aura comme représentant un vecteur contour dans le Codebook. Par conséquent, le Codebook ne peut coder avec une bonne qualté, les dfférentes varétés des blocs contours que les mages peuvent contenr. La qualté des contours est très mportante pour assurer une bonne qualté vsuelle des mages reconstrutes. En plus, dans le cas de l mage médcale, les mages décodées dovent être de très bonnes qualtés pour élmner le rsque d un dagnostc médcal erroné dû à une mage de mauvase qualté vsuelle. Une soluton à ce problème consste à créer pluseurs Codebooks, chacun étant spécalsé dans la représentaton d un certan type de blocs dans l mage. 3 COMPRESSION DES BLOCS AVEC CLASSIFICATION 3.1- Talle des blocs égale à 16 pxels Dans cette sére d expérences, lors de l entraînement, les blocs des mages utlsées sont classfés selon la nature des détals contenus dans chaque bloc. Ans, pluseurs Codebooks seront créés par ce procédé. Chaque Codebook sera spécalsé dans le codage d un type ben défn de blocs. Pour réalser la classfcaton d un bloc, pluseurs manères exstent ; par exemple : Gersho (1982), Ramamurth (1986)] et Le bal [1982] utlsèrent une classfcaton basée sur les drectons du gradent. Nansrabad (1988) a utlsé la valeur de la varance pour dstnguer entre deux classes de blocs. Dans nos expérences réalsées, les blocs sont classés selon leur degré d actvté. Le degré d actvté d un bloc B est mesuré grâce à la foncton d actvté A b défne par : Ab(B) = A p(xm,n ); xm, n B [9] m,n avec x m,n : pxel appartenant au bloc B ; A p : foncton d actvté du pxel x m,n ; + + = 1 1 2 p (xm,n ) (xm,n xm,n j ) = 1 j= 1 A [10] La foncton d actvté a pour objet l dentfcaton et la dscrmnaton entre deux classes de blocs ; les blocs de fortes actvtés et les blocs de fables actvtés. Ceux qu appartennent à la classe de hautes actvtés sont subdvsés encore en quatre classes selon l orentaton des détals contenus dans ces blocs. Dans un bloc donné, les orentatons de la structure des détals sont : horzontales (h), vertcales (v), et les deux orentatons dagonales (d et e). Pour défnr ces orentatons, des fonctons d orentatons sont utlsées : 1 M M 1 Bh=. (x x 1 2 M(M 1) m,n m,n+ ) [11] m = 1 n= 1 B 1 M 1M v=. (x x 1 2 M(M 1) m,n m+,n ) [12] m= 1n= 1 M 1M 1 Bd = 1 2. (xm,n xm+ 1,n+ 1 ) 2 [13] (M 1) m= 1 n= 1 M M 1 Be = 1 2. (xm,n xm 1,n + 1) 2 [14] (M 1) m= 2 n= 1 avec : M = 4; et x n,m : pxel du bloc B; n et m : la poston du pxel dans le bloc. Chacune des fonctons d'orentatons défnt une classe de blocs. La classfcaton est réalsée de la manère suvante : Pour chaque bloc appartenant à la classe haute actvté, calculer les valeurs des quatre fonctons d'orentaton B h, B v, B d et B e. La plus pette valeur parm les quatre fonctons détermne l'orentaton du bloc. Une fos les cnq Codebooks construts, le processus de compresson pourra être entamé. Les étapes de la compresson d un bloc sont les suvantes (Fgure.9) : L actvté du bloc X à compresser est calculée selon [9] ; Détermner s le bloc a une forte ou fable actvté (selon un certan seul à détermner) ; S le bloc appartent à la classe de haute actvté, détermner l orentaton des contours dans le bloc selon [11], [12], [13] et [14] ; Détermner le Codebook à utlser pour le codage. Envoyer au décodeur l ndce du melleur représentant du bloc X.
Fable X Actvté Haute Pour résoudre ce problème, tout en gardant une complexté rasonnable de la technque de compresson, nous proposons d ajouter une classfcaton sur les blocs contours après les avor découpés en petts blocs de talle 2 x 2 pxels. Orentaton Cu C h Cv Cd Ce Fgure 9. Système de compresson par classfcaton. Ch :Codebook des blocs d orentaton horzontale ; Cv :Codebook des blocs d orentaton vertcale ; Cd :Codebook des blocs d orentaton dagonale selon la premère bssectrce; Ce :Codebook des blocs d orentaton dagonale selon la seconde bssectrce; Cu :Codebook des blocs de fables actvés. Les résultats de compresson en utlsant la classfcaton sont présentés dans le tableau 4. En comparant les tableaux 4 et 2, on remarque que pour le même taux de compresson (93.75 % et 0.5 bts / pxel), la qualté des mages compressées par classfcaton est assez melleur. Un gan moyen de 0.58 db est obtenu sur les mages décomposées. PSNR EQM TC (%) NBP bts/pxel Image 1 32.41 37.31 93.75 0.5 Image 2 30.68 55.58 93.75 0.5 Image 3 25.51 182.5 2 93.75 0.5 Tableau 4. Résultats de compressons par classfcaton. Cas des vecteurs d entrées de 16 pxels avec cnq Codebooks de talle 256 représentants. En utlsant cette technque, les dfférents tests réalsés sur les mages montrent que l effet de blocs, observé sur les contours des mages, est rédut mas l n est pas tout à fat élmné. Cec est explqué par le fat de répartr les blocs en cnq classes est nsuffsant. Les blocs de talle 16 pxels sont très varés et nécesstent alors un nombre élevé de classes. 3.2- Classfcaton avec blocs à compresser de talle varable, contours de talles 4 pxels et blocs homogènes de talles 16 pxels La technque que nous proposons mantenant se base sur les observatons fates dans pluseurs séres de tests. En effet, nous avons constaté que : 1. La QV réalsée en utlsant des blocs de talles 4 pxels assure une bonne reconstructon des mages. Les erreurs de codage se stuent généralement sur les contours des mages reconsttuées ; 2. Le taux de compresson assuré par les blocs de 16 pxels est très ntéressant néanmons, l effet de blocs est très vsble sur les contours des mages décompressées ; 3. La classfcaton (en cnq classes) réalsée sur les blocs de talle 16 pxels n augmente pas de manère consdérable la qualté des mages reconstrutes ; 4. Le taux de compresson et la qualté des mages sont beaucoup plus nfluencés par la varaton de la talle des blocs que par la talle des Codebooks utlsés. Pour assurer un taux de compresson assez élevé et une bonne qualté vsuelle des mages, nous proposons donc la technque suvante (fgure 10) : Découper l mage en blocs de talle 4 x 4 pxels ; Détermner l actvté du bloc à compresser X ; S le bloc X appartent à la classe de haute actvté, le subdvser en 4 sous blocs (Y k ) de talle 2 x 2 pxels ; Détermner l actvté pour chaque sous bloc Y k crée ; S le sous bloc appartent à la classe de haute actvté, détermner l orentaton des contours contenant le sous bloc ; Détermner le Codebook à utlser pour le codage ; Envoyer au décodeur l ndce du melleur représentant du bloc.
Fable X Actvté Fable Haute Dvson en 4 blocs de 2x2 pxels Y k ;k Actvté Haute Orentaton La technque proposée permet d augmenter la qualté des mages reconstrutes tout en gardant un taux de compresson assez élevé. Pour l mage 3, par exemple ; un PSNR égal à 29.64 db est obtenu avec un codage sur 0.64 bts/pxel (Fgure 11). En comparant les résultats obtenus avec la même mage dans le tableau 2, un gan dans le PSNR égal à 4.85 db en plus, l effet de blocs est élmné (comparer la fgure 11 avec la fgure 7). Cw Cu Ch Cv Cd Ce Fgure 10. Le prncpe de la méthode proposée Cw : Codebook pour quantfer les blocs 4 x 4 de fable actvté ; Cu : Codebook pour quantfer les blocs 2 x 2 de fable actvté ; Ch, Cv, Cd, Ce : Codebooks pour quantfer les blocs 2 x 2 de hautes actvtés (blocs contours). Les résultats obtenus sur les mages 1, 2 et 3 sont : PSNR EQM TC (%) NBP bts/pxel Image 1 34,43 23.40 90,14 0,78 Image 2 33,61 28,29 91,20 0,70 Image 3 29,64 70,57 91,91 0,64 Tableau 5. Résultats de compressons par la méthode proposée. Ces résultats on été obtenus en utlsant sx codebooks. Le codebook assocé aux blocs de 16 pxels comporte 256 neurones assurant ans une bonne fdélté des blocs homogènes. Les blocs de pette talle sont peu varants (par rapport aux blocs plus grands), des petts codebooks sont alors suffsants pour les coder, nous avons utlsés des codebooks de 64 neurones. L mage 3 reconstrute est présentée en fgure 11. 4 - CONCLUSION Dans cet artcle, une technque de compresson des mages médcales fxes est présentée. L utlsaton des blocs d mages de talles 16 pxels permet de réalser un codage à 0.5 bts par pxel. L augmentaton du taux de compresson est suve par une dégradaton vsuelle de la qualté des mages décodées et cec est essentellement dû à l effet de blocs. Pour paler à cet nconvénent, une classfcaton des blocs a été réalsée. En affnant la compresson des blocs contours, en créant des sous blocs plus petts qu subssent une pré- classfcaton avant de les quantfer, les contours des mages reconstrutes sont d une très bonnes qualtés. L utlsaton des blocs homogènes de talle 16 pxels permet d augmenter le taux de compresson. L ntégraton de la quantfcaton vectorelle par le réseau de Kohonen dans un système de compresson classque (par Ondelettes par exemple) permettra de trer avantage de la smplcté et des performances du réseau pour dmnuer le brut de quantfcaton et d augmenter la qualté des mages reconstrutes. Remercements Nous témognons notre reconnassance aux ades fnancères dont nous avons bénéfcé dans le cadre du projet PNR-ANDRS (agence natonale de recherche en médecne) n 05/04/01/98/071. BIBLIOGRAPHIE Le bal, E., Mtche, A. (1989), Quantfcaton vectorelle d mages par le réseau neuronal de kohonen, Tratement du sgnal, Vol. 6, N 6, 1989. Fgure 11. Image 3 reconstrute. Le duff, A., La compresson d mages : une nécessté pour l archvage et la
télémédecne,http://www.eseo.fr/~aleduff /Artcles/Pra/artcle_pra.htm. Gersho, A., Ramamurth, B. (1982), mage codng usng vector quantzaton. Gray, R. (1984), Vector quantzaton, IEEE ASSP Magazne. Gutter, H. (1995), La Compresson des mages numérques, Edton Hermes, Pars Jang, J. (1999), Image compresson wth neural networks A survey, Sgnal processng : mage communcaton n 14, pp 737-760. Transactons on Communcatons, vol com- 34, n 11. Robert, D. D., Haykn, S. (1995), Neural network approaches to mages compresson, n. Proceedngs of the IEEE, vol 82, n 2.. Stanley, C. and al. (1990), Compettve learnng algorthms for vector quantzaton, n Neural networks, vol 3, pp277-290. Woods, J.W., O nel, S.D. (1986), Subband Codng, n IEEE Transacton on Acoustcs, Speech, and Sgnal Processng, vol 34, n 5. Jodoun, J.F. (1994), Les réseaux neurommétques, Edton Hermes Kohonen, T. (1990), The Self-organzng map, Proceedngs of the IEEE, vol. 78, n 9. Lnde, Y., Buzo, A., Gray, R. (1980),. An algorthm for vector quantzer desgn, IEEE Transactons on Communcatons, vol com-28, n 1. Mallat, S. G. (1989), A theory of multresoluton sgnal decomposton : The Wavelt representaton, n IEEE Transactons Pattern Analyss and Machne Intellgence, vol 11, n 7.. Nasrabad, M.N., Feng, Y. (1988), Vector Quantsaton of Images Based Upon the Kohonen Self-Organzng Feature Map., n IEEE Internatonal Conference on Neural Networks, San Dego, Calforna, pp101-108. Nasrabas, M.N., Kng, R.A. (1988), Image Codng Usng Vector Quantzaton : A Revew, n IEEE Transactons on Communcatons, vol 36, n 8. Nezt-Gerek, O., Ens Cetn, A. (2000), Adaptve polyphase subband decomposton structures for mage compresson, n IEEE Transactons on Image Processng, vol 9, n 10. Ordóňez, J.R., Gazuguel, G, Puentes, J., Solaman, B., Roux, C. (2003), Indexaton d mages médcales basée sur les nformatons spectrale et spatale extrates de JPEG- 2000, Actes de CORESA 03, Lyon. Ramamurth, B., Gersho, A. (1986), Classfed vector quantzaton of mages, n IEEE