Compression des images médicales 3D par les ondelettes et la quantification vectorielle algébrique Ouddane Samira 1, Benamrane Nacéra 1 1 Université des Sciences et de Technologie d Oran, Mohamed Boudiaf, Faculté des Sciences, Département d informatique, BP 1505 El-Mnaouer, 31000 Oran, Algérie samiraoud191@yahoo.fr nacerabenamrane@yahoo.fr Résumé L imagerie médicale est un domaine en plein essor du fait du développement des technologies numériques qui produisent des données 3D et même 4D. La contrepartie de la résolution offerte par les images volumiques réside dans une quantité de données gigantesques d où la nécessité de la compression. Cet article présente un nouveau schéma de codage dédié aux images médicales 3D de type IRM. Il utilise une transformée en ondelette suivie d une quantification vectorielle algébrique (QVA) sur les sous bandes détails. L originalité de notre approche réside dans la conception d une zone morte vectorielle pendant l étape de quantification vectorielle qui permet de prendre en compte la corrélation entre les pixels voisins. Cette approche permet d atteindre des taux bien supérieurs, tout en conservant une qualité visuelle acceptable. Mots clés Compression avec pertes, Pile d images médicales, Transformée en ondelettes, Quantification vectorielle algébrique avec zone morte. 1 Introduction L imagerie médicale a connu des progrès très importants ces dernières années avec le développement de techniques qui produisent des données 3D de plus en plus précises mais en contrepartie de plus en plus volumineuses. Certaines de ces images sont intrinsèquement volumiques alors que d autres correspondent à une succession d images 2D (encore appelée piles d images). L augmentation croissante des capacités de stockage apporte une réponse partielle à ce problème mais demeure cependant insuffisante. Outre la question de l archivage, la transmission de ces images sur des bandes passantes par nature limitées pose également un problème. La compression des images médicales volumiques apparaît donc incontournable, elle consiste à minimiser le nombre de bits nécessaire à une représentation fidèle de l'image originale et d accéder uniquement à l information requise, allégeant ainsi les transferts et autorisant un accès à distance aux données. On distingue deux types de compression, la compression sans perte (ou réversible) qui préserve l intégrité des données, et la compression avec perte (ou irréversible) qui génère des dégradations mais offre des performances en termes de réduction de l information bien plus grandes que celles issues de la compression sans perte [1]. Dans cet article nous présentons une approche de compression d images médicales 3D basée sur la décomposition en ondelettes qui est reconnue comme une transformation décorrélante très efficace pour ce type d images et nous proposons la conception d un nouveau dictionnaire de la quantification vectorielle algébrique contenant une zone morte. L avantage principal du schéma proposé est sa capacité à supprimer les vecteurs non
2 S. OUDDANE et N. BENAMRANE significatifs pour quantifier plus précisément les vecteurs importants. Cela fournit une amélioration notable du compromis débit-distorsion. Les résultats numériques et visuels produits par la QVAZM sur des IRMs sont prometteurs par rapport aux meilleurs codeurs actuels publiés dans la littérature. Différentes approches de la compression des images médicales 3D, ont été proposées dans la littérature. Jean-Marie Moureaux [1] propose une méthode dite de «quantification vectorielle algébrique avec zone morte», qui est associée à une analyse multirésolution par ondelettes, permettant d améliorer sensiblement les performances en termes de compromis débit-distorsion, et ainsi la qualité visuelle de l image reconstruite. Cette méthode est décomposée de trois étapes : l indexage des vecteurs du dictionnaire, le réglage des paramètres du dictionnaire (facteur d échelle et zone morte) et l allocation des ressources binaires. L approche proposée par I. P.AKAM BITA [2] est basée sur une étude sur l application des transformations d ACI en compression d images multi-composantes, en proposant deux algorithmes permettant d obtenir d une part la transformation minimisant le critère dans le cas général, et d autre part celle qui minimise le critère sous la contrainte que la distorsion dans le domaine transformé est la même que celle du domaine de l image. Yann-Gaudeau [3] propose une technique qui utilise la zone morte multidimensionnelle pendant l étape de quantification qui permet de prendre en compte les corrélations entre les voxels voisins. Vincent Ricordel et al.[10] ont utilisé la quantification vectorielle algébrique pour la mise en œuvre d un réseau régulier de points (treillis), l'édification par apprentissage et en suivant un critère débitdistorsion d'un dictionnaire arborescent non-équilibré en mettant en place une hiérarchie multigrille de treillis de même nature à résolution emboîtée. 2 Approche proposée Le schéma général de notre approche de compression est présenté par la figure 1. Dans une première étape, une transformation des pixels est appliquée sur l image. Une quantification vectorielle algébrique avec zone morte sera ensuite appliquée sur les coefficients produits par la TOD à l intérieur de chaque sous-bande des détails dans une approche intra-bande. La quantification vectorielle algébrique est une méthode des quantificateurs structurés [4] et qui a fait l objet de nombreux travaux ces dernières années [5], [6]. Elle présente le double avantage d éviter la génération (souvent longue) et le stockage d un dictionnaire mais également de permettre une quantification rapide des vecteurs du fait des propriétés géométriques du réseau régulier de points sur lequel s appuie son dictionnaire [7]. En contrepartie, ses performances sont généralement plus faibles que celles de la QV non structurée lorsque la statistique de la source n est pas uniforme. La dernière étape de la chaîne de compression consiste à encoder chaque vecteur quantifié Y en utilisant un code préfixe efficace qui associe à Y un unique couple (e,pos), où e = Y correspond à la norme de Y et pos à la position sur la surface de rayon e. Pour être efficace en terme de débit, e est codé avec un code entropique qui est le codeur d huffman, alors que pos est codé sur une longueur fixe[8].
Compression des images médicales 3D 3 Figure 1 : Schéma général de compression avec pertes proposé. Notre schéma permet de seuiller les vecteurs de la source non significatifs en fonction d un critère basé sur leur norme, permettant d allouer plus de bits à ceux qui sont significatifs. Cette zone morte vectorielle peut être efficacement appliquée aux images médicales dans le domaine des ondelettes qui contient de grandes zones non significatives. De plus, la norme L constitue une bonne mesure de l'activité locale dans le cas des coefficients d ondelettes dont les plus significatifs ont tendance à s agglutiner, sous la condition que les vecteurs sont orientés le long des détails de la sous-bande correspondante. 2.1 Transformée en ondelette La fonction de transformation de l image s inspire le plus souvent d une opération de la décorrélation. Elle permet alors de diminuer la dynamique du signal et d éliminer les redondances [9]. Nous avons implémentée la transformée en ondelettes par l approche multirésolution par banc de filtres numériques. En compression d images, il est essentiel que les filtres d analyse et de synthèse soient symétriques. De plus l ondelette mère doit être suffisamment régulière. Comme ondelettes on a employé celle de Haar et les ondelettes de Daubechies qui sont tous des ondelettes orthogonales. 2.2 Codage prédictif L image transformée par les ondelettes n est pas totalement décorrélée. Un codage prédictif linéaire est appliqué sur les approximations résultantes de la transformée en ondelettes dans le but de diminuer la corrélation entre les coefficients. Etant donnée la corrélation entre les coefficients voisins, cette différence sera faible et son codage sera efficace donc il suffit de ne coder que l erreur commise lors de la prédiction d un coefficient et qui est la valeur de son coefficient voisin. 2.3 Quantification vectorielle algébrique avec zone morte appliquée aux détails La quantification vectorielle algébrique n est autre que la généralisation de la quantification scalaire uniforme à un espace de dimension n. Elle s appuie sur un partitionnement régulier de cet espace (en cellules de Voronoï identiques), lui-même conduisant à un réseau régulier de points. Un réseau régulier de points λ dans R n est défini Dans la formule (1) [7] : Λ = n { y R y = u a + u a... u a } / 1 1 2 2 + n n (1)
4 S. OUDDANE et N. BENAMRANE R m où les vecteurs ai ( m n) forment une base du réseau, les u i étant des coefficients entiers. La mise en œuvre d un QVA dans une application de compression se déroule en plusieurs étapes [10]. La première étape après le choix du réseau, est sa troncature qui introduit une distorsion dite de surcharge liée à la projection en surface du dictionnaire des vecteurs sources n appartenant pas à celui-ci. Afin de minimiser ce bruit de surcharge, on choisit généralement une forme de troncature adaptée à la statistique de la source [1], ensuite cette source est normalisée par un facteur d échelle γ. La normalisation influence fortement le débit binaire obtenu après quantification puisque, selon la valeur de γ, les vecteurs source sont projetés sur des régions plus ou moins peuplées du dictionnaire. P γ : R n R n X Y=X / γ. Y est appelé le vecteur projeté. Arrivant à l étape de quantification du vecteur de la source X dans le dictionnaire est la composition entre P γ et Q la quantification sur le réseau Λ : X ~ Y = Q o Pγ ( X ) = Q = Q ( X ) γ Y est un vecteur du réseau, le vecteur quantifié. La reconstruction des vecteurs après quantification s effectue de la manière suivante : X ~ est le vecteur reconstruit. L indexage des vecteurs quantifiés est une étape cruciale qui consiste à assigner à chaque vecteur un index (ou indice, ou étiquette) unique. Les méthodes utilisées pour l indexage des vecteur quantifié sont basées sur la propriété suivante : un vecteur Y d un réseau est caractérisé par sa norme e = Y α α et sa position pos sur l hypersphère de rayon e, donc le code produit est le résultat de la concaténation de ces deux informations : (e, pos) c est l index du vecteur Y, e est appelé le préfixe et pos le suffixe de l index, et afin de coder efficacement les redondances des index, il est nécessaire de terminer la chaîne de compression par une opération de codage entropique. Il existe de nombreux codes à longueur variable, parmi lesquels les plus célèbres, le code de Huffman qui est utilisé dans notre approche pour coder la norme du vecteur quantifié. Lorsque le découpage des vecteurs est effectué dans la direction du filtrage on aura tendance à observer deux classes de vecteurs : celle des vecteurs significatifs (moyenne ou forte énergie au sens de la magnitude moyenne) et celle des vecteurs non significatifs (faible énergie au sens de la magnitude moyenne). Nous avons tiré profit de la concentration de faibles coefficients d ondelettes en incluant un seuillage de ceux-ci (zone morte scalaire), nous avons proposé d élargir et de déformer la cellule de Voronoï d origine du quantificateur vectoriel algébrique (zone morte vectorielle) ce qui revient à effectuer un seuillage des vecteurs en fonction de leur énergie. Comme le montre la figure 2, la taille ainsi que la forme de la cellule d origine sont modifiées. Dans le schéma proposé, le processus de quantification d un vecteur quelconque de la source X devient le suivant : Si X R ZM, X est remplacé par le vecteur nul 0. X ~ { Q [ P ( X )]} = γq ( ) γq ( X ) ~ 1 = Pγ γ = X γ (2) (3)
Compression des images médicales 3D 5 Si X > R ZM, X est mis à l échelle par un facteur d échelle γ et quantifié avec des algorithmes de quantification rapides [8]. Figure 2 : Zoom sur les trois zones de quantification pour un dictionnaire avec zone morte pyramidale sur le réseau Z 2. 3 Résultats expérimentés Nous avons testé notre approche de compression sur une séquence de coupes IRM 2D, en niveaux de gris. Figure 3 : De gauche à droite, la coupe initiale et la coupe décompressée après la QVAZM avec Taille du dictionnaire = 64 vecteurs, nombre de décompositions = 3, CR=88.64, PSNR=47.30. Figure 4 : De gauche à droite, la coupe initiale et la coupe décompressée après la QVAZM avec Taille du dictionnaire = 64 vecteurs, nombre de décompositions = 2, CR= 70.65, PSNR=57.02.
6 S. OUDDANE et N. BENAMRANE 4 Interprétation des résultats La diminution de la taille du dictionnaire entraîne une augmentation du taux, et une diminution du PSNR, c est à dire la qualité des images reconstruites est détériorée. L augmentation du nombre de décompositions entraîne une diminution du PSNR et une augmentation remarquable du taux de compression. 5 Conclusion Dans ce papier, nous avons proposé une approche de compression des images médicales 3D par les ondelettes et une quantification vectorielle algébrique avec zone morte. Cette approche a été testée sur des images médicales 3D (coupes 2D), les résultats obtenus sont satisfaisants ; des taux de compression intéressants et une bonne qualité des coupes reconstruites en comparant par rapport aux meilleurs algorithmes actuels le JPEG 2000 et SPIHT. De plus, en assignant plus de bits aux vecteurs significatifs suivant un critère basé sur la norme, notre méthode permet de mieux préserver les fines structures et produit des images de meilleure qualité globale, ce qui est d importance pour les applications médicales. Dans l algorithme proposé, plusieurs paramètres permettent de jouer sur le compromis qualité de reconstruction - taux de compression : taille des dictionnaires, facteur de projection et le mode de partitionnement en cellules de Voronoi. Ces paramètres dépendent fortement de la nature de l image. Références 1. Quantification vectorielle algébrique : un outil performant pour la compression et le tatouage d images fixes, Jean-Marie Moureaux, 2007. 2. I. P.AKAM BITA, une approche de l analyse en composantes indépendantes à la compression des images multi composantes», Université Joseph Fourier de Grenoble, 2007. 3. Yann-Gaudeau, Contributions en compression d images médicales 3D et d images naturelles 2D, Doctorat de l Université Henri Poincaré, Nancy 1, 2006. 4. A. Gersho and R.M. Gray, «Vector Quantization and Signal Compression», Kluwer Academic Publishers, 1992. 5. F. Chen, Z. Gao and J. Villasenor, «Lattice Vector Quantization of Generalized Gaussian Sources», IEEE Transactions on Information Theory, vol.43, pp. 92-103,1997. 6. JM. Moureaux, L. Guillemot, «Data hiding in the context of lossy compression : a combined approach», SPIE Journal of Electronic Imaging, vol. 14, n_ 3, pp. 033017-1 - 033017-12, ISSN 1017-9909, 2005. 7. J.H Conway et N.J.A Sloane, Fast quantizing and decoding algorithm for lattice quantizers and codes, IEEE transactions on information theory, vol. 28, 2, pp. 227-232, Mars 1982. 8. Voinson, T, Guillemot, L, Moureaux J-M, Image compression using lattice vector quantization with code book shape adapted thresholding, ICIP, pages 641-644, Rochester, USA, 2002. 9. J. Ordonez, G. Cazuguel, J. Puentes, B. Solaiman, C. Roux. L utilisation des moments spatiaux pour la recherche d images médicales par leur contenu dans le domaine compressé : application à la quantification vectorielle et le standard JPEG-DCT. 2003. 10. JM. Moureaux, «Lossy Compression of Volumetric Medical Images with 3D Deadzone Lattice Vector Quantization», Picture Coding Symposium, PCS.07, Lisboa, Portugal, November 7-9, 2007. 11. Vincent Ricordel, Claude Labit, Quantification vectorielle par emboîtage d'une hiérarchie de réseaux réguliers de points, Publication IRISA, 1995.