Optimisation de la compression fractale D images basée sur les réseaux de neurones



Documents pareils
Coup de Projecteur sur les Réseaux de Neurones

Masters Spécialisés «Actuariat et Prévoyance» et «Actuariat et Finance»

La classification automatique de données quantitatives

Codage vidéo par block matching adaptatif

Vers une Optimisation de l Algorithme AntTreeStoch

Les algorithmes de fouille de données

Les algorithmes de base du graphisme

Quantification Scalaire et Prédictive

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Mesure agnostique de la qualité des images.

Classification Automatique de messages : une approche hybride

Druais Cédric École Polytechnique de Montréal. Résumé

Apprentissage Automatique

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

Figure 3.1- Lancement du Gambit

Traitement bas-niveau

Introduction au maillage pour le calcul scientifique

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

Résolution d équations non linéaires

Introduction à MATLAB R

Optimisation, traitement d image et éclipse de Soleil

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

SudoClick Reconnaissance de grilles de sudoku pour téléphones portables

3 Approximation de solutions d équations

Master IMA - UMPC Paris 6 RDMM - Année Fiche de TP

Algorithme des fourmis appliqué à la détection et au suivi de contours dans une image

Transmission d informations sur le réseau électrique

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

de calibration Master 2: Calibration de modèles: présentation et simulation d

Projet de Traitement du Signal Segmentation d images SAR

Outils pour les réseaux de neurones et contenu du CD-Rom

Fonctions de plusieurs variables

Formats d images. 1 Introduction

INF6304 Interfaces Intelligentes

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Détection de la défaillance des entreprises tunisiennes par la régression logistique semi paramétrique et les réseaux de neurones

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

ProxiLens : Exploration interactive de données multidimensionnelles à partir de leur projection

Évaluation et implémentation des langages

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies

4.2 Unités d enseignement du M1

Introduction au Data-Mining

Texte Agrégation limitée par diffusion interne

Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est:

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

Limitations of the Playstation 3 for High Performance Cluster Computing

Géométrie discrète Chapitre V

Techniques du Data Mining pour la prédiction de faillite des entreprises et la gestion du risque de crédit

Système immunitaire artificiel

NON-LINEARITE ET RESEAUX NEURONAUX

Echantillonnage Non uniforme

Introduction au datamining

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

1 Démarrer L écran Isis La boite à outils Mode principal Mode gadget Mode graphique...

Big Data et Graphes : Quelques pistes de recherche

TRAITEMENT DES DONNEES MANQUANTES AU MOYEN DE L ALGORITHME DE KOHONEN

Continuité et dérivabilité d une fonction

Modélisation multi-agents - Agents réactifs

The Grid 2: Manuel d utilisation

Comment tracer une droite représentative d'une fonction et méthode de calcul de l'équation d'une droite.

Chapitre 5 : Flot maximal dans un graphe

Big Data et Graphes : Quelques pistes de recherche

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Chapitre 22 Optimisation pour diffusion à l'écran, pour le web

MASTER SIS PRO : logique et sécurité DÉTECTION D INTRUSIONS. Odile PAPINI, LSIS. Université de Toulon et du Var. papini@univ-tln.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Opérations de base sur ImageJ

Comment optimiser dans ImageReady?

La fonction exponentielle

Théorie et codage de l information

Francis BISSON ( ) Kenny CÔTÉ ( ) Pierre-Luc ROGER ( ) IFT702 Planification en intelligence artificielle

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Traitement des données avec Microsoft EXCEL 2010

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar

Sillage Météo. Notion de sillage

Initiation à linfographie

Structure du format BMP, sa lecture, sa construction et son écriture

MCMC et approximations en champ moyen pour les modèles de Markov

Traitement numérique de l'image. Raphaël Isdant

Le concept cellulaire

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Rapport d activité. Mathieu Souchaud Juin 2007

DEMANDE D INFORMATION RFI (Request for information)

Support de TD ArcGIS Introduction à l automatisation et au développement avec ArcGIS 10.1 JEAN-MARC GILLIOT e année ingénieur

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Asynchronisme : Cadres continu et discret

Principe de symétrisation pour la construction d un test adaptatif

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

MABioVis. Bio-informatique et la

Logiciel XLSTAT version rue Damrémont PARIS

Master IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Transcription:

Optimisation de la compression fractale D images basée sur les réseaux de neurones D r BOUKELIF Aoued Communication Networks,Architectures and Mutimedia laboratory University of S.B.A aoued@hotmail.com Mokhtari Mohamed Université de Sidi Djillali Faculté des sciences de l ingénieur Département de l informatique Laboratoire EEDIS I. Compression fractale La compression fractale consiste en la détection des auto-similarités présentes au sein d une image, pour avoir enfin l IFS qui peut la générer L IFS est un ensemble de transformations massiques et spatiales, entre des parties de l image. Jacquin était le premier à proposer une méthode pour la compression fractale, basée sur le principe de recherche les blocs similaires selon une distance, entre l image initiale (qui sera l image destination). Ses blocs de taille BxB sont considérés comme blocs destinations, et l image des blocs domaines de tailles 2B x 2B On dira aussi comparer entre l image de haute résolution et l image de basse résolution. Fig.1 Illustration de la comparaison entre les blocs source r i et blocs domaine d i D autre transformations sont considérées ; ce sont les huit isométries. Pour chaque bloc source c i, tous les blocs domaine seront balayés, pour trouver le plus proche d j, ainsi des paramètres de transformation spatiale a et massique o telle que: c i = a.d j + o.

Cette façon de partitionner l image en blocs carrés, de même taille est dite aussi partition régulière où le partitionnement est dit carré.prouvais des inconvénients, du fait que le nombre de blocs étant fixe par rapport aux dimensions de l image, et le partitionnement ne s adapte pas aux détails de l image.d autres méthodes de partitionnement ont été proposées pour adapter les blocs aux détails d image ;on cite les méthodes de partitionnement suivantes : Partitionnement quadtree, Partitionnement rectangulaire. Partitionnement HV (Horizontal Vertical) Partitionnement à base de polygones. Partitionnement triangulaire. II. Le Problème Inverse La génération d une image à partir d un IFS donnée étant une chose très facile, l imag étant complètement auto-similaire Son idée est intéressante dès que l information nécessaire pour construire cette image se réduit aux transformations contractantes Donc avec de très peu d informations on peut construire une image entière, mais comment définir l IFS qui génère une image quelconque? Comment peut-on exploiter cette technique à part le côté artistique? C est le problème inverse, un problème qui est résoluble selon le théorème de Barnsley, mais très difficile. Les IFS ne sont efficaces que pour des images typiquement fractales, où la similarité est à tous les niveaux, alors que les images naturelles ne sont pas tout à fait fractales, avec des similarités présentes par régions, d où la nécessité du recours aux PIFS (Partitioned IFS). III. Le Réseau De Neurones Artificiels Un réseau de neurones artificiel est un ensemble d unités de calcul, ressemblant aux neurones biologiques, dans la connaissance par l intermédiaire de l apprentissage. Les connexions neuronales connues sous le nom de poids synaptiques vont stocker la connaissance. Un réseau de neurones est un ensemble de cellules ou neurones connectés entre elles ; chaque cellule possède une entrée par laquelle elle reçoit une information par une autre cellule, et une sortie à travers laquelle elle envoie une information vers une autre cellule.un réseau de neurones dispose aussi d une fonction d activation. Fig. 2. Un exemple d un neurone et des connexions.

Il est important de choisir le type de fonction d activation. On cite parmi les fonctions d activation : Le sigmoid standard, (ou fonction logistique) : Y = F(X) = 1/(1 + exp(-d*x)). La tangente hyperbolique : Y = 2 / (1 + exp(-2 * X)) 1. La fonction Gaussienne : Y = exp(-(x^2)/2). Une fonction à seuil : Y = 0 si X<0 et Y=1 si X>0 On ne cesse d inventer de nouveaux types de réseaux de neurones, toujours mieux adaptés à la recherche de solutions à des problèmes particuliers parmi lesquels : - Les Perceptrons Multicouches. - Les Réseaux de Kohonen. - Les Réseaux de Hopfield. III.1. Réseaux Kohonen L'analyse Kohonen est une méthode de classification non supervisée. Elle a les propriétés suivantes: Elle représente les données en conservant la topologie. Des données proches (dans l'espace d'entrée) vont avoir des représentations proches dans l'espace de sortie et vont donc être classées dans une même classe ou dans des classes voisines. Un réseau de Kohonen est constitué: d'une couche d'entrée: Tout individu à classer est représenté par un vecteur multidimensionnel (le vecteur d'entrée).a chaque individu est affecté un neurone qui représente le centre de la classe. d'une couche de sortie (ou couche de compétition). Les neurones de cette couche entrent en compétition. Seuls les meilleurs gagnent ("WTA ou Winner Takes All") Fig. 3. Réseau de Kohonen

A chaque neurone, on fait correspondre un espace de sortie qui,en général, est un espace 2D défini par une grille soit rectangulaire soit hexagonale. Chaque neurone possède 8 plus proches voisins. Fig.4.Grille Rectangulaire Chaque neurone possède 6 voisins III.2. Le Neurone Biologique Fig.5. Grille Hexagonale Le neurone de Kohonen a une fonction d'activation qui ne prend que des valeurs positives.

Fig. 6.Fonction d activation d un neurone de Kohonen Compétition 1. Fonction à la forme d un chapeau mexicain : Chaque neurone reçoit les signaux de ses voisins. Son excitation (ou son inhibition) dépend de la distance et peut être représentée par la fonction ci-après. + excitation - inhibition Fig. 6.Fonction à la forme du chapeau mexicain Les neurones voisins ont une action d'excitation. Les neurones éloignés ont une action d'inhibition. La loi d'évolution de la couche fait que le réseau s'organise de telle façon à créer un amas de neurones autour du neurone le plus stimulé par le signal d'entrée. Les autres neurones se stabilisent dans un état d'activation faible. 2. Fonction gaussienne : Chaque neurone dans le voisinage du neurone gagnant essaie de s approcher de l entrée selon leur distance relative. Le neurone gagnant aura la plus grande amplitude, et plus en plus qu on s en éloigne l amplitude diminue jusqu à ce que ce qu elle s annule. Poids synaptique Fig. 7. Fonction gausienne Voisinage

III.3. Algorithme 1. Prétraitement des données Chaque vecteur d'entrée V est normalisé de telle façon à ce que sa longueur soit égale à 1, ainsi que les poids initiaux W (générés aléatoirement) des neurones de compétition. 2. Présentation des données Les données d'entrée peuvent être présentées soit dans leur ordre initial soit de façon aléatoire. 3. Recherche du neurone gagnant La recherche le neurone dit "gagnant" se fait en minimisant (V-W). Les neurones voisins du gagnant sont modifiés, à chaque itération, comme suit: W=W+alpha(V-W), alpha étant la vitesse d'apprentissage. Elle peut être linéaire et décroissante en fonction du temps ou gaussienne des distances et décroissante en fonction du temps. 4. Visualisation de la couche de sortie La visualisation de la carte finale est en général faite en projetant les neurones gagnants dans un espace 3D/2D ("Non linear mapping"). IV. Les Réseaux de Neurones dans la compression fractale Le grand problème rencontré dans la compression, est le temps de calcul nécessaire pour trouver les paramètre des transformations contractantes, dû au grand nombre de blocs à comparer pour trouver ceux qui se ressemblent. Le type de réseau de neurones qui a été proposé pour être utilisé dans la compression fractale est le SOM. L idée est d utiliser la capacité des réseaux SOM dans la classification, dans la réduction de l espace de recherche des blocs domaines ; ainsi on réduit le temps consommé pour la recherche. Le processus se résume ainsi : Apprentissage des blocs domaines, et identification des neurones correspondant à chacun d eux. Reconnaissance des blocs sources, et identifications de leurs neurones correspondants. Comparaison des blocs sources avec les blocs domaines associés aux neurones qui leurs correspondent, et ceux dans le voisinage. IV.1. Les Algorithmes propose par A.Bogdan et H.Meadows [2] -Algorithme d apprentissage : L apprentissage est de type compétitif, et le réseau de neurones consiste en une couche d entrée et une couche de sortie arrangée en une matrice rectangulaire de neurones. Un neurone N mn est un simple processeur ayant une matrice de poids w mn ayant la taille du blocs de partition b ij.on applique le bloc b ij à chaque neurone en entrée. Chaque neurone en sortie aura en sortie : u mn = d(w m,n, b ij ) d est une mesure de similarité.

On applique l apprentissage sur un ensemble de blocs b ij qui sont les blocs domaine, d une image test ou d un ensemble d images représentatives. - Algorithme proposé par A.Bogdan, H.E.Meadows 1- Initialiser les poids w m,n de chaque neurone N mn avec des valeurs aléatoires, ou utiliser une carte prédéfinie obtenue avec un autre apprentissage. 2- Un block b ij est présenté au réseau et chaque neurone en sortie calculera la distorsion u mn. 3- Sélection du neurone N max qui stocke dans les poids le modèle le plus proche à l entrée b ij. 4- Mise à jour des poids du neurone sélectionné et de ces voisins. 5- Répéter les étapes 2) et 3) pour tous les vecteurs. - Algorithme du codage fractal utilisant les carte auto- organisatrice : La comparaison sera faite entre les blocs source de l image originale et les blocs domaines de la même image réduite d un facteur de deux dans chaque direction appelée D. Les blocs domaines seront l ensemble d apprentissage. L algorithme du codage fractal avec le réseau de neurone, proposé par A.Bogdan et H.Meadows dans [2] : 1- Construire la bibliothèque dans le réseau SOM utilisant les blocs de l image D en tant que ensemble d apprentissage de la façon suivante : 1.a - Charger le réseau SOM avec la librairie initiale ou assigner des poids aléatoire pour tous le neurones. 1.b - Balayer l image D avec une fenêtre de taille (b x,b y ) et de pas d un pixel.chaque bloc sera passé en tant qu individu à apprendre par le réseau. 1.c - Répéter le balayage de D n fois ou jusqu à ce que la carte converge (état d équilibre). 2- Etablir une correspondance entre chaque bloc de D et chaque neurone. Chaque neurone garde une liste de quelques pixels de D, proche selon la distance de similarité d au modèle enregistré dans les poids. 3- Faire la partition de l image originale en bloc source de la même taille que les précédents.etablir la correspondance entre chaque bloc b ij et neurone, en présentant ce bloc au réseau de neurones en sélectionnant le neurone N kl tel que kl = arg(min mn d(w mn,b ij )). 4- Etablir une correspondance entre chaque partition b ij et un bloc arbitraire de D utilisant le réseau SOM. 4.a - Explorer la listes des blocs domaines associés au neurone N kl et son voisinage, c est à dire les neurones N k+/-p,l+/-q (p,q = 0,1), et trouver le bloc d sr qui est le plus proche. 4.b - Répéter a) pour tous les blocs b ij. IV.2. Methode proposee par welstead [3]: Une autre méthode utilisant ce même type de réseau de neurones, mais d une façon améliorée, c est de coder les blocs non pas sur la base des pixels, mais sur la base des caractères. Stephen Welstead a mentionné 6 caractères, qui se calculeront sur les blocs.

1. Déviation standard. 2. Obliquité : somme des cubes des différences entre les valeurs des pixels et la moyenne des cellules normalisées par la déviation standard. 3. Contraste voisin : différence moyenne entre les valeurs des pixels adjacents. 4. Bêta : mesure combien les valeurs des pixels changent par rapport à la valeur de la valeur du centre de la cellule. 5. Gradient horizontal. 6. Gradient vertical. V. Implémentation : Les deux méthodes ont été développées dans un environnement Matlab sur la plate forme Windows, sur une machine Pentium 4. La possibilité d utiliser les réseaux de Kohonen dans la compression fractale a été démontrée. Résultats de la simulation Première méthode : La carte utilisée est de dimension 40 40, et le vecteur d entrée et de longueur de 16. On balaye l image à basse résolution D qui est l ensemble des blocs destination de taille 4 4, avec un pas d un pixel.le nombre de ces blocs est 15625, et le nombre de blocs source de même taille est 4096. Les blocs devront être normalisés avant d être présenté au réseau. Ce tableau présente les résultats de compression après chaque itération pour l image Cameraman. Itération 1 2 3 4 5 6 7 PSNR db 16.6260 28.7657 28.6613 28.5714 28.5657 28.2667 28. 7776 Pour l image du cameraman, l apprentissage peut s arrêter à l itération 7, et pour l image maison à l itération 4.Voici les image restituées : Fig. 8. L image du Cameraman : A gauche l image originale, et à droite l image restituée au PSNR de 28.7772

Fig. 9. L image de Maison : A gauche l image originale, et à droite l image restituée au PSNR de 29.3895 NOTRE METHODE :Algorithme adaptatif et réseau de Kohonen Le réseau de Kohonen a été appliqué avec une compression fractale utilisant l algorithme adaptatif. L algorithme adaptatif consiste à chercher pour un bloc source le meilleur bloc destination avec les paramètres de transformation contractante équivalente.si la distorsion entre le bloc source, et le bloc destination transformé est supérieure à une seuil déterminé, alors on subdivise le bloc source en quatre sous blocs de tailles égales, et on répète le même procédé aux petits blocs, jusqu à ce que la distorsion soit inférieure au seuil, ou que le la taille minimale soit atteinte. Autrement dit pour tout bloc source r i, on essaie de trouver le bloc destination d i, avec la transformation affine w i, ayant le paramètre de contraste s i, et le paramètre de luminosité o i, tel que w i (d i ) soit le plus proche au bloc r i, ce qui revient à ce que la distance d(w i (d i ), r i ) soit minimale.si cette quantité est inférieure au seuil, alors subdiviser r i en quatre sous blocs et répéter l opération sur ces blocs. Le tableau suivant résume les résultats obtenus, le seuil est fixé à 5, et la taille minimale autorisée est 4 4. On remarque que le temps a été réduit à un tiers de celui consommé dans la méthode ordinaire. Le champ de recherche était réduit avec le réseau de neurone, ce qui a engendré une réduction du temps de codage. Nombre de Temps PSNR Ratio blocs source Cameraman(1) 2452 21 mn 8 sec 29.389 5.34 :1 Cameraman 2530 7 mn 56 sec 27.418 5.18 :1 Maison 3478 11 mn 25 sec 22.585 3.77 :1 Voici les images restituées :

Fig. 10. Les images restituées avec l algorithme adaptatif utilisant les réseaux de Kohonen. Conclusion Dans ce papier on a présenté une nouvelle façon d exploiter la technique de compression fractale d images de façon à optimiser le temps de codage, qui est très considérablement long. Une autre piste à investiguer consiste à classifier les blocs sur la base sensitivité du système visuel humain, et avec des cartes topologiques multidimensionnelles.

Bibliographie [1] Compression des images fixes par fractales basée sur la triangulation de Delaunay et la quantification vectorielle. Kaddour Chakib, Aissa Brahim Salim. Université des sciences et de la technologie Houari Boumediene institut d'informatique Algérie [2] Kohonen neural network for image coding based on iteration transformation theory. A.Bogdan, H.E.Meadows. Columbia University. [3] Self Organizing Neural Network Domain For Fractal Image Coding. Stephen Welstead. Colsa Corporation. International conference artificial conference intelligence and soft computing July 27-31 1997. [4] Cours de Neuro-mimétique.Michael Aupetit, Février 1999. [5] Réseaux de neurons.marc Olivier La Barre, Mai 2002. [6] Kohonen Neural network for image coding based on iteration transformation theory.a. Bogdan, HE Meadows.Colombia University. [7] Self organizing Neural network domain for fractal image coding. Stephen Welstead. Colsa Corporation. International artificial intelligence and soft computing conference.july 27-31, 2003. [8] Réseaux de neurones.formation avancée : http://www.pmsi.fr/neurini2.htm [9] Carte auto-organisatrice de Kohonen : http://www.scico.u- Bordeaux2.fr/~corsini/pedagogie/ANN/Main [10] Image coding based on fractal theory of iterated Contractive image transformations. Venu-Gopal Puram.December 2003.