- Avril Université Paul Sabatier IUT - Département de Mesures Physiques J.P. Gastellu-Etchegorry

Dimension: px
Commencer à balayer dès la page:

Download "- Avril 2008 - Université Paul Sabatier IUT - Département de Mesures Physiques J.P. Gastellu-Etchegorry"

Transcription

1 ACQUISITION et TRAITEMENT D'IMAGE NUMERIQUE - Avril Université Paul Sabatier IUT - Département de Mesures Physiques J.P. Gastellu-Etchegorry

2 2 TABLE DES MATIERES I IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 4 I.1 CONTEXTE INDUSTRIEL 4 I.1.1 Applications industrielles de l'imagerie 4 I.1.2 Les principaux métiers 7 I.1.3 Le marché des systèmes de vision 7 I.2 CARACTERISTIQUES DES IMAGES RASTER 9 I.3 ACQUISITION D'IMAGES 12 I.3.1 Création d'une image optique de la scène observée 12 I.3.2 Balayage de l'image 15 I.3.3 La photodétection 19 I.3.4 Conversion "Analogique - Numérique" 23 I.3.5 Fonction de transfert et bruit instrumental 25 I.3.6 Mesure et rayonnement 26 I.3.7 Capteurs 27 I.3.8 Eclairage 28 I.4 LE TRAITEMENT D'IMAGES 32 I.4.1 Principales étapes 33 I.4.2 Avantages et inconvénients du traitement d'images 34 I.5 EXEMPLES D'EMPLOI DU TRAITEMENT D'IMAGES 35 I.5.1 Le contrôle des fibres 35 I.5.2 La mesure de pollution des fluides 35 I.5.3 Système de contrôle de laminé 36 I.5.4 Système de mesure de capabilité d'équipement 36 I.5.5 Système de contrôle du maillage des tissus 37 I.5.6 La vision artificielle 37 I.6 ANNEXE 1 : FORMATS ET COMPRESSION DES FICHIERS IMAGES 38 I.6.1 Formats des fichiers images 38 I.6.2 Compression 41 I.7 Annexe II : Vidéo 46 I.8 ANNEXE III : LES TECHNIQUES : CAPTEURS 2D OU CAPTEURS 3D 49 I.9 ANNEXE IV : EXEMPLE DE CAMERA INFRAROUGE INDUSTRIELLE (FLIR Systems : I.10 ANNEXE IV : SYSTEME D'OBSERVATION SATELLITAIRE 55 I.10.1 Acquisition d'images 55 I.10.2 Reconstruction d'image 56 II PHYSIQUE DU RAYONNEMENT 58 II.1 LE RAYONNEMENT ELECTROMAGNETIQUE 58 II.1.1 Principales caractéristiques 58 II.1.2 Sources de rayonnement électromagnétique 59 II.1.3 Le spectre électromagnétique 59 II.1.4 Interactions "Rayonnement - Matière" 60 II.2 NOTIONS DE PHOTOMETRIE 67 II.3 DISTRIBUTION SPECTRALE DE LA REFLEXION 73 II.4 EMISSION THERMIQUE 76 III LA TELEDETECTION 77 III.1 PRESENTATION 77

3 3 III.2 PRINCIPAUX OBJECTIFS DE LA TELEDETECTION 79 III.3 LE SYSTEME SPOT 81 III.3.1 Le programme SPOT ( 81 III.3.2 Les images SPOT 81 IV VISUALISATION 87 IV.1 Synthèse additive et soustractive de la couleur 87 IV.2 Représentation des couleurs 87 IV.3 Le codage de la couleur 90 IV.4 Sélection des couleurs dans un logiciel 90 IV.5 LUT 92 IV.6 TRANSFORMATION DE LUT 93 V TRAITEMENT D'IMAGES ( 97 V.1 PRINCIPAUX TRAITEMENTS 97 V.2 PRINCIPAUX OPERATEURS PONCTUELS 98 V.2.1 Opérateurs arithmétiques 98 V.2.2 Opérateurs logiques 98 V.3 FILTRES 99 V.3.1 Convolution et transformée de Fourier 99 V.3.2 Filtres linéaires 104 V.3.3 Filtres non linéaires 107 V.4 MORPHOLOGIE MATHEMATIQUE 108 V.4.1 Opérateurs morphologiques de base 108 V.4.2 Autres opérateurs binaires 111 V.5 CLASSIFICATIONS D'IMAGES 112 VI ANNEXE 114 VI.1 MÉMOIRE INFORMATIQUE 114 VI.2 CARTE VIDÉO 115 VI.3 CARTE SON 117 VI.4 CARTE RÉSEAU 119 VI.5 ECRANS 120 VII LOGICIEL APHELION 125 I. Interface II. Utilisation de l'aide III. Survol de quelques opérations IV. Charger et sauvegarder une image V. Exécuter un opérateur VI. Exemple de traitement d'images: le filtrage VII. Extraire et analyser des objets VIII. Rapports d'analyse IX. Editer une Macro Résumé des principales manipulations à réaliser Annexe : MACROS D'APHELION

4 NOTIONS DE TRAITEMENT D'IMAGE NUMERIQUE - TELEDETECTION - Ce cours introduit la notion d'image *, le traitement d'images, ainsi que la physique associée à l'acquisition d'images par des capteurs optiques. Chapitre 1 : aperçu du contexte professionnel de l'imagerie. Bases théoriques de l'image numérique et de l'acquisition d'images. Intérêt du traitement d'image. Formats de fichiers images. Chapitre 2 : mécanismes physiques majeurs à l'origine du flux lumineux mesuré par les capteurs. Le cas particulier de la propagation du rayonnement dans l'atmosphère est présenté. Chapitre 3 : principes et objectifs de la télédétection (i.e., exemple de système d'imagerie opérationnel), avec une brève discussion du système satellitaire SPOT. Chapitre 4 : visualisation des images (noir et blanc et couleur). Chapitre 5 : traitement d'images (filtres, reconnaissance de forme, classification d'images, ). Chapitre 6 : annexes (mémoire informatique, cartes vidéos, son et réseau, et écrans). I IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL I.1 CONTEXTE INDUSTRIEL I.1.1 Applications industrielles de l'imagerie L'imagerie est de plus en plus utilisée comme outil de contrôle et de gestion. Ainsi, elle contribue à augmenter la flexibilité et la productivité des ateliers de production, à aider à la maintenance, à mieux connaître la qualité des produits (conformité aux normes industrielles ISO 9000, etc.), à résoudre des problèmes jusque là sans réponse, etc. De plus, elle offre l'intérêt de pouvoir intervenir à de nombreux niveaux. Ainsi, dans une chaîne de production de bouteilles (Figure I.1), elle peut servir à contrôler le remplissage et l'encapsulage de bouteilles, l'impression des étiquettes, l'étiquetage, le conditionnement, la mise en pack et la mise en carton. Ainsi, dans la société Kendermenn (Allemagne), la société Cognex ( a installé un système de contrôle de l'étiquetage (10 /s). Impression des étiquettes Mise en pack Ordinateur Mise en carton Remplissage Encapsulage Etiquetage Conditionnement Inspection de l'étiquetage Figure I.1: Surveillance du conditionnement de bouteilles avec un système de vision. * Représentation d'objets (volume ou surface) dans un plan.

5 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 5 Quelques activités classiques conduites avec l'aide d'images sont indiquées ci-dessous : - Contrôle de l'aspect (présence de taches, rayures,...), dimensions (contrôle dimensionnel), assemblage, etc. de produits en cours de fabrication. Il peut servir pour la maintenance. On parle de "contrôle de process de production" si les mesures sont effectuées uniquement sur des échantillons. - Tri d'objets, avec par exemple le rejet de pièces mécaniques défectueuses. - Guidage de robot. Dotés d'yeux grâce à l'imagerie, les robots peuvent avantageusement remplacer les humains dans la manutention de pièces lourdes et fragiles. - Aide à l'assemblage par vérification du bon positionnement des pièces à assembler. - Identification d'objets avec par exemple la reconnaissance de caractères (lecture optique). Les domaines d'application ( de l'imagerie sont nombreux : Mécanique et métallurgie. Métrologie (2D et 3D) et analyse de structure pour l'étude de matériaux et le contrôle de la qualité industrielle (e.g., détection de défaut sur du laminé ou contrôle de la géométrie de pièces mécaniques). En micromécanique, l'imagerie est très utile, car elle permet de détecter de très petits défauts imperceptibles pour nos yeux et/ou des dispositifs mécaniques. Exemple : l'usine de Calor à Pont-Evêque (Isère) contrôle par vision la production de semelles de fers à repasser (6 millions par an), après l'apport de céramique et leur passage au four. Ce contrôle détecte et élimine toute semelle défectueuse: en 3 s, les motifs imprimés sur 2 semelles sont comparés à un modèle mémorisé et les semelles dont l'aspect n'est pas satisfaisant (e.g., dépôts de poudre insuffisants ou discontinus) sont éliminées. Ce n'est pas un vrai contrôle dimensionnel. Aux changements de série, la machine s'autoprogramme par apprentissage, après le passage des premières pièces. Le coût d'un banc complet est 15 K Euros. Avant, cette tâche était confiée à des employées dont l'œil n'était pas aussi efficace à cette cadence, surtout sur de longues périodes. Agro-alimentaire. Tri de graines selon leur dimension et/ou forme, etc. Exemple : contrôle de la qualité (hermétique, etc.) de l'emballage des jambons chez Fleury Michon ( Pharmacie. Contrôle de fabrication (taille, état, etc.) d'ampoules, de gélules, etc. Electronique. Contrôle de soudures, présence ou absence de composants, de courts circuits, etc. Automobile. L'image est souvent utilisée pour contrôler des robots. On distingue l'apport pour : - les constructeurs : aide au montage d'éléments (roues, portes, pare brise, etc.), traçabilité des produits par lecture de caractères, contrôle d'assemblage de boîtes de vitesses, etc. - les équipementiers: contrôle de pièces plastiques en sortie de presse, contrôle d'assemblage (allume cigare, boîte à fusible, etc.), guidage de l'assemblage robotisé d'équipements, etc. Exemple : sur la ligne d'assemblage de la C5, à Rennes, Citroën utilise le système de vision Edixia pour automatiser le montage des roues, à raison d'environ 1000 véhicules par jour. Ce système détermine avec précision la position des centres de roue. Biologie. Classification de chromosomes, etc. Génie biologique et médical. - radiographie (scanographie) : mesure du rayonnement X qui a traversé l'objet étudié. - scintigraphie : mesure du rayonnement d'une substance radioactive injectée dans l'organe étudié. - angiographie : radiographie des vaisseaux après injection d'une substance opaque aux rayons X. - échographie : mesure de la réflexion d'ultrasons. - tomographie : image radiographique d'un plan à un niveau choisi du niveau du corps. - résonance magnétique nucléaire (RMN) : analyse du comportement des électrons dans un organisme soumis à un champ magnétique intense. Evite l'emploi de radiations traumatisantes. - endoscopie : examen de cavités et organes à l'aide d'un tube optique muni d'un système d'éclairage. - imagerie d'impédance : les différents tissus humains ont des conductivités électriques spécifiques. Infographie. Création et manipulation d'images numériques : représentation des éléments graphiques (texte, image, vidéo) et leurs transformations (rotation, translation, zoom,...), etc. Météorologie, astronomie. Télédétection. Etude des surfaces terrestres à partir d'images acquises depuis l'espace. Les applications se situent surtout au niveau de l'environnement, de l'agriculture, de l'urbanisme, etc.

6 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 6 Un "système de vision" a pour fonction d'acquérir et de traiter des images (Figure I.2 et Figure I.3). Il combine un système d'acquisition (caméra numérique, etc.) et un système de traitement d'image. Par contre, un "système de vision industrielle" comprend en général (1) un ou plusieurs capteurs optoélectroniques (caméra ou autre capteur capable de reconstituer une image), (2) une unité de traitement des images saisies qui assure une prise de décision automatique et (3) un système qui met en oeuvre cette décision. En sus d'acquérir et de traiter des images, un système de vision industrielle permet donc d'assurer la mise en œuvre d'une décision prise durant la phase de traitement d'image. Acquisition - capteur(s) + carte - Le processeur du PC ou un/des processeur(s) spécialisé(s) de la carte d acquisition effectuent les traitements. Traitement / Décision - Informations - Statistiques Exploitation - Actions Figure I.2: Principe de la Vision Industrielle (Peyron, 2002). P o rts E /S n u m é riq u e s C a m é ra s E c ra n N u m é ris e u r e t p ro c e ss e u r a n a lo g iq u e L U T M o d u le d e v isu a lisa tio n C a rte d 'a c q u isitio n e t d e tra ite m e n t d 'im a g e M é m o ire d e m a ss e C a lc u la te u r h ô te C la v ie r M é m o ire im a g e C o n trô le u r d e s é c h a n g e s d e d o n n é e s P ro c e ss e u rs n u m é riq u e s d e tra ite m e n t d 'im a g e s B u s P C I M é m o ire c e n tra le C P U Figure I.3: Architecture d'un système de vision sur PC (Peyron, 2002). Diverses contraintes peuvent affecter l'emploi opérationnel de l'imagerie. Ce sont en particulier : - l'éclairage. Il influence beaucoup la qualité des images selon sa stabilité (e.g., variation temporelle des images alors que l'objet observé ne varie pas), sa disposition (e.g. plus ou moins d'ombres),... - les conditions environnementales (température, poussière, humidité, vapeurs corrosives, etc.). Elles peuvent affecter le bon fonctionnement du système d'acquisition et de traitement. - la variabilité des objets observés (couleur, contraste, position, orientation, etc.). - la rapidité du traitement d'image. Ceci est surtout important lors de traitements en temps réel. Le temps de traitement tend à croître avec le volume des données (images) à traiter et la complexité de la procédure mise en œuvre pour obtenir l'information recherchée. Ainsi, les objets observés peuvent se déplacer à une vitesse de plusieurs m/s ou survenir avec une cadence très rapide (e.g., plus de 600 boites de conserve par minute et plus de 1500 ampoules pharmaceutiques par minute).

7 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 7 I.1.2 Les principaux métiers La vision industrielle met en jeu de nombreux métiers. En dehors des laboratoires de recherche, des formateurs et des utilisateurs, il convient de citer : - le fabricant de machines de vision (OEM: Original Equipment Manufacturer) Le fabricant (e.g., Cognex ; fabrique en petite ou moyenne série des équipements (caméras, cartes, etc.) qui répondent aux besoins d'un secteur industriel. - l'intégrateur de systèmes de vision L'intégrateur (e.g., Edixia ; apporte une prestation complète depuis l'expression du besoin jusqu'à la réalisation d'une application. Pour cela, il cumule différentes compétences (optique, électronique, informatique industrielle, automatique, mécanique, vision par ordinateur, etc.). - le consultant en vision Le consultant (e.g., Delta Technologies ; propose aux entreprises de définir et mettre en oeuvre des solutions par vision en milieu de production. Ainsi, il peut proposer: * une analyse du système de production et des besoins de contrôle. * une étude des solutions à mettre en oeuvre. * des études de faisabilité. * une définition des méthodes de validation. * le choix des fournisseurs. * le suivi des projets. I.1.3 Le marché des systèmes de vision Dans les années 90, les systèmes de vision étaient réputés peu fiables, très fragiles et très sensibles à leur environnement. Ce n'est plus vrai. Les caméras (Figure I.4) sont désormais : - robustes. Elles ne nécessitent pas de maintenance particulière pour supporter les conditions difficiles des ateliers. L'absence d'usure mécanique est un de leurs avantages majeurs. - rapides. Les performances des cartes d'acquisition, des PC et des standards d'échange de données permettent des fréquences d'acquisition d'image supérieures à 60 images / seconde. - précises. Grâce aux capteurs CCD et CMOS de dernière génération, la précision peut atteindre l'ordre du micron dans des champs restreints, avec une technique qui est restée assez simple. Figure I.4: Automates de vision. Systèmes compacts où l unité de traitement est (a) dans un boîtier séparé ou (b) dans la caméra. Du fait de ces améliorations techniques, contrôle par caméra (vision industrielle en ligne, etc.) se développe fortement dans tous les secteurs de l'industrie (de plus en plus de PME), soit en tant que nouveau système ou bien en tant que remplacement de système classique pré-existant (e.g., capteurs mécaniques). En Europe, selon l'american Image Association, la croissance du marché des machines de vision ( 1,4 milliard US $) est 20% par an depuis Les marges de progression semblent

8 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 8 encore énormes, car la plupart des entreprises qui désirent améliorer leur qualité sur de grandes cadences sont des utilisateurs potentiels de systèmes de vision. Avec des offres de base d'environ Euros, les retours sur investissement peuvent être très rapides, jusqu'à un mois d'utilisation. Le succès des systèmes de vision oblige les fournisseurs à connaître assez bien le métier de l'industriel, car ce dernier commande souvent une fonction sans trop se soucier de la technologie. La France s'oriente vers le modèle allemand : petits intégrateurs qui sont spécialisés dans des secteurs spécifiques et qui se fournissent en matériel auprès de quelques grands constructeurs ou distributeurs. En général, les développements particuliers coûtent cher. Ceci explique que pour répondre à des fonctions simples, les intégrateurs (e.g., Edixia, Satimage, Cotec) et les fournisseurs (e.g., Cognex, Imasys) cherchent à mettre au point des outils standards, matériels ou logiciels qui répondent aux exigences d'un large éventail d'entreprises (de plus en plus de PME). Région Revenus (10 6 $) Unités Revenus (%) Unités Amérique du Nord ,4% 60,9% Europe ,2% 26,7% Japon ,7% 33,0% Reste du monde ,7% 9,4% Total % 100% Marché de la vision industrielle : revenus et nombre d'unités. Il est près de 3 fois plus important en Allemagne qu'en France (Automated Imaging Association, 2001). Exemple de Système de Vision L'intégrateur de solutions de vision Edixia a installé un système de vision (Figure I.5) dans l'entreprise Salmson (Laval) de fabrication de pompes à eau. Travail à effectuer : contrôler la présence, position et longueur de fils ( = 0,2 mm, longueur 4 mm) sur le bobinage de stators de moteur électrique de pompe à eau, pour toute la production, à raison d'un stator toutes les 10 s. Avant 1999, ce contrôle était imprécis et pénible, car il était visuel. Solution adoptée : (1) acquisition d'images par une caméra, dans la ligne de production après l'opération de connexion des fils. (2) traitement en temps réel de ces images par commande programmée de la carte de vision EDX IA 512. Coût: 70 keuros, dont 12 keuros de matériel de vision. "Point origine" de l'image Fenêtres d'analyse Y o X o Figure I.5: Contrôle de chaîne de production de stators avec un Système de Vision Etapes du traitement d'image mis en oeuvre 1) Traitement global de l'image: amélioration de son contraste et élimination des bruits présents. 2) Traitement local : - recherche du "point origine" (X o, Y o ) de l image pour positionner les fenêtres d analyse. - recherche dans chaque fenêtre de transitions révélatrices du fil contenu dans celle-ci. - mesures et décision si le produit est défectueux ou correct (i.e., longueur du fil au moins égale à 50% de la longueur maximale).

9 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 9 I.2 CARACTERISTIQUES DES IMAGES RASTER Il existe 2 grandes classes d'images : les images vectorielles et les images "raster". Une image raster est transformée en une image vecteur par une vectorisation. L'opération inverse est une rastérisation. Image raster (bitmap ou pixellisée). Tableau rectangulaire (Figure I.6) d'éléments (pixels) de même dimension possédant un ou plusieurs attributs (i.e., nombre, nom, ) codés numériquement. Le rangement régulier des pixels évite de stocker leurs positions dans l'image : tout pixel est repéré par un numéro de ligne "l" et un numéro de colonne "c". Un point est représenté par un pixel, alors qu'une ligne et une surface sont formées par un ensemble de pixels connexes. Pour les applications du type "cartographie" et "contrôle dimensionnel", les images sont souvent géoréférencées : lien entre les coordonnées "image" (c,l) et les coordonnées métriques (x,y) du monde réel. Caméra (13 x 12 CCD) Colonne c Figure I.6: Image raster Ligne l Pixel P(c,l) Image vectorielle. Eléments géométriques (e.g., segment, cercle) représentés par des coordonnées (x,y), des nombres et des attributs: couple (x,y) pour 1 point, 2 points pour 1 segment, segments pour un polygone, etc. Le processeur les "traduit" en information interprétable par la carte graphique. Ces images se prêtent bien aux transformations géométriques (zoom,...) alors qu avec une image raster il y a perte d'information (distorsion) et apparition de pixels (pixellisation : aliasing). Elles ne sont pas acquises par des capteurs mais dérivent d'opérations manuelles (e.g., dessin sur ordinateur) ou automatiques (e.g., tracé de frontières d'objets d'une image). Le logiciel Macromedia Flash et le plugiciel ("plug-in") SVG permettent l'emploi du format vectoriel sur Internet. e e e Figure I.7: Image vectorielle Points, segments et polygones avec différents attributs "remplissage": gris texturé ou non. a.) b.) c.) d.) e.) f.) Figure I.8: Haut: Zooms croissants (b,c) du coin inférieur droit de l'image raster (a). Les pixels apparaissent. Bas: (e) = zoom de (d) si (d) est vecteur et (f) = zoom de (d) si (d) est raster. Chaque type d'image a ses avantages et désavantages. Ainsi, les images raster contiennent en général plus d'information que les images vectorielles. Leurs volumes mémoire sont donc souvent beaucoup plus importants et leur manipulation nécessite des temps de calcul beaucoup plus longs. D'autre part, le degré d'agrandissement de ces images affecte la forme des objets qu'elles contiennent. Ainsi, dans une image raster très agrandie, un segment oblique apparaît comme une suite de marches d'escalier. Par contre, dans les images vectorielles, l'agrandissement n'affecte pas la forme des objets : un cercle reste un cercle, une droite reste une droite, etc. Ceci explique que les systèmes de traitement de texte utilisent des polices de caractère vectorielles pour conserver la forme des caractères lors de zooms. Ce manuscrit traite seulement des images raster. Leurs caractéristiques majeures sont résumées ici. Une image raster est caractérisée par sa structure et son format : - la structure des images dépend du capteur et de son mode de fonctionnement (e.g. une ou plusieurs bandes spectrales, codage sur n bits des comptes numériques des pixels, etc.) - le format des données dépend du mode d'enregistrement de l'image. Il indique des paramètres tels que la présence et dimension de l'en-tête des fichiers "image".

10 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 10 Image raster multidimensionnelle Elle est composée de N images raster "classiques". Tout élément est un vecteur P n (x,y) de N comptes numériques [P 1...P n...p N ] où n [1 N]. Exemple : image multi-canal acquise par un capteur (e.g., caméra CCD: Charge Coupled Device) avec N canaux spectraux. Elle est composée de N images mono-canal. 1 e r c a n a l L ig n e l C o lo n n e c 2 è m e c a n a l L ig n e l C o lo n n e c 3 è m e c a n a l L ig n e l Figure I.9: Image multi-canal P 1 ( c, l) P 2 ( c,l) P 3 ( c, l) P ix e l P ( c, l) Résolution radiométrique d'une image Le codage des comptes numériques est réalisé sur un nombre p de bits, ce qui correspond souvent à des nombres entiers compris entre 0 et 2 p-1. Le nombre p de bits de codage est en général d'autant plus élevé que la précision radiométrique du capteur est grande. Si p = 8 (1 octet), l'on a CN [0 255], soit une erreur relative de Avec p = 10 (2 octets), l'on a CN [0 1023]. Dimension d'une image Le terme "dimension d'image" peut correspondre à la dimension "informatique" ou "géométrique". - Taille informatique d'image brute (i.e., sans compression et ajout d'information): N col.n lig.n can.n oct où N col = nombre de colonnes, N lig = nombre de lignes, N can = nombre de canaux et N oct = nombre d'octets de codage des CN des pixels. Ainsi, une image panchromatique (i.e., image mono-canal dans la bande spectrale [ nm] acquise par un capteur équivalent à une barrette de 6000 détecteurs) du satellite SPOT a N col = 6000, N lig = 6000, N oct = 1 et N can = 1, soit une taille informatique de 36 Mo (Méga octets). - Dimension géométrique d'image : dimension de la surface observée (Figure I.10). Elle dépend des éléments constitutifs du capteur (système optique, système de balayage et système de détecteurs). Pour la plupart des capteurs fixes, elle est plus ou moins proportionnelle à l'angle d'ouverture θ FOV (FOV: Field Of View) du système optique multiplié par la distance entre la surface observée et la pupille d'entrée du système optique du capteur. Pour un capteur spatial constitué par une barrette de photo éléments perpendiculaire à la direction de déplacement du capteur (trace), avec une vitesse v, une altitude H, un FOV θ FOV et un temps d'échantillonnage t échant, l'image a une longueur (i.e., dimension selon la trace) v. t échant et une largeur 2H.tan θ FOV 2. 2 H.tan θ FO V 2 H H. θ IF O V FO V v. t éc hant v. t é cha n H. θ I F O V H. θ IF O V Larg eu r au so l d e l'im age T erre 2 lig n e s su cce ssive s d 'u n e im a g e ra ster. C h a q u e lig n e co m p ren d 9 p ixe ls. Figure I.10: Acquisition d'image raster avec une barrette de 9 CCD (IFOV θ IFOV ) embarquée. Résolution spatiale d'une image La résolution géométrique d'un capteur correspond à son angle d'analyse θ IFOV (i.e., angle de vue instantané : IFOV). Pour un capteur satellite d'altitude H à la verticale, elle est H. θ ifov. Elle diffère de

11 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 11 la taille des pixels. Ainsi, avec une barrette de m détecteurs sur un satellite de vitesse v, la taille des pixels selon la trace est v. t échant (Figure I.10), où t échant est le temps entre 2 acquisitions de ligne H. θ ifov image. Le taux d'échantillonnage de l'image selon la trace du satellite est η. Si η > 1, l'image v. t échant est sur-échantillonnée (i.e., pixels de lignes voisines corrélés). De même, l'image est sur-échantillonnée selon la direction normale si θ fov < m. θ ifov. En fait, on a souvent θ fov = m. θ ifov et H. θ ifov = v. t échant. Format des fichiers image Tout fichier image est un enregistrement numérique (Figure I.11), par exemple constitué par les mesures d'un capteur (i.e., comptes numériques) et des informations annexes (e.g. en-tête, préfixes et suffixes de lignes, etc.) utiles pour sa manipulation (lecture, visualisation, traitement, etc.). Le format du fichier indique le mode de stockage des informations dans le fichier. Fichier Image raster Fichier Image vecteur (segment) 45 Octet No 1 23 En tête 34 Octet No 2 En tête Octet No Octet No Octet No er point 0 1 ère ligne 10 Octet No Octet No ème point 4 10 Octet No Octet No ème ligne 20 Octet No Octet No Figure I.11: Relation entre fichier informatique et image. a) Image raster. b.) Image vecteur (segment). Le quadrillage (gris clair) dans (b) illustre que l'espace mémoire de l'image raster du segment est beaucoup plus important que celui de l'image vecteur : 24 comptes numériques au lieu de 4. Le format des fichiers est plus ou moins complexe. Deux exemples (Figure I.12) sont donnés ici. - format BSQ (Band Sequential). Chaque image mono-canal est stockée en tant qu'enregistrement informatique continu, dans un même fichier ou dans plusieurs fichiers. - format entrelacé BIL (Band Interlaced). Les lignes correspondantes des images mono-canal sont groupées. Ainsi, les lignes mono-canal d'une même région de la scène observée sont groupées. Le but est de réduire le temps d'accès au disque dur, et donc accélérer l'affichage et les calculs. En-tête En-tête Préfixe Ligne 1; canal 1 Suffixe Préfixe Ligne 1; canal 1 Suffixe Préfixe Ligne 2; canal 1 Suffixe Préfixe Ligne 1; canal 2 Suffixe : : : : : : Préfixe Ligne L; canal 1 Suffixe Préfixe Ligne 1; canal N Suffixe Préfixe Ligne 1; canal 2 Suffixe Ligne 1 Préfixe Ligne 2; canal 1 Suffixe Préfixe Ligne 2; canal 2 Suffixe Ligne 2 Préfixe Ligne 2; canal 2 Suffixe : : : Affichage des 2 ères : : : Préfixe Ligne L; canal 2 Suffixe lignes du canal 2 Préfixe Ligne 2; canal N Suffixe : : : de l'image. : : : Préfixe Ligne 1; canal N Suffixe Préfixe Ligne L; canal 1 Suffixe Préfixe Ligne 2; canal N Suffixe Préfixe Ligne L; canal 2 Suffixe : : : : : : Préfixe Ligne L; canal N Suffixe Préfixe Ligne L; canal N Suffixe C colonnes C colonnes C colonnes Figure I.12: Format (a) BSQ et (b) BIL de fichier image (N canaux, L lignes et C colonnes). Les 2 fichiers ont un en-tête suivi de N.L lignes, avec par ligne un préfixe, une ligne image monocanal et un suffixe. Le fichier BSQ stocke les L lignes du 1 er canal, puis les L lignes du 2 ème canal, etc., alors que le fichier BIL stocke la 1 ère ligne des N canaux, puis la 2 ème ligne des N canaux, etc.

12 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 12 I.3 ACQUISITION D'IMAGES Divers types de capteurs permettent d'acquérir des images raster numériques. Les plus usuels sont : - les appareils photo et caméras numériques mono-canal et multi-canal. L'acquisition d'images dans les domaines spectraux du bleu, du vert et du rouge permet de reconstituer la vision humaine. - les scanners médicaux. Ils donnent des images 3-D sous la forme de séries d'images 2-D. - les scanners et microdensitomètres. Ils numérisent des images ou négatifs sous forme analogique. - les microscopes. En modifiant leur focale, ils permettent d'observer la nature 3-D des objets étudiés. - les capteurs de télédétection. Systèmes rigides (e.g., barrette de 6000 CCD pour SPOT) ou à balayage (e.g., Thematic Mapper), avec un nombre très variable de bandes spectrales. Dans le domaine optique, de l'ultraviolet à l'infrarouge, l'acquisition d'image numérique (Figure I.13, Figure I.14) revient à numériser une image analogique de la scène observée. Quelle que soit la technologie (CCD, scanner, appareil photo numérique, etc.), elle requiert 3 étapes : i) création de l'image optique de la scène dans le plan image du système optique qui agit comme un filtre passe bas de fréquence de coupure f c (pas de fréquence f > f c dans l'image optique). ii) saisie de l'image optique (2 opérations). (1) Un spot / ouverture de taille a balaye l'image optique. (2) Durant un temps T, un élément photo sensible (photo diode / CCD ponctuel, linéaire ou surfacique, souvent avec des registres de décalage CCD) capte l'énergie lumineuse et la transforme en signal électrique. Le spot induit un filtrage passe bas de fréquence de coupure 1/a. L'échantillonnage peut entraîner une perte de résolution spatiale et un repliement de spectre. iii) conversion "analogique - numérique" de l'image saisie. Un numériseur convertit la tension électrique (U: Volt) de chaque pixel en compte numérique (CN) codé sur un nombre prédéfini de bits. L'image est ensuite stockée sur un support physique (CD Rom, disque dur,...) pour être ultérieurement visualisée et analysée, en vue d'une éventuelle prise de décision. Scène FTO Image analogique f c Système optique (fréquence de coupure f c) 1 a (balayage avec ouverture /spot de dimension a) Image convoluée f Image "saisie" Convertisseur (CAN) (échantillonnage spatial / Analogique- Numérique temporel - temps de mesure T) Système de saisie Figure I.13: Chaîne d'acquisition d'image numérique. f ech f Image numérique Balayage + préfiltrage spot Flux Scène ou image optique Photo détecteur SAISIE Position du spot Signal électrique analogique Signal de conversion Echantillonneur Quantificateur Valeur numérique CONVERSION ANALOGIQUE - NUMERIQUE Figure I.14: Schéma de principe d'un numériseur d'image optique. I.3.1 Création d'une image optique de la scène observée L'obtention d'une image analogique e(x,y) dans le plan image d'un système optique est toujours limitée, car tout système optique donne d'un point objet une image en forme de tache. Plusieurs raisons peuvent expliquer l'apparition de cette tâche: défaut de mise au point si l'image n'est pas exactement formée dans le plan image, aberrations chromatiques si la lumière n'est pas assez monochromatique, aberrations géométriques si les dimensions transversales du faisceau lumineux sont trop grandes, ou

13 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 13 diffraction de la lumière par les diaphragmes * et ouvertures du système optique. Contrairement aux aberrations géométriques, la diffraction est d'autant plus importante que les dimensions transversales du faisceau lumineux sont petites, c'est à dire si les diaphragmes et ouvertures du système sont petits. La diffraction est en général la contrainte la plus importante. Analysons la diffraction d'un système optique avec une pupille d'entrée d'ouverture p(x,y) circulaire (diamètre a). L'image d'un point source (i.e., impulsion de Dirac) monochromatique (λ) est une tache de diffraction centrée sur le point image géométrique sur l'axe optique à une distance d de la pupille de sortie. L'amplitude complexe de cette tache est la réponse impulsionnelle cohérente h c (x,y) du système (Point Spread Function). Sa transformée de Fourier H c (f x,f y ) est proportionnelle à p(x,y) : H c (f x,f y ) = F[h c (x,y)] = h c (x,y).e -j2πxf x.e -j2πyf y.dx.dy p(λ.d.f x,λ.d.f y ). Le diamètre du 1 er cercle noir de la tache de diffraction est λ.d a car F-1 [H c (f x,f y )] F -1 [p(λ.d.f x,λ.d.f y )] sinc(2π.a. x λ.d ).sinc(2π.a. y λd ). a) Source non ponctuelle qui donne un éclairement cohérent d'amplitude complexe e c (x,y). Le système optique est donc linéaire selon e c (x,y). L'amplitude complexe s c (x,y) du signal de sortie étant la convolution "s c (x,y) = e c (x,y)*h c (x,y) = e c (x',y').h c (x-x',y-y').dx'.dy'", les transformées de Fourier des amplitudes complexes de l'objet E c (f x,f y ) et de son image S c (f x,f y ), où f x et f y sont des fréquences spatiales, sont liées par: S c (f x,f y ) = E c (f x,f y ).H c (f x,f y ), où H c (f x,f y ) est la transformée de Fourier de h c (x,y). Le terme H c (f x,f y ) est la fonction de transfert cohérente (Figure I.15) du système. L'égalité "H c (f x,f y ) = p(λ.d.f x,λ.d.f y )" illustre que le système optique est un filtre passe bas parfait: il ne laisse pas passer de fréquence f supérieure à sa fréquence de coupure f c. Pour une pupille de sortie a circulaire de diamètre a, dans l'image optique, l'on a : λ.d.f c = 2. Par suite f c = a 2.λ.d. b) Source qui donne un éclairement spatialement incohérent (i.e., 2 points quelconques de la pupille d'entrée reçoivent des vibrations sans relation de phase). Le système optique n'est plus linéaire pour l'amplitude complexe, mais il est linéaire pour l'intensité (i.e., carré du module d'amplitude complexe) des flux lumineux. La réponse impulsionnelle incohérente h i (x,y) du système est le carré du module de la réponse impulsionnelle cohérente : h i (x,y) = h c (x,y) 2. Les intensités de l'objet e i (x,y) et de l'image s i (x,y) étant liées par la convolution s i (x,y) = h i (x,y)*e i (x,y), la relation S i (f x,f y ) = E i (f x,f y ).H i (f x,f y ) lie les transformées de Fourier des intensités de la scène et de l'image. H i (f x,f y ) = F[h i (x,y)] est la fonction de transfert incohérente normalisée (H i (0,0) = 1), aussi appelée fonction de transfert optique (FTO). Elle est égale à la fonction d'auto-corrélation de H c (f x,f y ), soit: H i (f x,f y ) = H c (f ' x,f ' y).h c (f ' x-f x,f ' y-f y ).df ' x.df ' y. Le module de la FTO est la fonction de transfert de modulation (FTM). La diffraction fait que le système est un filtre passe bas parfait, comme dans le cas "cohérent". La fréquence de coupure f c est double de celle du cas "cohérent". Dans le plan objet, elle vaut G.f c, où G est le grandissement du système. Avec une pupille de sortie circulaire de diamètre a, une pupille d'entrée de diamètre a' et une distance a' d' entre la scène et la pupille d'entrée: G.f c = λ.d', car G = d d'.a' a et f c = a λ.d. * Le diaphragme d'ouverture (élément matériel ou théorique) limite la dimension transverse du faisceau lumineux qui traverse un système optique centré à partir d'un point objet centré. La pupille d'entrée du système est son image dans le système qui le précède et la pupille de sortie du système est son image dans le système optique qui le suit. Ces 2 pupilles sont conjuguées l'une de l'autre. Elles sont confondues si la lentille est mince.

14 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 14 y x Plan image y x Plan image a d a d Pupille de sortie Pupille de sortie H c (f x,f y ) f y H c (f x,f y ) f y a 2.λ.d f x a 2.λ.d f x H i (f x,f y ) f y H i (f x,f y ) f y a λ.d f x a λ.d f x h i (x,y) y h i (x,y) y λ.d a x 1.22 λ.d a Figure I.15: Fonction pupille de sortie, fonction de transfert cohérente, FTO et réponse impulsionnelle incohérente. Pupilles de sortie carrée de coté a (gauche) et circulaire de diamètre a (droite). La diffraction limite donc la résolution des capteurs optiques. Le critère de résolution de Lord Rayleigh illustre ceci: "2 points sont juste séparés si leur distance dans le plan image est telle que le centre de la tache de diffraction de l'un coïncide avec le premier cercle noir de la tache de diffraction de l'autre". La limite de résolution η d'un système optique avec une pupille d'entrée circulaire de λ.d diamètre a est donc 1.22 a dans le plan image et 1.22 λ.d' dans le plan objet. Pour un capteur spatial a' d'altitude d' = 10 3 km avec a' = 1m, on a : η 1m si λ = 820nm et η 0.5m si λ = 410nm. Rappel sur la transformée de Fourier (Figure I.16) 1 Tout signal 1-D s(x) périodique de fréquence f o = peut s'écrire en tant que série de Fourier: x + s(x) = Σ An.e j2π.n.f o.x n=- 1 avec les coefficients de Fourier A n = x x o+ x x. x o s(x).e -j2π.n.f o.x.dx Le spectre de s(x) est l'ensemble {A n }. Il s'écrit aussi : S(f) = n=- + Avec s(x) quelconque: s(x) = S(f).e j2π.f.x.df et S(f) = F[s(x)] = - + Σ An.δ(f - n.f o ) + - s(x).e -j2π.f.x.dx (S * (f) = S(-f) si s(x) réel) Le spectre S(f x,f y ) = F[s(x,y)] d'un signal s(x,y) est d'autant plus large que l'étendue du signal s(x,y) est étroite. Ainsi, l'étendue du spectre d'un signal borné est infinie. Il apparaît que : * Spectre de signal 1D: - non borné : s(x) = sinc(x) S(f) = signal porte borné. 1 - borné: sin(x) si x [-T T] et 0 ailleurs S(f) =.{sinc[(ω 2 ω o -ω). π ] + sinc[(ω o ω o +ω). π ]} o ω o - unité borné (s(x) = 1 sur x = a et 0 ailleurs) : S(f) = a.sinc(π.f.a). - unité non borné (i.e., a ) : S(f) = δ(f) = lim a [a.sinc(π.f.a)] avec - + δ(f).df = 1. * Spectre de signal 2D: - infini borné : impulsion de Dirac δ(x,y) S(f x,f y ) = 1 (f x,f y ). - unité non borné : S(f x,f y ) = δ(f x =0,f y =0) = lim a,b a.b.sinc(π.f.a).sinc(π.f.b).

15 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 15 Toute périodicité dans un signal se manifeste par l'apparition de raies dans son spectre. Ainsi : - le spectre d'une sinusoïde infinie d'amplitude unité et de fréquence f o est constitué de 2 raies 1 uniques centrées sur f o et -f o : S(f) = 2.[δ(f-f o) + δ(f+f o )]. - le spectre d'un signal borné de spectre A(f) répété infiniment (période x) est un ensemble infini + de raies espacées de f o : S(f) = Σ A(f).δ(f - n.f n=- o ), soit A(f) échantillonné à la fréquence f o = 1/ x. Les 2 principales fonctions d'échantillonnage d'images sont : Fonction 1-D : peigne Σ δ(x - i. x) de pas x. Transformée de Fourier S(f x ) = Σ i=- i=- x.δ(f x - i x ) Fonction 2-D : brosse Σ Σ δ(x - i. x,y - j. y) de pas ( x, y). S(f x,f y ) = Σ Σ i=- j=- i=- j=- x. 1 y.δ(f x - i x,f y - j y ) Figure I.16: Spectres de Fourier. a) Petit disque. b) Segment. c) Mire parfaite. d) Grillage. e) Brosse. I.3.2 Balayage de l'image a.) Principe La saisie d'image transforme l'image optique en un équivalent électrique. Pour cela, un capteur d'image (i.e., photo détecteur ponctuel / linéaire / surfacique) est couplé à un système qui balaye l'image optique en faisant "glisser" sur toute celle-ci une ouverture d'analyse (spot de mesure) o(x,y). Le déplacement du spot selon X et Y peut être mécanique, électronique ou mixte. Les détails plus fins que le spot o(x,y) tendent à disparaître : c'est un filtrage passe-bas, car le spot ne peut être infiniment petit. Il y a coupure ou au moins forte atténuation des fréquences spatiales supérieures à l'inverse de la dimension du spot. Le balayage d'une image par une ouverture diminue le contraste (Figure I.17). En fait, il peut même inverser localement ce contraste pour certaines dimensions de l'ouverture. Ceci peut survenir lors de l'observation d'une mire périodique par une ouverture carrée de dimensions croissantes. De même que le système optique, le système de balayage est caractérisé par : - une réponse impulsionnelle h(x,y) égale à sa réponse à une impulsion de Dirac. La réponse impulsionnelle h(x,y) est la fonction ouverture retournée : h(x,y) = o(-x,-y). - une fonction de transfert H(f x,f y ) égale à la transformée de Fourier de la réponse impulsionnelle (i.e., H(f x,f y ) = F[h(x,y)]). L'analyse de l'image analogique avec un spot est la convolution de l'image par la réponse impulsionnelle h(x,y) du système : s(x,y) = e(x,y)*h(x,y) = e(x',y').h(x-x',y-y').dx'.dy' Exemple de balayage : soit un signal d'entrée mono dimensionnel e(x) qui correspond à un trait de largeur l (Figure I.17). Le balayage est réalisé avec une ouverture rectangulaire représentée par une fonction porte o(x) de largeur a (i.e., o(x)=1 si s [- a a ] et o(x)=0 ailleurs). Le signal issu de ce 2 2 balayage est la convolution de l'entrée e(x) par la réponse impulsionnelle o(-x): + e(x').o(x'-x).dx'. Le trait de l'image optique est donc élargi dans l'image saisie. s(x) = e(x)*o(-x) = -

16 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 16 e(x) 1 l a) - l 2 0 l 2 x o(x) 1 a b) - a 2 0 a 2 x o(x-x o ) 1 e) Flux lumineux recueilli : s(x) = e(x)*o(-x) x c) 0 e(x).o(x-x o ) 1 x o x s(x o ) d) 0 x o Figure I.17: Balayage d'un trait blanc de largeur l par une ouverture carrée de côté a<l. a) Trait lumineux. b) Ouverture o(x). c) Ouverture en x o. d) Signal de sortie avec ouverture centrée sur x o. e) Flux lumineux reçu à travers l'ouverture selon la position x. x Par suite : S(f x,f y ) = H(f x,f y ).E(f x,f y ) où E(f x,f y ) = F[e(x,y)]. Dans le cas 1-D "e(x) = cos(2π.f o.x)", on a : s(x) = H(f o ).cos(2π.f o.x-φ(f o )) où Φ(f o ) = -arg[h(f o )]. L'ouverture o(x,y) ayant une dimension finie a, H(f x,f y ) décroît aux hautes fréquences, plus ou moins comme la fonction a.sinc(π.f.a) : son domaine fréquentiel est limité. Le système de balayage est donc un "filtre passe bas" avec une fréquence de coupure f c de l'ordre de 1. Les 3 types d'ouvertures les plus fréquents sont (Figure I.18) : a - ouverture rectangulaire de côtés a et b (e.g., capteurs CCD). H(f x,f y ) est le produit de sinus 1 cardinaux "sinc(π.f x.a).sinc(π.f y.b)" avec f c,x = a et f c,y = 1 b. - ouverture circulaire de diamètre a (e.g., microdensitomètres). H(f x,f y ) est une fonction de Bessel de 1.22 révolution avec f c = a. - ouverture gaussienne d'écart type a/2 (e.g., spot électronique de balayage d'un tube vidicon). H(f x,f y ) est une gaussienne d'écart type 1 π.a avec f c 0.9 a. h(x,y) 1 h(x,y) 1 h(x,y) 1 1 e x a 2 b 2 y x a 2 y x a 2 y f x H(f x,f y ) 1 a ab 1 b f y 1.22 a f x H(f x,f y ) a f y f x H(f x,f y ) 1 1 π.a 1 e f y Figure I.18: Réponses impulsionnelles (haut) et fonctions de transfert normalisées (bas). Systèmes à ouverture (a) rectangulaire avec transmission constante, (b) circulaire avec transmission constante, (c) gaussienne d'écart type a/2. b.) Les 4 systèmes de balayage i) Numériseurs à balayage en sortie (Figure I.19) La scène observée est en général fixe et totalement éclairée avec un éclairage incohérent. Un montage optique en forme une image optique sur laquelle se déplace ligne après ligne une ouverture

17 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 17 d'analyse. Cette ouverture correspond souvent à la surface d'un élément photosensible. Ramené à l'objet d'entrée, le spot de mesure est la partie de la scène dont l'image est l'ouverture. - Photodétecteur surfacique. Le balayage est électronique en X et Y. On distingue deux grands types. (1) Les photo détecteurs à tube (e.g., caméra à tube vidicon). L'image est formée à la surface du tube sur une couche photoconductrice qui constitue un petit condensateur photoélectrique en tout point. Chaque condensateur est rechargé à une valeur initiale négative ligne par ligne (e.g., 25 lignes / s) par le balayage d'un faisceau d'électrons issus d'une cathode chauffée. Il se décharge plus ou moins quand il est éclairé, ce qui crée un courant local de photoconduction. L'ouverture est la petite zone définie sur la cible par le faisceau d'électrons de balayage. (2) Les photo détecteurs surfaciques intégrés (e.g., caméra CCD). L'image est formée sur la matrice des photosites, et l'ouverture est constituée par le photosite actif. - Photodétecteur linéique (barrette). Le balayage est électronique selon la direction du détecteur (barrette) et mécanique selon la direction perpendiculaire. - Photodétecteur ponctuel. Le balayage de l'objet et/ou du détecteur est mécanique en X et Y avec une image formée sur la surface sensible du détecteur. Ce principe a été peu utilisé (e.g., micro densitomètres à une seule fente de sortie). Dans l'exemple donné, l'objet se déplace alors que le système optique et les détecteurs sont fixes. Le détecteur recueille la lumière qui a traversé la fente, après avoir traversé la partie de l'objet dont l'image donnée par le microscope est la fente. Objectif Tube vidicon Balayage du spot d'analyse Scène observée Cible photo conductrice Faisceau d'électrons (balayage ligne par ligne) Image Objectif Zone image du CCD Scène observée Photosite actif Image Objectif Barrette de CCD Scène observée Déplacement de la barrette Image Microscope d'analyse Faisceau d'analyse Source Faisceau d'éclairage PM Objet mobile (balayage mécanique) Spot de mesures Fente d'analyse Image Figure I.19 : Exemples de systèmes d'acquisition d'image à balayage de sortie. a) Caméra à tube vidicon. b) Caméra CCD. c) Barrette CCD. c) Micro densitomètre à une fente de sortie. ii) Numériseurs à balayage en entrée (Figure I.20) L'objet observé est balayé ligne après ligne par un fin pinceau d'éclairage (cohérent ou incohérent). La lumière transmise ou réfléchie dans toutes les directions par la petite partie éclairée est recueillie par un collecteur de lumière et focalisée sur un photo détecteur ponctuel. L'angle de collection est le plus

18 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 18 grand possible pour éviter qu'il y ait trop de lumière diffusée en dehors du collecteur. Dans un tel dispositif, le spot de mesure se confond avec le spot d'éclairage. Le balayage peut être : - mécanique (systèmes lents) : cas des analyseurs à laser où un pinceau laser défléchi balaye l'objet fixe, et des micro densitomètres à une seule fente d'entrée où le spot est l'image réduite de la fente donnée par un microscope d'éclairage fonctionnant à "l'envers", c'est à dire en réducteur (le spot d'éclairage est fixe et l'objet mobile). - électronique (systèmes rapides) : l'exemple type est l'analyseur "flying spot" où l'objet fixe (négatif ou diapositive) est balayé par une fine tache lumineuse qui est l'image à travers un condenseur du spot d'un écran cathodique. Le balayage se fait donc au rythme vidéo du tube. Ce système n'est plus guère utilisé à cause des défauts d'inhomogénéité et de distorsion causés par le tube. Spot d'éclairage Collecteur de lumière Pinceau d'éclairage mobile Scène observée PM M icroscope d'éclairage Fente d'éclairage Objet mobile Collecteur de lumière Source PM Spot d'éclairage Bobines de déflexion Spot de l'écran Condenseur Cliché fixe Collecteur de lumière PM Tube cathodique Flying spot Figure I.20 : Systèmes d'acquisition d'image à balayage d'entrée. a) Principe. b) Micro densitomètre à une fente d'entrée. c) Flying spot. iii) Numériseurs à double balayage entrée-sortie Les spots d'éclairage et d'analyse sont fixes l'un par rapport à l'autre. Ce couplage des 2 balayages est en général assuré par le déplacement de l'objet, avec des pinceaux d'éclairage et de mesure fixes. Spot d'éclairage Pinceau d'éclairage Pinceau de mesure PM Optique Objet mobile Spot de mesure Optique Microscope d'éclairage Fente d'éclairage Objet mobile Microscope d'analyse Fente d'analyse Source PM Spot d'éclairage Figure I.21: Systèmes d'acquisition d'image à balayage entrée-sortie. a) Principe. b) Micro densitomètre à fentes conjuguées.

19 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 19 Ces systèmes fournissent la meilleure qualité photométrique. Cependant, ils sont lents, car le déplacement de l'objet est nécessairement mécanique. L'objet peut se déplacer selon les directions X et Y ou alors selon une seule direction. Dans ce dernier cas, le système optique se déplace selon l'autre direction. Il existe aussi des dispositifs à cylindre rotatif. Pendant que le cylindre tourne, l'ensemble source détecteur se déplace parallèlement à son axe, de manière continue ou pas à pas. iv) Numériseurs à balayage mixte Le balayage selon Y est mécanique en déplaçant l'objet ou le tube d'éclairage, alors que le balayage en X est électronique à partir des photo éléments de la barrette. Ce dispositif est un bon compromis "précision - rapidité" pour de nombreuses applications (scanners). Pour la numérisation en couleurs, il est nécessaire d'éclairer le document avec les 3 couleurs de base: bleu, vert et rouge. Le système le plus rapide utilise 3 barrettes CCD avec des revêtements qui filtrent le bleu, le vert et le rouge. Bande d'éclairage Bande de mesure X Tube d'éclairage Objet mobile Y Photodétecteur linéique Figure I.22: Principe des systèmes d'acquisition d'image à balayage mixte. I.3.3 La photodétection Le flux lumineux associé au spot/ouverture est incident sur un ou plusieurs photodétecteurs (éléments photosensibles) ponctuels, linéiques ou surfaciques. Ces photoéléments traduisent le flux lumineux en un signal électrique (i.e., courant ou tension) du à l'accumulation de photocharges ou à l'intégration d'un photocourant durant un temps fini. Ce signal est proportionnel au flux si le détecteur est linéaire. a.) Détecteurs ponctuels Détecteurs thermiques : le flux lumineux absorbé est transformé en chaleur. - Bolomètres : leur signal de sortie (courant ou tension) dépend du flux lumineux absorbé, car celui-ci affecte la température et donc la conductivité électrique du détecteur. Ce principe est aussi utilisé pour les sondes à résistances basées sur le principe du pont de Wheatstone. Les bolomètres sont lents (constante de temps τ 10-1 à 10-3 s). Le bruit (Noise Equivalent Power: N.E.P) d'une surface de quelques mm 2 est 10-9 W sans refroidissement ( W à T=2K). +v Courant i R Lumière di R' R c Signal -v Figure I.23: Bolomètre - Détecteurs pyroélectriques : ils sont constitués de lames cristallines qui lors d'un échauffement donnent des charges électriques de surface q. Le signal électrique est proportionnel à dq/dt où T est la température. Ces détecteurs peuvent produire des images infrarouges en bande large (2 à 35 µm), sans refroidissement. Avec une surface de quelques mm 2, le NEP est W, ce qui est très supérieur au NEP des détecteurs quantiques. - Thermopiles : elles sont constituées par de nombreux thermocouples montés en série qui donnent une force électromotrice par effet thermoélectrique. Les soudures froides sont maintenues à température constante par contact avec une masse à inertie thermique importante. Le fait de mettre les autres soudures à une autre température donne à une tension aux bornes du circuit. Ces

20 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 20 détecteurs ne requièrent presque pas d'énergie. Ils sont utilisés à bord des satellites. Ils ont une meilleure dynamique ( -250 C à 3000 C) que les sondes à résistance ( -200 C à 850 C) - Détecteurs pneumatiques : un gaz fermé par une membrane absorbe un flux lumineux, ce qui modifie sa pression. La déformation de la membrane est mesurée par contrôle interférentiel ou par mesure de capacité électrostatique si la membrane est une électrode de condensateur. Détecteurs quantiques : mesure de l'excitation directe de ses particules par les photons incidents. Ces détecteurs sont très intéressants malgré trois contraintes majeures. (1) Certains photons non absorbés sont perdus. (2) Un électron excité peut retourner au repos au sein de l'aire sensible (recombinaison "électron - trou", etc.). (3) Un photon doit posséder une énergie minimale pour pouvoir exciter les électrons du matériau du récepteur. Le domaine spectral de fonctionnement dépend du matériau utilisé: silicium (Si: µm), germanium (Ge: µm), arséniure d'indium (InAs: µm), PbS (1.3-3µm), PbSe (2-5µm), antimoniure d'indium (InSb: 3-5.5µm) et tellurure de cadnium-mercure (Te-Cd-Hg: 2-14µm). - Détecteurs photo-émissifs : le signal est la mesure d'électrons arrachés d'un solide par effet combiné des photons incidents et d'une polarisation statique. L'efficacité quantique (nombre d'électrons arrachés / nombre de photons incidents) dépend de l'énergie d'extraction (i.e., énergie pour que les électrons passent du matériau au vide/air). Les photomultiplicateurs améliorent cette efficacité. Ils opèrent de l'ultraviolet jusqu'à 1µm. Etant constitués d'électrodes (dynodes) en série sous très haute tension croissante, les photomultiplicateurs multiplient les électrons initialement arrachés par photo détection au cours de leur passage d'une dynode à la suivante. Ils peuvent être très petits (20µm) si le tube fait office de dynode, ce qui permet alors leur emploi dans les équipements intensificateurs d'images (micro canaux). photons + Anode Photocathode - i électrons v Photocathode photons 500V 100V 300V électrons 400V 200V Anode 600V Figure I.24: Cellule photoémissive (gauche) et photomultiplicateur (droite) - Détecteurs photoconducteurs : le signal correspond à la mesure de la conductivité d'un semi conducteur homogène (i.e., pas de jonction), sachant que cette conductivité varie avec la création d'électrons semi-libres par absorption de rayonnement incident. La conductivité est mesurée en faisant passer un courant dans le semi conducteur au moyen d'une source externe. Le principe de fonctionnement des photoconducteurs limite leur sensibilité : l'absorption de photons crée des paires "électrons - trous" qui peuvent se recombiner. - Détecteurs photovoltaïques : le signal est un courant qui dépend du flux de photons incident sur la jonction à l'intérieur d'un semi-conducteur inhomogène. En effet, la création d'électrons et de trous par absorption de photons modifie la barrière de potentiel de la jonction. Les détecteurs photovoltaïques peuvent fournir un signal en l'absence de polarisation (photopiles) : l'extrémité de la région (p) devient positive et l'extrémité de la région (n) devient négative. Avec une polarisation de la jonction en inverse, le détecteur fonctionne en photodiode. Le courant est alors une fonction quasi linéaire du flux lumineux Φ. Le phototransistor combine l'effet photodiode et l'amplification de courant qui caractérise un transistor. Les détecteurs photovoltaïques ont une limite de bruit inférieure à celle des photoconducteurs. En effet, le champ électrique local fait diffuser les porteurs de charge (électrons et trous) vers des régions opposées, ce qui empêche leur recombinaison et réduit le bruit associé à ce phénomène.

21 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 21 Rappels de physique du solide (Figure I.25) Un semi-conducteur extrinsèque est un semi-conducteur où des impuretés ont été ajoutées. Il est dit de type (n) si la valence des impuretés dépasse celle du semi-conducteur. Un niveau intermédiaire (niveau des donneurs d'électrons) apparaît alors près de la bande de conduction : les électrons passent plus facilement de ce niveau à la bande de conduction que depuis la bande de valence. Ceci donne une conduction dite par électrons. Inversement, si la valence des impuretés est inférieure à celle du semi-conducteur, le semiconducteur est dit de type (p). Un niveau intermédiaire (niveau des accepteurs d'électrons) apparaît près de la bande de valence. Les électrons passent alors plus facilement de la bande de valence à ce niveau intermédiaire que vers la bande de conduction. La bande de valence n'est alors plus saturée et il y a une conduction dite par "trous" (manque d'électrons). Un semi-conducteur intrinsèque est en général constitué de silicium ou de germanium (valence 4), alors que les donneurs sont des atomes pentavalents (P, As, Sb) et les accepteurs des atomes trivalents (B, Al, In, Ga). hν Bande de conduction hν Bande de conduction hν Bande de conduction Niveau de Fermi Bande de valence Bande de valence Bande de valence Semi-conducteur (n) Semi-conducteur (p) Figure I.25: Semi-conducteurs intrinsèque et extrinsèque. Niveau intermédiaire du à des impuretés hν E c,n E v,n Bande de conduction (p) hν (n) Bande de valence E c,p E v,p Tension V (n) (p) Jonction (n-p) isolée Jonction polarisée i (µa) V U i R Φ = 0 U 20 Flux lumineux croissants Φ i = - V R + U R Figure I.26: Diode U R V(volts) Haut: jonction non polarisée avec une accumulation de charges positives et négatives aux extrémités des zones (p) et (n), respectivement. Bas: jonction polarisée dans un circuit. Courant i = i o.exp[ V k.t ] - i V o + i ph avec V o = o e tension caractéristique (e : charge de l'électron), i o courant d'obscurité et i ph courant photoélectrique quasi proportionnel au flux lumineux Φ. V < 0 i i ph b) Photodétecteurs linéiques Ce sont des barrettes de photodiodes ou de photo capacités MOS (Metal Oxyde Semi-conductor) qui fonctionnent en mode "stockage de charges" (Figure I.27). Les photo éléments sont reliés, via un interrupteur MOS, à un registre à transfert de charges, appelé CCD, qui met en série les charges recueillies par chaque photo élément. Toutes les cellules de ce registre sont chargées simultanément. Le passage des charges d'une cellule à la suivante est commandé par des signaux qui gèrent les puits de potentiel des cellules. A leur sortie du registre, les charges sont converties en tension. Pour les systèmes à photodiodes, le dispositif de sérialisation peut être un registre à décalage numérique qui commande successivement la fermeture des interrupteurs. Un ampli opérationnel peut alors convertir le photo courant des photodiodes en une tension de sortie. Les systèmes à photo capacité sont moins

22 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 22 sensibles que ceux à photodiodes, surtout dans le bleu, mais leur charge maximale admissible est supérieure. Divers bruits affectent la mesure : courant d'obscurité des photo éléments, courants de fuite des interrupteurs MOS et du registre CCD, rémanence pour les photodiodes, etc. Ainsi, pour supporter des temps de pose longs, le récepteur doit être refroidi (e.g., -100 ) pour éliminer tout bruit généré par le mouvement brownien des atomes dans le récepteur. Signaux de décalage du registre Registre CCD Signaux de charge du registre Interrupteurs MOS Barrette de photodiodes Tension positive Q U Conversion "Charge - Tension" Figure I.27: Barrette de photodiodes avec registre à transfert de charges (CCD). Marion (1997) Les photodiodes sont reliées à des capacités, puis à un registre à décalage par l intermédiaire d interrupteurs. Durant le temps d intégration, les interrupteurs sont ouverts et le flux lumineux reçu sur chaque photodiode crée un courant qui charge une capacité. Ensuite, les interrupteurs se ferment et la charge est transmise au registre à décalage, puis les interrupteurs s ouvrent et une nouvelle période d intégration démarre. b) Photodétecteurs surfaciques A partir de l'image optique de la scène observée, ils créent une répartition de charges électriques qui est la transposition électrostatique de la répartition spatiale de l'éclairement à l'entrée du système optique. Il existe 2 technologies d'analyse de la répartition des charges électriques : les capteurs à tube (e.g., tubes vidicon), et les capteurs intégrés (e.g., matrices CCD). Pour les capteurs intégrés, l'élément photo sensible et tous les circuits utiles au transfert de charges et à leur conversion en tension sont sur une même pastille de semi-conducteur. De par leur structure, ces capteurs réalisent donc un échantillonnage spatial : une matrice de photo détecteurs recueille l'énergie lumineuse et transfère les signaux de sortie à un registre CCD horizontal. Les trois principaux dispositifs de transfert sont : - Transfert de trame (Figure I.28). La zone image (MOS) est distincte de la zone mémoire (MOS). - Transfert interligne. Les zones image (MOS ou photodiode) et mémoire (MOS) sont imbriquées. - Pleine trame. La zone image et la zone mémoire sont confondues. Commande du registre Registre CCD horizontal Zone mémoire aveugle - registres CCD verticaux - Stockage d'une trame dans la zone image + Lecture de la zone aveugle 20ms Transfert de trame "zone éclairée zone aveugle" Commandes des registres verticaux 1ms Zone image éclairée - registres CCD verticaux - Figure I.28: Dispositif CCD à transfert de trame. a.) Principe. b.) Diagramme temporel.

23 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 23 I.3.4 Conversion "Analogique - Numérique" Un dispositif électronique appelé "convertisseur analogique - numérique (CAN)" convertit l'image saisie en une matrice de comptes numériques (i.e., image numérique), en général des entiers. Le signal de conversion "analogique - numérique" doit être fourni au bon moment au CAN, c'est à dire pour une position bien définie du spot. La position du spot peut être connue grâce à : - un dispositif mécanique ou optique de codage de position. Ainsi, les micro densitomètres de précision ont des règles optiques qui donnent la position des points d'échantillonnage en X et Y. - une horloge qui délivre des tops à intervalles réguliers. Ceci est le cas des systèmes vidéo où la vitesse de déplacement du spot est connue. Pour les numériseurs à capteurs discrets (e.g., CCD), les tops d'horloge peuvent être synchronisés avec les signaux de commande du registre de lecture. Le CAN réalise en général 2 opérations complémentaires simultanées: échantillonnage et quantification. i) Echantillonnage: De par leur arrangement, les photo éléments réalisent un échantillonnage spatial f e d'une ligne image e(x) (spectre utile E(f), fréquence maximale f max ). Le signal échantillonné e e (x) est le produit de e(x) i=+ par le peigne Σ δ(x - i. x) de pas x. Son spectre E e (f) est donc la convolution de E(f) et du spectre i=- 1 P(f) du peigne : E e (f) = E(f)*P(f) = x. i=+ i Σ E(f - i=- x ). Au facteur 1 x près, E e(f) est la répétition de motifs 1 de E(f) translatés, avec pour période la fréquence d'échantillonnage f e = (Figure I.29). Si E(f) est x borné (i.e., E(f) = 0 si f > f max ) et si f e est assez élevée, les motifs de E(f) ne se chevauchent pas. Le filtrage de E e (f) par un filtre passe bas de fréquence de coupure supérieure ou égale à f max donne alors le spectre E(f), ce qui en théorie permet de retrouver le signal original e(x). Par contre, si f e est trop faible (i.e., condition de Shannon (f e 2.f max ) non respectée), les motifs successifs de E(f) qui constituent E e (f) se chevauchent dans certains domaines fréquentiels où E e (f) est la somme de portions de E(f). Ce phénomène (Figure I.30), appelé "repliement de spectre" ou "aliasing" dans la terminologie anglaise, empêche de reconstituer exactement le spectre du signal d'origine avec un simple filtre passe bas. Il dégrade donc le rapport S/B. Ceci explique que l'échantillonnage du signal est souvent précédé par un filtrage des hautes fréquences spatiales de l'image "électrique". E(f) 1 E(f) 1 f f P(f) f max P(f) f max f e f e -2.f e -f e 0 f e 2.f e f E e(f) f e 0-2.f e -f e f e 2.f e E e(f) f e f 0-2.f e -f e f e 2.f e f 0-2.f e -f e f e 2.f e Figure I.29: Echantillonnage d'un signal 1-D à spectre borné. Respect (gauche) et non respect de la condition de Shannon (droite). f Un spectre E(f) d'image n'est jamais borné, car : - l'image analogique est à support borné, - les divers bruits du système d'acquisition ont un spectre non borné. - le spot d'analyse ne peut correspondre à un filtre passe bas parfait (h(f) = 0 si f > f c,spot et h(f) = 1 si f < f c,spot ). Il affaiblit les fréquences inférieures à f c,spot, ce qui diminue la résolution. Cette diminution est d'autant plus réduite que la fréquence de coupure f c,spot du spot est élevée (i.e., petit spot). Le problème est que l'augmentation de f c,spot tend à augmenter le repliement de spectre. Idéalement, il faudrait échantillonner l'image avec une fréquence f e 2.f c,spot. En fait, un sur échantillonnage coûte souvent cher en terme de temps calcul, de volume mémoire, etc. Le choix f e = f c,spot est un compromis souvent choisi. Les pixels d'analyse sont alors jointifs.

24 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 24 Figure I.30: Echantillonnage. Image sans (gauche) et avec repliement de spectre (droite). Remarque : Si l'image est balayée ligne par ligne avec un spot en mouvement continu (e.g., caméra à tube vidicon), un léger filtrage passe bas survient dans le sens des lignes. Cet effet de "bougé horizontal" n'existe pas avec les capteurs fixes à photo éléments discrets comme les capteurs matriciels. Il est en général négligeable devant le filtrage spatial du à la taille du spot. F(f+f e ) F e (f) Filtre parfait théorique F e (f) Filtre réel F(f) F(f) filtré f 0 e f o = 2 F(f-f e ) F(f) non filtré f Information due à F(f+f e ) et F(f-f e ) 0 f o f c,spot Figure I.31: Echantillonnage f e = 2f o, où 1 f o est la taille du plus petit détail pertinent de la ligne image e(x). (a) Préfiltre parfait: H(f) 1 pour f [0 f e /2] et H(f) 0 pour f > f e /2. (b) Préfiltre réel: affaiblissement des fréquences f < f o et non arrêt des fréquences f entre f o et f c,spot. Les pixels dépendent alors les uns des autres. Il y a perte de résolution : les fréquences entre f o et f c,spot induisent un aliasing qui empêche la reconstitution parfaite du signal original e(x). f ii) Quantification: les valeurs des pixels sont numérisées (codées) selon un nombre de niveaux de codage (niveaux de quantification) qui dépend du CAN. Ainsi, un CAN à 8 bits peut fournir 256 valeurs différentes. Les valeurs associées aux comptes numériques maximum et minimum possibles dépendent non seulement du nombre de niveaux de codage, mais aussi du fait que les niveaux de quantification dépendent ou non de l'intensité des pixels de l'image : - niveaux indépendants. Le codage peut être plus ou moins complexe. Ainsi, il peut être linéaire pour que les différences entre comptes numériques soient toujours proportionnelles à des différences d'intensité, ou bien logarithmique pour correspondre à la réponse logarithmique de l'œil avec l'intensité lumineuse. Le codage logarithmique est utilisé par les scanners. Ainsi, la précision d'un codage logarithmique avec 6 bits de quantification est équivalente à celle d'un codage linéaire avec 8 bits de quantification. - niveaux dépendants. Ils peuvent dépendre de la loi de répartition réelle des intensités ou bien d'une loi de répartition donnée a priori. La minimisation de l'erreur quadratique due à la quantification conduit à utiliser la technique de l'égalisation de l'histogramme : les intervalles numériques retenus correspondent à des proportions égales de pixels. Cette technique, combinée au codage logarithmique, permet de n'employer que 4-5 bits de quantification avec les scanners.

25 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 25 Valeur numérique Valeur numérique Codage linéaire Codage logarithmique Histogramme cumulé de l'image Signal analogique Signal analogique Figure I.32: Quantification. Indépendante (a) et dépendante (b) des intensités de l'image. L'opération de quantification entraîne un bruit dit de quantification qui s'ajoute aux autres bruits de la chaîne d'acquisition. En dehors de l'impact des caractéristiques photométriques et géométriques du capteur, le rapport S/B du système dépend surtout des principaux types de bruits suivants : - le bruit de détection, d'écart type σ D. - le bruit électronique, d'écart type σ E. Il est généralement faible. - le bruit de quantification, d'écart type σ Q. Si l'on a un pas de quantification constant : σ Q 3.5. Ces bruits étant non corrélés, l'écart type du bruit total est σ BRUIT = σ 2 D + σ2 E + σ2 Q. En général, le bruit de quantification est prépondérant aux faibles flux et le bruit de détection est prépondérant aux flux élevés et moyens. Par rapport à un numériseur parfait sans bruit de quantification, le bruit de quantification peut augmenter ou diminuer les différences entre les niveaux de sortie. L'augmentation de ces différences peut accentuer le phénomène de Mach (Figure I.33): la réponse de l'œil à un échelon de luminance (e.g., variation locale des comptes numériques d'une image) présente un rebond sombre du côté sombre et un rebond clair du côté clair. Le choix du pas de quantification conditionne le volume d'information. A priori, plus le pas est petit et plus l'information est préservée. Cependant, le choix d'un très petit pas augmente le volume mémoire. Celui-ci peut être réduit s'il est employé des pas de quantification non équidistants. Figure I.33: Défauts de la vision humaine a) b) a) Phénomène de Mach. b) Les 2 bandes grises qui encadrent la bande noire ne se distinguent pas ou peu, alors que ce sont les bandes No2 et No3 de a). I.3.5 Fonction de transfert et bruit instrumental Les paragraphes précédents montrent que la réponse impulsionnelle h(u,v) des capteurs optiques s'explique par la mise en cascade de trois filtres linéaires nécessaires pour réaliser l'acquisition : - un système optique. Ce système est en général limité par la diffraction. Dans le cas usuel d'un éclairement incohérent, sa fonction de transfert (FTO) a une fréquence de coupure nette f c. - une ouverture de balayage. Sa fonction de transfert a une fréquence de coupure f' c. - un temps d'intégration t e. L'électronique (photo détecteur, éventuel amplificateur avant le CAN, etc.) se comporte comme un système intégrateur avec un temps d'intégration t e (i.e., fréquence de coupure temporelle 1/t e ). Ce filtrage n'existe pas avec un capteur d'image discret et immobile. La fonction de transfert globale du dispositif est le produit des fonctions de transfert précédentes, dans le domaine des fréquences spatiales, dans le plan objet (x,y) ou image (u,v). Pour la plupart des capteurs (caméra, micro densitomètre, etc.), la fonction de transfert globale est surtout due au spot de mesure (ouverture d'analyse). Par contre, pour les microscopes, la FTO n'est plus à négliger.

26 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 26 Des exemples sont donnés ci-dessous pour le cas particulier du capteur satellitaire SPOT. Fonction de transfert optique Elle est surtout due à la diffraction. Elle est bi-dimensionnelle et ne dépend que de la fréquence spatiale f= f 2 x +f 2 y si le système est de révolution. Elle décroît régulièrement avec la fréquence et a' s'annule à la fréquence dite de coupure f c = où a' est le diamètre de la pupille d'entrée du système λ.d' optique et d' la distance entre cette pupille et la scène observée. La période de coupure dans la scène λ.d' ( meilleure résolution spatiale possible) est L c =. Etant proportionnelle à la longueur d'onde, L a' c est 20 fois plus élevée dans l'infrarouge à 10µm que dans le visible à 0.5µm. Pour un capteur spatial qui opère dans le visible et l'infrarouge, la résolution r associée à l'ifov (Instantaneous Field of View) est donc en général meilleure dans le visible que dans l'infrarouge (e.g., Météosat). L'impact de l'optique sur la fonction de transfert globale est minime si a' est tel que L c << r. Ainsi, pour SPOT XS (d' 830km, a' 30cm, r = 20m) : L c 1.6m pour λ = 0.6µm. La réponse impulsionnelle du système optique est élargie par des phénomènes autres que la diffraction. Il s'agit surtout des aberrations géométriques (i.e., dépendance du point image de convergence des rayons selon leur angle d'incidence par rapport à l'axe optique), du chromatisme (i.e., dépendance du point image de convergence des rayons selon leur longueur d'onde), et de la défocalisation (déplacement du plan focal physique par rapport à sa position idéale), etc. Intégration spatiale du signal Un système d'analyse de dimension a se comporte comme un filtre passe-bas de fréquence de coupure f c = 1/a. Ainsi, l'intégration spatiale sur un détecteur de dimension ( u, v) par une optique de distance focale F est une convolution par la réponse impulsionnelle h(x,y) qui idéalement est : - une fonction constante sur un pavé de dimensions au sol [(- u. d' d' d' d', u. ) et (- v., v. 2F 2F 2F 2F )] - une fonction nulle à l'extérieur de ce pavé. La fonction de transfert associée est : H(f x,f y ) = sinc(π.f x. u. d' F ).sinc(π.f y. v. d' F ) où f c,x = F d'. u et f c,y = F d'. v Si f c,image est la fréquence correspondant au plus petit détail significatif de l'image (inverse de la dimension de ce détail), u et v doivent être tels que f c > f c,image. La période de coupure au sol du 1 d'. u capteur SPOT P ( u = v = 13µm, F 2m, d' 830km) est L c = = f c,x F 5.4m. Intégration temporelle du signal Le temps t e est inférieur ou égal à la période T d'acquisition des mesures. Le déplacement du spot crée un effet de bougé, comme lors du déplacement d'un appareil photo ou d'un objet photographié. La fonction de transfert de l'électronique dépend donc du temps t e, de la vitesse v du spot par rapport au paysage et du grandissement du système optique. L'effet de bougé survient selon les colonnes image lors d'une acquisition par une barrette (e.g., SPOT) en mouvement et selon les lignes si le spot d'analyse se déplace le long des lignes (e.g., Landsat). La réponse impulsionnelle est donc 1-D. Elle est constante sur [-v. t e 2 v.t e 2 ] et nulle au-delà. Sa fonction de transfert est : H(f) = sinc(π.v.t e.f) où f est 1 f x ou f y. On a : f c =. Pour SPOT XS ( r = 20m) : L v.t e = v.t e = 20m et f c 0.05m -1. e I.3.6 Mesure et rayonnement Les images acquises par les capteurs radiométriques sont en général fournies aux utilisateurs sous forme de comptes numériques. Leur interprétation peut nécessiter de convertir leurs comptes numériques en quantités radiométriques (e.g., luminance spectrale L λ : W.m -2.sr -1.µm -1 ). Ceci est réalisé avec une relation de conversion. Cette relation peut être établie avec les caractéristiques de chaque élément de la chaîne de mesures. Cet établissement est très compliqué en raison du grand nombre de facteurs instrumentaux (e.g., sensibilité spectrale et fonction de transfert du capteur) et expérimentaux (e.g., position de la source de rayonnement, géométrie "instrument - cible"). Une

27 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 27 approche plus pragmatique, mais moins robuste, revient à étalonner le capteur à l'aide de régressions entre des mesures (i.e., comptes numériques) dites de référence sur des cibles dont les propriétés radiométriques (i.e., réflectance et/ou température) sont connues. La puissance Q mesurée par un capteur dépend de sa sensibilité spectrale et du rayonnement incident (luminance L λ (Ω v )). Dans sa plage normale de fonctionnement, un capteur tend à donner un signal de sortie quasi linéaire selon le signal d'entrée. La réponse spectrale d'un capteur qui opère dans λ = [λ inf λ sup ] peut donc être caractérisée par un offset O (i.e., bruit de fond), une réponse maximale k et une réponse spectrale relative λ. Les termes O, k et λ dépendent des caractéristiques de tous les composants du capteur (optique, électronique, etc.). S'il y a invariance temporelle expérimentale : Q = k. L λ (Ω v ). λ.dλ + O λ Luminance spectrale incidente L λ (W.m -2.sr -1 ) Sensibilité spectrale relative : λ Gain : k Chaîne de mesure d'un capteur Sortie : Q Compte numérique La puissance Q dépend linéairement de λ = λ λ 2 L λ. λ.dλ L λ.dλ λ.dλ et non de la luminance moyenne <L> λ = λ 1 λ 2 - λ 1 λ La détermination de <L> λ à partir de Q=Q(L λ, λ) implique de connaître la bande passante et la variabilité spectrale de la luminance du rayonnement incident. En pratique, cette variabilité est souvent négligée. L'hypothèse "L λ constante sur λ" conduit à : <L> λ λ.par suite : Q = G.<L λ > λ + O où G = k. λ λ.dλ Un capteur est en général caractérisé par une longueur d'onde centrale λ c et un canal spectral λ eff effectifs : λ c = λ. λ.dλ λ λ λ.dλ λ eff = [λ c - 3.σ λ c + 3.σ] où σ 2 = λ 2. λ.dλ λ Le calcul de la luminance moyenne <L> λ à partir de mesures implique de connaître le gain (G), l'offset (O) et la bande passante λ du capteur. Les comptes numériques (CN) des images sont donc souvent fournies avec des coefficients d'étalonnage α et β : <L> λ = α.cn + β, où β - O G et α 1 G. L'étalonnage d'un capteur, i.e. calcul de α et β, requiert au moins 2 mesures. En pratique, il est souvent fourni des coefficients qui relient les comptes numériques à une grandeur caractéristique des scènes observées (e.g., réflectance spectrale ρ λ = α.cn + β ou température T = α.cn + β). λ λ.dλ - λ 2 c I.3.7 Capteurs Caméras matricielles Les caméras matricielles fournissent une image en 2 dimensions de la scène analysée. Elles sont constituées de capteurs solides CCD (Figure I.34). Elles ont des caractéristiques très diverses: - Dimension (nombres de ligne x nombre de colonnes). Elle est très variable: 752 x x Temps d'intégration. Par exemple 10-4 s. - Déclenchement sur signal extérieur (caméras monocoups, caméras progressives).

28 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 28 Figure I.34: CCD (gauche). Caméra matricielle (droite). Les caméras les plus récentes utilisent la technologie APS CMOS (Peyron, 2002). Celle-ci permet : - un adressage quelconque dans l'image. - un temps d'acquisition très rapide. - des prétraitements localisés au niveau du pixel. Caméras linéiques Les caméras linéiques sont constituées par un ensemble de capteurs photosensibles alignés (Figure I.35). Une seule acquisition fournit donc une seule ligne image. Leurs principaux avantages sont : - Haute résolution (e.g., lignes images de pixels). - Acquisition rapide (e.g., 200 M pixels / s). Pour la DVT Legend LS : lignes de 2000 pixels / s. - Traitement en temps réel. - Adapté au défilement continu. Elles sont par exemple employées pour l'inspection d'objets en défilement (laminé, tissus, papier, bois, etc.) et pour la numérisation d'images à très haute résolution (scanners de documents, etc.). Scène à numériser Caméra linéique Blanc: signal maximal Noir: signal minimal 1er pixel dernier pixel Figure I.35: Création d'une ligne image avec une caméra linéique. I.3.8 Eclairage Le système d'éclairage est un élément majeur des systèmes de vision (visible - proche infrarouge), car il affecte la qualité des images et donc l'information obtenue. Son choix dépend de divers facteurs: - type de caméra employée (e.g., linéique, surfacique). - forme, constitution, couleur de la scène (fond) et des objets analysés. - domaine spectral considéré. - type d'information recherchée. - variabilité des objets, de l'environnement, de l'éclairement extérieur, etc. Il existe 2 types principaux de lampes : les lampes à incandescence (classique et halogène), où un filament brûle, et les lampes à décharge ("néons", mercure, sodium, halogénures métalliques) qui produisent de la lumière grâce à une décharge électrique dans un gaz.

29 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 29 Lampe à incandescence Cette lampe "classique" contient un filament de tungstène qui, porté à haute température (environ 2500 C) par le passage d'un courant électrique, émet de la lumière. Généralement l'ampoule est remplie d'un gaz inerte comme l'argon ou le krypton, qui permet d'éviter la détérioration du filament. Ces lampes ont un rendement lumineux faible, car la plus grande partie de l'énergie électrique est convertie en chaleur plutôt qu'en lumière. Lampe halogène C'est une lampe à incandescence où a été ajouté un gaz (famille halogène ou dérivé) qui régénère le filament de tungstène et accroît beaucoup sa longévité. Son rendement est supérieur à la lampe à incandescence classique, car elle fonctionne à plus haute température ( 2900 C). Le matériau de l'ampoule est donc résistant à cette température : quartz ou verre spécial. De par sa température plus élevée, une lampe halogène émet plus de rayonnements ultraviolets. Vu que le quartz de l'ampoule ne les absorbe pas, on met en général devant la lampe un plastique ou un verre qui les absorbe. Tube fluorescent Souvent appelé "néon", il contient un mélange d'argon et de vapeur de mercure très raréfié. Lors d'une décharge électrique, le mercure rayonne des UV qui excitent une substance fluorescente (composés phosphorés) déposée sur la paroi interne du tube; cette substance émet alors une lumière blanche. Les lampes dites économiques, qui se substituent de plus en plus aux lampes à incandescence, sont également des tubes fluorescents, dits compacts. Lampe à mercure Autrefois fréquente pour l'éclairage public, elle est de plus en plus remplacée par la lampe au sodium, qui a un meilleur rendement lumineux. L'ampoule contient de la vapeur de mercure à haute pression (500 fois la pression des tubes fluorescents) qui lors d'une décharge électrique donne une lumière blanc-bleuté. A cause de cette pression plus élevée, elle émet plus de lumière visible et moins d'uv que les tubes fluorescents. Elle consomme beaucoup d'énergie. Lampe à vapeur de sodium Le tube est rempli d'un mélange de néon, d'argon et de parcelles de sodium. Une décharge électrique donne une lumière orange monochromatique (λ = 589 nm). Le néon (couleur rouge type) sert à démarrer la décharge et à chauffer le sodium. C'est la lampe qui a la plus grande efficacité lumineuse. Elle est idéale si le rendu des couleurs n'est pas important. Les lampes à haute pression ont une efficacité moindre que les lampes à basse pression, mais un meilleur rendu des couleurs. Ce sont elles qui sont surtout utilisées pour éclairer les routes. Lampe à halogénures métalliques Elle forme un arc électrique (d'une dizaine de mm) dans une ampoule renfermant des halogénures métalliques et des vapeurs de mercure à haute pression qui émettent une lumière blanche vive, avec une grande efficacité (5 fois meilleure qu'une lampe à incandescence). Elle est donc intéressante si on désire un bon rendu des couleurs. Les éléments halogénés servent à augmenter la concentration en métaux vaporisés dans la zone chaude de l'arc. Comme pour les lampes halogènes à filament de tungstène, les ampoules de ces lampes sont en quartz et laissent échapper un rayonnement ultraviolet qui doit être filtré. Ces lampes sont utilisées dans les vitrines commerciales, les terrains de sport,

30 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 30 Type d'ampoule Efficacité lumineuse (lumens par watt) Durée de vie moyenne (h) Couleur Rendu des couleurs incandescence 12 à 20 ~1000 blanc "chaud" excellent halogène 15 à blanc excellent fluorescence 50 à blanc "froid" mauvais à bon mercure de 50 à blanc-bleuté mauvais à bon halogénure métallique de 70 à blanc excellent sodium à haute pression de 100 à jaune-orange mauvais sodium à basse pression de 140 à 180 ~16000 orange très mauvais Lampe à incandescence classique Caractéristiques de lampes. Lampe à vapeur de mercure Lampe sodium à haute pression Raie unique d'émission de lampe sodium basse pression Lampe halogénure métallique Lampe halogène au tungstène Lampe au xénon Figure I.36: Spectres d'émission de lampes.unité : nm. Source à jonction électroluminescente - Jonction de semi conducteurs de types (n) et (p) non polarisée : les niveaux de Fermi s'équilibrent, ce qui entraîne une distorsion des bandes de valence et de conduction. Il apparaît ainsi au niveau de la jonction une barrière de potentiel.

31 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 31 - Jonction de semi conducteurs (n) et (p) en polarisation directe (négative pour la région n) : l'apport d'électrons dans (n) remonte le niveau de Fermi dans cette région, ce qui diminue la barrière de potentiel à la jonction. Les électrons de (n) peuvent alors passer dans (p), de même que les trous de (p) peuvent passer dans (n). Les électrons contenus dans la bande de conduction de (p) sont ainsi hors d'équilibre. Il est alors possible d'observer une tendance à la recombinaison entre les électrons et les trous qui vont se trouver en présence au franchissement de la jonction. Cette transition libère un photon dont l'énergie correspond à la largeur de la bande interdite : c'est l'émission. La tendance à la recombinaison des trous de (n) donne le même phénomène. L'émission des photodiodes se fait dans une bande spectrale étroite ( λ λ/10) avec des constantes de temps de l'ordre de la nanoseconde. Pour des photodiodes à l'arséniure de Gallium (AsGa): λ = 0.85 µm à T = 77K (température de l'azote liquide) et λ = 0.95 µm à T = 300 K. Pour des photodiodes au phosphure de Gallium (GaP), λ = 0.62 µm à T = 300 K Beaucoup de systèmes d'éclairage utilisent des LED (Figure I.37) du fait de leurs nombreux avantages : - possibilité de réaliser des sources lumineuses de formes et de dimensions quelconques. - les diodes ont une excellente durée de vie en comparaison à toutes les autres technologies d éclairage ( heures). - les LEDs s allument et s éteignent de manière instantanée. - les LEDs sont monochromatiques, ce qui évite les aberrations dans les objectifs des caméras et permet une grande qualité d images. Pour obtenir une énergie lumineuse suffisante, la commande des diodes est impulsionnelle : on leur envoie un courant important (jusque 10 fois leur courant nominal) qui augmente la puissance lumineuse émise. Par contre, pour exploiter cette caractéristique, il est nécessaire de limiter la durée d allumage et de respecter un temps de repos. Un système d'éclairage constitué par un grand nombre de diodes doit recevoir un courant très important. L'emploi d'alimentations surdimensionnées peut être évité en utilisant un circuit de commande qui charge un condensateur quand les diodes sont éteintes et qui le décharge brusquement pour allumer les diodes. Figure I.37: Eclairage avec des LEDs L'aspect directionnel de l'éclairage et du rayonnement réfléchi doit souvent être pris en compte. Ainsi, un miroir éclairé par une lumière monodirectionnelle tend à réfléchir la lumière dans une seule direction, symétrique de la direction incidente par rapport à la normale au miroir. Cette réflectance est dite spéculaire. Par extension, le miroir est appelé "surface spéculaire". Par contre, une surface naturelle tend à réfléchir dans toutes les directions. Elle est dite lambertienne si elle réfléchit tout rayonnement (i.e., monodirectionnel ou non) de manière isotrope. Figure I.38: Réflectance spéculaire (gauche) et quelconque (droite) L'éclairage d'un objet est dit direct si la lumière issue de la source atteint directement l'objet, sans aucune diffusion. Il est dit indirect direct si la lumière issue de la source atteint l'objet après avoir été diffusée par un élément autre que l'objet. Un éclairage indirect est adapté pour donner un éclairage

32 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 32 isotrope à partir d'un faible nombre de sources, mono directionnelles ou non. Par exemple, une demi sphère blanche éclairée par quelques sources peut donner un rayonnement diffus (Figure I.39). Source lumineuse Figure I.39: Eclairage diffus avec une demi sphère diffusante. Un éclairage indirect permet d'éviter l'apparition d'ombres si les directions d'éclairage et d'observation sont colinéaires (Figure I.40). Source lumineuse Figure I.40: Eclairage avec un miroir semi réfléchissant (e.g., fine couche métallique sur lame de verre). Un objet peut aussi être observé en transmittance (éclairage arrière dit "back light") et non en réflectance. La caméra recueille alors le rayonnement qui a traversé l'objet (Figure I.41). Objectif télécentrique Eclairage "back light" Condenseur Source lumineuse ponctuelle Figure I.41: Eclairage "Back light" I.4 LE TRAITEMENT D'IMAGES Le traitement d'images numériques est l'ensemble des techniques permettant de modifier une image numérique pour l'améliorer ou en extraire des informations (e.g., position d'objets dans l'espace, nombre de défauts d'un alliage, lecture de code barre, ). Pour cela, les fournisseurs de systèmes développent des logiciels puissants et spécifiques. Le but est de faire réaliser par l'ordinateur l'enchaînement des raisonnements logiques de l'opérateur (i.e., photo interprète) chargé d'interpréter visuellement les images. Il s'agit d'obtenir (1) rapidement, des résultats à la fois (2) plus complets (aucun détail ne devrait être oublié), (3) objectifs et donc reproductibles, (4) quantifiés, et donc finalement (5) moins coûteux. Libéré de nombreuses contraintes techniques l'opérateur peut alors

33 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 33 concentrer son travail sur l'interprétation des résultats donnés par l'analyse numérique, la détermination des paramètres à extraire de l'image, etc. Au-delà des performances intrinsèques du matériel, l'informatique est le facteur majeur pour expliquer la progression des systèmes de vision. A priori, un système informatique ne reconnaît dans une image qu'une matrice de pixels, i.e. juxtaposition d'informations numériques codées sur un nombre prédéfini de bits. L'information associée à chaque pixel est en général l'intensité du rayonnement mesuré en ce point. Le domaine de la vision artificielle démarre avec ce niveau de perception de base et se prolonge avec des systèmes beaucoup plus évolués dotés d'une capacité d'analyse, souvent à partir de connaissances préalables. Dès le XVIII ème siècle, les pionniers de la photographie traitent les images avec des moyens photochimiques. La première expérience célèbre de traitement d'images numériques remonte à 1920 lors de la transmission d'images par câble sous-marin entre New York et Londres. Le traitement d'images a réellement démarré au début des années 60 avec le traitement des premières images des satellites en orbite autour de la Terre. Ces images devaient être corrigées de nombreux défauts radiométriques et géométriques dus aux capteurs, vitesse de rotation de la Terre, diffusion et absorption atmosphérique, etc. Les premières méthodes de traitement développées (filtrage, corrections géométriques, amélioration du contraste, etc.) étaient pour la plupart des méthodes ponctuelles, c'est à dire sans prise en compte du contexte des pixels traités. Dans les années 70, le traitement d'images a été appliqué à d'autres domaines (médical, étude des métaux, militaire, automatisation de processus industriels, etc.). D'autres techniques sont apparues : approches basées sur la morphologie mathématique pour la prise en compte de la forme et de la dimension des objets présents dans les images, etc. Les techniques actuelles de traitement d'image combinent les traitements ponctuels et de morphologie mathématique. I.4.1 Principales étapes Il n'existe pas de méthode de traitement d'images générale à tous les domaines d'application possibles. Il faut en général employer des algorithmes spécifiques. Ces derniers sont souvent des combinaisons de techniques classiques (segmentation, classification, reconnaissance de frontières, etc.). De manière schématique, toute méthode de traitement d'images comprend 4 étapes majeures : Prétraitement des images, Amélioration des images, Analyse des images, Interprétation des images. a.) Prétraitements Ils préparent l'image pour son analyse ultérieure. Il s'agit souvent d'obtenir l'image théorique que l'on aurait du acquérir en l'absence de toute dégradation. Ainsi, ils peuvent par exemple corriger : - les défauts radiométriques du capteur : non linéarité des détecteurs, diffraction de l'optique, etc. - les défauts géométriques de l'image dus au mode d'échantillonnage spatial, à l'oblicité de la direction de visée, au déplacement de la cible, etc. - le filtrage ou réduction de fréquences parasites, par exemple dus à des vibrations du capteur. - les dégradations de l'image dues à la présence de matière entre le capteur et le milieu observé. Ainsi, une image acquise par un satellite est souvent perturbée par l'atmosphère. b.) Amélioration d'image Elle a pour but d'améliorer la visualisation des images. Pour cela, elle élimine / réduit le bruit de l'image et/ou met en évidence certains éléments (frontières, etc.) de l'image. Elle est souvent appliquée sans connaissance à priori des éléments de l'image. Les principales techniques sont : - l'amélioration de contraste, - le filtrage linéaire (lissage, mise en évidence des frontières avec l'opérateur "Image - Image lissée", etc.) et transformée de Fourier pour faire apparaître / disparaître certaines fréquences dans l'image. - filtrage non linéaire (filtres médians, etc.) pour éliminer le bruit sans trop affecter les frontières,...

34 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 34 c.) Analyse d'image Le but de l analyse d images est d'extraire et de mesurer certaines caractéristiques de l'image traitée en vue de son interprétation. Ces caractéristiques peuvent être des données statistiques sur des comptes numériques (moyenne, histogramme, etc.), ou sur des données dérivées (e.g., dimensions, ou orientation d objets présents dans l image). En général, le type d'information recherché dépend du niveau de connaissance requis pour interpréter l'image. Les applications dans le domaine du guidage et de la télédétection nécessitent souvent des connaissances différentes et de plus haut niveau (e.g., cartes 3-D) que dans les domaines du médical, de la géologie, du contrôle de qualité, etc. Ainsi, un robot en déplacement ne nécessite pas le même type d'information qu'un système utilisé pour détecter la présence de matériaux défectueux. Pour ce dernier, il faut prendre uniquement la décision "non défectueux ou défectueux". Cette décision peut être prise à partir d'un "raisonnement" plus ou moins complexe (e.g. détection de la présence de raies d'absorption caractéristiques d'une impureté). Pour le robot, il faut simuler le processus décisionnel d un individu en déplacement, ce qui nécessite au préalable de reconstituer une carte du lieu de déplacement en temps réel, avec les obstacles à éviter. d.) Interprétation L'interprétation d'image est en général la dernière phase qui précède la prise de décision (e.g., matériau conforme ou non). Elle donne une signification à l'information, par exemple en comparant cette information avec une base de données pré-établie. Ainsi, il peut être établi qu'un ensemble connexe de pixels d'une image est par exemple la lettre "e". L'interprétation peut nécessiter des approches très complexes comme l'intelligence artificielle, les réseaux neuronaux et la logique floue. I.4.2 Avantages et inconvénients du traitement d'images Quelques avantages et inconvénients du traitement d'images sont indiqués ci-dessous. (i) Rapidité. Le traitement d'images accélère beaucoup les travaux traditionnellement réalisés par photo-interprétation, mais qui sont automatisables et donc reproductibles (e.g., vérification de la bonne disposition d'étiquettes sur les bouteilles produites par une usine d'eau minérale). Dans des cas défavorables, l'interprétation visuelle d'image peut être plus rapide et précise que l'interprétation numérique. En effet, l'opérateur humain peut s'adapter à des conditions hors des limites de bon fonctionnement du système d'analyse numérique (e.g., image déformée du fait d'un éclairage défectueux non modélisable). Ainsi, un opérateur peut plus ou moins faire abstraction de la présence de "bruit" dans une partie de l'image lors de l'analyse de celle-ci. De manière intuitive, il arrive à séparer le bruit et l'information recherchée dans l'image. Ceci est le cas d'une image qui contient une route en partie au soleil et à l'ombre. Un photo interprète peut immédiatement réaliser qu'il s'agit d'un même objet alors qu'une interprétation purement numérique réalisée par un logiciel non adapté peut mener à la conclusion qu'il s'agit de deux objets différents. L'extraction numérique d'information dans une image "bruitée" nécessite des algorithmes complexes capables d'utiliser des informations annexes qui renseignent sur les caractéristiques du bruit présent. (ii) Travaux répétés et fastidieux. Ces travaux (correction géométrique, étalonnage, gestion de base de données, ) sont souvent difficiles à réaliser, sinon impossibles, de manière non numérique. Ceci explique pourquoi les images analogiques sont souvent numérisées pour être "interprétées". (iii) Reproductibilité de l'analyse et de l'interprétation. L'interprétation humaine (i.e., photointerprétation) est souvent fastidieuse, longue, coûteuse, difficilement reproductible et très dépendante de l'opérateur. Ainsi, l'interprétation d'une même image par plusieurs photo interprètes donne souvent des résultats très différents, car les êtres humains n'ont pas la même sensibilité aux couleurs, au contexte des objets analysés, etc. Par exemple, un photo interprète peut confondre 2 niveaux de gris alors qu'un ordinateur ne peut confondre 2 valeurs numériques. (iv) Quantification. Un intérêt majeur du numérique est de donner une information quantifiée. * Dimensions (aire, périmètre, etc.) de tout ou partie d'un matériau (i.e., nombre de pixels), à partir d'une délimitation numérique ou manuelle. * Concentrations chimiques par le biais des caractéristiques spectrales d'objets de l'image. * Grandeurs physiques (rugosité, etc.) dérivées de propriétés optiques comme la réflectance.

35 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 35 I.5 EXEMPLES D'EMPLOI DU TRAITEMENT D'IMAGES I.5.1 Le contrôle des fibres Le prix de vente de la laine est très dépendant de sa qualité. En général, la qualité d'une fibre est d'autant meilleure qu'elle est fine. Elle dépend aussi de sa longueur et de sa résistance. Pour beaucoup de raisons (coût, etc.), il est important d'évaluer la qualité des fibres de laine, à la fois pour les produits fabriqués localement et les produits achetés. Ce contrôle intéresse donc d'une part le producteur de matière (laine, poils de lapin, etc.) qui peut ainsi maîtriser sa production, et d'autre part l'industriel qui s'assure de la qualité de ses fournitures. Le traitement d'image fournit un moyen de contrôle sûr, reproductible et s'affranchissant le plus possible de la subjectivité d'un opérateur. Déroulement d'un contrôle non automatique Un échantillon représentatif du lot de fibres à contrôler est tout d'abord prélevé, puis placé sous un microscope afin d'évaluer le diamètre de chaque fibre. Le nombre d'échantillons à observer pour qualifier un jeu de fibres est fonction de la dispersion du diamètre des fibres. Plus elle est faible, plus le nombre d'échantillons peut être petit. Avant l'introduction de techniques d'automatisation le contrôle était manuel : le manipulateur estimait "à l'œil" la valeur du diamètre de chaque fibre. Cette mesure était donc peu précise. De plus, la nécessité d'analyser un grand nombre de fibres afin d'obtenir des résultats statistiquement fiables rendait cette opération longue et coûteuse. Déroulement d'un contrôle automatisé L'Institut Textile de France (Mazamet) évalue la qualité des fibres avec un système de vision industrielle qui comprend un microscope, une caméra, un NS (micro-ordinateur et logiciel), et une imprimante. Il permet de mesurer le diamètre des fibres. En présence d'un mélange de fibres, le système compte les diverses sortes de fibres par classe. Le contrôle comprend plusieurs étapes : - Prélèvement d'un échantillon dans le lot à contrôler, puis l'opérateur prépare une lame avec ces fibres et la place sous le microscope. - Visualisation de l'image sur le moniteur de l'analyseur après numérisation en temps réel par une caméra (512 x 512 pixels avec 256 niveaux de gris). Le logiciel offre des possibilités d'amélioration de contraste et de compensation des défauts de l'image tels qu'un éclairage non uniforme. - Etalonnage éventuel du système par l'opérateur. - Binarisation de l'image afin de déterminer les contours de la fibre à l'aide d'opérateurs morphologiques complexes, réalisés avec des mailles hexagonales ou dodécagonales. Le système trie les objets selon leur taille, identifie les objets incomplets, sépare les particules agglomérées, et connecte des lignes interrompues. Les résultats (surface, périmètre, longueur, largeur, cordonnées, etc.) sont rangés dans un tableau qui peut contenir jusqu'à 8000 objets. - Marquage de chaque côté des fibres. Le logiciel trace alors une ligne, détermine les intersections avec les bords de chaque fibre, ce qui permet de calculer le diamètre de chaque fibre intersectée. L'analyse d'un lot de 1200 échantillons, avec plusieurs types de fibres, nécessite environ 2 heures. I.5.2 La mesure de pollution des fluides Les performances des systèmes hydrauliques doivent sans cesse s'améliorer du fait de l'évolution des techniques aérospatiales et de la recherche d'un maximum de sécurité, d'efficacité et de fiabilité. Ces 3 propriétés sont très liées à la propreté du fluide hydraulique. La nécessité de maintenir une très faible pollution (norme NF L ) implique un contrôle régulier et fiable. L'origine de la pollution peut être diverse (air, eau, micro-organismes, particules solides, réaction chimique, etc.). Contrôle non automatique de la pollution d'un fluide - Filtrage du fluide (e.g. échantillon de 100cm 3 ) à analyser avec une membrane Millipore. Celle-ci est ensuite placée sous un microscope. - Comptage par l'opérateur sur un nombre fixe d'échantillons du nombre de particules sur le filtre. Ce comptage manuel est long, fastidieux et parfois incertain. 1 Micro-contrôle - Division Nachet.

36 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 36 Contrôle automatique de la pollution d'un fluide Le système de comptage automatique de contrôle de fluide hydraulique décrit ici est appliqué par plus d'une douzaine de bases aériennes en France. Il permet un contrôle plus systématique et plus rigoureux. En effet, l'analyse est effectuée de manière répétitive et sur une plus grande surface du filtre que lors du comptage manuel. Il comprend 3 parties principales : un microscope électronique et le système informatique NS (micro-ordinateur + logiciel) qui traite les images. Il identifie et classe selon leurs dimensions les particules emprisonnées dans le filtre Millipore. Le microscope utilisé permet l'observation en réflexion et transmission avec plusieurs grandissements et filtres. La précision des déplacements est de 0.25µm. Les déplacements, l'éclairage et l'autofocus sont contrôlés par l'intermédiaire d'une carte placée dans le système informatique, et pilotée par celui-ci. Cette approche assure l'automatisation de l'opération d'analyse et la reproductibilité des conditions d'observation d'un filtre à l'autre. Plus de 1800 échantillons peuvent être analysés en environ une heure. Les particules sont isolées, classées selon leur longueur et comptées. Cinq classes de longueur sont retenues : 5-15µm, 15-25µm, 25-50µm, µm et >100µm. I.5.3 Système de contrôle de laminé Ce système de vision industrielle de Delta Technologie * détecte et repère recherche en temps réel, la présence de perforations sur du laminé défilant à grande vitesse. Caractéristiques : - Défaut perforant minimal de 1 mm 2 (à la vitesse de 250m/min). - Localisation du défaut à ± 0,5 mm pour une largeur d'inspection de 1050 mm. - Largeur de la zone d'inspection paramétrable à ±1 mm. - Environ 1800 mesures par seconde. - Vitesse de défilement du laminé de 0 à 250 m/min. - Autotest à chaque mise en route du système. Le système de contrôle comprend deux ensembles d'acquisition identiques implantés en deux endroits du site de production. Une armoire industrielle déportée centralise les signaux, traite et génère si besoin des alarmes (sonore et visuelle) à destination de chaque site. Le paramétrage des sites s'effectue au démarrage et/ou en cours de production. Le système de contrôle comporte : - Mécanique : supports caméras, éclairage et capotage des zones d'inspection. - Acquisition d'images : deux postes de prise de vue protégés comprenant chacun une caméra linéaire haute définition et un ensemble d'éclairage haute fréquence. - Traitement d'images : deux cartes d'acquisition et de traitement installées dans un calculateur industriel doté du logiciel spécifique dédié à l'application. - Interface homme/machine : menu convivial pour saisir au clavier des paramètres de production avec accès réglementé. Un écran informe l'opérateur de l'état de fonctionnement du système. Sur chaque site, les alarmes sonores et visuelles révèlent l'emplacement des défauts sur le laminé. Client utilisateur: Union Minière France S.A. - VIVIEZ - France - septembre 1994 Clients potentiels: développé pour l'industrie de la transformation de métaux, ce produit s'adapte à l'inspection de feuillard, bande, tôle mince en métal, film plastique ou papier opaque,... I.5.4 Système de mesure de capabilité d'équipement Destiné aux industriels de l'électronique, ce système de vision industrielle de Delta Technologies mesure le niveau de réglage des équipements de report composant (±5µm), de dépose de points de colle (±15µm) ou les mires de sérigraphie (±2µm). Avant chaque procédure de mesure, le système s'auto-teste et s'auto-étalonne. Toutes les localisations de mesure sont paramétrables, soit par des fichiers de configuration (composants), soit par menu interactif (colle). Ce système comprend : - une station de travail autonome (micro-ordinateur, clavier, écran VGA, etc.), * Delta Technologies : La Maison des Lois - 2, Rue Michel Labrousse - BP Toulouse cdx - Tel: Fax :

37 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 37 - un système d'acquisition d'images (caméra matricielle haute définition, éclairage annulaire haute fréquence), - un système de traitement d'images composé d'une carte d'acquisition et de traitement, installée dans le micro-ordinateur, avec un logiciel spécifique dédié à la mesure de positionnement. Clients utilisateurs: SIEMENS AUTOMOTIVE S.A. (Toulouse et Foix ). I.5.5 Système de contrôle du maillage des tissus Destiné aux industriels du tricotage, ce système de Delta Technologies contrôle la largeur et le maillage des tissus. La vitesse de défilement des tissus est de 50 à 60m/s. Une caméra linéaire fournit des images 1-D à partir desquelles il est possible de mesurer une largeur de laize en 0.2s, avec une précision de ±2mm pour une laize de 1000mm. Une caméra matricielle fournit des images 2-D à partir desquelles il est possible de compter les mailles en rangées et colonnes en 3s (objectif de 1s), avec une précision de ±1 maille sur 30mmx30mm inspectés. Ce contrôle non destructif sans contact garantit un suivi continu de la structure du tissu au cours de son traitement. A chaque mise en route du système, une procédure automatique d'inspection des équipements est réalisée. Avant toute opération, l'opérateur entre dans une base de données des informations sur le tissu (référence, No de lot, largeur, etc.). Le contrôle est initié par l'opérateur après engagement du tissu, son arrêt est automatique en fin de passe. Les mesures effectuées sont stockées dans des fichiers ainsi que le jour et l'heure de réalisation de la mesure en vue d'une exploitation ultérieure. Le système de contrôle se compose des éléments suivants : - des équipements de commande dans une armoire industrielle équipée d'une interface conviviale. - 2 postes de prise de vue ("caméra matricielle + éclairage stroboscopique", "caméra linéaire haute définition + éclairage fluorescent haute fréquence") sur un châssis amovible au-dessus du tissu. - six afficheurs pour afficher en temps réel les mesures de laize. Des alarmes visuelles (flash) se déclenchent en cas de dépassement des consignes tolérées pour le tissu en cours d'exploitation. Clients utilisateurs: Tricotage Toulousain - Toulouse, France - Septembre 1994 I.5.6 La vision artificielle Deux exemples de systèmes dotés d'une vision intelligente sont indiqués ci-dessous : - robot capable de se déplacer le long d'un trottoir, de détecter et vérifier les panneaux de circulation aux carrefours, et de vous dire "bonjour" en reconnaissant votre visage. La première, et certainement la plus facile, étape consiste à simuler la vision pour que le robot perçoive son environnement à l'aide de capteurs électromagnétiques (caméra CCD, laser, etc.). Des logiciels spécifiques ont pour but de faire aussi bien et même mieux que les systèmes de visualisation et d'interprétation de l'homme. - caméra placée le long d'une route et capable de reconnaître les voitures qui roulent trop vite, de les prendre en photo, de détecter la voiture dans l'image, puis la plaque d'immatriculation sur la voiture, de lire automatiquement le numéro de la plaque d'immatriculation, puis de trouver dans une banque de données le nom et l'adresse du conducteur.

38 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 38 I.6 ANNEXE 1 : FORMATS ET COMPRESSION DES FICHIERS IMAGES Les images numériques sont créées par de nombreux capteurs (caméras CCD, scanners, appareils photo numériques, logiciels de dessin et de traitement d'images, etc.) avec des formats souvent très différents. Pour pouvoir être lues par un logiciel autre que celui qui les a créées, tout fichier "image" doit contenir des informations autres que l'image proprement dite : dimension de l'image (nombre de lignes et de colonnes), mode de représentation visuelle (type de représentation couleur, noir et blanc, etc.), type et niveau de compression, etc. I.6.1 Formats des fichiers images Il n'existe pas de format idéal. Selon le cas, certains formats peuvent être préférables. Le terme bitmap employé ci-dessous fait référence aux formats de fichier qui stockent les pixels sous forme de tableau de points, avec une gestion des couleurs soit en couleur vraie soit par le biais d'une palette indexée. Format RAW (.raw). Format de stockage des données brutes (pas d'en-tête, etc.). Format GIF (.gif). Format de fichier graphique bitmap (raster) relativement dépassé. Il est utilisé pour des images codées sur 8 bits au plus, c'est à dire des images de basse qualité : 2 à 256 couleurs (2, 4, 8, 16, 32, 64, 128 ou 256) parmi 16.8 millions. Grâce à cette palette limitée en nombre de couleurs, les images GIF ont une taille généralement très faible. De plus, l'affichage est très rapide, car les systèmes de visualisation gèrent très bien 256 couleurs par pixel. Les images GIF sont toujours compressées (compression LZW). Il y a possibilité d'avoir des images animées (appelées GIFs animés) en stockant plusieurs images au sein du même fichier. Vu le caractère propriétaire de l'algorithme de compression LZW, tous les éditeurs de logiciel manipulant des images GIF doivent payer une redevance à la société détentrice des droits, Unisys. C'est une des raisons pour lesquelles le format PNG est de plus en plus préféré par rapport au format GIF. Format TGA. Il est très utilisé pour stocker les images en vraie couleur codées sur 24 ou 32 bits. Format JPEG (.jpg) et JPEG 2000 (.jp2). Le plus connu et le plus employé pour ses modes de compression variés. La compression JPEG (regroupement de carrés de 8x8 pixels) est destructrice, car elle diminue la qualité. Son niveau varie de 0 (compression maximale et faible qualité) à 10 (compression minimale et minimum de pertes en qualité). Le niveau 8 est souvent conseillé. Format TIFF (.tif). Ancien format de fichier graphique bitmap (raster) très utilisé. Il a été mis au point en 1987 par la société Aldus (appartenant désormais à Adobe) pour faciliter l'échange entre programmes et pour sauvegarder sans perte (compression LZW réversible) des images de taille importante (plus de 4 Go compressé) issues de diverses sources (scanners, caméras, etc.), indépendamment des plates formes ou des périphériques (DIB : Device-Independant Bitmap). De plus, il a été structuré pour pouvoir être facilement mis à jour en intégrant de nouvelles données (e.g., pour tenir compte de l'évolution des cartes graphiques et des résolutions des scanners et caméras). Le format TIFF permet de stocker des images en noir et blanc, en couleurs réelles (True colour, jusqu'à 32 bits par pixels) ainsi que des images indexées, faisant usage d'une palette de couleurs. Il permet plusieurs espaces de couleurs : RGB, CMYK, CIE L*a*b et YUV / YCrCb. Une particularité du format TIF est de définir des balises (en anglais tags, d'où le nom Tagged Image File Format) qui décrivent les caractéristiques de l'image. Les balises servent pour stocker diverses informations : dimensions de l'image, nombre de couleurs utilisées, type de compression (de nombreux algorithmes peuvent être utilisés Packbits / CCITT G3&4 / RLE / JPEG / LZW / UIT-T), et correction gamma (définition du facteur gamma γ : "Codage = (Flux lumineux) γ "). La description de l'image par balise facilite le développement d'un logiciel qui doit enregistrer au format TIFF. En contrepartie, la multiplicité des options proposées est telle que nombre de lecteurs d'images supportant le format TIFF ne les intègrent pas toutes. Par suite, certains systèmes peuvent lire certaines images TIFF et pas d'autres. Format PCX. Ce format bitmap a été mis au point par la société ZSoft, concepteur du logiciel PaintBrush qui équipe en standard les systèmes d'exploitation Microsoft Windows depuis les années 80. Il permet d'encoder des images dont la dimension peut aller jusqu'à par et codées sur 1 bit, 4 bit, 8 bit ou 24 bit (i.e., 2, 16, 256 ou 16 millions de couleurs). Sa structure est : - En-tête sur 128 octets. Il renseigne sur le type et la version du fichier, ainsi que sur l'image : méthode d'encodage, nombre de bits par pixel, abscisse et ordonnée des coins supérieur gauche et inférieur droit, résolutions horizontale et verticale, palette, nombre de plans de couleur, etc.

39 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 39 - Corps de l'image. L'image est codée en écrivant à la suite les bits associés à chaque pixel, ligne par ligne depuis le pixel en haut à gauche, puis en parcourant de gauche à droite et de haut en bas. - Informations - Palette des couleurs (optionnelle). Il s'agit d'un champ de 768 octets permettant de stocker les différentes valeurs de rouge, de vert et de bleu (RVB) de chaque élément de la palette Format PNG (Portable Network Graphics, ou format Ping). Ce format bitmap a été mis au point en 1995 pour fournir une alternative libre au format GIF. Il permet de stocker des images en noir et blanc (jusqu'à 16 bits par pixel de profondeur de codage), en couleurs réelles (True colour, jusqu'à 48 bits par pixel de profondeur de codage) et des images indexées, faisant usage d'une palette de 256 couleurs. De plus, il supporte la transparence par couche alpha (possibilité de définir 256 niveaux de transparence), alors que le format GIF ne peut définir qu'une seule couleur de la palette comme transparente. Il possède aussi une fonction d'entrelacement qui permet d'afficher l'image progressivement. La compression proposée par ce format est sans perte (lossless compression) et est 5 à 25% meilleure que la compression GIF. Un fichier PNG stocke une signature qui signale qu'il s'agit d'un fichier PNG, puis une série de segments appelés chunks qui stockent la taille du segment, le type de données du segment (chunk data : palette, données image, gamma de l'image (la correction gamma permet une indépendance visà-vis des périphériques d'affichage), histogramme de l'image,...) et le CRC (cyclic redundancy check), un code correcteur de 4 octets permettant de vérifier l'intégrité du segment. Format BMP. C'est un des formats bitmaps les plus simples. Ayant été développé par Microsoft et IBM, il est très répandu sur les plates formes Windows et OS/2. Il a été conçu pour être indépendant du périphérique d'affichage (DIB, Device independent bitmap). Sa structure est la suivante : - En-tête du fichier (en anglais file header) - En-tête du bitmap (en anglais bitmap information header, appelé aussi information Header) - Palette (optionnellement) - Corps de l'image L'en-tête du fichier comprend 4 champs qui indiquent : - La signature (2 octets) donne la nature du fichier BMP : Bitmap Windows, Bitmap OS/2, etc. - La taille totale du fichier en octets (codée sur 4 octets) - Un champ réservé (sur 4 octets) - L'offset de l'image (sur 4 octets), en français décalage, c'est-à-dire l'adresse relative du début des informations concernant l'image par rapport au début du fichier L'en-tête de l'image renseigne sur les dimensions, couleurs, etc. : - Taille de l'entête de l'image en octets (codée sur 4 octets). - Largeur de l'image (sur 4 octets) ; i.e., nombre de pixels horizontalement (en anglais width) - Hauteur de l'image (sur 4 octets) ; i.e., nombre de pixels verticalement (en anglais height) - Nombre de plans (sur 2 octets). Cette valeur vaut toujours 1 - Profondeur de codage de la couleur (sur 2 octets) ; i.e., 1, 4, 8, 16, 24 ou Méthode de compression (sur 4 octets). Cette valeur vaut 0 pour une image non compressée, 1 pour un codage RLE de 8 bits par pixels, 2 pour un codage RLE de 4 bits par pixel, et 3 pour un codage bitfields : la couleur est codée par un triple masque représenté par la palette. - Taille totale de l'image en octets (sur 4 octets). - Résolution horizontale (sur 4 octets), c'est-à-dire le nombre de pixels par mètre horizontalement - Résolution verticale (sur 4 octets), c'est-à-dire le nombre de pixels par mètre verticalement - Nombre de couleurs de la palette (sur 4 octets) - Nombre de couleurs importantes de la palette (sur 4 octets). Ce champ peut être égal à 0 si chaque couleur a son importance. La palette est optionnelle. Elle est définie par 4 octets pour chacune de ses entrées représentant : - La composante bleue (sur un octet) - La composante verte (sur un octet) - La composante rouge (sur un octet) - Un champ réservé (sur un octet)

40 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 40 Le codage de l'image se fait en écrivant successivement les bits correspondant à chaque pixel, ligne par ligne en commençant par le pixel en bas à gauche. - Les images en 2 couleurs utilisent 1 bit par pixel. Un octet permet donc de coder 8 pixels - Les images en 16 couleurs utilisent 4 bits par pixel. Un octet permet donc de coder 2 pixels - Les images en 256 couleurs utilisent 8 bits par pixel, ce qui signifie qu'un octet code chaque pixel - Les images en couleurs réelles utilisent 24 bits par pixel, ce qui signifie qu'il faut 3 octets pour coder chaque pixel, en prenant soin de respecter l'ordre bleu / vert / rouge. Chaque ligne de l'image doit comporter un nombre total d'octets qui est un multiple de 4; si ce n'est pas le cas, la ligne doit être complétée par des 0 de telle manière à respecter ce critère. Extension Type de fichier Extension Type de fichier gif compressé, courant, Compuserve wav son sous Windows jpg compressé, courant, librement utilisable midi son midi bmp utilisé par windows (bitmap) mp3, mp4 son compressé pic picture (macintosh) mpg, mov animation, film pcx compressé, courant avi vidéo standard sous windows tif courant, scanner, gros fichiers wma Nouveau format audio.bmp MS Windows BitMap Extensions de fichiers multimédia Images jusqu'à 16.7 millions de couleurs. Sans compression ou RLE. Format non supporté pour la publication sur internet.. PICT Quasi équivalent technique du "BMP", mais pour Mac et non pour PC..GIF Graphic Interchange.JPG ou.jpeg Joint Photographic Experts Group.TIF ou.tiff Tagged Image File Format.PNG Portable Network graphics.psd (propre à Photoshop).EPS Encapsulated PostScript.PDF Portable document format Format graphique le plus fréquent sur Internet avec le ".jpg". Images jusqu'à x pixels codées en 256 couleurs. Compression LZW. Très utilisé pour la publication sur internet. Images jusqu'à 16.7 millions de couleurs. Compression JPEG. Permet l'échange entre Macintosh et PC et les impressions haute résolution. Non supporté pour la publication sur Internet. Diverses compressions. Récent. Accélère et améliore l'affichage. Code jusqu'à 24 bits ( couleurs). Signature électronique (nom d'auteur, etc.). Compression RLE. Conserve l'ensemble des données d'un travail réalisé sous Photoshop (calques, etc.) sans perte (pas de compression). Images jusqu'à 32 bits. Adapté à la PAO. Images (vectorielles, bitmap) et données de mise en page. fichier TIF de prévisualisation (basse résolution) pour la mise en page, peut compresser en JPEG les couches CMJN (1 ou 4 fichiers distincts). Multi plateforme (Mac, Windows, Unix, Dos), très pratique avec logiciel Acrobat Reader. Images vectorielles et bitmap. Fichier plus compact qu'en postscript, avec compressions JPEG, LZW et CCITT. Ex. : PDF peut diviser par 10 la taille de fichier Word ou Excel, avec compression des images. Fichiers graphiques les plus courants Extension Type de fichier Extension Type de fichier txt texte asc ASCII (les.txt sont aussi des fichiers ascii wp Wordperfect rtf Rich Text format, fichiers d'échanges Microsoft doc WinWord html HyperText Markup Language, web xls Excel xml Extensible Markup Language, formatage de textes wks Lotus123 sgml Standard Generalized Markup Language, formatage de textes wkz Wingz dvi Device independant, format independant du périphérique db database en général pdf Portable document format, Adobe dbf dbase ps Postscript, langage d'impression tex LaTeX, formatage de textes Fichiers bases de données et tableurs

41 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 41 I.6.2 Compression Aujourd'hui, la puissance des processeurs croît plus vite que les capacités de stockage, et beaucoup plus vite que la bande passante des réseaux. Il est donc fréquent de réduire la taille des données en exploitant la puissance des processeurs plutôt que d'augmenter les capacités de stockage et de transmission des données. La méthode de compression dépend intrinsèquement du type de données à compresser : on ne compresse pas de la même façon une image qu'un fichier audio. Elle cherche à éviter de coder des informations redondantes dans l'espace, le temps ou l'espace des couleurs. Un compresseur utilise un algorithme qui sert à optimiser les données en utilisant des considérations propres au type de données à compresser. Un décompresseur est donc nécessaire pour reconstruire les données originelles grâce à l'algorithme inverse de celui utilisé pour la compression. La compression peut se définir par : - Quotient de compression : rapport des nombres de bits de l'image compressée et d'origine. - Taux de compression. Souvent utilisé. C'est l'inverse du quotient de compression (%). - Gain de compression. Complément à 1 du taux de compression (%). Il existe deux modes de compression : - compression non destructive (lossless compression), sans perte d'information (i.e., réversible). - compression destructive (lossy compression). Cette compression irréversible dégrade plus ou moins l'information (image ou son). La compression peut être symétrique ou non symétrique. Elle dite symétrique si la même méthode est utilisée pour compresser et décompresser l'information : il faut donc la même quantité de travail pour chacune de ces opérations. Ce type de compression est généralement utilisé dans les transmissions de données. La compression asymétrique demande plus de travail pour l'une des deux opérations. On recherche souvent des algorithmes pour lesquels la compression est plus lente que la décompression. Des algorithmes plus rapides en compression qu'en décompression peuvent être utiles pour obtenir des fichiers compacts auxquels on accède peu. D'autre part, la compression peut être dite adaptive, non adaptive ou semi adaptive selon qu'elle s'adapte ou non à la donnée à compresser (e.g., emploi de dictionnaire pré-défini). a.) La compression non destructive Cette compression code l'information, sans la modifier. Elle est surtout utile pour les images contenant des zones de couleurs unies (i.e., zones de nombres identiques). Le taux de compression n'est pas très bon (de 20 à 1 au mieux). Il peut être amélioré en diminuant le nombre de couleurs. Ainsi, le format GIF constitue une palette de 256 couleurs en regroupant les couleurs proches. Les modes de compression les plus employés sont le RLE, le LZW et le codage de Huffman. RLE (Run Length Encoding) Méthode basique (BMP, PCX, TIFF, etc.) qui repère des répétitions de valeurs identiques (i.e., bits ou octets). Elle stocke ensuite la valeur et le nombre de répétitions consécutives. Selon ce principe, la chaîne "AAAAAHHHHHHHHHHHHHH" compressée donne "5A14H". Le gain de compression est ainsi de (19-5)/19 soit 73,7%. Par contre, la compression de la chaîne "REELLEMENT", où la redondance des caractères est faible, donne "1R2E2L1E1M1E1N1T" ; la compression est alors très coûteuse, avec un gain négatif valant (10-16)/10 soit -60%!. En fait, un certain nombre de règles permettent de compresser quand cela est nécessaire et de laisser la chaîne telle quelle quand la compression induit un gaspillage : - Si 3 éléments identiques ou plus se suivent, alors la méthode de compression RLE est utilisée - Sinon, un caractère de contrôle (00) est inséré, suivi du nombre d'éléments de la chaîne non compressée puis de cette dernière - Si le nombre d'éléments de la chaîne est impair, le caractère de contrôle (00) est ajouté à la fin - Enfin des caractères de contrôles spécifiques ont été définis afin de coder une fin de ligne (00 01), la fin de l'image (00 00) et un déplacement du pointeur dans l'image de XX colonnes et de YY lignes dans le sens de la lecture (00 02 XX YY).

42 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 42 La compression RLE n'a du sens que pour les données possédant de nombreux éléments consécutifs redondants, notamment les images possédant de grandes parties uniformes. Elle offre l'avantage d'être peu difficile à mettre en oeuvre. Il existe des variantes dans lesquelles l'image est encodée par pavés de points, selon des lignes, ou bien même en zigzag. LZW (Lempel-Ziv-Welch) Le compresseur LZ77 a été inventé en 1977 par A. Lempel et J. Ziv pour pour l'archivage de données (les formats ZIP, ARJ et LHA l'utilisent). En 1978 ils créent le compresseur LZ78 spécialisé dans la compression d'images (ou tout type de fichier de type binaire). En 1984, T. Welch de la société Unisys le modifia pour l'utiliser dans des contrôleurs de disques durs, son initiale vint donc se rajouter à l'abréviation LZ pour donner LZW. LZW est un algorithme très rapide aussi bien en compression qu'en décompression. Il détecte la multiplicité des occurrences de séquences de caractères dans la chaîne à encoder, et il substitue ces motifs par un code d'affectation (indice) en construisant au fur et à mesure un dictionnaire. Au départ, ce dernier est initialisé avec les 256 valeurs de la table ASCI. Lors de la décompression, l'algorithme reconstruit le dictionnaire dans le sens inverse. Il n'est donc pas nécessaire de stocker le dictionnaire. De plus, LZW travaille sur des bits et non sur des octets, il ne dépend donc pas de la manière dont le processeur code les informations. C'est un des algorithmes les plus populaires (e.g., formats TIFF et GIF). La méthode de compression LZW ayant été brevetée par la société Unisys, c'est l'algorithme LZ77, libre de droit, qui est utilisé dans les images PNG Codage de HUFFMAN Même principe que le LZW, mais le codage est à longueur variable (VLC: variable code length) : la longueur du code d'identification dépend de la fréquence du motif. Pour distinguer les codes entre eux, chaque code binaire commence par un 0 suivis d'un ou plusieurs 0 ou 1. Le 0 est donc le signal de changement de code. Le codeur de Huffman crée un arbre ordonné à partir de tous les symboles et de leur fréquence d'apparition. Les branches sont construites récursivement en partant des symboles les moins fréquents. La construction de l'arbre se fait en ordonnant dans un premier temps les symboles par fréquence d'apparition. Successivement, les deux symboles de plus faible fréquence d'apparition sont retirés de la liste et rattachés à un noeud dont le poids vaut la somme des fréquences des deux symboles. Le symbole de plus faible poids est affecté à la branche 1, l'autre à la branche 0 et ainsi de suite en considérant chaque noeud formé comme un nouveau symbole, jusqu'à obtenir un seul noeud parent appelé racine. Le code de chaque symbole correspond à la suite des codes le long du chemin allant de ce caractère à la racine. Ainsi, plus le symbole est "profond" dans l'arbre, plus le mot de code est long Soit la phrase "COMMENT_CA_MARCHE". Les fréquences d'apparitions des lettres sont : M A C E _ H O N T R Voici l'arbre correspondant : Les codes correspondants à chaque caractère sont tels que les codes des caractères les plus fréquents sont courts et ceux correspondant aux symboles les moins fréquents sont longs : M A C E _ H O N T R

43 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 43 b) La compression destructive Ce type de compression est très utilisé pour deux raisons majeures : - Il permet d'atteindre des taux de compression très élevé (e.g., jusqu'à 100:1 pour le JPeg), - Nos yeux perçoivent peu les petits détails et davantage les variations de lumière que de couleurs. Image source Transformation: réorganisation de l'information Quantification: élimination des éléments secondaires Codage entropique (sans perte) Schéma de codage : Transformation + Quantification + Codage entropique. Image compressée L approche repose sur la réduction de l'information "haute fréquence", car celle-ci est en général moins significative que l'information "Basse fréquence". Le filtrage spectral est appliqué à la représentation spectrale de l'image. Pour cela, il serait possible d utiliser la FFT (transformée de Fourier), mais la DCT (JPeg, MPeg) et surtout les ondelettes donnent de meilleurs résultats. JPeg (norme ISO/CEI). Ce format emploie quatre méthodes de compression : 1) Traduction de l'image RVB en YCrCb. Puis, chaque pixel conserve son information Y de luminosité, mais tout groupe de quatre pixels (2x2) reçoit la moyenne de la chrominance (Cr et Cb), car l'oeil discerne peu ou pas de différence de chrominance dans un carré de 2x2 points. 2) L image est découpée en blocs de 8 x 8, taille optimisée expérimentalement, où on applique une fonction mathématique, appelée Transformée en cosinus discrète ou TCD (DCT : Discrete Cosine Transform), qui transforme les variations de luminosité en 64 fréquences. La TCD est une transformation proche de la transformée de Fourier discrète (DFT). Le noyau de projection étant un cosinus, il génère des coefficients réels, contrairement à la DFT, dont le noyau est une exponentielle complexe et qui génère donc des coefficients complexes. 3) Application d'un coefficient de perte (il permet de connaître le ratio taille/qualité) pour annuler ou diminuer les hautes fréquences. Ceci permet d'atténuer les détails en parcourant le bloc intelligemment avec un codage RLE (en zigzag pour enlever un maximum de valeurs nulles). 4) Encodage de l'image puis compression avec la méthode de Huffman. Un fort taux de compression dégrade la qualité de l'image : apparition de tâches (effet de blocs) et bavures dans les zones de transition entre couleurs. Il existe un codage JPEG sans perte (appelé lossless), très utilisé pour les images qui ne souffrent pas les erreurs (e.g., images médicales). Fichier original au format BMP : 144 Ko Fichier JPG compressé avec un indice 20 : 5.18 Ko, soit une compression de 28:1. La qualité est acceptable à l'œil, tant au niveau des détails que des couleurs.

44 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 44 Fichier JPG compressé avec un indice 50 : 2.97 Ko, soit une compression de 48,5 : 1. La qualité se dégrade, l'image se pixellise. Figure I.42: Compression JPG d'image BMP. Ondelettes ( www-cenerg.cma.fr/~st/rp/dea_ptt/, L analyse par ondelette a été conçue dans les années 1980 pour faire apparaître simultanément dans 2 domaines l information de tout signal ; pour les images, ces 2 domaines sont l espace (x, y) et les fréquences (f x, f y ). C est une analyse multi - résolution de l image, utilisée sur plusieurs couches. A chaque couche, les dimensions géométriques de l image sont réduites d un facteur 2 par un ensemble de filtres orthogonaux dont les caractéristiques dépendent de la famille d ondelettes utilisée. Ceci donne 4 petites images : l image source réduite et 3 images qui stockent l information "hautes fréquences spatiales" ainsi perdues selon la verticale, l horizontale et la diagonale. Analyse multirésolution de l image sur 3 couches. Filtre passe bas Filtre passe haut Filtre passe bas Filtre passe bas Filtre passe haut Codage par ondelettes. Les images D, E, F et G codent A. Ce sont: "division de la résolution de A" et "écarts par rapport à A" (i.e., coefficients d ondelette). La décomposition se poursuit avec un rejet des images "écart" inférieures à un seuil (i.e., compression destructive). La valeur de ce seuil fixe la taille du fichier compressé (pas celle du JPeg). Les images retenues sont compressées de manière non destructrice. 1. Création de B et C. B = division par 2 de la définition horizontale de A (pixels moyennés 2 à 2 selon Ox). C: tout pixel = écart entre A et B. 2. Création de D et E. D = division par 2 de la définition verticale de B (pixels moyennés 2 à 2 selon Oy). E : tout pixel = écart entre B et D 3. F et G : étape 2 appliquée à C. En pratique, une compression en ondelettes permet de coder précisément les zones complexes et de coder grossièrement les zones uniformes. Ainsi, on ne code les détails que là où il sont nécessaires. L emploi des ondelettes permet de meilleurs taux de compression que le JPeg, même si un très fort taux de compression détériore bien évidemment la qualité. A la différence du JPeg, cette détérioration ne se manifeste pas par une pixellisation de l image restituée, mais un flou de plus en plus important. De plus, l'entête des fichiers images est plus compact que celui du JPeg.

45 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 45 La figure suivante illustre le fait que la compression d image par ondelette est très puissante. Ainsi, le fait de ne conserver que 3% des coefficients d ondelette donne une image très similaire à l image originale. Images compressées après élimination de 90% (a) et 97% (b) des coefficients d ondelette. (c) Image originale. Emploi de fractale (format de fichier : FIF) Figure I.43: La répétition à l'infini d'un motif donne un objet fractal. La compression d'images par transformation fractale (i.e., codage des images en fractales) fait l'objet d'un brevet de Iterated Systems Inc. Elle utilise le fait qu'une image peut être décrite à partir d'un ensemble de motifs identiques en nombre limité, transformés par translations, rotations, symétries et agrandissements ou réductions. Pour coder l'image, il suffit de décrire les motifs originaux ainsi que les transformations utilisées. Le codage d'une image tend donc à devenir indépendant de sa taille. La compression peut être effectuée soit par logiciel, ou par carte accélératrice spécialisée. Le problème est en général que la compression est très longue, alors qu'à l'inverse la décompression est très rapide. Contrairement au JPeg, en forçant le taux de compression, l'image devient floue mais ne se pixélise pas. De même, un zoom ne fait pas apparaître de pixellisation. Le meilleur compromis "qualité d'image / poids du fichier" est souvent le format TIFF (avec / sans compression LZW) pour les images en cours de traitement ou les archives haute définition et le format JPEG pour l'archivage de documents finis à leur taille et résolution d'impression. TIFF TIFF+LZW JPEG qualité 10 JPEG qualité 8 55,2 Mo 42,9 MO 21,5 MO 6,7 Mo Exemple avec une image 24x36 scannée à 4000 Dpi

46 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 46 I.7 Annexe II : Vidéo Une vidéo est une succession d'images à une certaine cadence. L'oeil humain ne peut distinguer des images qui défilent à un rythme de 20 images par seconde. Ainsi, un taux de plus de 20 images par seconde trompe l'oeil et lui faire croire à une image animée. On appelle fluidité d'une vidéo le nombre d'images par secondes (frame rate), exprimé en FPS (Frames per second : trames par seconde). D'autre part, la vidéo au sens multimédia du terme est généralement accompagnée de son, c'est-à-dire de données audio. On distingue généralement plusieurs grandes familles d'"images animées" : - Le cinéma. Il stocke sur une pellicule la succession d'images en négatif. Le film est restitué avec une source lumineuse projetant, à partir d'une copie en positif, les images successives sur un écran. - La vidéo analogique, représentant l'information comme un flux continu de données analogiques, destiné à être affichées sur un écran de télévision (basé sur le principe du balayage. Il existe plusieurs normes pour la vidéo analogique. Les trois principales sont PAL, NSTC et SECAM. - La vidéo numérique, consistant à coder la vidéo en une succession d'images numériques. Norme PAL/SECAM (Phase Alternating Line/Séquentiel Couleur avec Mémoire). Utilisé en Europe pour la télévision hertzienne, il permet de coder les vidéos sur 625 lignes (576 seulement sont affichées car 8% des lignes servent à la synchronisation), à raison de 25 images par seconde à un format 4:3 (c'est-à-dire que le rapport largeur sur hauteur vaut 4/3). Or à 25 images par seconde, de nombreuses personnes perçoivent un battement dans l'image. Ainsi, étant donné qu'il n'était pas possible d'envoyer plus d'informations en raison de la limitation de bande passante, il a été décidé d'entrelacer les images, c'est-à-dire d'envoyer en premier lieu les lignes paires, puis les lignes impaires. Le terme "champ" désigne ainsi la "demi-image" formée soit par les lignes paires, soit par les lignes impaires. L'ensemble constitué par deux champs est appelé trame entrelacée. Lorsqu'il n'y a pas d'entrelacement le terme de trame progressive est utilisé. Grâce à ce procédé appelé "entrelacement", le téléviseur PAL/SECAM affiche 50 champs par seconde (à une fréquence de 50 Hz), soit 2x25 images en deux secondes. - Norme NTSC (National Television Standards Committee). Utilisé aux Etats-Unis et au Japon, il utilise un système de 525 lignes entrelacées à 30 images/sec (donc à une fréquence de 60Hz). Comme dans le cas du PAL/SECAM, 8% des lignes servent à synchroniser le récepteur. Ainsi, étant donné que le NTSC affiche un format d'image 4:3, la résolution réellement affichée est de 640x480. La vidéo numérique consiste à afficher une succession d'images numériques. A priori, le débit nécessaire pour afficher une vidéo (octets / seconde) est égal à la taille d'une image que multiplie le nombre d'images par seconde. Ainsi, considérons une image true color (24 bits) ayant une définition de 640 pixels par 480. L'affichage correct d'une vidéo ayant cette définition implique d'afficher au moins 30 images par seconde, c'est-à-dire un débit égal à : 900 Ko * 30 = 27 Mo/s!!!! Diverses techniques permettent de réduire ce volume. Ainsi, la technique dite de sous-échantillonnage en chrominance (chroma subsampling), appelée également décimation, supprime des informations de chrominance dans un groupe de 4x4 pixels, car l'oeil est peu sensible aux variations de chrominance. Une image d'une vidéo non compressée occupe une taille d'environ 1 Mo. L'obtention d'une vidéo paraissant fluide requiert une fréquence d'au moins 25 ou 30 images par seconde, c'est à dire un flux de données d'environ 30 Mo/s, soit plus de 1.5 Go par minute. Ce type de débit n'est pas du tout compatible avec les espaces de stockage des ordinateurs personnels ni même avec les connexions réseau de particuliers ou de petites ou moyennes entreprises. Afin de pallier cette difficulté, il est possible de recourir à des algorithmes permettant de réduire significativement les flux de données en compressant / décompressant les données vidéos. On appelle ces algorithmes CoDec (pour COmpression / DECompression). Cette compression peut se faire sur deux plans: spatial où chaque image est codée et temporel où l'image est mise en relation avec les précédentes. Format M-JPEG (Motion JPeg) Le principe du Motion JPEG (MJPEG ou M-JPEG) est d'appliquer successivement l'algorithme de compression JPEG aux différentes images d'une séquence vidéo. Cette opération requiert des cartes d'acquisition avec des processeurs spécialisés. D'autres systèmes sont employés pour créer des fichiers AVI ou Quick Time lors de l'acquisition sur PC ou Mac. Aucun de ces systèmes n'est utilisé pour diffuser des chaînes numériques ou produire des DVD: c'est la réussite du MPEG. Vu que chaque

47 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 47 image de la séquence est codée indépendamment des autres, il est possible d'accéder aléatoirement à n'importe quelle partie d'une vidéo. Son débit de 8 à 10 Mbps le rend utilisable dans les studios de montage numérique. Format MPEG (Moving Pictures Experts Group) Beaucoup de scènes des séquences vidéos sont fixes ou changent très peu. Il y a donc une redondance temporelle. Quand seules les lèvres de l'acteur bougent, seuls les pixels de la bouche sont modifiés d'une image à l'autre. Par rapport au M-JPEG, il suffit donc de décrire seulement le changement d'une image à l'autre. Cette méthode est cependant beaucoup moins efficace avec une scène d'action. La compression MPeg utilise cette constatation. Elle a été conçue par le groupe MPEG, et établie en 1988 pour développer des standards internationaux de compression, décompression, traitement et codage d'image animées et de données audio. Les taux de compression peuvent atteindre 1:50 à 1:200. La compression MPeg utilise deux systèmes complémentaires : 1) A intervalle régulier (en général toutes les 12 images - 25 par seconde), on enregistre des images de référence que l'on code en JPeg. Appelons ces images Ref. 2) On compare les autres images aux Ref et seules les différences sont stockées. Chaque image est découpée en blocs de 16 x 16 pixels. Pour chaque bloc, l'algorithme tente de trouver un bloc identique dans l'image précédente. S'il y parvient, il code le déplacement du bloc et, si besoin, les légères transformations qu'il a subies. S'il ne le trouve pas, il est enregistré entièrement. Si beaucoup de blocs sont dans ce cas (e.g., changements de plans), une nouvelle Ref est créée. Il existe plusieurs standards MPEG - MPEG-1. Standard de compression des données vidéos et des canaux audio associés (jusqu'à 2 canaux pour une écoute stéréo) apparu en Il permet de stocker des vidéos à un débit de 1.5Mbps dans une qualité proche des cassettes VHS sur un support CD appelé VCD (Vidéo CD) : 30 images "352x240" / seconde en NTSC et 25 images "352x288" / seconde en PAL/SECAM. Il emploie plusieurs techniques : * Intra coded frames (Frames I ou codage interne): les images sont codées séparément sans faire référence aux images précédentes. Il y a environ 2 telles images référence par seconde. * Predictive coded frames (Frames P ou codage prédictif): l'encodeur décrit l'image par différence avec l'image précédente. Pour cela, il définit des blocs, appelés macroblocs (16x16 pixels) qui se superposeront à l'image précédente. Il compare les 2 images bloc par bloc et à partir d'un certain seuil de différence, il considère le bloc de l'image précédente différent de celui de l'image en cours et lui applique une compression JPEG. La vitesse de l'encodage est déterminée par la recherche des macroblocs : plus l'algorithme cherche des "bons" blocs, plus il perd de temps. Par rapport aux frames-i (compressant directement), les frames-p demandent d'avoir toujours en mémoire l'image précédente * Bidirectionally predictive coded frames (Frames B): les images sont décrites par différence avec l'image précédente ou avec l'image suivante. Ceci améliore la compression, mais augmente le temps calcul, car il faut stocker et traiter trois images (la précédente, l'actuelle et la suivante) * DC Coded frames: les images sont décodées en faisant des moyennes par bloc. Cela donne une très basse résolution, mais permet une décompression très rapide. C'est très utile pour visualiser en avance rapide car le décodage "normal" demanderait trop de ressources processeur En pratique, afin d'optimiser le codage MPEG, les séquences d'images sont codées en tant que suite d'images I, B, et P, dans un ordre déterminé expérimentalement. La séquence type appelée GOP (Group Of Pictures : groupe d'images) est "IBBPBBPBBPBBI". Une image I est donc insérée toutes les 12 frames - MPEG-2. Standard dédié originalement à la télévision numérique (HDTV) offrant une qualité élevé à un débit pouvant aller jusqu'à 40 Mbps, et 5 canaux audio surround. Le MPEG-2 permet de plus une identification et une protection contre le piratage. Il s'agit du format utilisé par les DVD vidéos. - MPEG-4. Standard destiné à permettre le codage de données multimédia sous formes d'objets numériques, afin d'obtenir une plus grande interactivité, ce qui rend son usage particulièrement adapté au Web et aux périphériques mobiles. - MPEG-7. Standard visant à fournir une représentation standard des données audio et visuelles afin de rendre possible la recherche d'information dans de tels flux de données.

48 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 48 - MPEG-21. En cours d'élaboration. Le but est de fournir un cadre de travail (en anglais framework) pour l'ensemble des acteurs du numériques (producteurs, consommateurs,...) afin de standardiser la gestion de ces contenus, les droits d'accès, les droits d'auteurs,... Format DivX Le format DivX est un format de compression/décompression vidéo permettant d'obtenir des vidéos compressées très peu volumineuses avec une perte de qualité très raisonnable. Ainsi le format DivX permet de stocker un film complet sur un CD-ROM de 650 ou 700 Mo. Le format DivX a été mis au point en 1999 par un développeur français de 27 ans, du nom de Jérôme Rota, à partir du codec MPEG-4 v3 de Microsoft. En effet le codec MPEG-4 fourni en standard avec la version Bêta du lecteur multimédia Windows Media Player était parfaitement opérationnel mais à la sortie de la version officielle, celui-ci ne fonctionnait plus correctement. C'est la raison pour laquelle J. Rota décida de le corriger et d'y ajouter la possibilité de compresser le son au format MP3. Il mit ainsi au point ce qui allait devenir le format "DivX. Le codec, jusqu'à sa version 3.11 alpha, était un projet OpenSource (appelé OpenDivX et porté par le Project Mayo) basé sur un "hack" du codec de Microsoft. En 2001, J. Rota fonda l'entreprise DivX Networks afin de produire un nouveau codec propriétaire entièrement réécrit afin de s'affranchir des droits vis-à-vis de la firme Microsoft, ce qui déboucha sur la version 4 du codec, baptisée DivX4. Lors du passage à la version 5 du codec (nommée DivX5), le codec de compression DivX est devenu payant (DivX ) ou bien contient un spyware dans sa version gratuite (DivXTM). Le format DivX (à partir des versions 4 et supérieures) ainsi que les autres formats vidéos ne sont pas illégaux en soi, mais leur utilisation peut l'être en raison du droit d'auteur qui s'applique sur les oeuvres compressées. Ainsi les articles L et L211-3 du code de la propriété intellectuelle autorisent la copie privée d'une oeuvre à partir d'un original acquis légalement (par exemple un DVD de location), pour un usage privé et dans un cercle familial. Une taxe a ainsi été appliquée aux supports de stockage (CD-R) afin de compenser le manque à gagner des artistes provoqué par le droit à la copie privée. En contrepartie, la diffusion (mise en partage sur Internet, envoi par messagerie ou tout autre moyen ou via un logiciel d'échange de fichiers) et le téléchargement d'oeuvres protégées par le droit d'auteur sont interdits par la loi et le cas échéant sanctionnés pour contrefaçon. Autres formats Format XviD. C'est une implémentation OpenSource du codec Divx, développée à partir de 2001, à l'occasion du passage du format DivX original (porté par le groupe Project Mayo) à un format propriétaire. Le format XviD propose aussi une compression de très bonne qualité. Format VP3. C'est un format alternatif Open Source développé par la société On2. La qualité des vidéos est moindre qu'en DivX mais le format VP3 est surtout destiné à une utilisation en streaming. Format 3ivX. C'est un format de compression vidéo alternatif permettant une compression MPEG-4 dans des fichiers Apple QuickTime (extension.mov). Sa qualité est bien moindre que celle du DivX. Format MKV (Matroska Video). C'est un format vidéo entièrement libre. En fait, c'est un conteneur (d'où le nom Matroska, en référence aux poupées russes) qui peut contenir de la vidéo (DivX, Xvid, RV9, etc.), du son (MP3, MP2, AC3, Ogg, AAC, DTS, PCM), et des sous-titres (SRT, ASS, SSA, USF, etc.) dans un même fichier. Le format MKV est basé sur une structure dérivée de XML, appelée EBML (Extensible Binary Meta Language). Ainsi grâce au format Matroska, il est notamment possible de réaliser des fonctions de chapîtrage, de créer des menus, de faire des recherches dans le fichier, de sélectionner une source sonore ou bien de choisir un sous-titrage.

49 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 49 I.8 ANNEXE III : LES TECHNIQUES : CAPTEURS 2D OU CAPTEURS 3D Selon qu'un robot doit repérer une pièce dans un plan ou dans l'espace, on utilise des capteurs 2D ou des capteurs 3D. Pour tout capteur, une phase d'étalonnage est nécessaire pour définir un repère commun à la vision et au robot. De plus, le capteur peut être fixe ou embarqué. Capteurs 2D Ils servent par exemple à la prise de pièce sur convoyeur et à la mise en position de pièce. La figure ci-jointe illustre un cas où la vision apprend les coordonnées de la tôle dans sa position correcte. Pour chaque nouvelle tôle présentée au capteur 2D, la vision calcule les X, Y et l'angle de rotation α. Elle transmet ces coordonnées au robot qui peut ainsi recaler sa trajectoire et déposer correctement la pièce. Capteur 2D : un robot dépile des tôles et doit les déposer dans une position bien définie. Les capteurs 3D Ils servent par exemple à l'assemblage automatique et à la mise en position de pièce. Deux techniques sont utilisées : la stéréoscopie et la triangulation laser - La stéréoscopie : Elle emploie 2 caméras regardant la même pièce (P) à un instant donné sous 2 angles différents. En combinant ces 2 images 2D obtenues, la vision détermine la position (x, y, z) et d'éventuels décalages ( x, y, z) et rotations (θ x, θ y, θ z ) de la pièce. - La triangulation laser : Un plan laser est projeté sur une pièce observée par une caméra. Cette technique permet de déduire la hauteur z de la pièce avec une seule caméra. Elle permet aussi de s'affranchir de la lumière ambiante et de l'aspect des pièces.

50 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 50 La stéréoscopie laser permet de détecter l'empilement de 4 produits. Balayage laser de la pièce. Il peut s'effectuer de 2 manières : - La caméra et la pièce sont fixes : seul le faisceau laser est orienté par un moteur pas à pas pour balayer la totalité de l'objet à mesurer. - La pièce défile sous le plan laser. Les images de la pièce sont prises lors du défilé.

51 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 51 I.9 ANNEXE IV : EXEMPLE DE CAMERA INFRAROUGE INDUSTRIELLE (FLIR Systems : Les caméras infrarouge thermique ont des caractéristiques variables selon les applications envisagées. Ainsi, la ThermaCAM P640 possède une matrice de 640x480 éléments, soit pixels. Sa précision est 0.06 C à 30 C. Elle a un viseur (écran LCD) et un zoom. Elle peut enregistrer des séquences vidéo. La ThermoVision SC6000 possède un détecteur (antimoniure d'indium InSb, InGaAs ou QWIP, selon les cas d étude) de 640x512 éléments ( pixels) avec une sensibilité thermique de 18mK. La ThermoVision A10 est très petite, avec cependant une bonne qualité d'image [160x128 pixels] et une résolution thermique de 0.08 C. Elle est très utile pour les applications d'imagerie (surveillance des procédés industriels, détection et prévention des incendies, robotique, surveillance, etc.) à poste fixe, lorsque l'opérateur est confronté à des contraintes d'espace, de poids et/ou de puissance, mais aussi pour tout type d'application embarquée. Thermacam P640 ThermoVision A10 La Thermovision 320 est une caméra infrarouge industrielle : matrice microbolomètre de 320 x 240 éléments. Ses spécifications techniques (indice de protection IP65, résistance aux chocs de 25 G, etc.) sont parfaitement adaptées aux besoins de l'automation. Des sorties analogiques et des ports logiques vers un automate permettent son intégration dans tout type de procédé industriel. Elle peut fonctionner avec une interface compatible LabView de National Instruments, des optiques additionnelles, des filtres hautes températures, des enceintes climatiques ou de protection... Certaines caméras (e.g., caméra GasFindIR de FLIR Systems) permettent de localiser en temps réel et facilement les fuites de gaz et/ou autres composés organiques volatiles (COV). Il est ainsi possible d'inspecter, en peu de temps, de grandes zones et même des kilomètres de gazoduc. Les fuites prennent à l'écran l'apparence d'un panache de fumée. Mesure du laitier et de la température de la coulée Dans un convertisseur, on produit de l acier par injection d oxygène dans de la fonte en fusion au moyen d une lance. Le procédé génère des scories qui se mélangent à l acier brut lors de la coulée, entraînant ainsi une baisse significative de la qualité de l acier. Le moyen de contrôle idéal est de visualiser la coulée d acier se déversant dans la poche, et d arrêter le remplissage de celle-ci dès

52 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 52 l apparition de scories en quantité significative. Cette approche est compliquée par le fait que la coulée ayant une température supérieure à 1700 C génère un fort rayonnement lumineux, en plus de poussières denses et de vapeur d eau. De plus, les scories et l acier s écoulent en continu. La détection de scories en mouvement repose sur l emploi d une caméra matricielle avec une cadence image assez élevée pour mesurer la température et l émissivité des objets en mouvement. Le contraste des scories et de l acier est maximum dans la bande [8µm 12µm]. Il est 4.5 fois supérieur à celui obtenu dans la bande [3µm 5µm]. Image de la coulée lors du passage de l acier Image de la coulée lors du passage des scories Contrôle des moules de moussage Les sièges, les dossiers, les repose-têtes et les accoudoirs des véhicules (automobiles, bus, avions, etc.) sont fabriqués par expansion d un produit plastique à l intérieur d un moule fermé en aluminium. Des opérateurs disposent manuellement des renforts dans ces moules quand ils sont ils ouverts. Toute défaillance dans le choix et/ou le positionnement d un renfort entraîne le rebutage de la pièce fabriquée. Il convient donc de contrôler les moules et la mise en place des renforts. La solution apportée par FLIR Systems est une caméra de thermographie infrarouge (thermovision 320M). Par rapport à une caméra visible, elle donne un meilleur contraste, ce qui facilite le traitement d images. De plus, elle permet un suivi de température des moules sur les zones sensibles. Images d un moule. a) Caméra visible. b) Caméra infrarouge thermique. Contrôle du formage de matière plastique Le thermoformage s applique à une grande variété de pièces en matière plastique pour de nombreux secteurs industriels. Cela consiste à chauffer une feuille plane dans un four, puis une fois ramollie la placer entre une matrice et une contre forme. C est ainsi que sont fabriqués dans l industrie automobile les moquettes, panneaux de portes, etc. L emploi d une caméra matricielle à haut débit (50 Hz) fournit l obtention de thermogrammes avec un débit suffisant.

53 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 53 Thermogramme de feuille plastique en sortie de zone de chauffe. Profil horizontal de l hétérogénéité. Détection d'anomalies sur cartes électroniques La réparation d équipements audiovisuels requiert une expertise rapide et fiable des cartes électroniques. Les tests électroniques permettent en général de découvrir les défauts, mais il sont longs et dépendants de l expérience de l opérateur, compte tenu de la diversité des cartes à traiter et de leur fréquente méconnaissance, ne serait-ce que par raison de confidentialité de la part du client. De plus, ce type de réparation ne fournit aucune information sur l état des composants électroniques de la zone endommagée, et donc aucune information sur la durée de vie future de la carte. Les caméras infrarouge thermique constituent une bonne solution (e.g., thermo vision 320M). Image thermique d une carte électronique par la caméra thermovision 320M. Contrôle de soudure on line en temps réel Beaucoup d industries cherchent à assurer en temps réel un contrôle simple et fiable des soudures. Le but est d améliorer la qualité des produits, et aussi d éviter le rebus de pièces qui ne sont jugées défectueuses qu en fin de chaîne. En effet, une correction apportée en temps réel durant le soudage suffit souvent à produire des pièces conformes. Ainsi, le contrôle visuel en temps réel des zones chaudes le long du filée de soudure permet de détecter des défauts de structure internes (bulle d air, soudure sèche, etc.). De plus, la mesure de température précise permet de corriger une dérive du process. Les caméras visibles ne conviennent pas, car elles sont éblouies par le rayonnement. De plus, elles ne mesurent pas la température et ne donnent pas d image nette à travers la fumée, la poussière, et la vapeur d eau ou d huile. Les caméras thermiques constituent une très bonne solution. Soudure laser YAG (1064nm) Soudure par chauffage / emboutissage

54 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 54 Thérapie de la douleur La douleur produit des impulsions électriques dans les nerfs, qui génèrent alors de la chaleur. L emploi d une caméra infrarouge thermique permet de détecter ces zones de douleur et d assurer leur suivi dans le temps. Application dans l'industrie de la verrerie L industrie du verre (bouteille, pare-brise, etc.) utilise la thermographie infrarouge. Ainsi, la cartographie d une pièce en verre en sortie du four permet de détecter un manque de matière (i.e., produit plus fragile), et un surplus de matière (i.e., poids et contenance modifiés). La surveillance des zones et gradients de chauffe est aussi très utile pour améliorer la qualité finale du produit. Contrôle sur ligne de fabrication de bouteilles et d ampoules.

55 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 55 I.10 ANNEXE IV : SYSTEME D'OBSERVATION SATELLITAIRE I.10.1 Acquisition d'images Il est considéré un capteur satellite qui observe la Terre dans le domaine spectral du rayonnement solaire réfléchi (e.g., visible). La réflectance spectrale est donc la grandeur physique en général recherchée. Les résolutions spatiale, radiométrique et spectrale dépendent directement des caractéristiques du capteur et de la nature des prétraitements réalisés. Parmi toutes les corrections d'image (e.g., capteur, atmosphère, relief, etc.) nécessaires pour estimer correctement la réflectance de surface, les corrections des effets instrumentaux sont les mieux maîtrisées aujourd'hui. Ces corrections font appel à la physique instrumentale et au traitement du signal. Elles s'appuient sur la fonction de transfert du capteur. Elles sont de plus en plus importantes dans la définition des capteurs optiques satellites. Par contre, la correction des autres effets (i.e., atmosphère, relief, etc.) requiert des connaissances différentes (e.g., transfert radiatif dans l'atmosphère). La notion de fonction de transfert instrumentale associée à l'acquisition d'images est brièvement rappelée ci-dessous. Une image est une matrice de pixels repérés par leur numéro de ligne l et de colonne c. Tout pixel correspond à un élément de surface ( x, y) centré sur le point de coordonnées (x,y) dans le plan focal du système d'acquisition, ou bien correspond à un élément de surface au sol ( X, Y) centré sur le point (X,Y). Ainsi, la surface au sol d'un pixel associé à une observation du capteur SPOT XS à la verticale (nadir) de la Terre est un carré de 20m de côté. En fait, toute mesure en un point (x,y) dépend du point (X,Y) qui lui est géométriquement associé ainsi que du voisinage de ce point (X,Y). Soit le cas idéal {capteur satellite au nadir, pas d'atmosphère} où la mesure en tout point (dx,dy) ne dépend que de la surface (dx,dy) qui lui est géométriquement associée. Alors, la puissance incidente au point (dx,dy) du plan image est : s(x,y) K. λ (X,Y).dX.dY = K.J. λ (x,y).dx.dy où λ(x,y) = < λ. λ> λ, K ne dépend que des caractéristiques du capteur et J représente la transformation géométrique de (X,Y) à (x,y). En fait toute mesure en (x,y) dépend à la fois de (X,Y) et de son environnement. Ainsi, l'influence de (dx',dy') sur la puissance recueillie en un point (dx.dy) du plan image est : ds(x,y) = K.J. λ (x',y').h(x-x',y-y').dx'.dy' où h(x,y) est la réponse impulsionnelle de l'optique normalisée : L'ensemble du paysage donne donc : s(x,y) = K.J où le symbole * représente le produit de convolution h(x,y).dx.dy = 1. λ(x',y').h(x-x',y-y').dx'.dy' = K.J.(h* λ )(x,y) Le signal s(x,y) est une fonction linéaire de < λ. λ> λ si la luminance de la scène est uniforme, i.e. λ(x,y) = cste (x,y). D'autre part, h est à priori indépendant de (x,y). Le déplacement du capteur complique le problème. Par suite, il est souvent considéré que h est une réponse impulsionnelle totale qui intègre l'ensemble des effets instrumentaux et pas seulement ceux de l'optique. La mesure Q(c,l) résulte de l'échantillonnage de s(x,y). Elle résulte donc d'une convolution suivie d'un échantillonnage. Ainsi, avec un peigne de Dirac dont le pas d'échantillonnage spatial est L e : Q(c,l) = K'.[Σ c,l δ(x - c.l e ).δ(y - l.l e )].[(h*< λ. λ> λ )(x,y)] La transformée de Fourier de l'image est : S(f x,f y ) = K'.P(f x,f y,l e )*[E(f x,f y ).H(f x,f y )] 1 - P(f x,f y,f e ) = Σ i,j δ(f x - i.f e ).δ(f y - j.f e ) où f e =. : transformée de Fourier du peigne de Dirac. L e - E(f x,f y ) : spectre fréquentiel de la scène. C'est le signal que l'on veut récupérer. - H(f x,f y ) : fonction de transfert de modulation du système avec la fréquence de coupure f c. Elle diminue les hautes fréquences spatiales de l'image, par rapport à la scène réelle.

56 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 56 L'échantillonnage f e explique que le spectre de l'image des pixels Q(c,l) est la somme de contributions centrées sur les fréquences 0, ±f e, ±2f e, etc. En présence d'un repliement de spectre, le compte numérique de tout pixel dépend de celui d'autres pixels. Ainsi, pour un signal 1-D (Figure I.31) : n=+ S(f) = Σ E(f-n.fe ).H(f-n.f e ) (S(f) est périodique de période f e ) n=- Pour le capteur SPOT, L e =20m et f e 0.05m -1. I.10.2 Reconstruction d'image a.) Principe Toute reconstruction ou rectification d'image implique de rechercher pour tout point de l'image résultat son point homologue dans l'image brute. Un tel point homologue ne coïncide en général pas avec les nœuds de la grille d'échantillonnage de l'image brute. Il est repéré par: - la ligne l et la colonne c du nœud le plus proche de la grille d'échantillonnage de l'image brute. - l'écart (α,β) au nœud le plus proche. Ici, il est normalisé par rapport au pas d'échantillonnage L. L'information radiométrique attribuée au point de l'image résultat est la valeur radiométrique du point de coordonnées [(p+α).l,(l+β).l] dans l'image brute. Or, seule la radiométrie s c,l aux points d'indice (c,l) est connue. Il s'agit donc de calculer dans le plan de l'image brute la valeur d'une fonction que l'on ne connaît qu'aux nœuds d'un maillage régulier (c.l, l.l). Il s'agit donc d'une interpolation. La fonction utilisée doit être continue. Elle est appelée fonction de reconstruction d'image r(x,y). En pratique, elle correspond à une simple combinaison linéaire de la forme : i=i 2 j=j 2 s'[(c + α).l, (l + β).l] = Σ Σ C ij (α,β).s c-i,l-j i=i1 j=j1 avec C ij (α,β) = r((i+α).l,(j+β).l) s'(x,y) résulte donc de la convolution de l'image brute s(x,y) par la fonction de reconstruction r(x,y). Pour des raisons de coût calcul on utilise souvent l'approximation : C ij (α,β) = C i (α).c j (β). Le spectre de l'image reconstruite est le produit du spectre de l'image brute par la fonction de transfert R(f x,f y ) qui est la transformée de Fourier de r(x,y). Le choix de R(f x,f y ) est important. Ainsi, R(f x,f y ) peut être conçu pour compenser des effets instrumentaux, e.g. si H(f x,f y ) est trop faible à haute fréquence spatiale. R(f x,f y ) représente alors une déconvolution. Si l'on ne cherche pas à compenser un défaut instrumental, R(f x,f y ) représente alors une simple interpolation. D'un point de vue formel, la reconstruction d'image correspond à l'enchaînement de deux processus : (i) combinaison linéaire visant à reconstituer dans le plan une fonction continue s'(x,y) dont les valeurs ne sont initialement connues qu'aux seuls nœuds d'un maillage régulier. (ii) ré-échantillonnage à la fréquence spatiale f' e de s'(x,y) sur une grille régulière. f' e peut différer de l'échantillonnage f e de l'image brute. Le ré-échantillonnage f' e correspond à l'application d'un peigne de Dirac. Il peut donc entraîner un repliement de spectre. Trois cas sont à considérer : - f' e f e. Pour que les images brute et rectifiée aient un contenu fréquentiel semblable, R(f) doit conserver l'information pour f < f e /2 et la détruire pour f > f e /2. En effet, toute information que R(f) laisse passer au-delà de f > f e /2 produit un repliement de spectres qui perturbe le signal aux fréquences utiles ( f < f e /2). - f' e > f e. La bande [f e /2 f' e /2] contient de l'information "artificielle" issue du premier repliement de spectre à la fréquence f e. Ceci souligne l'intérêt d'un filtrage efficace pour f > f e /2 par R(f). - f' e < f e. L'information, à priori significative, contenue dans la bande [f' e /2 f e /2] peut polluer par repliement de spectres autour de f' e /2, la nouvelle bande utile: [0 f' e /2]. Si cet effet est jugé nuisible, il faut que la fréquence de coupure de R(f) soit f' e /2 et non f e /2. b.) Interpolation De manière à minimiser la dégradation du contenu fréquentiel de l'image, le spectre R(f) de la fonction de reconstruction doit être une fonction porte qui vérifie : - R(f) 1 pour f < f e /2 pour ne pas atténuer les hautes fréquences utiles de l'image. En effet, une telle atténuation se traduit par une perte de contraste (sensation de flou).

57 IMAGE, TRAITEMENT D'IMAGE ET CONTEXTE INDUSTRIEL 57 - R(f) 0 pour f > f e /2, pour ne pas introduire de hautes fréquences parasites sans signification. sin(π.x/l) Par suite : r(x) = π.x/l sin(π.(i+α)) et donc C i (α) = π.(i+α) avec i ]- + [ Cette approche préserve au mieux, globalement, les fréquences spatiales de la scène. Cependant, elle a deux inconvénients. (1) Elle nécessite un nombre infini (i ]- + [) de coefficients, ce qui est irréalisable en pratique. (2) L'emploi de coefficients négatifs peut induire des rebonds radiométriques, et donc créer de faux contours. Ces deux inconvénients sont souvent minimisés en utilisant une fonction R(f) qui passe progressivement, et non de manière abrupte, de 1 à 0 à f f e /2. Les méthodes d'interpolation utilisées diffèrent selon le nombre et la valeur des coefficients C i : - Méthode du plus proche voisin : un seul coefficient. - Interpolation linéaire : quatre coefficients associés aux quatre nœuds les plus proches. - Interpolation bi-cubique : coefficients de polynômes de degré inférieur ou égal à 3 qui approchent sinc(π.x) sur des intervalles du type [k k+1] et qui assurent la continuité des valeurs et des dérivées aux points de jonction. Cette interpolation minimise les rebonds radiométriques. c.) Déconvolution Il existe un cas simple où l'emploi de R(f X,f Y ) permet, au moins théoriquement, de retrouver le spectre E(f x,f y ) où f X,f Y [0, f e /2], à partir de S(f x,f y ) = K'.[Σ c,l δ(x - c.l e ).δ(y - l.l e )].[E(f x,f y ).H(f x,f y )]. Supposons pour cela que [H.E](f) est nul au-delà de f e 2 (i.e., H(f) et/ou E(f) = 0 pour f > f e ). Dans ce 2 cas, le premier repliement de spectre ne perturbe pas l'information utile dans la bande [- f e f e 2 2 ]. I(f) Choisissons alors : R(f) = H(f), où I(f) est la fonction porte (I(f) = 1 pour f < f e 2 et I(f) = 0 pour f > f e 2 ). Le spectre de l'image résultat est alors égal à E(f) sur la bande [- f e ], car R(f) remonte les 2 2 fréquences spatiales altérées par H(f). En fait, la fonction R(f) est incorrecte, car elle remonte aussi le bruit présent dans l'image et les erreurs résiduelles de repliement de spectre. Ainsi, en appelant B(f) le spectre du bruit instrumental avant le premier échantillonnage, S(f) peut s'écrire : S(f) = E(f).H(f) + Σ n 0 E(f-n.f e ).H(f-n.f e ) + Σ n B(f-n.f e ) Le spectre de l'image reconstruite est donc: R(f).S(f) = E(f).I(f) + Σ E(f-n.f e ). H(f-n.f e).i(f) B(f-n.f e ).I(f) + Σ n 0 H(f) n H(f) Les termes parasites (bruit et repliement de spectre) peuvent donc être très amplifiés si H(f) a de très faibles valeurs. Par suite, il est souvent choisi une déconvolution R(f) = I(f) / H(f), où I(f) passe graduellement à 0 au voisinage de f e, et non brutalement comme avec une fonction porte. 2 Outre le désavantage possible de remonter les bruits et les erreurs de repliement de spectres, la déconvolution peut faire apparaître des rebonds radiométriques indésirables (i.e., points brillants et noirs) au voisinage de structures marquées de la scène. Ceci peut faire apparaître de faux contours, alors que l'atténuation des contrastes peut s'avérer moins perturbante. Il ne convient donc pas d'appliquer systématiquement une déconvolution. En fait, l'emploi d'une déconvolution est indispensable uniquement si la fonction de transfert de modulation du système est très dégradée. f e

58 II PHYSIQUE DU RAYONNEMENT Une image acquise par un capteur est une distribution spatiale de caractéristiques du rayonnement incident (i.e., puissance, amplitude du champ électrique, polarisation, phase, fréquence ou direction de propagation). Ayant été réfléchi, transmis ou émis par l'objet observé, ce rayonnement est supposé transporter "l'empreinte" de l'objet, c'est à dire une information qui peut être géométrique (e.g., dimension, forme, rugosité de surface), physico-chimique (e.g., présence et densité d'impuretés), etc. L'interprétation de cette information requiert souvent une bonne compréhension des mécanismes électromagnétiques, électroniques, etc. à l'origine de l'image. Ce chapitre introduit les bases essentielles pour comprendre les mécanismes électromagnétiques mis en jeu. II.1 LE RAYONNEMENT ELECTROMAGNETIQUE II.1.1 Principales caractéristiques Le terme "onde" de vitesse v désigne une variation spatio-temporelle Ψ(t± ξ ) où t est la variable temps v et ξ est la variable espace. Lors de sa propagation, une onde ne transporte que de l'énergie. Elle ne transporte pas de matière (e.g., les vagues ne déplacent pas les bateaux). Un point atteint par une onde reproduit l'état de sa source avec une amplitude inférieure ou égale et un retard du au temps mis par l'onde pour parcourir le trajet depuis la source. Les ondes lumineuses sont transverses, car les champs Ψ transportés (i.e., champs déplacement D - et magnétique B - ) sont normaux à la vitesse de déplacement Depuis une source ponctuelle, l'onde se propage dans toutes les directions sous forme d'onde sphérique. Les fronts d'onde associés sont déformés si le milieu n'est pas homogène (i.e., variation d'indice de réfraction). Par suite, la direction de propagation change. Ainsi, une lentille de verre peut transformer une onde sphérique en onde plane. Une onde est dite plane si sa direction de propagation ū est unique et si en tout point r - de l'espace ξ = ū.r -. Alors, ξ est constant en tout point de chaque plan normal à la direction de propagation. Un tel plan est une surface de phase constante, à un instant donné. L'onde est dite monochromatique (Erreur! Source du renvoi introuvable.) si D - et B - ont des variations sinusoïdales en phase, infinies dans le temps et l'espace. Elle est caractérisée par sa fréquence temporelle f, sa longueur d'onde λ (i.e., période spatiale) et sa phase φ en un point origine et à un instant initial. Sa phase se déplace à une vitesse de phase v = λ.f. Son écriture mathématique est : D - = D - o.cos(ω.t-k.x+φ) = D - o.cos(2π.f.t- 2πx λ +φ) = D- o.cos[2π.f.(t- x v )+φ] D- = D - o.{exp[j(2π.f.t- 2πx λ +φ)]} D o : amplitude du champ déplacement D -. L'orientation de D - indique la polarisation de l'onde. ω : fréquence angulaire ou pulsation, avec ω = 2πf. La période de l'onde est T = 2π ω. k = 2π λ : nombre d'onde k- = 2π λ.ū est le vecteur d'onde. λ décroît avec f, car λ = v f = v.t. ωt - kx + φ : phase de l'onde à l'instant t et au lieu x. D - Champ déplacement k - B - Champ induction magnétique Longueur d'onde λ (période spatiale) Direction de propagation Fréquence f (nbre de cycles/s) Figure II.1 : Propagation d'une onde plane de polarisation rectiligne. La longueur d'onde λ et la vitesse v, contrairement à la fréquence, dépendent des propriétés électriques vitesse c dans le vide du milieu de propagation, et donc de son indice de réfraction n = vitesse v dans le milieu = λ vide (e.g., λ milieu

59 PHYSIQUE DU RAYONNEMENT 59 n(vide) = 1, n(paroi cellulaire hydratée) 1.4 et n(eau) 1.33). La propagation d'une onde est rectiligne / non rectiligne dans les milieux homogènes (i.e., n constant) / hétérogènes (i.e., n variable). Un rayonnement ne peut durer qu'un temps fini et ne peut être totalement monochromatique. Sa représentation mathématique est donc la superposition d'un grand nombre d'ondes monochromatiques avec des fréquences distribuées sur un intervalle f. On parle alors de vibration ou de train d'ondes. L'intervalle f est d'autant plus petit que le rayonnement ressemble à une onde monochromatique. II.1.2 Sources de rayonnement électromagnétique Une source peut être naturelle ou artificielle, et ponctuelle ou étendue. Sources naturelles : elles génèrent un rayonnement par émission thermique (e.g., soleil, Terre) et/ou par diffusion de rayonnement issu d'autres sources (e.g., Terre). Sources artificielles (e.g., radar, laser, four micro onde): un de leur intérêt majeur est d'émettre un rayonnement avec des caractéristiques (fréquence, amplitude, direction, polarisation, phase) définies. Près d'une source ponctuelle et isotrope le rayonnement émis est composé d ondes sphériques, c'est à dire d'ondes identiques sur la surface de sphères centrées sur la source de rayonnement. La surface de phase constante d'une onde sphérique est donc une sphère centrée sur la source de rayonnement. Par contre, loin de toute source, le rayonnement tend à être composé d'ondes planes. Les champs D - et B - forment avec ū un trièdre direct: D - = v.ε.b - Λ ū, où v est la vitesse de propagation et ε la permittivité électrique du milieu de propagation. D - et B - sont donc normaux à la vitesse v - de propagation. La puissance électromagnétique instantanée est v ε. D- 2. Dans le vide, v = c m.s -1. II.1.3 Le spectre électromagnétique Les sources naturelles ne sont en général pas des sources quasi-monochromatiques. Ainsi, le soleil émet par émission thermique un rayonnement, dit "rayonnement solaire", qui est la superposition d'ondes électromagnétiques dont les fréquences couvrent un très large domaine. L'ensemble de ces ondes constitue le spectre électromagnétique du rayonnement solaire. La Figure II.2 illustre la décomposition du rayonnement solaire selon ses composantes spectrales (ondes "monochromatiques"). Seules les composantes dans le domaine du visible sont représentées. Les principaux domaines spectraux utilisés en télédétection sont le visible, le proche infrarouge, le moyen infrarouge, l'infrarouge thermique et les hyperfréquences (Table 1). Ultraviolet Violet Bleu Vert Jaune Orange Rouge Prisme Dispersion Figure II.2 : Décomposition spectrale du rayonnement solaire. Infrarouge En fait, l'être humain ne perçoit qu'une petite fraction du spectre du rayonnement solaire. Nos yeux constituent un système optique où le cristallin est une lentille de focale variable, la pupille un diaphragme automatique et la rétine un plan image. La rétine comprend deux types de photorécepteurs qui ne sont sensibles qu'au domaine spectral du visible, i.e. de 380 nm à 780 nm. Ces photorécepteurs sont: - bâtonnets. Ce sont des photorécepteurs panchromatiques qui donnent une seule réponse pour tout le visible. Leur sensibilité spectrale varie peu avec la longueur d'onde. Leur dimension est µm et leur distance mutuelle est µm.

60 PHYSIQUE DU RAYONNEMENT 60 - cônes. Ils autorisent la vision des couleurs. En effet, il y a 3 types de cônes respectivement sensibles à des domaines spectraux centrés sur le bleu, le vert et le jaune - vert (Figure II.3). Par rapport aux bâtonnets, leur sensibilité radiométrique est moindre, ils permettent une meilleure résolution spatiale, ils sont plus petits ( 1-2 µm), ils sont plus serrés ( µm), ils sont concentrés autour de la fovéa et ils sont moins nombreux ( 6-7 millions de cônes pour 120 millions de bâtonnets). Domaine spectral λ f Capteurs Radio LF MF HF VHF UHF 3 km - 3 m 100 khz MHz non utilisé Micro-ondes Infrarouge Visible P UHF L S C X K Lointain Thermique Moyen Proche Rouge Jaune Vert Violet 136 cm cm 100 cm - 30 cm 30 cm - 15 cm 15 cm cm 7.5 cm cm 3.75 cm cm 2.4 cm cm 0.75 cm - 15 µm 15 µm - 3 µm 2.5 µm µm 1.4 µm µm 700 nm 550 nm 400 nm 221 MHz MHz 3 00MHz - 1 GHz 1 GHz - 2 GHz 2 GHz - 4 GHz 4 GHz - 8 GHz 8 GHz GHz 12.5 GHz - 40 GHz 40 GHz GHz GHz GHz GHz GHz GHz GHz GHz GHz GHz Radars (SAR, SLAR, diffusiomètres), Radiomètres. Radiomètres optiques IR Radiomètres optiques VIS Ultraviolet 400 nm nm GHz GHz peu utilisé Rayons X 290 nm A 10 6 GHz GHz non utilisé Rayons gamma 0.3 A A GHz GHz non utilisé Table 1: Domaines du spectre électromagnétique et types de capteurs de télédétection. 1 m = 10 6 µm = 10 9 nm = A ; 1 GHz = 10 3 MHz = 10 6 khz = 10 9 Hz. λ = c/f C ô n e b le u : µ m C ô n e v e rt: µ m A b s o r p tio n r e la tiv e S e n sib ilité r e la tiv e C ô n e ja u n e - v e rt: µ m µ m µ m Figure II.3: Caractéristiques spectrales des cônes de la rétine humaine. L'intensité lumineuse spectrale effectivement captée par l'œil est absorbée par les pigments des 3 types de cônes présents. Les courbes en trait plein représentent l'absorption relative associée. La couleur perçue est due à l'énergie spectrale absorbée mais aussi à la sensibilité relative des types de cônes (courbes en pointillé). La sensibilité totale est souvent notée K.S(λ) avec S(λ) la sensibilité relative. II.1.4 Interactions "Rayonnement - Matière" Tout rayonnement qui se propage ou qui est incident sur un milieu réagit avec celui-ci. Les principaux mécanismes d'interaction sont rappelés ici. Ils dépendent à la fois du rayonnement (e.g. fréquence, polarisation) et des propriétés électromagnétiques et géométriques du milieu. Toute interaction correspond à une interception de rayonnement, sachant que le rayonnement intercepté est diffusé et/ou absorbé. Les interactions diffèrent selon le milieu. Il est généralement considéré : - interaction de volume: propagation de rayonnement dans un fluide (Figure II.4), et - interaction de surface: rayonnement incident sur un solide semi-opaque (Figure II.9). Milieu gazeux Tout rayonnement de densité de flux E (W.m -2 ) incident sur un fluide est plus ou moins intercepté (i.e., diffusé et/ou absorbé). En l'absence de diffusions multiples, l'interception, l'absorption et la

61 PHYSIQUE DU RAYONNEMENT 61 diffusion sont souvent exprimés avec des coefficients égaux à la densité volumique de section efficace du fluide vis à vis de ces phénomènes. Leur unité est donc (m -1 : m 2.m -3 ). Ce sont les coefficients d'extinction α e, d'extinction pour l'absorption α a et d'extinction pour la diffusion α d. Ils dépendent en général de la direction incidente Ω, avec en plus la direction de diffusion Ω d pour α d. D'un point de vue microscopique, les mécanismes d'absorption et de diffusion sont dus à l'interaction des champs électriques et magnétiques du rayonnement avec les charges électriques du milieu. Diffusion: E.α d.dr Interception: E.α e.dr E.[1-e -αe.dr ] Absorption: E.α a.dr E E.(1-α e.dr) E.e -αe.dr dr Figure II.4: Absorption, diffusion et transmission d'un flux E par un gaz sur un trajet dr. - Diffusion L'intensité diffusée est α d.e.dr, où α d est le coefficient de diffusion. La variation spectrale de α d est continue, avec une variation qui dépend du milieu. La diffusion est dite élastique si l'onde diffusée a la même longueur d'onde que l'onde interceptée. Même si l'absorption est nulle, la diffusion atténue le flux incident, car elle redistribue dans l'espace 4π tout ou partie du flux intercepté. Les gaz ont une diffusion beaucoup plus isotrope que les aérosols. - Absorption. L'intensité absorbée est α a.e.dr, où α a est le coefficient d'absorption. Contrairement à α d, la variation spectrale de α a est discontinue si le fluide a des raies d'absorption (i.e., α e (λ) très élevé). L'absorption contribue au chauffage du milieu. Un milieu absorbant est dit dissipatif. - Interception. L'intensité interceptée est de = -α e.e.dr, où α e est le coefficient d'interception. C'est la somme de l'absorption et de la diffusion: α e = α a + α d. Le flux transmis sans interception par le fluide après un trajet r, où τ = r α e (r).dr est l'épaisseur optique du milieu le long de r, est E.e - τ (loi de Beer Lambert). En fait, le flux transmis est supérieur, car le rayonnement intercepté est en partie diffusé selon la direction incidente. Dans l'atmosphère terrestre, l'absorption est surtout due aux gaz alors que la diffusion est due aux gaz et aérosols, dans une proportion qui dépend du domaine spectral. Les gaz ont beaucoup de raies d'absorption. Dans certains domaines spectraux, ces raies sont assez rapprochées pour former une bande d'absorption plus ou moins large (e.g., quelques nanomètres à beaucoup plus). Cette absorption explique qu'un gaz entre un capteur et une cible peut beaucoup perturber l'observation de cette cible. Par suite, l'observation de la Terre depuis l'espace (i.e., télédétection) utilise des domaines spectraux, appelés "fenêtres atmosphériques" (Figure II.5), où l'atmosphère a peu ou pas de bandes d'absorption. Les principales fenêtres atmosphériques utiles en télédétection sont: - Visible et très proche infrarouge [0,3-1,1µm]. - Proche infrarouge [1,1-3µm], sous réserve d'une faible teneur en vapeur d'eau. - Infrarouge thermique [3-5µm], [8-9,5µm] et [10,5-13,5µm]. - Micro-ondes, de 1cm à 1m. Elles dépendent des principaux gaz absorbants de l'atmosphère. Ainsi, entre 0,3 et 20µm, on a : - Vapeur d'eau (H 2 O) : elle est située au niveau du sol et ne doit pas être confondue avec les masses condensées des nuages et brumes. Elle représente l'essentiel de l'absorption au delà de 0,7µm, ne laissant que quelques fenêtres, c'est à dire des intervalles spectraux sans absorption atmosphérique, autour de 1,06µm, 1,22µm, 1,6µm et 2,2µm. - Gaz carbonique (CO 2 ) : il est responsable de plusieurs bandes d'absorption dans le proche infrarouge et arrête tout rayonnement infrarouge à partir de 14µm. - Ozone (O 3 ) : l'ozone de la haute atmosphère atténue beaucoup le rayonnement ultraviolet (<0,3µm). - Combinaisons de l'atome d'oxygène dans les plus hautes couches atmosphériques: O 3, N 2 O, etc.

62 PHYSIQUE DU RAYONNEMENT 62 U ltra violet Visible Infrarouge 100% O 3 R éflectance : T erre + A tm osphère H 2O H 2O C O 2 H 2O Em ission T herm ique : Terre + A tm osphère C O 2 N 2O H 2O O 3 CO µ m Infrarouge M icro-o ndes Radio 100% Em ission Therm ique : T erre + A tm osphère H 2O L Ka X Longueur d'onde µ m 0.1cm 0.5 cm 1.0 cm 5.0 cm 10 cm 50 cm Figure II.5: Transmittance spectrale atmosphérique et principaux gaz absorbants. Dans l'atmosphère, la diffusion est souvent assimilée à une source de bruit. La variation spectrale de α d (λ) dépend du rapport "taille des particules diffusantes / longueur d'onde". Ainsi, dans le visible la diffusion gazeuse est surtout due aux gaz O 2 et N 2, avec α d (λ) qui décroît comme λ -4. C'est la diffusion Rayleigh. Par suite, l'atmosphère diffuse beaucoup plus dans le bleu ( nm) que dans le rouge ( nm). Pour λ > 1µm la diffusion de Rayleigh est souvent négligée. La diffusion de Rayleigh explique la couleur bleue du ciel (Figure II.6), la couleur rouge du ciel lors de couchers de soleil, et la plus grande netteté des ombres dans le proche infrarouge. Pour des particules de dimension similaire à λ, la diffusion est dite de Mie. α d (λ) décroît alors comme λ -n. Cette diffusion est très anisotrope. Dans le visible, les aérosols donnent une diffusion de Mie avec n La diffusion est dite non sélective quand les particules ont une taille supérieure à la longueur d'onde. Elle tend alors à être similaire à toutes les longueurs d'onde. Ainsi, dans le visible, la diffusion des gouttelettes d'eau des nuages explique leur couleur blanche. Dans les micro-ondes, les gouttelettes d'eau sont les principaux éléments diffusants. rouge bleu Gaz atmosphériques (B) : surtout du bleu Figure II.6 : Diffusion atmosphérique : le bleu est plus diffusé que le rouge. (A) : surtout du rouge En l'absence d'atmosphère l'observateur (A) perçoit du "noir" et (B) perçoit le "jaune" du soleil. En présence d'atmosphère (A) perçoit la couleur bleue, alors que (B) perçoit la couleur rouge. L'énergie absorbée α a.e.dr augmente l'énergie interne du fluide. Si celui-ci est à l'équilibre thermodynamique avec son rayonnement, il émet un rayonnement, dit thermique, égal à α a.e.dr sur un domaine spectral étendu qui diffère en général de celui du rayonnement incident. En fait, cette émission ne survient que dans les domaines spectraux où le gaz peut absorber (i.e., α a (λ) 0), même si l'absorption effective α a (λ).e(λ) est nulle du fait que le rayonnement incident est nul (E(λ) = 0). L'atmosphère n'émet donc un rayonnement thermique que dans les bandes spectrales où elle absorbe (Figure II.7). Un milieu qui à toute longueur d'onde absorbe tout rayonnement qu'il intercepte (i.e., α a (λ) = α e (λ)) est appelé "corps noir". Par suite, un corps noir émet sous forme de rayonnement thermique toute l'énergie qu'il intercepte. Le rayonnement thermique d'un corps noir ne dépend que de son énergie interne, et donc de sa température. Il est représenté de manière analytique par la loi de

63 PHYSIQUE DU RAYONNEMENT 63 Planck. Ainsi, le rayonnement du soleil correspond au rayonnement thermique d'un corps noir dont la température est 6000 K (Figure II.8). Transmittance (%) atmosphérique 80 CO 2 O 3 Absorption atmosphérique 60 CO 2 H 2O 40 H 2O (a) 20 Emittance (W.m -2.µm -1 ) atmosphérique Emission atmosphérique Emission du corps noir (b) (µ m) Figure II.7 : (a) Bandes de transmission (%) et (b) d'émission thermique des gaz atmosphériques (W.m -2.µm -1 ). Les bandes d'absorption sont aussi des bandes d'émission thermique. Longueur d'onde (µm) Emission du corps noir. T=5450 C et 3450 C. La longueur d'onde du maximum croît avec T (loi de Wien). E λ (kw.m -2.µm -1 ) Eclairem ent spectral solaire au-dessus de l'atm osphère 2.0 Eclairem ent spectral solaire au niveau de la mer (soleil au zénith) Courbe du corps noir à 5900 K O 3H 2 O O 2 H 2 O Absorption gazeuse Diffusion (gaz + aérosols) 0.5 H 2 O, C O 2 Adapté de Valley (1965). O 3 H 2 O, C O 2 H 2 O, CO µm Figure II.8: Eclairement solaire spectral en haut et en bas de l'atmosphère. La loi de Planck ne peut être directement appliquée aux corps naturels, car ce ne sont pas des corps noirs : ils diffusent une partie du rayonnement qu'ils interceptent (i.e., α d 0, car α a (λ) < α e (λ)). Leur émission thermique est en général exprimée comme l'émission thermique du corps noir de même

64 PHYSIQUE DU RAYONNEMENT 64 température qu'eux multipliée par un coefficient appelé "émissivité ε" égal à α a(λ). En fait, un milieu α e (λ) peut se comporter comme un corps noir (i.e., α a (λ) α e (λ)) dans certains domaines spectraux et comme un corps non noir dans les autres domaines spectraux. Milieu solide semi - opaque L'interaction d'un rayonnement d'intensité E (W.m -2 ) incident sur un milieu solide (Figure II.9) semi - opaque n'est en général pas représentée avec des coefficients α a (λ), α d (λ) et α e (λ), mais avec des termes "macroscopiques" appelés coefficients de réflectance R, de transmittance T et d'absorption A. Ces coefficients dépendent des caractéristiques électriques (n) et géométriques (rugosité,...) du milieu. Comme α e, α a et α d, ils dépendent en général de la longueur d'onde et des directions de propagation du rayonnement. Ils peuvent se déduire des coefficients α e, α a et α d combinés aux équations qui représentent la propagation du rayonnement dans le milieu, ainsi que des équations de continuité des champs électromagnétiques à l'interface du milieu (équations de Fresnel). Le rayonnement absorbé est A.E, le rayonnement transmis est T.E et le rayonnement diffusé est R.E. Contrairement au cas d'un milieu gazeux, le rayonnement intercepté est égal au rayonnement incident. Le rayonnement diffusé est souvent considéré être la somme d'un rayonnement réfléchi de manière spéculaire (i.e. réflexion de Fresnel) selon la direction telle que "angle de réflexion = angle d'incidence" et d'un rayonnement réfléchi de manière diffuse (selon des directions quelconques). La conservation de l'énergie implique l'égalité : R + T + A = 1. Pour un corps opaque, la transmittance T est nulle, car il intercepte tout rayonnement incident. Par suite son absorption est A = 1 - R et son émissivité est ε = 1 - R (loi de Kirchoff). Réflexion (diffus + spéculaire) Source E i r R.Ε Absorption A.Ε R + T + A = 1 Transmission (diffuse + spéculaire) Figure II.9: Absorption, réflexion et transmission d'un rayonnement E avec un solide. Les figures qui suivent illustrent l'impact des configurations expérimentale et instrumentale sur les images acquises. Effets d'ombre dus à des nuages : éclairement spatialement hétérogène T.Ε Reflets du soleil : effets spéculaires sur l'eau

65 PHYSIQUE DU RAYONNEMENT 65 Avec des vagues de directions zénithales extrêmes α, l'angle de vue est 4α. Effet d'opposition (hot spot) : taches claires dans les images Direction d'observation quasi spéculaire, avec / sans surface "spéculaire" a) Eclairement solaire direct. b) Eclairement diffus. Ombres et contrastes très marqués, avec réduction de l'information spectrale. Profondeur de pénétration Un rayon incident sur un milieu pénètre d'autant plus celui-ci que son coefficient d'extinction α e est faible. L'indice de réfraction complexe n i est alors faible, car α e = 4π.n i. Ainsi, l'intensité d'une onde décroît d'un facteur e après un trajet l = 1 λ o =. Ce trajet est la profondeur de pénétration. La α e 4π.n i Figure II.10 illustre ceci à partir de la réflectance ρ d'un réflecteur parfait (ρ = 100%) sous une couche d'eau. Ce réflecteur n'influence pas la mesure dans le proche infrarouge, car le coefficient d'extinction de l'eau est alors très fort. Par contre, il influence la mesure dans le visible, car le coefficient d'extinction de l'eau est alors relativement faible. En fait, le coefficient d'extinction de l'eau est très élevé sur tout le spectre, avec un minimum dans le visible. L'albédo de diffusion de l'eau étant toujours très faible, une forte épaisseur d'eau absorbe donc la quasi totalité de tout rayonnement incident qui n'a pas été réfléchi de manière spéculaire. λ o Plaque blanche Eau Profondeur µm µm µm µm 1 m ρ = 92% ρ = 55% ρ = 9% ρ = 0.2% 5 m ρ = 67% ρ = 5% ρ = 0% ρ = 0% α e (m -1 ) Figure II.10: Réflectance non spéculaire de "surface d'eau sur réflecteur parfait (ρ=100%)". La 4 ème ligne donne le coefficient d'extinction de l'eau (non pure). Plusieurs phénomènes radiatifs majeurs sont indiqués ci-dessous.

66 PHYSIQUE DU RAYONNEMENT 66 Dispersion Un milieu est dit dispersif si son indice de réfraction varie avec la fréquence. L'impact d'un milieu dispersif sur une onde qui interagit avec lui dépend donc de la fréquence de cette onde. Ainsi, la vitesse de propagation de l onde dépend de sa fréquence. Un rayonnement quasi monochromatique (i.e., constitué d'ondes monochromatiques de fréquences très proches) qui se propage dans un milieu dispersif devient donc de moins en moins monochromatique durant sa propagation. Ceci explique l'apparition d'aberrations chromatiques dans les systèmes optiques. Polarisation La polarisation (direction de D - ) d'une onde peut varier selon les caractéristiques du milieu d'interaction. C'est souvent la densité pour un rayonnement transmis dans un gaz et la "rugosité" de surface pour un rayonnement réfléchi. Il existe différents types de polarisation : - Polarisation elliptique : le champ D - décrit une ellipse, - Polarisation circulaire : le champ D - décrit un cercle, - Polarisation rectiligne : la direction du champ D - est constante. La polarisation est dite horizontale si D - est normal au plan d incidence (i.e., plan défini par la direction de propagation et la verticale locale). Elle est dite verticale si D - est dans le plan d'incidence. La loi de Kirchoff indique que le degré de polarisation d'un milieu dépend de sa réflectance selon les polarisations horizontale et verticale. L'émission thermique des milieux naturels est souvent peu ou pas polarisée. Par contre, des sources artificielles comme les radars sont conçues pour émettre un rayonnement polarisé. Lors de son interaction avec un milieu, une onde non polarisée peut devenir plus ou moins polarisée. Ceci survient lors de la diffusion du rayonnement solaire par les surfaces terrestres ou par les aérosols et les gaz atmosphériques. Ainsi, l'éclairement d'un lac par un rayonnement non polarisé avec un angle d incidence proche de l'angle de Brewster (e.g., θ B = 42 si n = 1.5, et θ B = 46 si n = 1.4), donne un rayonnement réfléchi avec une très forte polarisation horizontale. En général, la mesure du degré de polarisation d un rayonnement renseigne sur les caractéristiques électriques et géométriques des milieux avec lesquels ce rayonnement a interagi. Ainsi, des objets verticaux comme les troncs d'arbres interagissent plus avec les ondes hyperfréquence de polarisation verticale qu'avec les ondes hyperfréquence de polarisation horizontale. Ceci explique l'intérêt de mesurer par télédétection la polarisation du rayonnement. Interférence Le phénomène d'interférence survient s'il a superposition d'ondes cohérentes de même fréquence. Les ondes peuvent alors se renforcer ou se détruire mutuellement. Une conséquence importante de l'interférence est qu'une surface homogène peut engendrer une diffusion dont la distribution spatiale est hétérogène. Par suite, son image peut être hétérogène. L'interférence est aussi mise à profit pour la réalisation de filtres interférentiels, c'est à dire des filtres qui transmettent le rayonnement dans un domaine spectral très étroit. Ainsi, considérons un rayonnement incident sur un morceau de verre plan d'épaisseur r dont les faces internes sont très réfléchissantes (Figure II.11). Pour les ondes telles que λ = 2. r, les réflexions d'ordres différents qui surviennent sur les 2 faces de la lame de verre sont en phase, si bien que l'amplitude de l'onde n'est pas réduite. La transmittance est donc forte. Par contre, pour les autres ondes (λ 2. r), les réflexions ne sont pas en phase. Par suite, leur amplitude décroît : la transmittance est très faible. λ 2 λ 2 Figure II.11 : Filtre interférentiel demilongueur d onde. λ 2

67 PHYSIQUE DU RAYONNEMENT 67 Diffraction La diffraction explique qu'un faisceau de rayons parallèles devient moins directionnel quand il traverse une ouverture de dimension finie. Elle apparaît dans tout système optique du fait de la présence des lentilles et des diaphragmes. Par suite, la focalisation de rayons parallèles ne donne pas un point image infinitésimal mais une tâche circulaire lumineuse entourée de cercles noirs concentriques. Dans le cas d'un système optique (Figure II.12) caractérisé par une pupille de sortie de rayon a avec une focale f, le rayon du premier cercle noir est : 1.22 λ.f a. La tâche de diffraction explique qu'en deçà d'une distance minimale sensiblement égale au rayon de la tâche de diffraction, deux objets ne peuvent être distingués. La diffraction réduit donc la résolution des capteurs. Cette réduction est d'autant plus forte que la longueur d'onde est grande. Ainsi, la tache de diffraction est 20 fois plus grande dans l infrarouge thermique (λ 10 µm) que dans le vert (λ 0.5 µm). Source ponctuelle Lentille Ouverture a Lentille Plan image Diamètre de la tache de diffraction (2 x 1.22 λ.f a ) Ondes planes Ondes sphériques Ondes planes diffractées Tache de infinité d'ondes sphériques diffraction Figure II.12: Diffraction de rayonnement issu d'une source ponctuelle quasi-monochromatique. II.2 NOTIONS DE PHOTOMETRIE L'interprétation de mesures radiométriques acquises en tant qu'image ou signal ponctuel requiert souvent l'emploi de la notion d'intensité des mesures, selon le domaine spectral et le capteur (matrice CCD, œil humain, film photographique, etc.) considérés. Pour cela, l'intensité est en général quantifiée avec des grandeurs plus ou moins dérivées de la notion de carré de l'amplitude d'une onde sinusoïdale (i.e., monochromatique). Deux types de grandeurs, dite photométriques, sont présentés ci-dessous : - grandeurs énergétiques, dites aussi radiométriques. Elles sont adaptées à tout type de capteur, et - grandeurs visuelles. Elles caractérisent la sensation lumineuse perçue par l'œil. Energie Rayonnante (Joules) : Q C'est l'énergie émise, transportée ou reçue sous forme de rayonnement durant un temps t. Flux Energétique (Watts) : Φ = dq dt Φ est le flux d'énergie rayonnante par seconde. Cette puissance est proportionnelle au carré de l'amplitude de l'onde pour une onde monochromatique. En fait, toute vibration s'étendant sur un domaine spectral λ non infiniment petit, Φ est défini par sa densité spectrale de puissance, c'est-àdire Φ λ = dφ dλ, avec Φ = Φ λ.dλ. Le soleil émet Φ = W. λ Les grandeurs visuelles associées à Φ et à Φ λ sont les flux lumineux F et F λ. Ils quantifient la puissance radiométrique effective sur l'œil humain, compte tenu de la sensibilité spectrale de l'œil K.S(λ), avec K = 685 lm.w -1 et S(555 nm) = 1 (Figure II.3) : F λ = K.Φ λ.s(λ) et F = K Φ λ.s(λ).dλ (lumen : lm) F dépend du domaine spectral. F = 685 lm si Φ = 1W avec λ = 550 nm, car S(0.55 µm) = 1. Φ

68 PHYSIQUE DU RAYONNEMENT 68 Densité de Flux Energétique (W.m -2 ) : dφ ds C'est une densité énergétique par unité de surface ds. Elle est appelée "éclairement E" de ds si la radiation est incidente sur ds et "exitance M" de ds si elle provient de ds. Eclairement solaire d'une surface : E s. cosθ s, où θ s est l'angle "direction solaire - normale à la surface" et où E s est la constante solaire. E s = 4π.( ) 2 = W.m -2 au niveau du rayon solaire visible ( m) et E s = 1370 W.m -2 au niveau de la Terre ( km). Exitance planétaire : M = M diffusion + M thermique = A. E s 4 + B.σ.T4, où A 30% et T sont l'albédo et la température planétaires. Avec l'approximation {B = (1-A)}, l'équilibre radiatif (i.e., M = E s 4 ) implique : σ.t 4 = E s 4. Par suite : (1-A).σ.T4 = 240 W.m -2 et T 255K. La grandeur visuelle associée à dφ df est ds ds. Son unité est le lux (lm.m-2 ). Intensité Energétique (W.sr -1 dφ ) : I(θ,φ) = dω La distribution directionnelle du rayonnement réfléchi ou émis est souvent anisotrope. Elle est représentée par l'intensité énergétique (flux énergétique par unité d'angle solide selon une direction donnée). Ici, toute direction est notée Ω et est repérée par les angles zénithal θ et azimutal φ du système d'euler (θ [0 π], φ [0 2π]). Avec ds la surface de la sphère de rayon r couverte par dω, l'angle solide (Ω, dω) centré sur Ω (θ,φ) (Erreur! Source du renvoi introuvable.) est ds dω = sinθ.dθ.dφ = 2π r 2, où 0 π/2 dφ. 0 sinθ.dθ = 2π. La grandeur visuelle associée à I est l'intensité visuelle df. Son unité est le candela (cd). Un candela dω est à peu près l'intensité d'une bougie à 555nm. On a 1W.sr cd. Luminance Energétique (W.m -2.sr -1 d 2 Φ ) : L Σ (θ,φ) = dω.dσ app La luminance L Σ (Ω) est le flux énergétique par unité d'angle solide (dω) et de surface apparente dσ app selon la direction (Ω). La surface apparente dσ app d'une surface dσ est la projection de dσ dans le plan normal à (Ω). On a : dσ. Ω -.Ω - n, où (Ω - n) est le vecteur unité normal à la surface dσ qui selon le cas intercepte, émet ou diffuse. Par suite : dσ app = dσ.cosθ, où θ est l'angle entre (Ω) et (Ω - n). Une source est dite homogène si sa luminance est constante en tout point. Elle est dite isotrope si sa luminance ne dépend pas de la direction (Ω) selon laquelle elle diffuse ou émet le rayonnement. Une surface solide isotrope est dite lambertienne. On a alors : x z dσ θ r φ (Ω,dΩ) ds app y M Σ = π.l Σ car M Σ = L Σ (Ω). Ω -.Ω - n.dω = L Σ (Ω). 2π 2π Ω -.Ω - n.dω = π.l Σ De même, l'éclairement E Σ d'une surface Σ du à un éclairage L(Ω) isotrope est E Σ = π.l Alors que l'éclairement et l'intensité dus à une source ponctuelle varient en r -2 par rapport à celle-ci, la luminance se propage sans atténuation dans le vide. Ceci est illustré ici avec le cas d'un capteur qui vise selon la direction (Ω c ) une surface dσ de luminance L Σ (Figure II.13). L'optique a une pupille d'entrée de surface ds c et un demi angle d'ouverture α c La surface dσ "voit" ds c selon l'angle 2π αd/2 solide dω. L'angle solide de l'ouverture du capteur est Ω c = dφ. 0 0 sinθ.dθ = 2π.(1-cosα c ) π.α 2 c si α c << π

69 PHYSIQUE DU RAYONNEMENT 69 Plan image Pupille d'entrée dsc αd θd Point image dsd Figure II.13: Conservation de la luminance dans le vide. dσ envoie sur le capteur : Φ c = E.dS c = L Σ.dω.cosθ.dΣ où θ = angle entre (Ω c ) et normale locale à dσ. dωc Pupille de sortie (focale f, diamètre D) dσ.cosθ.dω = dω c.ds c.cosθ c Φ c = L Σ.dΩ c.ds c.cosθ c où θ c = angle entre (Ω c ) et l'axe optique du capteur. dω θ dσ θc Rayons terrestres 2 α c Altitude du capteur En fait, le capteur mesure Φ c = L Σ '.dω c.ds c.cosθ c où L Σ ' = luminance due à dσ au niveau de ds c. La luminance se conserve dans le vide : L Σ = L Σ ' Pour une surface Σ composée de petits paysages de luminance L(r,Ω) et de taille < aire x. y des pixels: Φ c dω. L(x,y,Ω).cosθ.dx.dy = ds. c ΩcL(x,y,Ω c ).cosθ c.dω c x, y Démonstration : L d = L Σ. dω.dσ.cosθ est l'étendue géométrique du pinceau sous lequel dσ voit ds c. De même, si dω d est l'angle solide sous lequel un élément ds d du plan image voit la pupille de sortie et θ d l'angle qui repère tout pixel (surface ds d ) du plan image, dω d.ds d.cosθ d est l'étendue géométrique du pinceau sous lequel ds d voit la pupille de sortie. Supposons vérifiée l'approximation usuelle des sinus d'abbe "dσ.cosθ.sin 2 α Σ = ds d.cosθ d.sin 2 α d, où α Σ et α d sont les demi angles sous lesquels les pupilles d'entrée et de sortie sont respectivement vues par dσ et ds d. Vu que dω 2π.(1- cosα Σ ) π.sinα 2 Σ et dω d 2π.(1-cosα d ) π.sinα 2 d, on a "dω.dσ.cosθ = dω d.ds d.cosθ d " : un système optique conserve l'étendue géométrique. Vu que l'énergie est conservée (i.e., Φ c = Φ d ) la luminance L d incidente sur ds d est donc égale à la luminance L Σ issue de dσ. Avec une optique de pupille de sortie de focale f et de diamètre D : Φ d = π.d2.cos 4 θ d L Σ 4.f 2.dS d Pourquoi en haut de l'atmosphère, la Terre diffuse ( 14W/m 2 ) moins qu'elle émet 21W/m 2, alors que la luminance spectrale "visible" ( 50W/m 2 /sr/µm) est très supérieure à la luminance "infrarouge thermique" à 10µm ( 5W.m -2.sr -1.µm -1 ). La quantité lumineuse associée à la luminance énergétique est la luminance lumineuse (cd.m -2 ). L'œil distingue une large gamme de luminances : à cd.m -2 (limite d'éblouissement). La luminance d'un écran vidéo est en général cd.m -2. Les surfaces étudiées par le biais de mesures optiques sont souvent caractérisées par des quantités qui quantifient leur capacité à réfléchir (i.e., réflectance) et émettre (i.e., émissivité) le rayonnement selon l'espace 4π. En effet, une mesure ne peut directement caractériser un milieu. Ainsi, le rayonnement émis dépend à la fois de l'émissivité et de la température du milieu. D'autre part, le rayonnement réfléchi dépend à la fois de la réflectance du milieu et de son éclairement. Ainsi, une mesure de rayonnement réfléchi est doublée si l'éclairement est doublé. La réflectance ne dépend pas du rayonnement incident, car elle est définie comme le rapport d'une mesure par l'éclairement. Réflectance La réflectance (r ij, R ij ou r ij ) dépend de la configuration d'éclairement et de visée. Elle est dite hémisphérique si l'angle solide d'éclairement (indice i = h) et/ou de visée (indice j = h) couvre un hémisphère. C'est le cas d'un éclairement du à un ciel couvert. Elle est dite directionnelle si l'angle solide d'éclairement (indice i = d) et/ou de visée (indice i = d) est très petit. C'est le cas de l'éclairement solaire de la Terre en l'absence de diffusion atmosphérique. Plusieurs définitions classiques sont données ici.

70 PHYSIQUE DU RAYONNEMENT 70 - Facteur de réflectance : R ij = Direction d'éclairement 1 θ s Ω r L(Ω r ).cosθ r.dω r Ω r L ref (Ω r ).cosθ r.dω r θ v R dd(θ s,θ v ) Direction spéculaire Mesure : cible ( Mesure : référence ) Figure II.14: R dd (Ω) dans le plan d'incidence. Direction d'éclairement fixe, direction de diffusion variable et 2 types de surfaces: - surface lambertienne : R dd (Ω) = cste. Surface blanche (R dd = 1) et grise (R dd < 1). - surface naturelle : R dd (Ω) varie. Souvent maximal pour la direction spéculaire et maximum local pour la direction d'éclairement. R est l'efficacité de diffusion d'un milieu rapport à une surface de référence (blanche lambertienne) observée dans la même configuration. Il est très employé, car il est facile à mesurer : c'est le rapport de 2 mesures radiométriques, si la réponse du capteur est proportionnelle à l'énergie reçue. Référence blanche : M ref = E éclairement de la cible et de la référence Référence lambertienne : L ref (Ω r ) = cste R ij = Ω r L(Ω r ).cosθ r.dω r L ref. Ω r cosθ r.dω r Référence blanche et lambertienne : M ref = π.l ref = E L ref = E π = <L(Ω r)> cosθr, Ω r L ref R ij = π. <L(Ω r)> cosθr, Ω r E soit R = π.l(ω r) E si Ω r << π - Fonction de distribution de la réflectance bi-directionnelle : BRDF = R dd(ω i,ω r,λ) = r dd(ω i,ω r,λ) π cosθ i - Réflectance de Fresnel : r Fresnel (Ω i,ω r,λ) 2 = L(Ω i) L(Ω r ).δ(θ i-θ r ).δ(φ i -φ r +π) - Coefficient de rétrodiffusion (radar : Ω r = Ω i ) : σ o = γ.cosθ i = 4π.BRDF.cosθ i = 4 R dd.cosθ i Exprimez R dh, R hd et R hh en fonction de R dd Pour une surface purement spéculaire, donnez R dh, R hd et R hh en fonction de r Fresnel (Ω i,ω r,λ) 2 Donnez un exemple où le facteur de réflectance est supérieur à 1. - Albédo : A dh ou A hh = Emittance due à la réflexion Eclairement (d ou h) (Tableau II.1) Albédo planétaire: Nuage (stratus): - épaisseur < 200 m - épaisseur [ m] Neige : fraîche et sèche / vieille Sol: - sable blanc - sombre humide /sec Végétation: - culture (verte) - forêt Eau: zénith solaire 0 /30 /60 /70 /80 /85 />87 Matériau Albédo (%) 33 ( 36 pour le spectre visible) / ; croît du bleu rouge 5-6 / 5-15; croît du bleu rouge 5-15; pic dans le vert 5-10; pic dans le vert 2/ 2,2 / 6 / 13,4 / 35,8 / 60 / >90 Tableau II.1: Albédo de matériaux terrestres. Il est très variable.

71 PHYSIQUE DU RAYONNEMENT 71 R dd (Ω i,ω r,λ).µ r.e λ (Ω i ).µ i.dω r.dλ 2π L'albédo de notre planète est A dh (Ω i, λ) = 1 π. λ. E λ (Ω i ).µ i.dλ λ Il est régulièrement mesuré depuis l'espace avec λ [0,2 4 µm]. Si E λ varie peu sur l'intervalle λ, alors A dh est une "simple" réflectance "direct - hémisphérique" : A dh (Ω i, λ) 1 π. R dd (Ω i,ω r,λ).µ r. dω r.dλ R dh (Ω i,λ).dλ µ r = cosθ r 2π λ λ L r (Ω r ) - Coefficient de réflectance bidirectionnelle : r dd (Ω i,ω r,λ) = (sr -1 luminance ) ( ) L i (Ω i ).dω i éclairement E i Ω i r dd est l'efficacité d'un milieu éclairé selon (Ω i ) à diffuser selon (Ω r ). Ici, E i = L i (Ω i ).dω i L(Ω r ).cosθ r.dω r - Coefficient de réflectance direct-hémisphérique : r dh (Ω r,λ) = M λ 2π = + émittance ( ) E λ,i L(Ω i ).dω i éclairement E i Ω i r dh est l'efficacité d'un milieu éclairé selon (Ω i ) à diffuser selon toutes les directions montantes (demi hémisphère supérieur 2π + ). - Coefficient de réflectance hémisphérique-direct : r hd (Ω r,λ) = L λ,r E λ = L(Ω r ) ( luminance éclairement h ) 2πḺ(Ω i).cosθ i.dω i r hd indique l'efficacité de la diffusion d'une surface selon toute direction (Ω r ), dans le cas d'un éclairement selon toutes les directions descendantes (demi hémisphère 2π - ). L(Ω r ).cosθ r.dω r - Coefficient de réflectance bi-hémisphérique : r hh (λ) = M λ 2π = + émittance ( E λ 2πḺ(Ω éclairement h ) i).cosθ i.dω i r hh est l'efficacité d'une surface à diffuser dans le demi hémisphère supérieur (2π + ), lors d'un éclairement incident descendant selon le demi hémisphère supérieur (2π - ). Surface quelconque Coefficient de réflectance r Facteur de réflectance R r dd (Ω i,ω r ) = L(Ω r) E i (sr -1 ) R dd (Ω i,ω r ) = L(Ω r) L ref = π.l(ω r) E i.cosθ i = π. r dd(ω i,ω r ) cosθ i r dh (Ω i ) = L r (Ω r ).cosθ r.dω r 2π E i R dh (Ω i ) = L(Ω r ).cosθ r.dω r 2π E i.cosθ i = R dd (Ω i,ω r ).cosθ r.dω r = r dh(ω i ) cosθ i 2π Surface lambertienne r lamb dd (Ω i,ω r ) = L r E i = cste (sr -1 ) r lamb (Ω dh i) = π.l r = π.r lamb E i dd R lamb (Ω dd i,ω r ) = π.l(ω r) = π. r lamb dd = cste E i.cosθ i cosθ i R lamb (Ω h i) = R lamb (Ω dd i,ω r ) = π. r lamb dd = cste cosθ i Tableau II.2: Exemple de relations entre coefficients et facteurs de réflectance. Eclairement de la surface : E i.cosθ i, où θ i = angle(normale, direction d'éclairement). Transmittance : T(λ) = énergie transmise énergie interceptée La transmittance d'un milieu plan est "direct - direct" si le rayonnement incident est direct ( Ω i 0) et si l'on considère une seule direction de transmission ( Ω r 0) :

72 PHYSIQUE DU RAYONNEMENT 72 T dd (λ,ω i,ω t ) = L λt(ω t ) L λi (Ω i ). Elle est "direct - hémisphérique" T M λt (Ω t ) dh(λ,ω i,ω t ) = E λi (Ω i ).cosθ i "hémisphérique - hémisphérique" T hh (λ) = M λt E λ ou s'il est considéré le flux M λt transmis selon l'ensemble du demi hémisphère "avant". Elle est simplement dite directe si les directions des flux incidents et transmis sont identiques : T d (λ,ω) = L λt(ω) L λi (Ω). Absorptance : A(λ) = énergie absorbée énergie interceptée A(λ) est le rapport de l'énergie absorbée par l'énergie interceptée. Il est directionnel, car l'énergie incidente peut être directe ou hémisphérique. Avec un éclairement direct : A d (λ) = 1 - T dh (λ) - R dh (λ). Avec un éclairement isotrope : A h (λ) = 1 - T h (λ) - R hh (λ). énergie spectrale émise selon (Ω, Ω) par un corps de température T Emissivité : ε(ω, Ω,λ) = énergie spectrale émise selon (Ω, Ω) par corps noir de température T ε est l'efficacité du corps à rayonner versus le corps noir. Elle est directionnelle (ε d (Ω,λ)) ou hémisphérique (ε h (λ)) selon que Ω est très petit ou égal à 2π. Avec un corps noir de luminance L B (Ω) et d'exitance M B (Ω) = π.l B (Ω), on a : ε d (Ω,λ) = L(Ω,λ) L B (Ω,λ) et ε h(λ) = M(λ) M B (λ) Pour un milieu à l'équilibre thermodynamique avec son rayonnement, la loi de Kirchoff donne : ε d (Ω,λ) = A d (Ω,λ) et ε h (λ) = A h (λ) (Ω,λ) Pour un milieu opaque (i.e., T h = T d = 0), la conservation de l'énergie radiative implique: λ: A h (λ) = 1 - R hh (λ) et A d (Ω,λ) = 1 - R dh (Ω,λ) (Ω,λ) Par suite : ε h (λ) = 1 - R hh (λ) et ε d (λ) = 1 - R dh (λ) où R dh (λ) = R hd (λ) Ces relations sont cohérentes avec le fait qu'un corps noir a une réflectance et une transmittance nulles, avec une absorptance (A) et une émissivité (ε) égales à 1. λ (µm) θ=0 θ=60 Tableau II.3 : Emissivité de l'eau 10,5 0,9916 0,9833 θ = Angle (Ω v,ω n ) où Ω n est la 3,8 0,9752 0,9608 direction de la normale à la surface. Métaux : ε est faible (quelques % fort ρ). Il augmente avec T et croit beaucoup en présence de couches superficielles d'oxyde. Non métaux : en général ε est supérieur à 0.8 et décroît avec T. Neige : ρ(visible) élevé ε(visible) faible. Cependant : T=0 C émission centrée à 10.5 µm, principalement entre 3 et 70µm, zone où l'émissivité de la neige est élevée. Matériau Emissivité Matériau Emissivité Métaux Verre 0.94 Neige (comprimée) Sol humide Glace (glacier) 0.85 Sable Dunite Basalte, rugueux Obsidienne Asphalte Feldspath Feuille sèche 0.96 Sol sec sableux Route bitumée 0.97 Granit rugueux Neige Bois 0.9 Eau + film de pétrole 0.972

73 PHYSIQUE DU RAYONNEMENT 73 Granit rugueux 0.9 Glace 0.98 Grès siliceux poli Peau (humaine) 0.98 Plâtre 0.91 Tourbe 0.98 Sable/quartz, gros grain Herbe verte Béton Feuille humide 0.99 Sol sec argileux 0.92 Eau pure Brique 0.93 Tableau II.4 : Emissivité moyenne, entre 8 et 12µm, de quelques matériaux Propagation du rayonnement dans un milieu Une onde qui se propage dans un milieu est partiellement interceptée par celui-ci, ce qui diminue son amplitude. Ainsi, pour une propagation selon l'axe Ox l'on a : _ D - = D - i.(k.x _ - ω.t) o.e soit en notation réelles D = D o (x,t).cos(ω.t-k.x+φ) où : D o (x,t)=d o (0,0).e - _ (k ).x _ : amplitude de l'onde au lieu x et à l'instant t. ω : fréquence angulaire ou pulsation, avec ω=2πν. La période est T=2π/ω. k : nombre d'onde. (k)= 2π λ. λ=λ o. Le terme complexe n (k) indique l'absorption du milieu. La profondeur de pénétration est la distance à laquelle l'amplitude de D décroît de e -1 : δ Ap = La profondeur de pénétration définie pour la puissance est : δ p = δ Ap /2. L'absorption, et donc l'atténuation, d'un rayonnement dépendent de sa longueur d'onde et du milieu de propagation. Ces phénomènes sont souvent représentés par un coefficient d'extinction α e,λ égal à une densité volumique de section efficace : dl(ω)=-α e,λ (Ω).L(Ω), pour la direction de propagation (Ω). L'intégration de α e,λ le long d'un trajet r(ω), i.e. épaisseur optique τ λ (Ω), donne la capacité du milieu à atténuer / intercepter un rayonnement le long de r(ω). La transmittance directionnelle L λ (r,ω) est L λ (r+ r,ω) = e- τλ(ω), i.e. loi d'atténuation de Beer-Lambert. τ λ (Ω) = α e,λ (Ω).dr(Ω). r(ω) 1 (k) B E P r o f o n d e u r d e p é n é t r a t i o n ( m ) D A C Figure II.15 : Profondeur de pénétration (m). Eau de mer (A), sol humide (B), eau douce (C), sol très sec (D) et glace (E) pour des fréquences de 10 9 MHz (0.3µm) à 10-2 MHz (10km). M H z II.3 DISTRIBUTION SPECTRALE DE LA REFLEXION Les empreintes laissées par les surfaces réfléchissantes dans le rayonnement réfléchi ne peuvent être mesurées que si les propriétés optiques types de ces surfaces sont connues. Les réflectances spectrales types de l'eau, des sols et de la végétation dans le visible et proche infrarouge sont indiquées ici. (i) le coefficient de réflexion de l'eau est localement décroît en général du bleu (<10-15%. Il est d'autant plus fort que l'eau est turbide) au proche infrarouge où il est toujours presque nul. (ii) le coefficient de réflexion des sols croit régulièrement du bleu ( 5-15%) au proche infrarouge ( 25-40%). Il peut être très fort pour des sols calcaires (blancs), et faible pour des sols foncés.

74 PHYSIQUE DU RAYONNEMENT 74 (iii) le coefficient de réflexion de la végétation est faible dans le visible ( 15% pour le vert et 10% pour le rouge et le bleu), et beaucoup plus fort dans le proche infrarouge (jusqu'à 50%). Le maximum local de la réflectance dans le vert explique la couleur verte de la végétation. N O A A R éflectance A V H R R 1 A V H R R L andsat T M 0.4 SP O T X S S ol clair S ol foncé 0.1 V égétation 0 E au nm Figure II.16 : Luminances en haut de l'atmosphère. Couvert végétal, eau et sols clair / foncé. Bandes spectrales des capteurs spatiaux SPOT HRV, Landsat TM et NOAA AVHRR : - SPOT HRV. Mode XS (20m) : µm, µm, µm. Mode P (10m) : µm. - Landsat TM : µm, µm, µm, µm, µm, µm, µm. - NOAA AVHRR : µm, µm, µm, µm, µm. En fait, l'atmosphère affecte beaucoup les mesures L(λ) des surfaces terrestres (Figure II.17). Luminance (W/m 2 /µm/sr) Eau NOAA Sol clair Sol foncé AVHRR Végétation AVHRR2 O 3 H 2O O 2 H 2O H 2O Landsat TM SPOT XS nm Figure II.17 : Luminances en haut de l'atmosphère du couvert végétal, eau et sols clair/foncé de la Figure II.16. Les bandes d'absorption gazeuse sont indiquées. Pour une atmosphère claire, la constante solaire 1500W.m -2.µm -1 à 500nm et 1000W.m -2.µm -1 à 700nm. Par suite : éclairement solaire 750W.m -2.µm -1 à 500nm et 500W.m -2.µm -1 à 700nm si le zénith solaire vaut 60. Dans ce cas, la réflectance du sol clair est 15% à 500nm et 30% à 700nm. La variation spectrale de la luminance L(λ) est semblable à celle de la réflectance ρ(λ). Ainsi, de 400nm à 700nm, L(λ) augmente régulièrement pour les sols, alors que pour la végétation L(λ) varie de manière non monotone avec de très faibles valeurs dans le visible et de fortes valeurs dans le proche infrarouge. La variabilité spectrale de l'émission solaire et les bandes d'absorption des gaz atmosphériques (O 2, O 3, H 2 O) expliquent à la fois certaines similitudes entre les luminances d'éléments différents et certaines différences entre la luminance et la réflectance d'un même élément. Ainsi, la luminance des sols décroît au-delà de 800nm, contrairement à l'augmentation monotone de leur réflectance, du fait de la forte diminution de l'éclairement solaire à ces longueurs d'onde. Les différences relatives entre les réflectances spectrales des milieux terrestres sont souvent utilisées pour discriminer et reconnaître les catégories principales de ces milieux. L'image multispectrale SPOT (Figure II.18) illustre cette possibilité. Elle comprend 3 images mono-canal acquises dans les domaines spectraux du vert (image XS1), du rouge (image XS2) et du proche infrarouge (image XS3). Elle représente une partie de l'île de Cook (Pacifique). Celle-ci est recouverte de végétation et est située dans un lagon borné par une barrière de corail (écume), lui-même entouré par l'océan. Les teintes de gris indiquent des niveaux de réflectance apparente. Les différences de réflectance apparente dans ou entre les images permettent de discriminer les milieux présents.

75 PHYSIQUE DU RAYONNEMENT 75 - océan : teintes sombres dans les 3 images, surtout XS3, dues à la faible réflectance de l'eau. - écume : sa forte réflectance spectrale explique sa teinte claire dans les 3 images. - lagon : sa teinte claire dans l'image XS2 est due à la réflectance du fond du lagon. En effet, l'eau est relativement transparente dans ce domaine spectral et la profondeur du lagon est faible. - végétation : sa forte réflectance infrarouge explique sa teinte claire dans l'image XS3. Inversement, sa faible réflectance visible explique sa teinte sombre dans les images XS1 et XS2. a.) b.) Océan Ile (végétation) Lagon Ecume c.) d) Figure II.18: Image SPOT d'un îlot du Pacifique. a) XS1, b) XS2, c) XS3.d) Composition colorée avec XS1, XS2 et XS3. Figure II.19: Ile Aitutaki (île de Cook) du Pacifique. Carte, photographie aérienne et image Ikonos.

76 PHYSIQUE DU RAYONNEMENT 76 II.4 EMISSION THERMIQUE Tout milieu ou surface émet un rayonnement, ce qui permet d'obtenir des images avec des capteurs sensibles aux fréquences d'émission. Ce rayonnement est souvent appelé rayonnement thermique, car il est une fonction de la température du milieu et de la fréquence ν d'émission. Il ne dépend pas de la direction Ω d'émission (i.e. corps Lambertien). La loi de Planck donne la luminance thermique : 2.h.ν 3 L ν (T) = hν c 2.(ekT -1) (W.m -2.sr -1.Hz -1 ) L λ (T) = dl(t) dλ = δl(t) δν.δν δλ = L λ(t) = 2.h.c 2 hc λ 5.(eλkT-1) La densité d'énergie radiative est : u(t) = 4π c. L B(λ).dλ L B(λ).dλ = A.c 4π.T4 car u(t)=a.t 4. Emittance M = M(λ).dλ sachant que pour une surface lambertienne M(λ) = π.l λ (Ω). Corps noir : M(λ) = π.l B (λ,ω) = π.l B (λ) et M = M(λ).dλ = π. L B(λ).dλ M = 2π5.k 4 15c 2.h 3.T 4 = σ.t 4 avec σ = W.m -2.K -4 et k = J.K -1 λ=λ m = a T (a=2898 µm.k) M(λ) maximal. M(λ m)=bt 5 avec b = W.m -3.K L u m in a n c e (W.m -2.s r -1.H z -1 ) P e n te : 2.k.ν 2 c 2 ( h ν < < k T ) 1 0 K K K K K K Figure II.20 Luminance de corps noirs. Différentes températures. Représentation logarithmique de L ν (T). Echelle en W.m -2.sr -1.Hz K H z c m Remarques : * T(Terre) 300K maximum à 9.66 µm. * T(Soleil) 6000K maximum à 0.48 µm. Au niveau de la surface terrestre la constante solaire est égale à la luminance d'un corps noir (T B 6000K) multipliée par l'angle solide d'observation du soleil, i.e. π.r 2 s /D 2 ST où D ST est la distance "Soleil - Terre" et R s est le rayon solaire. L'albédo terrestre étant de l'ordre de 10% la luminance solaire réfléchie par les surfaces terrestres est négligeable devant l'émission thermique terrestre dans la bande [10µm 15µm] de l'infrarouge thermique, alors que l'émission thermique terrestre est négligeable devant l'énergie solaire réfléchie aux longueurs d'onde inférieures à 2500nm (UV, visible, proche infrarouge). Loi de Rayleigh Jeans La loi de Rayleigh-Jeans est une simplification de la loi de Planck pour les basses fréquences telles que hν<<k.t ; e.g. dans le domaine des micro-ondes (λ>1cm ; ν<300ghz), avec T<300K. L'énergie émise dépend linéairement de la température du corps. Loi de Wien L ν (T) = 2k. T λ 2 et L λ (T) = 2.c.k. T λ 4 Aux grandes fréquences (i.e. hν>>kt) : L ν (T) = 2h.ν3 c 2.exp[-h.ν k.t ] et L λ(t) = 2h.c2.exp[- h.ν k.t ] λ 5

77 III LA TELEDETECTION III.1 PRESENTATION L'observation spatiale et aéroportée des surfaces planétaires et de leurs atmosphères est souvent appelée "télédétection". En fait, ce terme recouvre souvent l'ensemble des connaissances et techniques utilisées pour l'observation de notre environnement, et pour l'analyse, l'interprétation et la gestion des informations ainsi obtenues. Dans de nombreux cas, l'objectif de la télédétection est de déterminer des caractéristiques physiques et biologiques d'objets par des mesures effectuées à distance, sans contact matériel avec ceux-ci. La télédétection dont il est question ici se rapporte à la mesure du rayonnement électromagnétique émis ou réfléchi par les objets observés. La mesure est donc de type radiométrique. Elle peut être ponctuelle ou spatiale sous forme d'image. De plus, elle peut être analogique ou numérique. Un avantage majeur des données spatiales est d'autoriser une analyse à la fois synoptique, spectrale et répétitive. De plus, ces données peuvent être acquises avec une très bonne résolution spatiale et une bonne géométrie. Leurs domaines d'application sont variés et nombreux : foresterie, cartographie, météorologie, pêche, environnement, etc. Télédétection Rayonnement solaire Réflexion Bilan radiatif "Terre - atmosphère" Emission Figure III.1 : Bilan radiatif et observation satellitaire du système "Terre - atmosphère". Au début du 20 ème siècle cette discipline était exclusivement basée sur la photographie aérienne. Les progrès technologiques font qu'elle est de plus en plus utilisée pour remplacer ou compléter des méthodes traditionnelles de recueil de l'information et de surveillance qui sont désormais trop coûteuses et longues à mettre en oeuvre. Elle repose sur les développements les plus récents de plusieurs domaines (physique, informatique, etc.). Selon le type d'application elle s'appuie sur des disciplines comme l'écologie, la biologie végétale, la foresterie, la cartographie,... Plusieurs termes souvent utilisés en télédétection sont tout d'abord précisés. Capteur : appareillage (appareil photographique, détecteur unique + miroir oscillant ou barrette de détecteurs couplée à une électronique de mesure, etc.) qui recueille et mesure le rayonnement incident provenant de tout ou partie de la surface observée, puis le transforme en un signal, souvent électrique enregistré sous forme de compte numérique. Le type et les caractéristiques (résolution spectrale, radiométrique, angulaire, etc.) du capteur utilisé dépendent de l'application envisagée. Ligne image Détecteur unique Ligne image Barrette de détecteurs Rayons parallèles Signal Miroir oscillant Signal Surface Surface Figure III.2 : Deux technologies de capteurs satellite. Scanner (gauche) et "push broom" (droite).

78 TELEDETECTION 78 Vecteur : véhicule aérien ou spatial sur lequel est embarqué le capteur. Les conditions expérimentales de prise de vue, et donc l'attitude de vol du vecteur, sont des paramètres essentiels pour corriger les mesures dans le but d'assurer une interprétation correcte. Selon le domaine d'application, et donc selon le type de capteur embarqué, un satellite est dit météorologique (NOAA, Météosat, GOES, GMS), océanographique (ERS, JERS) ou d'observation de la Terre (SPOT, Landsat, MOS). Un satellite peut embarquer plusieurs capteurs. Il est dit héliosynchrone si ses orbites passent toujours à la même heure solaire au dessus d'un même lieu (i.e. condition d'ensoleillement constante). Il est dit géostationnaire si sa position relative à la Terre est constante. Image : représentation plane, numérique ou analogique, de mesures structurées acquises par un capteur. C'est un tableau de points en général distribués régulièrement sur une grille 2-D. Une image peut correspondre à un volume 3-D (e.g. image tomographique) ou à la combinaison d'images 2-D (e.g. image multi-canal de télédétection). Dans une image numérique 2-D tout point de coordonnées (x,y) a une valeur, souvent appelée intensité ou compte numérique, codée sur 8 bits ou plus. L'image est le concept de base de la télédétection. Pixel (de l'américain "picture element") : plus petite surface homogène constitutive d'une image enregistrée. Ses dimensions sont définies par la résolution du capteur combinée à la taille de la maille d'échantillonnage. La valeur du pixel résulte d'une intégration à la fois spatiale et spectrale. Source : objet/système à l'origine du rayonnement mesuré par le capteur après avoir interagi avec la cible observée. Selon que la source est naturelle ou artificielle le capteur est dit passif ou actif. Télédétection passive (visible, infrarouge) Le soleil est la source. Le capteur mesure le rayonnement solaire, en général visible et/ou infrarouge, réfléchi par la cible observée. Le capteur est appelé scanner s'il est pourvu d'un système de balayage qui, combiné au déplacement du vecteur, lui permet de former des images ; un capteur de type push broom ne nécessite pas de système de balayage pour former des images. Cible Réflexion Capteur Télédétection passive (infrarouge et micro-onde) La cible observée est la source. Le capteur mesure l'émission thermique de cibles terrestres et marines et de l'atmosphère. Les capteurs sont appelés radiomètres infrarouge s'ils opèrent dans l'infrarouge thermique (émission terrestre maximum) et radiomètres hyperfréquence s'ils opèrent dans le domaine des micro-ondes. Cible Emission Capteur Télédétection active (surtout hyperfréquences) Le capteur et la source des rayonnements mesurés sont tous deux à bord du vecteur ; la source est donc artificielle. Le capteur (antenne radar, système laser) mesure le rayonnement (visible, infrarouge et surtout hyperfréquence) rétrodiffusé (réflexion) par la cible. Cible Source + Capteur Rétrodiffusion Figure III.3 : Les 3 modes majeurs d'acquisition en télédétection. Ils correspondent à la mesure d'énergie électromagnétique réfléchie/diffusée ou émise par les surfaces/objets observés. Les capteurs satellite qui fonctionnent dans le visible et le proche infrarouge ne peuvent opérer que de jour. De plus, leurs images sont très perturbées par l'atmosphère. Les systèmes hyperfréquences n'ont pas cette contrainte. Ce sont des capteurs "tout temps" qui peuvent opérer de jour et de nuit. De plus, il est possible de régler/modifier les caractéristiques (fréquence, polarisation,...) de l'onde émise.

79 TELEDETECTION 79 III.2 PRINCIPAUX OBJECTIFS DE LA TELEDETECTION De par sa capacité d'observation synoptique et répétitive à différents niveaux de qualité géométrique et spectrale, la télédétection est très utile pour la reconnaissance, cartographie et caractérisation spatiale ou fonctionnelle à une date donnée ou dans le temps de surfaces/objets de notre environnement. Quelques domaines d'application sont indiqués ci-dessous. - Cartographie : les images satellitaires qui ont un très faible rapport "taille de l'image" vs. "distance satellite - Terre" ont de très bonnes caractéristiques géométriques, ce qui justifie leur utilisation pour l'établissement de documents cartographiques à moyenne et petite échelle. Elles sont parfois directement utilisées comme document cartographique de base. - Thématique : les images spatiales sont utilisées pour (1) reconnaître et caractériser les éléments du paysage, et (2) établir des documents thématiques, sous forme statistique ou cartographique pour la foresterie, l'urbanisme, l'agriculture (e.g., carte d'occupation des sols : carte de la distribution spatiale des éléments du paysage), la pêche (e.g., cartes de températures des surfaces terrestres), la géologie, l'hydrologie, la surveillance des catastrophes naturelles, etc. - Climatologie et changements globaux : les satellites dits météorologiques, par opposition aux satellites dits à haute résolution, constituent la principale source d'information pour les études globales telles que le suivi de la nébulosité, la caractérisation des différents constituants de l'atmosphère, la cartographie des températures marines, les échanges biosphère - atmosphère, etc. Ils sont caractérisés par un grand champ de vue, une faible résolution spatiale de l'ordre du kilomètre et plus, et une relativement importante fréquence temporelle. L'amélioration des caractéristiques radiométriques, spatiales, spectrales et temporelles des capteurs conduit à des systèmes d'observation de mieux en mieux adaptés aux activités scientifiques et applications actuellement poursuivies. Ces progrès devraient rendre opérationnels de nombreux domaines d'application (e.g., prévision des récoltes, mesure des champs de vent océanographiques) et scientifiques du type "surveillance de notre environnement" (e.g. la mesure des échanges en énergie et matière "biosphère - atmosphère" et "océan - atmosphère"). L(λ) (λ i, λ i ) R(λ) Figure III.4 : Problématique simplifiée de la Télédétection Toute surface est caractérisée par une réflectance spectrale R(λ) qui dépend de sa nature et de sa géométrie. Un capteur à N bandes spectrales λ n (ici, N=3) donne N mesures spectrales L(λ). Leur division par l'éclairement solaire spectral associé donne N réflectances moyennes. Un objectif est de déterminer les propriétés de la surface à partir de ces N valeurs discrètes. λ Un intérêt majeur des images de télédétection spatiale est de fournir des images avec très peu de déformations géométriques. Ainsi, la Figure III.5 illustre la déformation qui apparaît dans une photographie aérienne lors de l'observation d'un ensemble de parallélépipèdes parallèles. Les parallélépipèdes situés sur les bords de l'image sont agrandis. La même zone, vue de l'espace, ne présente pas cette déformation, ou du moins beaucoup moins, car l'ensemble de la surface est observée avec quasiment la même direction d'observation.

80 TELEDETECTION 80 Avion Satellite (directions d'observation quasi parallèles) Figure III.5 : Acquisition d'image instantanée (avion) et échelonnée dans le temps (satellite). Les bords de la photographie aérienne sont très déformés que ceux de l'image satellite. Codage Durant le temps d'acquisition tout détecteur mesure la somme de l'énergie électromagnétique issue d'une surface au sol correspondant à un pixel. Cette mesure se traduit par une intensité électrique, c'est à dire un signal analogique. Elle est transmise sous forme codée compte tenu (1) de contraintes concernant le volume de données, et (2) de la difficulté de corriger les perturbations pouvant altérer la transmission d'un signal analogique. Le nombre de bits de codage varie en général de 7 à 12 selon la sensibilité des capteurs et la dynamique des valeurs à mesurer. Les valeurs numériques d'une image satellite ne peuvent être directement exprimées en luminance (W.m -2.sr -1 ) compte tenu de la sensibilité des détecteurs et du codage effectué pour la transmission. Ce sont des comptes numériques de la luminance du canal spectral concerné. L'emploi de coefficients d'étalonnage permet de les transformer en luminance. L'impact de l'atmosphère explique que cette luminance n'est pas vraiment la luminance réfléchie ou émise par les surfaces terrestres. L'atmosphère s'avère souvent être une source de bruit importante pour l'étude des surfaces terrestres. Transmission Afin de réduire l'impact du bruit du à la transmission de l'information entre les satellites et les stations de réception, et donc améliorer le rapport signal/bruit, un bit de contrôle, appelé bit de parité, est souvent ajouté à chaque donnée transmise. Ce bit indique si le nombre de bits à 1 de la donnée est pair (bit de parité = 1) ou impair (bit de parité = 0). A la réception, ce bit de parité permet de vérifier que le nombre de bits à 1 est correct. En vue d'une correction ultérieure des données il est aussi transmis des informations concernant l'étalonnage des capteurs, l'heure interne du satellite, etc. Réception et stockage Les images, de même que les données annexes telles que la date d'acquisition de l'image, sont stockées. Elles sont fournies aux utilisateurs sur divers supports : CD Rom, papier photographique, etc. Les données relatives à chaque canal peuvent être entrelacées (format BIL : Band Interlaced), placées les unes à la suite des autres (BSQ : Band Sequential), etc. Prétraitements Les données satellites sont transmises aux stations de réception qui les archivent et effectuent des traitements, souvent appelés prétraitements, avant de les rendre disponibles à l'utilisateur. * Corrections radiométriques à partir des propriétés des détecteurs, de l'optique, etc. * Corrections géométriques à partir : (i) conditions de prise de vue, angle de visée, mouvement relatif du satellite et de la terre, etc. Ces conditions de prise de vue sont soit déterminées directement par un système de localisation du satellite, soit calculées à l'aide d'un modèle de navigation du satellite. (ii) points de contrôle, aussi appelés points amers, dont la position géographique est connue. (iii) modèle de transformation de grille ; c'est à dire un modèle de transformation géométrique qui rend superposables une grille géographique de référence et la grille géographique d'acquisition déterminée à l'aide des conditions de prise de vue. D'autres prétraitements du type "correction" atmosphérique peuvent aussi être réalisés si l'on dispose d'information fiable quant aux caractéristiques atmosphériques lors de l'acquisition des données.

81 TELEDETECTION 81 III.3 LE SYSTEME SPOT III.3.1 Le programme SPOT ( En 1978, le gouvernement français décide de réaliser un programme d observation de la Terre, SPOT. Il en confie la conception au CNES (Centre National d Études Spatiales) qui développera ce programme en coopération avec la Belgique et la Suède. Le système d observation comprend une série de satellites et des infrastructures terrestres assurant leur contrôle en orbite, leur programmation et la production d images. Les satellites SPOT sont construits par la société Astrium et opérés par le CNES (Centre National d'etudes Spatiales). Les produits SPOT sont exploités par la société SPOT Image, une entreprise Toulousaine à capital privé détenue en partie par des partenaires français, suédois, belges et italiens. Les images SPOT apportent une information actualisée, exhaustive et objective pour la gestion de notre planète (e.g., agriculture, foresterie, géologie, cartographie, aménagement du territoire, etc.). Le premier satellite, SPOT 1, a été mis en orbite par un lanceur Ariane en février 1986, suivi de SPOT 2 en janvier 1990, SPOT 3 en septembre 1993, SPOT 4 en mars 1998 et SPOT 5 le 4 mai La relève devrait être assurée par une constellation de petits satellites, Pléïades-Cosmos, dotés d'instruments spécifiques et communiquant entre eux par laser, en collaboration avec les Italiens. Le choix d une orbite héliosynchrone, quasi-polaire, à 830 km de la Terre assure une synchronisation avec le Soleil : les satellites survolent un même point terrestre toujours à la même heure solaire locale, soit 10h30 solaire locale au-dessus de l'équateur. Ceci a pour but d'assurer des conditions d'éclairement constantes lors de l'acquisition des images. En fait, l'inclinaison du plan équatorial terrestre autour du plan de l'écliptique fait que cet angle d'illumination varie un peu autour de l'année. Avec une orbite dont l'inclinaison est 98.77, SPOT effectue un peu plus de 14 révolutions par tranche de 24 heures, soit le tour de la Terre en 101.4', à la vitesse au sol de 6.6km/s, soit 24000km/h. Il repasse à la verticale d un même point après 369 révolutions, soit tous les 26 jours. En plus des instruments d'observation, la charge utile des satellites comprend un enregistreur d'images (mémoire électronique de 90 Gbits pour SPOT 5 : 550 images / jour avec un taux de compression de 2,6) et un système de télémesure (bande X à 8253MHz) spécifique à la mission de 2x50Mbits/s. Au cours de ses orbites successives le satellite effectue des mesures qu'il peut retransmettre directement aux stations de réception au sol qui se trouvent dans le domaine de visibilité, ou qu'il peut stocker en vue d'un télé-déchargement ultérieur au-dessus d'une des stations principales (Toulouse/Aussaguel ou Kiruna/Suède). III.3.2 Les images SPOT Les satellites SPOT (Figure III.6) emportent des instruments de prise de vue qui diffèrent selon le satellite. Ainsi, les satellites SPOT 1, 2 et 3 embarquent 2 capteurs HRV (Haute Résolution Visible) à barrettes de détecteurs ("pushbroom") qui opèrent dans le visible et le proche infrarouge (Tableau III.1). Le miroir plan de chaque instrument HRV est orientable par télécommande. L'axe de visée peut ainsi être décalé dans un plan perpendiculaire à l'orbite de plus 27 à -27 autour de la position verticale. Le décalage de 0 à 27 s'effectue en 45 pas de 0.6, ce qui nécessite 45". Pendant ce temps, le satellite se déplace d'environ 100km et il ne peut y avoir d'acquisition. L'orientation du miroir d'entrée permet d'observer des régions situées jusqu'à 850km de part et d'autre de la trace du satellite. La largeur de l'image passe de 60km à la verticale jusqu'à 80km. De plus, l'angle d'incidence maximal sur une surface horizontale au sol atteint 33 du fait de la rotondité de la Terre. Le ré-échantillonnage effectué sur les images non acquises à la verticale explique que le nombre de colonnes d'une image SPOT 1, 2 ou 3 varie de 3000 à 5200 pour une image XS et de 6000 à pour une image Pa. Mode Multispectral (XS) Mode Panchromatique (Pa) Résolution 20 m Résolution 10 m Fauchée 60 km Fauchée 60 km Bandes 0.50µm µm 0.61µm µm Bande 0.51µm µm 0.79µm µm Tableau III.1 : Instruments de prise de vue des satellites SPOT 1, 2 et 3.

82 TELEDETECTION 82 Miroir orientable (télécommande) Détecteurs HRV1 HRV2 Panneau solaire (15.6m) Plateforme (2x2x3.5m. 1750kg) Visée verticale Visée oblique Figure III.6 : Capteur SPOT. L'instrument qui projette l'image focalisée et filtrée sur les détecteurs a un champ de 4 13 (60km au sol) pour une visée à la verticale. Les capteurs HRV sont constitués d'un système optique, de filtres et de 4 barrettes monoblocs de 1728 détecteurs, ce qui permet d'obtenir 6000 détecteurs alignés. Les détecteurs sont du type CCD (Charge Coupled Device) ; leur dimension est 13µm x 13µm. Les 2 HRV sont identiques et ont un champ de Ces capteurs peuvent opérer selon 2 modes spectraux : (i) Acquisition mono-canal, dite panchromatique (P) De manière schématique, elle est réalisée par le déplacement, le long de la trace du satellite, de 6000 détecteurs alignés qui mesurent dans la bande spectrale [0,51µm 0,73µm]. Il n'y a pas de balayage mécanique. Les 6000 mesures simultanées des détecteurs donnent une "ligne de l'image". Compte tenu de l'altitude du satellite, chaque détecteur est directement associé à un pixel de 10m. Toute "ligne - image" représente donc une distance au sol de 60km. Le temps écoulé entre la saisie d'information de 2 lignes successives, espacées de 10m, est 1,504ms. Les pixels sont codés sur 6bits avec le système DPGM qui est un mode de compression permettant de conserver 256 niveaux. Le débit d'information est de 245Mbits par seconde. (ii) Acquisition multispectrale (XS) Le principe d'acquisition est semblable au précédent. Un système de dispersion du rayonnement incident permet de décomposer ce dernier selon trois composantes : - XS1 [0,50µm 0,59µm] : jaune - vert, - XS2 [0,615µm 0,68µm] : rouge, - XS3 [0,79µm 0,89µm] : proche infrarouge, - XS4 [1,58µm 1,75µm] : moyen infrarouge (seulement sur le HRVIR de SPOT 4). Le groupement par 2 des pixels consécutifs d'une même ligne et de 2 lignes consécutives donne des pixels de 20m de résolution, soit 3000 pixels pour chaque ligne image. En fait, il faut un ensemble de 3000 détecteurs pour chaque bande spectrale. Tout pixel est donc codé sur 3 fois 8 bits. Le débit d'information est 25Mbits par seconde. Le temps entre la saisie de 2 lignes "image" est 3.008ms. Quand les deux instruments HRV opèrent en mode vertical le système observe une bande de 117km de large avec un recouvrement de 3km. La répétition de cette bande d'observation au cours des orbites successives permet d'obtenir une couverture complète de la Terre tous les 26 jours.

83 TELEDETECTION km 117km 80km 950km 80km 60km 60km Figure III.7 : Configurations géométriques d'acquisition des images SPOT. Différents jours d'acquisition d'une même zone Figure III.8 : Fréquence des acquisitions et vision stéréoscopique. La période d'observation "verticale" d'une même région est 26 jours. La possibilité d'effectuer des visées obliques en orientant le miroir d'entrée améliore cette fréquence : jusqu'à 7 observations tous les 26 jours pour une zone à l'équateur, et 11 observations à 45 de latitude. Cette meilleure fréquence de visée diminue les problèmes dus au couvert nuageux, et peut rendre possible le suivi temporel (e.g., agriculture). Trace au sol du satellite 2 images d'une même surface terrestre acquises selon 2 directions de visée constituent un couple stéréoscopique, ce qui est très utile pour l'étude du relief. 2 HRVIR Haute Résolution Visible Infrarouge Résolution 20 m Résolution 10 m Fauchée 60 km Fauchée 60 km Bandes 0.50µm µm 0.61µm µm Bandes 0.61µm µm 0.79µm µm 1.58µm µm VMI Vegetation Monitoring Instrument Résolution : 1 km Fauchée : 2000 km (110 ) Bandes : 0.43µm µm 0.50µm µm 0.61µm µm 0.79µm µm 1.58µm µm Tableau III.2 : Instruments de prise de vue du satellite SPOT 4. 2 instruments à haute résolution spatiale (HRVIR) et 1 instrument à basse résolution spatiale (VMI).

84 TELEDETECTION 84 Bande spectrale HRG VMI HRS PA 0,49-0,69 µm 2,5m* ou 5m - 10m B0 0,43-0,47 µm - 1 km - B1 0,49-0,61 µm 10m - - B2 0,61-0,68 µm 10m 1 km - B3 0,78-0,89 µm 10m 1 km - MIR 1,58-1,75 µm 20m 1 km - Champ de vue 60 km (±27 ) 2250 km 120 km Tableau III.3 : Instruments de prise de vue du satellite SPOT 5. 2 capteurs à très haute résolution spatiale (HRG), 1 capteur à basse résolution spatiale (VMI) et 2 capteurs à haute résolution spatiale (HRS) respectivement orientés à +20 et -20 le long de la trace du satellite pour créer des couples stéréoscopiques (Figure III.9). Le processus "supermode" donne des images panchromatiques à 2.5m de résolution à partir de 2 images panchromatiques simultanées à 5m de résolution et décalées en ligne et colonne de 2.5m. Satellite SPOT 1-4 SPOT 5 Instrument HRV/ HRVIR HRG HRS Bande spectrale PAN B1,B2,B3 MIR THR PN B1,B2,B3 MIR PAN Champ de vue 60 km 60 km 60 km 60 km 60 km 60 km 60 km 120 km Résolution 10 m 20 m 20 m 2,5 m 5 m 10 m 20 m 5m / 10m Précision absolue 350 m 350 m 350 m 50 m 50 m 50 m 50 m 20 m Précision géométrique 5 m 5 m 5 m < 3 m < 3 m < 3 m < 3 m < 3 m Tableau III.4 : Caractéristiques des systèmes SPOT 1 à SPOT 5. Figure III.9 : Instruments HRS de SPOT 5

85 TELEDETECTION 85 Figure III.10: Images SPOT à différentes résolution spatiale. a) Toulouse. b) Marseille (2.5m). Figure III.11 : Charge utile et plateforme de SPOT 5

86 TELEDETECTION 86 (Comptes numériques) (LUT) Images enregistrées M émoire vidéo Ecran Figure III.12 : Principaux composants d'un système de traitement d'images satellitaires. Actuellement, seuls les satellites SPOT 2 et 4 et 5 sont opérationnels. Le satellite SPOT 3 a été exploité du 28 mars 1994 au 14 novembre 1996, date à laquelle il a été déclaré perdu. Toute image numérique SPOT (fournie sur CD Rom) comprend un fichier BIL avec en-tête, accompagné de fichiers annexes qui contiennent des informations nécessaires pour assurer la lecture de l'image ainsi que d'éventuelles corrections (direction d'éclairement, de visée, etc.). Identificateur de scène Décalage selon la trace Angle de visée Angle d'incidence Angle solaire Gain Facteurs d'étalonnage Nombre de lignes et colonnes Coordonnées du centre Coordonnées des coins /07/10 10:41:07 2 X (No de satellite, indicateur de scène (K,J), Date et heure d'acquisition, No du HRV, Mode X ou P Azimut : Elévation : W.m -2.sr -1.µm Pixel ( ) : N48 28'17" E3 00'26" Pixel (125,1) : N48 47'24" - E2 37'50" Pixel (3561,1) : N48 15'52" - E3 32'57" Pixel (1,2992) : N48 15'52" - E2 27'21" Pixel (3437,2992) : N48 9'11" - E3 21'54" Tableau III.5 : Exemple de caractéristiques principales fournies avec une image SPOT XS Les images SPOT sont commercialisées avec plusieurs niveaux de traitement. Pour SPOT 1 et 2 : - Niveau 1A : niveau brut où seule une égalisation des détecteurs est réalisée dans chaque bande spectrale. Un coefficient de sensibilité relative entre les différents canaux est donné. - Niveau 1AP : produit spécifique pour utilisation sur stéréo-restituteurs analytiques. Il se distingue du niveau 1A par un sur échantillonnage à 8,75m (mode P) et 18,75m (mode XS). Une anamorphose est aussi effectuée pour compenser l'effet de l'angle de visée, et la texture est rehaussée par filtrage. - Niveau 1B : ce niveau standard comprend les corrections radiométriques et les corrections géométriques liées aux déformations systématiques introduites par le système (rotation de la Terre, effet panoramique, effet de filé, angle de visée). La précision de localisation absolue est 800m en visée verticale et la distorsion interne est de l'ordre de Niveau 2 : c'est le niveau 1B avec une correction géométrique améliorée à partir de données internes (données d'orbite restituée, géométrie de prise de vue, données auxiliaires de restitution d'attitude du satellite), un ré échantillonnage des pixels selon les axes X et Y d'un système cartographique choisi par le client, la possibilité de juxtaposer exactement 2 scènes consécutives de niveau 2. L'emploi de points d'appui (points amer) donne des données de niveau 2B. Autrement, le niveau est 1A. - Niveau S : scènes rectifiées pour pouvoir être superposées à une scène SPOT de référence. Le niveau est dit S1 si l'image de référence est de niveau 1B et S2 si l'image de référence est de niveau 2. De plus, il est possible de combiner des données SPOT P et SPOT XS d'une même scène.

87 IV VISUALISATION IV.1 Synthèse additive et soustractive de la couleur Il existe deux types de synthèse de couleur ( La synthèse additive Elle résulte de l'ajout de composantes de la lumière. C'est le cas pour les moniteurs ou les télévisions en couleur. Lorsque l'on ajoute trois composantes Rouge, Vert, Bleu (RVB) de même intensité, on obtient du blanc (gris). L'absence de composante donne du noir. Les couleurs secondaires sont : - le cyan : vert combiné au bleu, - le magenta : bleu combiné au rouge, - le jaune : vert combiné au rouge. La synthèse soustractive Elle restitue les couleurs par soustraction (e.g., réflexion / absorption) d'une lumière blanche. Les 3 couleurs primaires sont le jaune, le magenta et le cyan. Leur ajout donne du noir et leur absence produit du blanc. Ce procédé est utilisé en photographie et pour l'impression des couleurs. Les couleurs secondaires sont : - le bleu : magenta combiné avec le cyan, - le rouge : magenta combiné avec le jaune, - le vert : cyan combiné avec le jaune. Deux couleurs sont dites "complémentaires" si leur association donne du blanc en synthèse additive, ou du noir en synthèse soustractive. IV.2 Représentation des couleurs Le spectre de couleurs qu'un périphérique d'affichage permet d'afficher est appelé gamut ou espace colorimétrique. Le gamut d'un dispositif d'affichage est souvent représenté en traçant dans le diagramme chromatique un polygone renfermant toutes les couleurs qu'il est capable de produire. Les couleurs n'appartenant pas au gamut sont appelées couleurs hors-gamme. L'espace de couleurs est la représentation mathématique d'un ensemble de couleurs. Les espaces de couleur les plus connus sont : * Le codage RVB (Rouge, Vert, Bleu, en anglais RGB, Red, Green, Blue). * Le codage TSL (Teinte, Saturation, Luminance, en anglais HSL, Hue, Saturation, Luminance). * Le codage CMYK. * Le codage CIE. * Le codage YUV. * Le codage YIQ. Système RGB Le codage RGB, mis au point en 1931 par la Commission Internationale de l'eclairage (CIE) représente l'espace des couleurs à partir de 3 couleurs : - Rouge (de longueur d'onde égale à 700,0 nm), - Vert (de longueur d'onde égale à 546,1 nm), - Bleu (de longueur d'onde égale à 435,8 nm).

88 TRAITEMENT D'IMAGES 88 Teintes de rouge Rouge Principe de visualisation RVB. Magenta Teintes de bleu Bleu Pseudo couleur Noir Blanc Droite des gris Cyan Jaune Vert Teintes de vert L'affichage RVB d'un pixel de comptes numériques (i 1, i 2, i 3 ) dans 3 images monocanal est une "projection" (j R, j V, j B ) du triplet (i 1, i 2, i 3 ) sur les 3 axes "couleur" de l'espace RVB. Les termes j R, j V et j B donnent les teintes rouge, verte et bleue. La droite des gris (i.e., j R = j V = j B ) indique un affichage en noir et blanc. "Rouge + Vert = Jaune", "Bleu + Rouge = Magenta", "Bleu + Vert = Cyan". Système HSL Le modèle HSL (Hue, Saturation, Luminance, ou en français TSL) dérive des travaux du peintre Albert H. Munsell, créateur de l'atlas de Munsell. Ce modèle de représentation est dit "naturel", car il est proche de la perception physiologique de la couleur par l'oeil humain. En effet, quoique adapté à la gestion et affichage de la couleur sur les périphériques informatiques de sortie, le modèle RGB ne permet pas de sélectionner aisément une couleur. Ainsi, le réglage de la couleur en RGB dans les outils informatiques est en général réalisé avec 3 glisseurs ou 3 cases qui spécifient les valeurs relatives de chaque composante primaire. Ceci n est pas adapté à une opération telle que l'éclaircissement/assombrissement d'une couleur qui requiert une même variation proportionnelle de chaque composante. Le modèle HSL a été conçu pour pallier à ce problème. Il permet un choix interactif rapide d'une couleur, mais il n'est pas adapté à une description quantitative d'une couleur. Il décompose la couleur selon 3 critères physiologiques (Figure IV.1) : - Luminance : indique la quantité de lumière de la couleur ; i.e., aspect clair ou sombre (T-shirt au soleil ou à l'ombre). C'est la valeur I sur la droite des gris. - Teinte (en anglais Hue) : indique la couleur perçue (T-shirt mauve ou orange). C'est l'angle du vecteur couleur dans le cercle chromatique du plan normal à la droite des gris au point I. - Saturation : décrit la pureté de la couleur ; i.e., son caractère vif ou terne (T-shirt neuf ou délavé). C'est la norme du vecteur couleur dans le plan normal à la droite des gris au point I. : droite des gris I Figure IV.1 : Représentation graphique du modèle HSL.. Il existe d'autres modèles naturels de représentation proches du modèle HSL : * HSB : "Hue, Saturation, Brightness" soit "Teinte, Saturation, Brillance" en français. La brillance décrit la perception de la lumière émise par une surface. * HSV : "Hue, Saturation, Value" soit "Teinte, Saturation, Valeur" en français. * HSI : "Hue, Saturation, Intensity" soit "Teinte, Saturation, Intensité" en français. * HCI : "Hue, Chrominance, Intensity" soit "Teinte, Chrominance, Intensité" en français. Le codage CMY Le codage CMY ("Cyan, Magenta, Yellow"), ou CMJ ("Cyan, Magenta, Jaune") en français, est à la synthèse soustractive, ce que le codage RGB est à la synthèse additive. Ce modèle consiste à décomposer une couleur en valeurs de Cyan, de Magenta et de Jaune. L'absence de ces trois composantes donne du blanc tandis que leur ajout donne du noir. En pratique, le noir obtenu par l'ajout des trois couleurs Cyan, Magenta et Jaune coûte cher et est imparfaitement noir. Par suite, les imprimeurs rajoutent une composante d'encre noire appelée noir pur. On parle alors de quadrichromie, ou modèle CMYK (Cyan, Magenta, Jaune, Noir pur, ou en français CMJN).

89 TRAITEMENT D'IMAGES 89 Le codage CIE La Commission Internationale de l'eclairage (CIE) a défini en 1931 le système colorimétrique xyy (Figure IV.2). Toutefois ce mode de représentation purement mathématique ne tient pas compte des facteurs physiologiques de perception de la couleur par l'oeil humain, ce qui résulte en un diagramme de chromaticité laissant par exemple une place beaucoup trop large aux couleurs vertes. D'autre part, les couleurs peuvent être perçues différemment selon les individus et peuvent être affichées différemment selon les périphériques d'affichage. Par suite, la CIE a conçu un système qui permet de définir une couleur indépendamment des périphériques utilisés. Figure IV.2 : Système colorimétrique xyy. Il représente les couleurs selon leur chromaticité (axes x et y) et leur luminance (axe Y). Le diagramme de chromaticité (ou diagramme chromatique), issu d'une transformation mathématique, représente sur la périphérie les couleurs pures, c'est-à-dire les rayonnements monochromatiques / couleurs du spectre (i.e., couleurs de l'arc en ciel), repérées par leur longueur d'onde. La ligne fermant le diagramme (donc fermant les 2 extrémités du spectre visible) se nomme la droite des pourpres, car elle correspond à la couleur pourpre, composée des 2 rayonnements monochromatiques bleu (420 nm) et rouge (680 nm). Système xyy Droite des pourpres En 1976, afin de remédier aux lacunes du modèle xyy, la CIE a défini le modèle colorimétrique La*b* (aussi connu sous le nom de CIELab), dans lequel une couleur est repérée par trois valeurs : - L, la luminance, exprimée en pourcentage (0 pour le noir à 100 pour le blanc) - a et b deux gammes de couleur allant respectivement du vert au rouge et du bleu au jaune avec des valeurs allant de -120 à Le mode Lab est très utilisé dans l'industrie. Il couvre tout le spectre visible par l'oeil humain et le représente de manière uniforme, indépendamment de la technologie graphique. Il comprend donc toutes les couleurs RGB et CMYK. Ceci explique que des logiciels comme PhotoShop l'utilisent pour passer d'un modèle de représentation à un autre. Les modèles de la CIE ne sont pas intuitifs, mais toute couleur créée selon ces modèles sera vue de la même façon par tous! Le codage YUV Le modèle YUV (appelé aussi CCIR 601) est adapté pour représenter la couleur en vidéo analogique. Il a été conçu pour transmettre des informations colorées aux téléviseurs couleurs de manière à ce que les téléviseurs noir et blanc existants continuent d'afficher une image en tons de gris. Les standards PAL (Phase Alternation Line) et SECAM (Séquentiel Couleur avec Mémoire) l'utilisent. Le paramètre Y représente la luminance (i.e., information en noir et blanc), tandis que U et V représentent la chrominance (i.e., information sur la couleur). U est parfois noté Cr et V noté Cb, d'où la notation fréquente YCrCb. Les relations liant les modèles YUV et RGB sont les suivantes : - Y = 0.299R G B - U = R G B = 0.492(B - Y) - V = 0.615R G B = 0.877(R-Y) Le codage YIQ Le modèle YIQ est très proche du modèle YUV. Il est notamment employé dans le standard vidéo NTSC (e.g., États-Unis). Les paramètres Y, I et Q représentent respectivement la luminance, l'interpolation et la Quadrature. Les relations entre les modèles YIQ et RGB sont les suivantes : - Y = R G B - I = R G B - Q = R G B

90 TRAITEMENT D'IMAGES 90 IV.3 Le codage de la couleur Une image est représentée par un tableau à deux dimensions dont chaque case est un pixel. Pour représenter informatiquement une image monocanal, il suffit donc de créer un tableau de pixels dont chaque case contient une valeur. La valeur stockée dans une case est codée sur un certain nombre de bits déterminant la couleur ou l'intensité du pixel, on l'appelle profondeur de codage (parfois profondeur de couleur). Il existe plusieurs standards de codage de la profondeur : * bitmap noir et blanc: le stockage d'un bit dans chaque case permet de définir 2 couleurs (noir ou blanc). * bitmap 16 couleurs ou 16 niveaux de gris. En stockant 4 bits dans chaque case, il est possible de définir pour chaque pixel 16 dégradés de gris, du noir au blanc, ou bien 16 couleurs différentes. * bitmap 256 couleurs ou 256 niveaux de gris. En stockant un octet dans chaque case, il est possible de définir 256 dégradés de gris allant du noir au blanc ou bien 256 couleurs différentes. * palette de couleurs (colormap). Cette palette, ou table des couleurs, contient toutes les couleurs pouvant être contenues dans l'image, avec pour chacune l'indice associé. Le nombre de bits réservé au codage des indices de la palette détermine le nombre de couleurs pouvant être utilisées. Ainsi, un codage sur 8 bits permet de définir 256 couleurs utilisables. Chaque case du tableau à deux dimensions représentant l'image contient un nombre indiquant l'indice de la couleur à utiliser. Une image dont les couleurs sont ainsi codées est dite image en couleurs indexées. * "Couleurs vraies" (True color) ou "couleurs réelles". L'image peut alors être affichée en définissant chacune des composantes RGB (rouge, vert et bleu). Chaque pixel est représenté par un entier comportant les trois composantes, chacune codée sur un octet, c'est-à-dire au total 24 bits (16 millions de couleurs). Il est possible de rajouter une quatrième composante permettant d'ajouter une information de transparence ou de texture : chaque pixel est alors codé sur 32 bits. La transparence définit le niveau d'opacité des éléments d'une image ; i.e., possibilité de voir à travers l'image des éléments graphiques situés derrière celle-ci. Il existe deux modes de transparence : - La transparence simple s'applique à une image indexée. Elle consiste à définir parmi la palette de couleurs une des couleurs comme transparente - La transparence par couche alpha (ou canal alpha, en anglais alpha channel) consiste à rajouter pour chaque pixel de l'image un octet définissant le niveau de transparence (de 0 à 255). Le processus d'ajout d'une couche transparente à une image est généralement appelé alpha blending. Définition de l'image Noir et blanc (1 bit) 256 couleurs (8 bits) couleurs (16 bits) True color (24 bits) 320x Ko 62.5 Ko 125 Ko Ko 640x Ko 300 Ko 600 Ko 900 Ko 800x Ko Ko Ko 1.4 Mo 1024x Ko 768 Ko 1.5 Mo 2.3 Mo Exemples de poids d'images avec différentes profondeurs de codage IV.4 Sélection des couleurs dans un logiciel La plupart des logiciels graphiques offrent des moyens de sélectionner une couleur de manière interactive. Le moyen principal est souvent le nuancier, c'est-à-dire la présentation des couleurs dans un tableau dans lequel elles sont classées par nuances.

91 TRAITEMENT D'IMAGES 91 De plus en plus de logiciels intègrent toutefois des outils plus performants permettant de choisir une couleur parmi une vaste gamme. Ainsi, dans le sélectionneur de couleur ci-contre, la teinte est représentée par un disque chromatique, tandis que la luminance est représentée par un sélecteur vertical donnant les nuances de la couleur allant du noir au blanc. Luminance Disque chromatique Dans le sélecteur ci-dessous par contre, la teinte est présentée en abscisses du sélecteur de gauche, et la saturation est en ordonnée. Le sélecteur de droite permet de régler la luminosité : Facteur gamma Le facteur gamma est le critère définissant le caractère non linéaire de l'intensité lumineuse d'un élément. Ainsi, la luminance d'un écran d'ordinateur est non linéaire dans la mesure où : - l'intensité lumineuse qu'il émet n'est pas linéairement proportionnelle à la tension appliquée, mais correspond à une courbe fonction du gamma de l'écran (en général entre 2,3 et 2,6) : I V gamma - l'intensité lumineuse perçue par l'oeil n'est pas proportionnelle à la quantité de lumière réellement reçue. De manière à obtenir une reproduction réaliste de l'intensité lumineuse, il convient de corriger la luminance en appliquant une transformation appelée "correction gamma". Ainsi à chaque périphérique d'affichage correspond une transformation gamma qui peut être adaptée à la perception de l'utilisateur. Il est en général important de respecter les couleurs d'une image lors du passage de celle-ci via plusieurs périphériques (chaîne numérique composée par exemple d'un scanner, d'un logiciel de traitement d'image, puis d'une imprimante) afin de s'assurer que l'image en fin de chaîne de traitement possède des couleurs proches de l'image d'origine. On appelle "gestion de la couleur" l'ensemble des opérations nécessaires pour garantir la bonne conservation des couleurs d'une image. Afin de pouvoir garantir la cohérence des couleurs il est essentiel d'étalonner tous les matériels de la chaîne numérique. L'étalonnage d'un matériel consiste ainsi à décrire dans un fichier, appelé profil ICC (International Color Consortium), l'ensemble des couleurs qu'il est capable d'acquérir ou de produire (il s'agit donc de son gamut) dans un espace de couleur indépendant (par exemple CIE Lab ou CIE XYZ). Ce profil ICC est intégré dans l'image et véhicule l'ensemble des transformations qu'elle a subi le long de la chaîne de traitement, à la manière d'un carnet de suivi.

92 TRAITEMENT D'IMAGES 92 IV.5 LUT L'aspect visuel (i.e. couleurs ou teintes de gris) de toute image affichée sur un écran dépend de la valeur numérique des pixels affichés et d'une table vidéo, aussi appelée table de correspondance ou LUT (Look-Up Table). Cette table assure la correspondance, ou traduction visuelle, entre l'ensemble I des comptes numériques possibles i (i I) des pixels et l'ensemble J des couleurs ou teintes de gris j (j I) disponibles pour l'affichage. Elle correspond donc à une fonction f telle que j = f(i) et f(i) J. Si la LUT est déplacée vers le bas (haut), l'image est assombrie (éclaircie). L'opération d'affichage d'une image monocanal comprend 2 étapes majeures : (i) Transfert du fichier informatique de l'image depuis son support (bande magnétique, disque optique, disque dur, ou disquette) sur la mémoire image du poste de travail. Cette mémoire est aussi appelée mémoire locale ou mémoire de rafraîchissement de l'écran. (ii) Affichage avec des teintes de gris ou diverses couleurs selon le LUT choisi. Il est remis à jour à une fréquence spécifique à la mémoire (e.g. 50Hz) : la mémoire vidéo est périodiquement "balayée" pour être recopiée sur l'écran. Le LUT utilisé peut être choisi parmi des LUTs prédéfinis ou bien déterminé de manière interactive. Le système de visualisation peut adapter le LUT de manière plus ou moins automatique en fonction des valeurs statistiques (moyenne, écart type, etc.) représentatives des comptes numériques des pixels. En fait, toute teinte affichée sur un écran est la superposition de 3 teintes : rouge, vert et bleu. L'aspect visuel de tout pixel sur un écran est donc du à trois intensités rouge, vert et bleu (j R, j V, j B ) directement associées aux comptes numériques i 1, i 2 et i 3 du pixel dans les trois images monocanal affichées. Les intensités (j R, j V, j B ) d'affichage sont définies par trois LUTs f R (), f V () et f B () associés à chaque couleur (i.e. rouge, vert et bleu) : j R = f R (i 1 ), j V = f V (i 2 ) et j B = f B (i 3 ). L'affichage de toute image est donc la superposition de 3 images monocanal respectivement "coloriées" en bleu, vert et rouge. On dit que l'on superpose trois plans de couleur rouge, verte et bleue, appelés plans RVB (Rouge - Vert - Bleu) ou encore RGB (Red - Green - Blue) en langue anglaise. Toute image monocanal peut être visualisée avec des teintes d'une seule couleur. Ainsi, avec des LUTs tels que j R = f R (i 1 ) 0, j V = f V (i 2 ) = 0 et j B =f B (i 3 ) = 0 i 1, i 2 et i 3, toute image apparaît avec des teintes de rouge. M é m o i r e v i d é o L U T C o n v e r t i s s e u r n u m é r i q u e - a n a l o g i q u e P l a n r o u g e L U T L U T P l a n v e r t P l a n b l e u E c ra n Figure IV.3 : Visualisation d'une image sur un écran RVB. L'image affichée est soit une image "monocanal" (les 3 images en entrée sont en fait la même image mono canal) ou 3 images mono canal différentes. Chaque canal est codé par l'intermédiaire du LUT associé aux teintes de la couleur selon laquelle il doit être visualisé. Les 3 couleurs sont ensuite "additionnées" sur l'écran RVB.

93 TRAITEMENT D'IMAGES 93 Une image est affichée uniquement en teintes de gris si les intensités bleu, vert et rouge de tout pixel sont égales (i.e., j R = j V = j B ). Ceci est le mode usuel d'affichage des images monocanal : la même image monocanal est affichée dans les plans rouge, vert et bleu avec les mêmes LUTS f R (), f V () et f B (). Composition colorée Une "composition colorée" est une image créée par la superposition de 3 images monocanal coloriées en "rouge - vert - bleu" avec un LUT spécifique à chaque couleur. Elle est dite en couleurs naturelles si les couleurs correspondent à notre perception visuelle (e.g., herbe en teintes de vert). Pour cela, les images affichées en bleu, vert et rouge doivent avoir été acquises dans les domaines spectraux du bleu, du vert et du rouge. Un capteur (e.g., SPOT) qui n'opère pas dans le bleu ne peut donner directement des compositions colorées en couleurs naturelles. Les autres modes d'affichage sont souvent appelés "compositions colorées en fausse couleur". Ainsi, une image multispectrale acquise dans le vert, rouge et proche infrarouge peut être affichée en affectant des teintes "bleu" à l'image acquise dans le vert, des teintes "vert" à l'image acquise dans le rouge et des teintes "rouge" à l'image acquise dans le proche infrarouge. Dans ce cas, la végétation tend à apparaître avec des teintes "rouges", car la réflectance de la végétation tend à être très élevée dans le proche infrarouge. Pour des pixels codés sur 1 octet, la combinaison des LUTs donne une table vidéo (LUT) 3D avec au maximum (256) 3 niveaux possibles. Le nombre de teintes ou tons de couleurs de l'image affichée est donc en général inférieur à (256) 3. Affichage "pseudo-couleur" Ce mode d'affichage classique affiche une image mono canal avec une échelle de couleurs particulière à l'aide de trois LUTs prédéfinis LUT R, LUT V, et LUT B. L'obtention d'un affichage "couleur" cohérent passe souvent par l'emploi d'une gradation des couleurs qui reflète l'échelle des valeurs numériques (e.g. teintes sombres pour les faibles CN et teintes claires pour les forts CN) Noir Bleu... Bleu Vert... Vert... Cyan Rouge... Rouge... Mag-... Jaune... Blanc Blanc foncé foncé foncé -enta Tableau IV.1 : Exemple de LUT "Fausse couleur". j r Rouge j v Vert Figure IV.4 : LUT pseudo-couleur. j b LUT R Bleu CN CN Rouge Jaune Vert Cyan Bleu Magent Rouge LUT V Couleur CN CN Le LUT pseudo-couleur résulte de la combinaison de LUT R, LUT V et LUT B. prédéfinis. La somme des teintes de couleur j R, j V et j B est constante pour tout compte numérique. j r + j v + j b = cste. LUT B Transformation totale Remarques : - l'oeil humain distingue simultanément au plus 8-12 niveaux de gris, et couleurs. - tout affichage est plus ou moins affecté par la sensibilité spectrale du capteur. IV.6 TRANSFORMATION DE LUT Le but de la transformation de LUT est uniquement de modifier la "couleur" des pixels affichés. Ainsi, elle ne modifie pas les comptes numériques (CN) des pixels. Elle est donc une opération quasi instantanée, beaucoup plus rapide que toute opération de manipulation et de chargement dans la

94 TRAITEMENT D'IMAGES 94 mémoire vidéo de données stockées sur le disque dur. Cette rapidité d'exécution permet d'améliorer instantanément l'aspect visuel d'images affichées sur l'écran de l'ordinateur. Les transformations de LUT sont en général effectuées en prenant en compte la distribution des valeurs numériques des pixels, c'est à dire l'histogramme de l'image. Histogramme L'histogramme d'une image monocanal est un graphique qui donne la distribution des CN de cette image, c'est-à-dire le nombre ou pourcentage de pixels ayant un CN donné. Par convention un histogramme représente le niveau d'intensité en abscisse en allant du plus faible (à gauche) au plus élevé (à droite). Ainsi, l'histogramme d'une image dont les comptes numériques vont de 0 à 255 est un graphique possédant 256 valeurs en abscisses, et le nombre de pixels de l'image en ordonnées. L'histogramme qui contient uniquement un objet (i.e., population de pixels connexes avec des CN "similaires") de teinte assez uniforme sur un fond d'image uniforme a en général un aspect uni-modal de type gaussien. Un histogramme avec plusieurs modes peut être du à la présence de différents types de population dans l'image ou à différentes configurations d'éclairement ou d'observation d'une même population. Toute image multi-canaux est caractérisée par plusieurs histogrammes. Ainsi, une image codée en RGB a 3 histogrammes qui donnent la distribution des CN de ses composantes rouges, bleues et vertes. L'histogramme cumulé C(i) représente la distribution cumulée des intensités des pixels d'une image, c'est-à-dire le nombre de pixels ayant une intensité lumineuse supérieure à i. 765 Nombre de pixels Figure IV.5: Histogramme d'image codée sur un octet. Le codage sur un octet signifie que les CN peuvent prendre 256 valeurs. Ici, 765 pixels ont la valeur 100. L'aire grisée (i.e., intégrale de l'histogramme) est égale au nombre total de pixels de l'image. Amélioration de contraste L'analyse d'un histogramme montre que la totalité de la dynamique possible des CN est rarement utilisée. L'explication est simple : un capteur peut fonctionner avec des conditions beaucoup plus extrêmes que celles rencontrées dans une seule et même image. Ainsi, pour une image satellite, les conditions expérimentales qui correspondent aux flux lumineux extrêmes que peut mesurer un capteur sans saturation ne sont quasiment jamais réunies lors d'une seule acquisition d'image. Ainsi, un capteur peut être réglé pour saturer lors de l'observation d'un couvert neigeux ensoleillé, que l'image acquise contienne ou non de la neige. Ceci explique que la dynamique d'une image diffère en général de la dynamique maximale possible (e.g., CN compris entre 60 et 120 dans une image codée sur 8 bits). Dans ce cas, une image affichée sans adaptation de contraste est peu contrastée. L'amélioration de contraste consiste à modifier la table vidéo, c'est à dire à attribuer aux CN des teintes de couleur qui couvrent l'ensemble des couleurs disponibles. L'histogramme est donc un outil très utile pour gérer toute transformation de LUT destinée à modifier le contraste et l'échelle des couleurs sur tout ou partie d'images sur ou sous exposées. L'amélioration de contraste peut être : - globale : elle améliore la visualisation de tous les pixels de l'image en associant les teintes extrêmes à des bornes qui encadrent la totalité (i.e., CN extrêmes) ou quasi-totalité (e.g., 95%) des CN des pixels de l'image. Elle est souvent appelée "expansion de la dynamique" ou "étalement de dynamique" ou "linéarisation d'histogramme". Pour l'histogramme de la Figure IV.5, il peut être choisi l'intervalle [25 200], car 25 et 200 sont les CN extrêmes de l'image. Tous les pixels dont les CN sont extérieurs aux bornes apparaissent avec une même teinte. Le choix des bornes doit être conduit avec soin car l'information recherchée peut justement se retrouver au-delà de ces bornes. - locale : l'affichage n'est amélioré que pour les pixels dont les CN sont dans l'intervalle choisi. Ceci est souvent utile si cet intervalle est celui des CN des pixels d'un objet de l'image. Ainsi, pour

95 TRAITEMENT D'IMAGES 95 l'histogramme de la Figure IV.5, le choix de l'intervalle [85 195] permet d'afficher avec toutes les teintes possibles l'ensemble des pixels dont les CN sont dans l'intervalle [85 195]. Transformation linéaire du LUT La transformation de LUT peut être réalisée avec des opérateurs mathématiques plus ou moins complexes. L'opérateur le plus simple est l'opérateur linéaire : les LUTs f() sont des droites avec des intervalles [i min i max ] définis, ce qui fixe les 3 intervalles [j min j max ]. La Figure IV.6 donne des exemples pour le cas d'une image dont l'histogramme est celui de la Figure IV.5. Teinte Teinte T max T max j j k k CN CN a) a c b 255 b) a c b 255 Figure IV.6 : Amélioration de contraste de l'image de la Figure IV.5 par transformation linéaire de LUT. a) Amélioration globale. b) Amélioration locale. T max teintes possibles. LUT par défaut (pointillés) : la teinte j = i.t max /255 est affectée à tout pixel de compte numérique i. LUT modifié (trait plein): i [0 a] k = 0, i ]a b] k = 255.(i-a)/(b-a) et i ]b 255] k = 255 a et b peuvent être tels que 95% des comptes numériques est dans [a b] (e.g. [a b] [85 195]). Transformation multi-linéaire du LUT T max Figure IV.7 : Transformation multi-linéaire du LUT i [0 a] j = 0 i [a b] j = α.(i-a) i ]b c] j = α.(b-a) i ]c d] j = β.(i - c) + α.(b-a)... a b c d 255 Les points (a,α) et (b,γ.(i-b)+β.(b-a)+α.a) sont les "pivots" de la loi de transformation du LUT. La plupart des logiciels de traitement d'image (Aphelion, Visilog, ILWIS, etc.) permettent de définir sur la LUT un nombre quelconque de pivots et d'utiliser diverses fonctions (droite, exponentielle, racine carrée, etc.) pour transformer la LUT entre les pivots. Ceci est très utile pour l'amélioration de contraste. Il est souvent estimé que l'amélioration de contraste est optimale si toutes les teintes possibles sont utilisées et si elles apparaissent dans des proportions identiques. La LUT résultat dépend de l'histogramme de l'image. Cette égalisation des teintes s'applique à des images monocanal et multicanal. Un résultat similaire peut être obtenu en employant une LUT standard (i.e., "diagonale") après égalisation de l'histogramme de l'image.

96 TRAITEMENT D'IMAGES 96 Figure IV.8: Egalisation des teintes d'affichage. a) Image initiale affichée avec une LUT standard (i.e., "diagonale"). b) Histogramme de l'image a). c) Image affichée avec égalisation des teintes obtenue soit par modification de la LUT, soit avec l'emploi d'une LUT standard combinée à l'égalisation (d) de l'histogramme de l'image a). L'emploi de pivots sur la LUT permet aussi d'affecter une même teinte à tous les CN d'un même intervalle. Cette méthode est aussi utile pour mettre en évidence certains objets de l'image ; par exemple, en affectant à chaque objet de l'image une teinte distincte. Elle doit être employée si le nombre de teintes possibles du système de visualisation est inférieur au nombre de valeurs possibles des CN des pixels.

97 TRAITEMENT D'IMAGES 97 V TRAITEMENT D'IMAGES ( V.1 PRINCIPAUX TRAITEMENTS Un opérateur appliqué à une ou plusieurs images de même dimension crée une nouvelle image. Pour cela, il est appliqué à tout pixel des images de départ, de manière séquentielle du premier au dernier pixel. A la différence des transformations de LUT, les opérateurs manipulent des comptes numériques. Il existe 2 grandes familles d opérateurs: les opérateurs ponctuels et les opérateurs dits de voisinage, car ils manipulent les pixels voisins de chaque pixel traité. La notion de voisinage est importante car les "objets" sont souvent reconnus par leur contexte, texture (granularité, linéarité, directivité, fréquence, contraste, ordre, connexité, etc.), taille et forme (uniforme, punctiforme, filiforme, etc.). Opérateurs ponctuels Un opérateur ponctuel traite le compte numérique de chaque pixel indépendamment des comptes numériques des autres pixels de l'image. L'opération associée peut être arithmétique, logique, etc. Le rapport d'images est un exemple d'opération ponctuelle. Il est souvent utile pour mettre en évidence des différences entre 2 images d'une même scène acquises avec des éclairements différents ou dans des bandes spectrales différentes. Opérateurs de voisinage Pour tout pixel P(x,y) de l image de départ, l opérateur calcule le compte numérique du pixel P'(x,y) de l image résultat, à partir des comptes numériques des pixels voisins du pixel traité P(x,y). Le voisinage d'un pixel (i.e., le pixel et ses voisins) peut être de forme rectangulaire, hexagonale, etc. Il est souvent utilisé des fenêtres carrées de taille 2n + 1, ou circulaires de rayon n. La dimension n est choisie selon la fréquence spatiale de l'information d'intérêt : petite fenêtre pour les informations à haute fréquence spatiale (e.g. linéaments très proches, en géologie) et grande fenêtre pour les informations à faible fréquence spatiale. Tout pixel de l'image résultat contient donc une information qui dépend du contexte du pixel correspondant dans l'image de départ. De manière à éviter des effets de bord sur les bords des images, il est nécessaire de définir le voisinage des bords d'image en dehors de celle-ci. Ainsi, l'image réellement traitée par l'opérateur peut être l'image de départ à laquelle ont été juxtaposées les premières et dernières lignes et colonnes de l'image de départ. La dimension de l'image effectivement traitée est alors supérieure aux dimensions des images de départ et résultat. L opérateur est souvent noté h(u,v). Pour un opérateur de voisinage circulaire de rayon n, on a u et v [1 2n+1]. Tout pixel résultat P (x,y) dépend des pixels P(x+i,y+j), avec i [-I +I] et j [-J +J]. On dit que l'image résultat est obtenue par convolution de l'image de départ avec l'opérateur h(u,v). Les opérations effectuées par l opérateur peuvent être arithmétiques ou non. L emploi d opérations arithmétiques correspond à l opération dite de convolution de l image de départ. C est le cas d un opérateur qui affecte à tout pixel de l image résultat la moyenne des comptes numériques des pixels du voisinage de tout pixel de l image de départ. Certains opérateurs (e.g., opérateurs morphologiques) effectuent des opérations non arithmétiques. Ainsi, le compte numérique du pixel résultat peut être le compte numérique le plus élevé des pixels du voisinage du pixel traité. Opérateurs de voisinage avec ré-échantillonnage spatial Les dimensions des images résultat et de départ peuvent différer. Ceci survient dans le cas d'un rééchantillonnage spatial de l'image de départ destiné à changer de repère spatial. Ceci est réalisé avec des transformations géométriques (e.g., enchaînement de translations, rotations et homothéties). Ainsi, la Figure V.1 illustre la transformation d'une image de 4 lignes x 4 colonnes en une image de 7 colonnes x 5 lignes. Le compte numérique de tout pixel de l image résultat résulte d'une convolution de l'image de départ par un opérateur (e.g., méthode du plus proche voisin, bi-linéaire, cubique, etc.). B Figure V.1: Correction géométrique. 1 B A C Image originale : 4col x 4lig 2 A C Image résultat : 7col x 5lig L'image originale (pixels de taille 1 ) est transformée en une nouvelle image (pixels o de taille 2 ) de plus grande dimension. La transformation géométrique a été définie à partir de points A, B et C qui ont été repérés dans les repères de départ et d arrivée. Ces points sont appelés "points de contrôle".

98 TRAITEMENT D'IMAGES 98 V.2 PRINCIPAUX OPERATEURS PONCTUELS V.2.1 Opérateurs arithmétiques Plusieurs exemples d'opérateurs sont donnés ici. Ils créent une image résultat P'(x,y) à partir d'une ou plusieurs images P 1 (x,y), P 2 (x,y), etc. où x et y sont les numéros des lignes et colonnes. Addition : P' (x,y) = P 1 (x,y) + P 2 (x,y) et P' (x,y) = P 1 (x,y) + C où C est une constante. Soustraction : P' (x,y) = P 1 (x,y) - P 2 (x,y) et P' (x,y) = P 1 (x,y) - C Multiplication : P' (x,y) = P 1 (x,y). P 2 (x,y) et P' (x,y) = C. P 1 (x,y) Division : P' (x,y) = P 1 (x,y) / P 2 (x,y) et P' (x,y) = P 1 (x,y) / C Minimum / maximum : P' (x,y) = Min[P 1 (x,y), P 2 (x,y)] et P' (x,y) = Min[C, P 1 (x,y)] Combinaison linéaire : P' (x,y) = C 1. P 1 (x,y) + C 2. P 2 (x,y) où C 1 et C 2 sont des constantes. Valeur absolue : P' (x,y) = P 1 (x,y) Décalage de bit sur 1 ou plusieurs octets : - décalage de i bits à droite : P' (x,y) = P 1 (x,y) / 2 i - décalage de i bits à gauche : P' (x,y) = P 1 (x,y). 2 i V.2.2 Opérateurs logiques Les opérateurs logiques sont appliqués aux images binaires, c'est à dire des images dont les pixels ne peuvent valoir que la valeur "vrai" ou la valeur "faux". De manière classique, si les comptes numériques supérieurs à 0 font référence à des pixels "vrai" et si tous les comptes numériques "nuls" font référence à des pixels "faux". A B NOT A A ET B A OR B A XOR B A - B A NXO B Non logique : "Not" Ou logique : "Or" Différence logique : "logical-sub" Addition logique : "And" Ou exclusif logique : "Xor" Equivalence logique : "nxo" Binarisation d'image Cette opération est aussi appelée seuillage, ou filtrage passe bande. Elle transforme les comptes numériques d'une image selon 2 valeurs : valeur 0 (i.e., variable booléenne "faux") et valeur "1" (i.e., variable booléenne "vrai"). Pour cela, elle nécessite le choix de 2 seuils (seuil inf et seuil sup, où seuil inf < seuil sup ). L opération effectuée est : f(i)=1 i [seuil inf seuil sup ] et f(i)=0 si i [seuil inf seuil sup ] Ce filtrage passe bande est un filtrage passe bas si seuil inf = 0, et un filtre passe haut si seuil sup = 255. La binarisation d'image est souvent utilisée pour créer des masques d'objets, c'est à dire des images dans lesquelles tous les comptes numériques des pixels relatifs à ce ou ces objets sont égaux à 1 et où tous les comptes numériques des autres pixels sont égaux à 0. Réduction du volume de données Une image peut comporter un grand nombre d'images "monocanal", ce qui peut être une forte contrainte en terme de temps calcul et d'espace mémoire lors des traitements. Il est donc souvent intéressant de compresser l'essentiel de l'information sur un nombre réduit d'images "monocanal". Ainsi, la compression peut permettre de se ramener à 3 images qui peuvent être affichées comme une simple composition colorée.

99 TRAITEMENT D'IMAGES 99 L'analyse en composantes principales (ACP) est une méthode classique de compression d'image dans l'espace (E) à N dimensions des N canaux spectraux de l'image. Elle n est valide que si l'information recherchée correspond à la variance des comptes numériques des pixels de l'image, ce qui est souvent vérifié. Pour cela, elle définit dans l'espace (E) M axes (M N), appelés composantes principales qui représentent une proportion optimale de la variance totale, avec une variance par axe qui décroît du premier au dernier axe. Ainsi, un nombre M d axes, avec M < N, peut expliquer l essentiel de la variance de l'image. Le volume d'information est donc réduit d'un facteur N/M. L'analyse en composantes principales de toute image est effectuée de manière séquentielle : (0) Calcul de l'expression de la variance des pixels projetés sur un axe quelconque. (1) Calcul de la 1 ère composante principale, i.e. axe qui représente la variance (information) maximale. (2 à M) Calcul de la j ème composante ; i.e. combinaison linéaire des canaux spectraux d'origine qui représente au mieux la variance non représentée par l'ensemble des (j-1) premiers axes. Cet axe étant décorrélé des (j-1) premiers axes, on a : Var M = Σ Var(i). i=1 j Image 2 1 er composante principale Image 1 Figure V.2 : Représentation bidimensionnelle. Distribution des pixels dans l'espace des images 1 et 2. L'axe appelé "1ère composante principale" est une combinaison linéaire des images 1 et 2. Il contient l'essentiel de l'information (i.e. la variance de la projection des pixels sur cet axe est maximale). Bleu Vert Rouge PIR MIR IRT MIR Variance CP CP CP CP CP CP CP Variance Tableau V.1 : Composantes principales (CP) d'une image TM (Thematic Mapper) à 7 canaux. Coefficients de l'expression linéaire des CP selon les 7 canaux de départ (bleu,..., MIR), et variance des 7 CP (forte décroissance de CP1 à CP7) et images de départ. V.3 FILTRES Le filtrage est une opération qui a pour but d'extraire une information ou d'améliorer l'aspect de l'image, par exemple en éliminant un bruit (lignage, speckle des images radar, etc.) ou en améliorant les contours d'une image floue. Les filtres utilisent souvent la notion intuitive que des variations locales des teintes de gris résultent de bruits. On appelle filtrage adaptatif une opération de filtrage qui effectue une étape préalable de sélection des pixels. Ainsi, il peut être choisi de n effectuer un filtrage que sur une partie d une image et non sur la totalité de l image. V.3.1 Convolution et transformée de Fourier Convolution Dans le domaine des signaux, la convolution est une opération qui permet d'obtenir la sortie s d'un système à partir de son entrée e et de sa réponse impulsionnelle h : - Signal monodimensionnel (1-D) : s(x) = (e*h)(x) = - - Signal bidimensionnel (2-D) : s(x,y) = (e * h)(x,y) = + e(x-u).h(u).du - - e(x-u,y-v).h(u,v).du.dv

100 TRAITEMENT D'IMAGES 100 La réponse impulsionnelle h est la réponse du système à un Dirac en entrée, sachant qu'un Dirac est un signal nul en tout x différent de 0 (cas 1-D) ou en tout (x,y) différent de (0,0) (cas 2-D). Dans le cas 1-D, un Dirac est en général représenté par : {f(x) = 0 x 0 et f(x).dx = 1} ou {gaussienne f(x) = - 1 x2.exp[- 2π.σ 2.σ 2 ] où σ<<1 et f(x).dx = 1, La convolution revient à effectuer une moyenne locale de e(x,y) de tous les e(x+u,y+v) pondérés par la fonction h(-u,-v). Elle peut donc être perçue comme une "moyenne pondérée glissante". Dans le cas de signaux numériques comme les images numériques, la convolution est réalisée de manière discrète. Les comptes numériques P(x,y) des pixels de l'image de départ jouent le rôle de l'entrée et les comptes numériques P(x',y') de l'image résultat jouent le rôle de la sortie. I J P(x,y) P'(x,y) = Σ Σ h(i,j).p(x-i,y-j) i=1 j=1 h est le masque discret de convolution. Cet opérateur est souvent appelé filtre. Ici, il est supposé invariant, c'est à dire indépendant de (x,y). Il prend les valeurs h(i,j) avec i [1 I] et j [1 J], où les nombres I et J désignent la dimension selon x et y de l'opérateur h (i.e., dimension du voisinage). L'opérateur h est dit linéaire si tous les termes h(i,j) sont des nombres. - h(-1,-1) h(-1,0) h(-1,1) P(x-2,y-2) P(x-2,y-1) P(x-2,y) P(x-2,y+1) P(x-2,y+2) P(x-1,y-2) P(x-1,y-1) P(x-1,y) P(x-1,y+1) P(x-1,y+2) h(0,-1) h(0,0) h(0,1) P(x,y-2) P(x,y-1) P(x,y) P(x,y+1) P(x,y+2) h(1,-1) h(1,0) h(1,1) P(x+1,y-2) P(x+1,y-1) P(x+1,y) P(x+1,y+1) P(x+1,y+2) P(x+2,y-2) P(x+2,y-1) P(x+2,y) P(x+2,y+1) P(x+2,y+2) Figure V.3 : Filtre de taille 3. P'(x,y) = Σ Σ h(i,j).p(x-i,y-j) = h(-1,1).p(x-1,y-1) h(1,1).p(x+1,y+1) i=-1 j=-1 L'application du filtre h à une image "Dirac" (i.e., P(x,y) = 0 (x,y) (x o,y o ) et P(x o,y o ) = 1) donne une image qui représente l'opérateur h centré sur le point (x o,y o ), avec des pixels nuls partout ailleurs. 1 Exemple de filtre : le filtre moyenne "h(i,j) = cste = diminue le bruit local dans l'image. I.J Transformée de Fourier Tout signal (signal 1-D, image, etc.) peut être décomposé en une somme de composantes sinusoïdales (Figure V.4). Leur nombre est infini si le signal est borné. La transformée de Fourier calcule l'amplitude a i de ces composantes. L'ensemble {a i } constitue une représentation du signal. La manipulation de a i (i.e., annulation, etc.) permet de manipuler les composantes fréquentielles de l'image. Ainsi, on réalise un filtre passe haut en annulant les a i associés aux basses fréquences. = Signal original 1D e(x) Composantes sinusoïdales Figure V.4: Représentation d'un signal 1D e(x) en tant que somme de composantes sinusoïdales. Image initiale P(x,y) F F(u,v) Filtrage spatial Filtrage fréquentiel Image P'(x,y) filtrée F -1 F'(u,v) Figure V.5 : Principe de la transformée de Fourier

101 TRAITEMENT D'IMAGES 101 Dans le signal 2-D (i.e., image), la transformée de Fourier appliquée à une image donne l'amplitude a u,v de ses composantes fréquentielles (u,v) selon les axes Ox et Oy. a u,v = F(u,v) = y x 0 1 P(x,y).exp[-2iπ.(u.x + v.y)].dx.dy où P(x,y) représente le pixel en (x,y) Figure V.6 : Transformée de Fourier de quelques fonctions simples. y f y x f x Figure V.7 : Transformée de Fourier. a) Image initiale. b) Transformée de Fourier. L'application de la transformée de Fourier aux images revêt 2 intérêts majeurs. - Compression d'image. Il y a compression d'image si l'image est représentée par un sous ensemble de {a u,v }. Dans le cas général où ce sous ensemble contient les premiers éléments de {a u,v }, il y a filtrage passe bas : élimination des plus hautes fréquences sans affecter les plus basses fréquences. Ce cas est illustré par la Figure V.8. L'image (a) représente une portion d'image SPOT. Son contenu fréquentiel est stocké dans l'image (b). Les points les plus brillants correspondent aux composantes fréquentielles les plus fortes. (i.e., plus forts coefficients a u,v ). L'image (c) est une portion de l'image (b). Sa transformée de Fourier inverse donne l'image (d), c'est à dire une image très proche de l'image originale (a). Le volume mémoire de la représentation fréquentielle de l'image (d), i.e. image c, est beaucoup plus faible que le volume mémoire de l'image (a) et de sa représentation fréquentielle (i.e. image b). Il y a donc compression d'image. Toutefois, cette compression d'image implique une perte d'information au niveau des hautes fréquences. Cette perte d'information est représentée par la différence : image (b) - image (c).

102 TRAITEMENT D'IMAGES 102 a.) Image Cook b.) Transformée de Fourier c.) Passe bas de (b) d.) Inversion de (c). e.) Passe bas de (b) f.) Inversion de (c) Figure V.8 : Transformée de Fourier (T.F.) en vue de l'élimination de hautes fréquences. (b) = amplitude de T.F.(a) ; Aphelion peut aussi afficher la phase, la partie réelle ou la partie imaginaire. (c) = filtrage fréquentiel de (b). (d) = T.F. -1 (c) ; elle ne contient pas les hautes fréquences de (a). (e) = très fort filtrage passe bas de (b). (f) = T.F. -1 (e) ; elle ne contient que les plus basses fréquences de (a). - Filtrage d'image. Le filtrage de la transformée de Fourier d'images permet d'éliminer certaines fréquences (f x,f y ). Par suite, il permet d'éliminer ou au moins de réduire les bruits qui correspondent à des domaines donnés de fréquences (f u,f v ). La Figure V.9 illustre l'élimination de fréquences verticales. L'image originale (a) est une grille. L'image (b) est sa transformée de Fourier. Elle présente un ensemble assez régulier de points brillants qui correspondent aux plus fortes composantes fréquentielles de l'image (a). L'image (c) affiche le filtrage de l'image (b) avec un filtre passe haut de forme rectangulaire centré sur l'axe des fréquences verticales. L'image (d) est la transformée inverse de Fourier de l'image (c). Les barres horizontales à l'origine des fréquences verticales sont très atténuées. La Figure V.10 illustre l'impact d'un bruit fréquentiel (traits noirs périodiques horizontaux, verticaux et obliques) sur la transformée de Fourier. Ainsi, des maxima apparaissent selon l'axe fréquentiel vertical pour l'image originale avec des traits noirs horizontaux. Le filtrage de la transformée de Fourier réduit beaucoup le bruit associé aux traits. a) Image "grille" b) Transf. Fourier de a). c) Filtrage de b) d) Inverse de c) Figure V.9 : Transformée de Fourier : élimination de fréquences "verticales".

103 TRAITEMENT D'IMAGES 103 Figure V.10 : Elimination de fréquences "parasites" par filtrage de la transformée de Fourier. L'élimination des fréquences "parasites" n'est que partielle, en raison de l'imperfection du filtre passe bas. Les exemples précédents font apparaître que la transformée inverse d une transformée de Fourier qui a été filtrée permet d obtenir une image qui correspond à l image de départ, mais à laquelle on a enlevé l information qui correspond au filtrage effectué (e.g., disparition / diminution des barres horizontales). Dans le cas d images bruitées, il est souvent utile de filtrer la transformée de Fourier de l image bruitée avec un filtre qui correspond à l inverse de la transformée de Fourier du bruit.. Le filtre de du bruit. Ainsi, le filtre de Wiener (Figure V.11) est un filtre passe bande qui agit comme un filtre inverse dans les basses fréquences et un filtre passe bas pour filtrer le bruit dans les hautes fréquences.

104 TRAITEMENT D'IMAGES 104 Flou de mouvement Image restaurée V.3.2 Filtres linéaires Flou de focus Image restaurée Figure V.11 : Amélioration d'image. Les filtres linéaires effectuent des opérations linéaires sur des comptes numériques, qui en général sont ceux des pixels du voisinage du pixel traité. Ce sont donc des convolutions. Deux exemples sont présentés ici : "moyenne / lissage" d'images et "détection de frontières". L extension spatiale des filtres est nécessairement limitée : c est la dimension de l opérateur de convolution. La récurcivité permet de l étendre. Un filtre est dit récursif si sa sortie y n dépend des entrées (x i où i n) et sorties (y i où i<n) précédentes: y n = F(y i ; {i<n}) + G(x j ;{j n}). C est le cas du filtre "y n = x n + a.y n-1 " où a <1. n Il conduit à y n = Σ a j.x j=0 n-j (i.e., image initiale convoluée par un filtre d'étalement n tel que h(n)=a n ). Moyenne / Lissage Le filtre "moyenne" calcule la moyenne locale en tout point de l'image (i.e., moyenne des comptes numériques des pixels du pixel traité : Figure V.12). Son inconvénient majeur est d'élargir les frontières entre les différents objets de l'image, ce qui donne un aspect flou aux images. La taille et la forme du voisinage utilisé sont choisis selon la taille et forme des hétérogénéités (frontières, ) que l'on veut éliminer, mettre en évidence, etc. Avec une fenêtre 3 x 3, on a : Une caractéristique de ces filtres est qu'ils donnent des images dont certains comptes numériques peuvent ne pas être présents dans l'image initiale qui est traitée. Ainsi, l'application du filtre "moyenne" sur une image composée de deux zones juxtaposées avec des comptes numériques à 0 et 100 fait apparaître une zone frontière avec des comptes numériques compris entre 0 et 100.

105 TRAITEMENT D'IMAGES 105 Figure V.12 : "Image initiale", "Lissage", "Laplacien" et "Image - Image lissée". Détection de frontière Le choix d'un tel opérateur dépend de la forme, dimension, etc. des frontières (Figure V.13). Compte numérique Figure V.13 : Différents types de frontières - Opérateur "laplacien" Cet opérateur de différentiation du 2 ème ordre ( 2 P 2 P x 2 + y 2 ) donne des comptes numériques d autant plus élevés que leurs pixels correspondent à des hétérogénéités de l'image (e.g., zones frontières). Bien utilisé, il peut contribuer à améliorer la netteté d une image floue. Son principe est qu'une hétérogénéité correspond à un passage à zéro du Laplacien (i.e., maximum de la dérivée). L'approximation discrète la plus simple du Laplacien de fenêtre 3 x 3 est Ceci correspond à la différence entre le pixel et la moyenne de certains pixels de son voisinage. Par suite, le Laplacien est très similaire à l'opérateur "Ecart à la moyenne". Ains, dans le cas d une fenêtre 3 x 3 : - Opérateur "gradient" Laplacien = L'opérateur "gradient" est souvent utilisé pour créer l'image des frontières au sein d une image. Son principe repose sur le calcul de gradients : l image obtenue a des comptes numériques proportionnels au gradient local dans l image de départ. Cet opérateur offre l intérêt de donner le module et la direction de la dérivée, ce qui n'est pas le cas du Laplacien. La binarisation de l image gradient obtenue fournit une image des frontières. Les exemples donnés ci-dessous correspondent à des gradients selon la verticale et l horizontale. Ainsi, l'opérateur "Prewitt" 3x3 X = : Frontière verticale Y = : Frontière horizontale donne une image gradient, c'est à dire une image dont les pixels sont des couples ( X, Y) de comptes numériques proportionnels aux gradients selon les colonnes et les lignes. L'opérateur de Sobel est l'opérateur Prewitt pondéré : X = et Y =

106 TRAITEMENT D'IMAGES 106 Figure V.14 : Amélioration des contours (droite) d'images (gauche) - Opérateurs non dérivatifs Les frontières peuvent être détectées avec des opérateurs non dérivatifs. Ainsi, il a été vu que le Laplacien donne des résultats similaires à l'opérateur "Ecart à la moyenne" (Figure V.12). Les frontières peuvent aussi être détectées et analysées en comparant des images successives obtenues en lissant l'image initiale avec des fenêtres de plus en plus grandes (Figure V.15). L'ensemble des images lissées constitue une image pyramidale. Figure V.15 : Détection de frontière avec une image pyramidale. Haut: Image originale - Image lissée d'ordre 1. Bas: Image lissée d'ordre 2 - Image lissée d'ordre 3. Les principales étapes d'une méthode schématique de détection des frontières sont : (1) Calcul d'une image "gradient". (2) Binarisation de l'image associée au module de chaque pixel de l'image "gradient". (3) Affinage de l'image binaire. Ceci est en général réalisé de manière itérative. (4) Fermeture des frontières non fermées, si nécessaire. Différentes techniques sont utilisées. Ainsi, les extrémités des contours peuvent être prolongées en tenant compte de gradients plus faibles que ceux retenus lors de la binarisation (2). La fermeture d'un contour (i.e., liaison entre 2 points) peut n'être possible que si la distance entre les deux points extrêmes du contour n'est pas trop grande, avec abandon du contour si la distance est trop grande. La valeur assignée à chaque segment peut être la valeur moyenne des pixels inclus dans le segment ou un attribut (valeur numérique, suite de caractères alphanumériques) donné par l'opérateur.

107 TRAITEMENT D'IMAGES 107 Figure V.16 : Détection et affinage de frontières Image initiale Image filtrée avec Sobel Frontières affinées V.3.3 Filtres non linéaires Les filtres linéaires ont des défauts. Ainsi, le filtre moyenne tend à rendre floues les frontières de l image traitée. De plus, ils font apparaître dans l image résultat des comptes numériques inexistants dans l image de départ. Les filtres non linéaires peuvent éviter ces problèmes. Ainsi, ils peuvent homogénéiser l'image tout en préservant ses frontières. Des exemples sont donnés ci-dessous. Filtres médians Ces filtres donnent un compte numérique qui dépend de l'ordre des valeurs des pixels du voisinage du pixel traité P(x,y). Il existe plusieurs types de filtres médian. Deux exemples sont donnés ici. - Filtre médian "moyenne" : le compte numérique de P(x,y) est transformé en une valeur telle que dans le voisinage de P(x,y) il y ait autant de pixels supérieurs et inférieurs à cette valeur. - Filtre médian "classement" : soit p le nombre de comptes numériques différents présents dans le voisinage de P(x,y). Ce filtre transforme le compte numérique de P(x,y) en une valeur égale au m ème compte numérique parmi les p comptes numériques du voisinage. Comme les filtres morphologiques, et contrairement aux filtres linéaires, les filtres médians ne donnent pas de nouveaux comptes numériques. Cette propriété permet de préserver les frontières (Figure V.17). Ils sont robustes, car la présence d'un faible nombre de pixels associés à du bruit affecte peu ou pas l'image "résultat". Un de leurs inconvénients est de nécessiter des temps de calcul supérieurs à ceux des filtres linéaires, en raison des nombreux tests informatiques obligatoires. Figure V.17 : Elimination de bruit avec un filtre médian. a) Image initiale. b) Image + bruit et structures. c) Filtre médian (1 itération). d) Filtre médian (20 itérations) Filtres spécifiques Beaucoup de filtres emploient des opérateurs locaux et des règles empiriques pour améliorer le contraste ou pour rendre homogènes les images. Deux exemples sont donnés ici : - remplacement du compte numérique de tout pixel par l'écart type du compte numérique des pixels de son voisinage. Ce filtre tend à rendre l'image homogène tout en préservant les frontières. - remplacement du compte numérique de tout pixel par le compte numérique calculé par égalisation de l'histogramme local. Ainsi, les comptes numériques localement minimum et maximum peuvent être mis à 0 et 255. Ce filtre met en évidence les détails foncés et égalise les différents contrastes présents dans l'image. Filtres adaptatifs Ils combinent deux opérations : détermination pour chaque pixel d'un paramètre (e.g., variance) qui indique si ce pixel appartient à une frontière, puis application d'un opérateur de lissage, en tenant compte de l'appartenance ou non du pixel traité à une frontière. Cette approche réduit le risque de rendre floues les frontières de l'image. Elle peut rendre plus homogène des zones plutôt homogènes, tout en préservant les frontières entre ces zones.

108 TRAITEMENT D'IMAGES 108 Ces filtres permettent d'améliorer le contraste en préservant les contours des objets, de rendre les statistiques locales beaucoup plus homogènes, etc. Ainsi, on peut transformer l'image de manière à ce que toutes les zones homogènes aient la même moyenne et la même variance. Exemple : Filtre Nagao. Il transforme le compte numérique d'un pixel par la moyenne des comptes numériques des pixels d'un "sous voisinage" de son "voisinage" (e.g., fenêtre 3x3 dans une fenêtre 5x5 (Figure V.18)). Ce "sous voisinage" est celui qui a la plus petite variance (Figure V.19). Figure V.18 : Fenêtre 3x3 dans une fenêtre 5x5. Figure V.19 : Filtre Nagao. a) Image initiale. b) Image filtrée. V.4 MORPHOLOGIE MATHEMATIQUE La morphologie mathématique emploie les opérateurs Intersection, Union, Inclusion et Complément. L'image transformée est en général simplifiée par rapport à l'image origine, ce qui correspond donc à une perte d'information. Les principales caractéristiques de l'image origine sont cependant toujours présentes. Les mesures sont ensuite effectuées sur cette image simplifiée. Les opérations de morphologie mathématique s'appliquent aux images binaires et aux images "monocanal". Elles se font avec un élément structurant ( ), caractérisé par sa dimension, sa forme et son centre. Chaque objet de l'image est comparé à ( ) en déplaçant ( ) en tout pixel de l'image. Ainsi, dans le cas d'une image binaire, pour chaque position de ( ), il peut être détecté si ( ) est entièrement inclus dans une zone "pure" de 0 ou de 1, ou une zone qui contient des 0 et des 1. L'élément ( ) définit le voisinage d'analyse du pixel traité. Ce voisinage peut être un rectangle, un cercle, un hexagone, etc. a) b) c) Figure V.20 : Elément structurant ( ) 3x3. Voisinage de 1 pixel (a), 4 pixels (b) et 8 pixels (c). Les transformations morphologiques se composent de deux groupes principaux : - les opérations de base : érosion, dilatation, ouverture et fermeture. - les opérations homopotiques liées à la manipulation du "squelette" de l'information recherchée ; e.g. l'affinage et l'épaississement du squelette. V.4.1 Opérateurs morphologiques de base Soit une image I et un élément structurant (B). Erosion : IŌ On distingue l'érosion appliquée aux images binaires et aux images "monocanal" :

109 TRAITEMENT D'IMAGES image binaire I : Soit (V) l'ensemble des points "vrais" de I. L'érosion de I par le disque ( ) est l'ensemble des pixels P tels que ( ) centré en P est totalement inclus dans l'ensemble (V). - image monocanal I : le compte numérique du pixel traité devient le plus petit compte numérique des pixels de son voisinage. Cette opération est donc cohérente avec l'érosion d'image binaire. Une érosion : - élimine les points isolés et les petites zones de dimensions inférieures à ( ), - rétrécit la forme des différents objets, - élimine les petites rugosités présentes sur les frontières, et - découple des objets "faiblement" liés. (B) Figure V.21 : Erosion a) Image initiale. b) Image érodée. Les pixels de l'image dont le voisinage (B) n'est pas totalement inclus dans la zone de pixels vrais sont transformés en pixels "faux". Dilatation : I +O On distingue la dilatation appliquée aux images binaires et aux images "monocanal" : - image binaire I : Soit (V) l'ensemble des points "vrais" de I. La dilatation de I par le disque ( ) est l'ensemble des pixels P tels que ( ) centré en P recouvre au moins un pixel de (V). - image monocanal I : le compte numérique de tout pixel devient le plus grand compte numérique des pixels de son voisinage. Une dilatation : - remplit les trous présents dans les objets, - remplit les zones étroites en dehors de (V) mais qui séparent des portions de (V), - agrandit la dimension des particules, et - reconnecte des particules proches. L'itération des opérations de dilatation et érosion génère des érosions et dilatation de grandes dimensions. Ainsi, la dilatation réalisée 2 fois de suite avec un élément structurant ( ) donne des résultats similaires à ceux obtenus par une dilatation réalisée avec une seule dilatation, mais où l'élément structurant a une dimension double de ( ). Dans le cas de n applications successives, l'érosion et la dilation sont dites d'ordre n. Ouverture : I o B L'ouverture est une érosion suivie d'une dilatation avec ( ). Elle élimine les petits pics, les isthmes et peut déconnecter des objets/zones "vrais". Une ouverture d'ordre n revient à effectuer n érosions suivies de n dilatations. L'ouverture dégrade moins l'information que l'érosion. Elle élimine les petits objets mais garde les plus importants tout en conservant beaucoup mieux leur forme. Fermeture : I B ou I B La fermeture est une dilatation suivie d'une érosion avec ( ). Elle remplit les trous à l'intérieur des particules, lisse les contours des objets depuis leur extérieur, et connecte les particules proches. Une fermeture d'ordre n revient à effectuer n dilatations suivies de n érosions.

110 TRAITEMENT D'IMAGES 110 La fermeture détruit moins l'information que la dilatation. Elle élimine les petits trous à l'intérieur des objets, et tend à conserver la forme des objets qui restent. Les opérateurs Erosion, Dilatation, Ouverture et Fermeture ont la propriété de monotonie. Ceci signifie que si une image I 1 est contenue dans une image I 2 alors la transformation de I 1 par T est alors inclue dans la transformation de I 2 par T. Grande île petites îles barrière de corail Figure V.22 : Fermeture et ouverture. (a) Image binaire initiale. (b) Fermeture de (a) "disparition des pixels blancs de l'île" + "écume bruitée". (c) Ouverture de (a) : "disparition des petites îles" + "grande île bruitée". Chapeau Haut de Forme Cet opérateur fait apparaître les objets linéaires fins (sombres ou clairs) inférieurs à une épaisseur donnée. Pour cela, il soustrait l'image "filtrée" à l'image initiale. On distingue 2 cas : - Chapeau Haut de Forme Blanc (white top hat) : "I - I o B". Détection de fins éléments clairs dans un contexte plus sombre, en faisant la différence entre l'image et l'ouverture de la même image. - Chapeau Haut de Forme Noir (black top hat) : "I - I B". Détection de fins éléments foncés dans un contexte plus clair, en faisant la différence entre l'image et la fermeture de la même image. Ligne de partage des eaux La ligne de partage des eaux s obtient par extension spatiale à partir de points origines au sein de l image. Ces minima sont en général les points de plus faible compte numérique de l image. Le processus est itératif. Il fonctionne avec un élément structurant L. Au début de la première itération, les pixels de l image résultat sont tous nuls, sauf les pixels correspondant aux minima. A chaque itération, dans le cas où les minima sont positifs, le processus remplace le CN P(i, j) de tout pixel en (i, j) par la plus grande valeur P max du voisinage de ce pixel (P(i,j) P max ) : P max = Max{P(i-1, j-1), P(i-1, j), P(i-1, j+1)} Les minima peuvent être les valeurs de pixels ou ensembles de pixels au sein de l image définis par un masque ou bien être déterminés de manière plus ou moins automatique. Ainsi, le logiciel Aphelion peut utiliser en sus de l image traitée un masque labellisé établi avec la séquence "Seuillage Erosion Labellisation". Dans ce cas, l image finale est une image labellisée avec des labels qui sont ceux de l image labellisée de départ. L opérateur utilisé est "Morphologie mathématique \ Ligne de partage des eaux \ ImgConstrainedWatershed". En itérant jusqu'à stabilisation, les points de départ conservent leur valeur initiale. Les régions qui entourent ces points prennent la valeur de ces points. Un simple seuillage permet en général d'extraire le masque de la ligne de partage des eaux. Cet opérateur permet de séparer des régions dont les frontières sont très faiblement marquées. Le fait qu une image puisse être considérée comme une surface dans un espace de dimension 3 explique qu il est possible d'utiliser la terminologie de la géographie qui définit la ligne de partage des eaux comme la crête qui forme la limite entre deux bassins versants.

111 TRAITEMENT D'IMAGES 111 Minima (1 er niveau) 2 ème niveau (inondés à partir du 1 er niveau) 3 ème niveau Lignes de partage des eaux Figure V.23 : Ligne de partage des eaux. Image avec 4 niveaux de valeurs. Figure V.24 : a) image originale, b) en blanc : minima de (a), c et d) ligne de partage des eaux. Gradient morphologique I +O - IŌB Détecte de forts gradients de comptes numériques. V.4.2 Autres opérateurs binaires Un inconvénient des opérateurs morphologiques précédents est qu'ils ne préservent pas la forme géométrique des objets. En effet, il est souvent nécessaire de conserver certaines caractéristiques géométriques (e.g., nombre d'objets). Des opérateurs qui satisfont cette condition sont dits homopotiques. Leur emploi implique de définir la notion de structure des objets. Ainsi, la structure d'un objet peut être définie par le squelette de, c'est-à-dire l ensemble de points médians à égale distance des frontières de. Squelettisation L'affinage est l'opération qui transforme un objet (i.e., ensemble de points connectés) en son squelette. Avec un voisinage ( ) utilisé comme une fenêtre glissante de convolution, il donne : "pixel de inchangé si " et "pixel = 0 si " Le squelette obtenu dépend du voisinage. Ainsi, avec le logiciel Aphelion, le squelette est celui de la Figure V.25 si est un noyau "centroïde", alors qu il est constitué par un point unique par objet binaire si est un noyau "skeleton". Figure V.25 : Squelettisation d image. Image initiale. b) Binarisation de a). c) Squelettisation de b). Inversement, l'opération d'épaississement ("thickening") du squelette est : "pixel inchangé si " et "pixel = 1 si "

112 TRAITEMENT D'IMAGES 112 Reconstruction L'opération de reconstruction itère des dilatations jusqu'à ce que l'image résultat n'évolue plus, sachant qu'une dilatation ne peut être effective (i.e., un pixel "faux" dans l'image de départ est mis "vrai") que si le pixel est "vrai" dans un masque (image de référence). Il s'agit donc d'une dilatation conditionnelle. La dilatation est réalisée à partir d'un ensemble de pixels "vrais" appelé "graine". Image binaire initiale (1). (2): Erosion de l'image (1). Figure V.26 : Reconstruction. La reconstruction ne peut recréer que des points connectés aux "graines" de (2). Par contre, la dilatation de (2) peut recréer des pixels non connectés. Reconstruction avec (2) pour "graine" et (1) pour masque. Dilatation de (2) et intersection avec (1). V.5 CLASSIFICATIONS D'IMAGES Lors de la visualisation d'une image, un opérateur classe ou partitionne visuellement de manière plus ou moins "intuitive" l'image selon les différentes "populations" qu'elle contient. Chaque partition ou classe de l'image est souvent supposée correspondre à un seul type d'"objet". Les critères de classification peuvent être la couleur, la texture, la forme, le contexte, etc. Le but de la classification automatique est d'effectuer automatiquement la classification réalisée visuellement par l'opérateur. Il existe plusieurs grandes catégories de classification assistée par ordinateur. - classification purement radiométrique : elle est basée sur les valeurs radiométriques des pixels; elle opère pixel par pixel sans tenir compte du voisinage du pixel à classer. - classification texturale/contextuelle ; elle est à la fois basée sur le compte numérique du pixel à classer et sur les valeurs des pixels voisins. De plus, les méthodes de classification assistée par ordinateur sont aussi caractérisées par leur degré d'automaticité. Ainsi, il existe des (1) méthodes entièrement automatiques et des (2) méthodes, dites interactives ou dirigées, dans lesquelles l'opérateur peut apporter son savoir-faire et ses connaissances. L'apport de l'opérateur est plus ou moins nécessaire quand la démarche intellectuelle de l'opérateur ne peut être reproduite de manière totalement automatique à l'aide d'algorithmes. Classification radiométrique d'une image satellite Toute image de satellite obtenue dans n canaux spectraux et codée sur 8 bits peut contenir au plus 256 n classes (i.e., n uplets). Vu que la dynamique totale est rarement utilisée et que les valeurs des comptes numériques des pixels d une même classe peuvent différer, le nombre effectif de classes est beaucoup plus réduit (e.g., 30 à 40 classes). Chaque classe peut être définie par des caractéristiques statistiques (e.g., moyennes et variances spectrales). Toute classification comprend les deux étapes suivantes : 1) Détermination et caractérisation des classes. Cette étape est automatique ou dirigée par l'opérateur. - Approche automatique. Cette méthode dite des nuées dynamiques opère par itérations successives. (i) Recherche des maxima locaux de l'histogramme multidimensionnel des n canaux, puis première détermination du nombre de classes. Ainsi, au départ, un histogramme comportant "N" modes peut donner "N" classes. (ii) Calcul des caractéristiques des classes. Ainsi, le centre des classes, i.e. moyenne des comptes numériques des pixels appartenant à la classe, est souvent calculé. (iii) Classification des pixels en fonction des classes définies dans (ii). Cette étape définit donc de nouvelles classes. Deux cas surviennent : soit les "nouveaux" centres de classes ne correspondent pas aux "anciens" et on recommence (iii), soit ils sont identiques et la classification est terminée. En fait, les classes "mathématiques/spectrales" obtenues peuvent n'avoir aucune réalité thématique.

113 TRAITEMENT D'IMAGES Classification "dirigée". L'opérateur reconnaît dans l'image les objets qu'il veut classer, ce qui permet d'échantillonner ceux-ci pour calculer leurs caractéristiques (moyenne, écart type, ) de leurs classes spectrales. 2) Classification des pixels d images dans les classes prédéfinies. Trois méthodes qui s appuient sur une représentation statistique (i.e., moyenne, écart type, etc.) des classes sont présentées ci-dessous. - Distance minimale au centre de classe. Les classes sont définies par leur centre, ce qui permet de classer tout pixel dans la classe dont il est le plus proche. Ainsi, dans la Figure V.27, le point "A" est affecté à la classe "sol". On définit souvent une limite maximum d'acceptation; distance au-delà de laquelle un pixel ne peut appartenir à une classe. Ainsi, aucune classe n est affectée au point "B. Le choix de la distance est important. Ainsi, la distance euclidienne ne tient pas compte de la corrélation entre images, si bien que n images 100% corrélées ont alors un poids très supérieur à celui d une seule image. La distance dite de Mahalanobis apporte une solution : elle pondère la distance euclidienne par un poids inversement proportionnel aux variances et covariances entre images. Ainsi, la distance entre les pixels a (a 1,, a n ) et b (b 1,, b n ) d une image avec n n n canaux est : i=1 Σ j=1 Σ w ij.(a i b i ).(a j b j ) = (a b) t.(w).(a - b), où (w) est une matrice carrée inverse de la matrice de variance / covariance. Dans un espace où les dimensions sont décorrélées (e.g., espace des composantes principales), (w) est l inverse de la matrice "variance". - Méthode des bornes / Hypercube. Les classes sont définies par leurs valeurs (bornes) extrêmes dans chaque canal. Dans l'espace des canaux spectraux les classes sont donc représentées par des hypercubes. Ce sont des rectangles dans le cas de 2 canaux, des parallélépipèdes dans le cas de 3 canaux, etc. - Maximum de vraisemblance / Probabilité maximale. Cette méthode définit toute classe (i.e., moyenne, écart type) par la courbe de Gauss qui ajuste son histogramme. Ceci permet de calculer la probabilité "théorique" d'appartenance de tout pixel à cette classe : plus le rapport (distance "pixel - classe")/(écart type de la classe) est grand et plus la probabilité que ce pixel appartienne à la classe est grande. On définit souvent des limites d'acceptation, c'est à dire des probabilités au-delà desquelles le pixel est "non classé". Canal 2 B A Classe "sol" Frontière Seuils Classe "eau" Canal 1 Figure V.27 : Histogramme bidimensionnel. Le nombre de pixels caractérisés par le couple de comptes numériques (canal 1, canal 2) est indiqué par un ton de gris. Ici, l histogramme est bimodal, avec 2 pics associés à 2 populations (i.e., sol et eau ). Les seuils correspondent aux limites au-delà desquelles un pixel ne peut être considéré comme appartenant à une population. Les applications des classifications sont très diverses (e.g., reconnaissance/cartographie (semi) automatique d'objets à partir d images de télédétection spatiale). En général, le choix de la méthode de classification employée affecte à la fois les temps de calcul et les résultats eux-mêmes. L'évaluation de la fiabilité de toute classification, automatique ou non, s appuie en général sur l emploi de zones de référence ou de contrôle. Il existe d autres types de méthodes de classification. Ainsi, la méthode des réseaux de neurones, contrairement aux méthodes présentées ci-dessus, ne s appuie pas sur une représentation statistique (i.e., moyenne, écart type, etc.) des classes. Figure V.28 : Exemple de classification à partir de plusieurs images de départ.

114 TRAITEMENT D'IMAGES 114 VI ANNEXE VI.1 MEMOIRE INFORMATIQUE La mémoire informatique est un composant permet de stocker et relire des informations binaires. Après avoir été tout d abord magnétique (tores de ferrite), elle est devenue électronique dans les années Son temps d'accès (quelques dizaines ou centaines de nanosecondes) est beaucoup plus rapide que celui du disque dur (quelques millisecondes, soit dix mille à cent mille fois plus). Elle est constituée de centaines de milliers de petits condensateurs. Lorsqu'il est chargé, l'état logique du condensateur est égal à 1, dans le cas contraire il est à 0, ce qui signifie que chaque condensateur représente un bit de la mémoire. Etant donné que les condensateurs se déchargent, il faut constamment les recharger (le terme exact est rafraîchir, en anglais refresh) à un intervalle de temps régulier appelé cycle de rafraîchissement (e.g., 15 ns pour les mémoires SDRAM). Chaque condensateur est couplé à un transistor (de type MOS) permettant de "récupérer" ou de modifier l'état du condensateur. Ces transistors sont rangés sous forme de tableau (matrice), c'est-à-dire que l'on accède à une case mémoire (aussi appelée point mémoire) repérée par une ligne et une colonne. Les informations sont organisées en mots de 8, 16 ou 32 bits voire plus, avec les spécificités suivantes : - dans les mémoires à parité, un neuvième bit (dit de contrôle de parité) existe de façon invisible, - dans les mémoires à correction automatique d'erreur sur 1 bit et détection sur plus d'un bit (ECC), ces bits invisibles sont parfois au nombre de six ou plus. Les fabricants recommandent souvent d'utiliser de l'ecc à partir d'1 Go de RAM. - chaque mot des mémoires des serveurs modernes dits non-stop ou 24x365 dispose en plus des bits de correction de bits de remplacement qui prennent la relève du ou des bits défaillants à mesure du vieillissement de la mémoire : une défaillance de chaque année se traduit en effet par plus d'un bit défaillant par an sur une mémoire de 128 Go. L accès à la mémoire n'est pas instantané. Il s'effectue durant un temps dit de latence (e.g., 25 ns pour une DRAM). Par suite, l'accès à une donnée en mémoire est «temps de cycle» + «temps de latence». Sur un ordinateur, le temps de cycle correspond à l'inverse de la fréquence de l'horloge. Par suite, un ordinateur ayant une fréquence élevée et une mémoire avec un temps d'accès beaucoup plus long que le temps de cycle du processeur doit effectuer plusieurs cycles d'attente pour accéder à la mémoire, ce qui diminue ses performances. Il est donc conseillé d'utiliser des mémoires plus rapides. Il existe de nombreux types de mémoires vives. Ces dernières se présentent toutes sous la forme de barrettes de mémoire enfichables sur la carte mère. Les premières mémoires se présentaient sous la forme de puces appelées DIP (Dual Inline Package). Désormais les mémoires se trouvent généralement sous la forme de barrettes, c'est-à-dire des cartes enfichables dans des connecteurs prévus à cet effet. La figure ci-contre montre les principales premières générations de RAM, avec de haut en bas : DIP, SIPP, SIMM 30 broches (PC 286 et 386), SIMM 72 broches (PC 386DX aux 1 ers Pentium), DIMM 2x84 broches, RIMM 184 broches Les types de mémoire vive dynamique actuels sont indiqués ci-dessous.

115 TRAITEMENT D'IMAGES SDRAM (Synchronous Dynamic RAM) : mémoire principale et vidéo. On distingue la SDRAM 66, 100 et 133 (fréquence d'accès en MHz). Pentiums I et II. - RDRAM (Rambus Dynamic RAM). Développée par la société Rambus, elle souffre notamment d'un prix beaucoup plus élevé que les autres types de mémoires et de brevets trop restrictifs de la part de la société créatrice. Elle est utilisée pour les Pentiums III et IV. - DDR SDRAM (Double Data Rate Synchronous Dynamic RAM). Mémoire principale et vidéo. Elle est synchrone avec l'horloge système, mais elle double la largeur de bande passante en transférant des données deux fois par cycles au lieu d'une seule pour la SDRAM simple. Elle est aussi plus chère. On distingue les DDR PC1600, PC2100, PC2700, PC3200, etc., où le numéro représente la quantité théorique maximale de transfert d'information en Mégabits (il faut diviser par 8 pour avoir leur fréquence réelle de fonctionnement). Pentiums III et IV. - DDR2-SDRAM (Double Data Rate 2-SDRAM). Elle permet d'atteindre des débits deux fois plus élevés que la DDR à fréquence externe égale. Pour cela, elle utilise deux canaux séparés pour la lecture et pour l'écriture. On distingue les DDR2 533 et DDR Le numéro représente la vitesse maximum d'accès. Pentium IV et plus. - XDRRAM (XDimm Rambus RAM). Technologie basée sur la technologie Flexio développée par Rambus. Elle permet d'envisager des débits théoriques de 6,4Go/s à 12,8Go/s en rafale. Il existe aussi des mémoires Flash. Ce sont des mémoires NVRAM effaçables électriquement (EEPROM) qui gardent donc la mémoire sans être alimentées. On les utilise dans les appareils mobiles (appareils photo, téléphones portables etc.). Leur temps d'accès, même en lecture seule, est pour le moment bien plus lent que celui de la mémoire dynamique. VI.2 CARTE VIDEO La carte graphique (en anglais graphic adapter), aussi appelée carte vidéo ou accélérateur graphique, est l'élément de l'ordinateur chargé de convertir les données numériques à afficher en données graphiques exploitables par un périphérique d'affichage. Alors que les cartes intiales ne permettaient que des manipulations graphiques simples (tracé de lignes et de polygones, ), les cartes graphiques actuelles possèdent maintenant un processeur dédié au calcul de scènes graphiques complexes 3-D (multiplication de matrice,...), ce qui allège la charge de calcul du ou des processeurs de la carte mère. Les cartes sont donc devenues programmables. Pour cela, il faut utiliser une bibliothèque graphique telle que Direct3D (partie de DirectX * ) ou OpenGL **. Ces bibliothèques facilitent la programmation d'un logiciel et rendent le code source plus indépendant de la carte graphique. De manière à accélérer les traitements, certaines opérations sont cablées : on parle alors d accélération matérielle. a) b) Carte graphique. a) Schéma. b) Ge Force 4200 * DirectX : suite d'api (bibliothèques de fonctions) multimédia pour les traitements audio/vidéo (carte vidéo, carte son, ) et les périphériques d'entrée/sortie (joystick, carte réseau, souris, ).. Il est intégré au système d'exploitation Windows et permet d'exploiter les capacités matérielles d'un ordinateur. Il fonctionne comme une surcouche de Windows, évitant théoriquement aux programmeurs de devoir s'occuper des différences matérielles qui existent entre les différents PC. Ainsi, il confie au processeur les traitements à réaliser si le matériel installé ne gère pas ceux-ci. ** OpenGL (Open Graphics Library) : API multi plate-forme pour la conception d'applications 3D et 2D.

116 TRAITEMENT D'IMAGES 116 Toutes les cartes graphiques ont 2 moyens d'accès à leur mémoire (i.e., buffer) : un accès aléatoire conventionnel (RAM) comme pour les mémoires centrales, et en général un accès séquentiel à la zone représentant l'écran (pixel buffer). Les principaux composants d'une carte vidéo sont : Processeur graphique (GPU : Graphical Processing Unit). Coeur de la carte graphique avec des instructions évoluées : traitement d image selon la résolution et la profondeur de codage choisie, etc. Il a parfois un radiateur et un ventilateur, car sa température peut s élever beaucoup. Mémoire vidéo (frame buffer) Elle stocke les images traitées par le GPU avant l'affichage. RAMDAC (random access memory digital-analogue converter). Il convertit les images numériques stockées dans le frame buffer en signaux analogiques à envoyer au moniteur. Sa fréquence détermine le taux de rafraîchissement (Hz : images / s) que la carte graphique peut supporter. BIOS vidéo. Il contient les paramètres (e.g., modes graphiques supportés) de la carte graphique. Interface. La connexion à la carte mère se fait à l'aide d'un port relié à un bus. La première norme utilisée fut la norme PCI. Le problème était que la carte graphique partageait le débit du bus PCI avec les autres cartes. Par suite, une norme spécialement dédiée au cartes graphiques a été créée : l'agp. Actuellement, le port PCI Express tend à remplacer l'agp, car, il est plus rapide que l AGP et offre une compatibilité logicielle avec la norme PCI, ce qui facilite la migration des cartes précédentes au format PCI. Ceci permet d'avoir des cartes mères avec uniquement des ports PCI Express. Ceci permet aussi d avoir facilement 2 cartes graphiques sur la même carte mère. Connectique. - Interface VGA standard. Une carte graphique a en général un connecteur VGA 15 broches qui envoie 3 signaux analogiques correspondant aux composantes rouges, bleues et vertes de l'image. - Interface DVI (Digital Video Interface). Elle envoie des données numériques, ce qui évite des conversions "numérique analogique", puis "analogique numériques", inutiles. - Interface S-Video. De plus en plus de cartes ont une prise S-Video qui permet d'afficher sur une télévision. Par suite, elle est souvent appelée prise télé (notée "TV-out") Interface VGA standard. Interface DVI. Interface S-Video. Le calcul d'une scène 3D est un processus qui comprend 4 étapes majeures. * le script: mise en place des éléments * la géométrie: création d'objets simples * le setup: découpage en triangles 2D * le rendering: C'est le rendu, c'est-à-dire le plaquage des textures L'affichage est d'autant plus rapide que la carte accélératrice 3D calcule elle-même ces étapes. Les premières puces n'effectuaient que le rendering, laissant le processeur s'occuper du reste. Depuis, les cartes possèdent un "setup engine" qui gère les 2 dernières étapes. Le type de bus est lui aussi déterminant. Ainsi, les cartes utilisant le bus AGP sont beaucoup plus performantes en 3D que les cartes utilisant le bus PCI. En effet, le bus AGP est directement relié à la mémoire vive, ce qui lui offre une bande passante beaucoup plus grande que le bus PCI. Terme Définition 2D Graphics Affiche une représentation d'une scène selon 2 axes de référence (x et y) 3D Graphics Affiche une représentation d'une scène selon 3 axes de référence (x, y et z) Alpha blending Le monde est composé d'objets opaques, translucides et transparents. L'alpha blending est une manière d'ajouter des informations de transparence à des objets translucides. Cela est fait en effectuant un rendu des polygones à travers des masques dont la densité est proportionnelle à la transparence des objets. La couleur du pixel résultant est une combinaison de la couleur du premier plan et de la couleur de l'arrière-plan. L'alpha a généralement une valeur comprise entre 0 et 1 calculée de la manière suivante: nouveau pixel=(alpha)*(couleur du premier pixel)+(1-alpha)*(couleur du second pixel)

117 TRAITEMENT D'IMAGES 117 Alpha buffer Canal additionnel qui stocke l'information de transparence (Rouge - Vert - Bleu - Transparence). Anti-aliasing Technique permettant de faire apparaître les pixels de façon moins crénelée. Effets atmosphériques Effets (e.g., brouillard ou effet de distance) qui améliorent le rendu d'un environnement. Bitmap Image pixel par pixel Bilinear filtering Permet de fluidifier le passage d'un pixel d'un endroit à un autre (e.g., lors d'une rotation). BitBLT Une des plus importantes fonctions d'accélération. Elle simplifie le déplacement d'un bloc de données, en prenant en compte les particularités de la mémoire - vidéo. Blending Combinaison de deux images en les ajoutant bit - à - bit. Bus Mastering Une fonction du bus PCI permettant de recevoir directement des informations de la mémoire sans transiter par le processeur Correction de Méthode pour faire du mappage (enveloppage) avec des textures (texture mapping). Elle perspective prend en compte la valeur de Z pour mapper les polygones. Un objet qui s'éloigne de l'objectif apparaissant plus petit en hauteur et en largeur, la correction de perspective fait que le taux de changement dans les pixels de la texture est proportionnel à la profondeur. Depth Cueing Baisse l'intensité des objets s'éloignant de l'objectif Dithering Permet d'archiver des images de qualité 24-bit dans des tampons plus petits (8 ou 16 bits). Le dithering utilise deux couleurs pour en créer une seule Double buffering Une méthode utilisant deux tampons, une pour l'affichage, l'autre pour le calcul du rendu, ainsi lorsque le rendu est fait les deux tampons sont échangés Flat shading Assigne une couleur uniforme sur un polygone. L'objet ainsi rendu apparaît facettisé. Fog Utilise la fonction blending pour un objet avec une couleur fixe (plus il s'éloigne de l'objectif, plus cette fonction est utilisée) Gamma Les caractéristiques d'un affichage utilisant des phosphores sont non-linéaires: un petit changement de la tension à basse tension crée un changement dans l'affichage au niveau de la brillance, ce même changement à plus haute tension ne donnera pas la même magnitude de brillance. La différence entre ce qui est attendu et ce qui est mesuré est appelée Gamma Gamma correction Avant d'être affichées, les données sont corrigées pour compenser le Gamma Gouraud Shading (lissage Gouraud) Algorithme du nom du mathématicien français qui l'a conçu. Il permet de lisser les couleurs par interpolation. Il assigne une couleur à chaque pixel d'un polygone en se basant sur une interpolation de ses arêtes, il simule l'apparence de surfaces plastiques ou métalliques. Interpolation Façon mathématique de régénérer des informations manquantes ou endommagées. Lorsqu'on agrandit une image par exemple, les pixels manquants sont régénérés par interpolation. Line Buffer Lissage Phong (Phong Bui-Tong) MIP Mapping C'est un tampon fait pour mémoriser une ligne vidéo Algorithme permettant un lissage des couleurs en calculant le taux de lumière en de nombreux points d'une surface, et en changeant la couleur des pixels en fonction de la valeur. Il est plus gourmand en ressources que le lissage Gouraud Mot provenant du latin "Multum in Parvum" qui signifie "plusieurs en un". Cette méthode permet d'appliquer des textures de différentes résolutions pour des objets d'une même image, selon leur taille et leur distance. Cela permet entre autres de mettre des textures de plus haute résolution lorsqu'on se rapproche d'un objet. Projection Transforme (en le réduisant) un espace en 3 dimensions en un espace en 2 dimensions Rasterisation Transforme une image en pixels Rendu (rendering) Création d images réalistes sur un écran avec des modèles mathématiques (lissage, couleurs..) Rendering engine Partie matérielle ou logicielle qui calcule les primitives 3D (en général des triangles) Tesselation ou Le fait de calculer des graphiques en 3D peut être divisé en 3 parties: la facettisation, la facettisation géométrie et le rendu. La facettisation est la partie consistant à découper une surface en plus petites formes, en la découpant (souvent en triangles ou en quadrilatères) Texture Mapping Consiste à stocker des images constituées de pixels (texels), puis à envelopper des objets 3D de cette texture pour obtenir une représentation plus réaliste des objets Tri-linear filtering Basé sur le principe du filtrage bilinéaire, le filtrage trilinéaire consiste à faire une moyenne de deux niveaux de filtrage bilinéaire. Z-buffer Partie de la mémoire qui stocke la distance de chaque pixel à l'objectif. Lorsque les objets sont rendus à l'écran, le rendering engine doit supprimer les surfaces cachées. Z-buffering C'est le fait de supprimer les faces cachées en utilisant les valeurs stockées dans le Z-buffer VI.3 CARTE SON La carte son (en anglais audio card ou sound card) est l'élément de l'ordinateur permettant de gérer les entrées-sorties sonores. Il s'agit en général d'un contrôleur qui s'insère dans un emplacement PCI, PCI- E 1x, PCMCIA (pour ordinateur portable) et port USB (pour les plus récentes) (emplacement ISA pour les plus anciennes). De plus en plus de cartes mères possèdent une carte son intégrée. Une carte son peut également servir à interpréter les signaux audio qui entrent dans l'ordinateur (micro, entrée ligne etc.). Dans ce cas, elle transforme un signal analogique en signal numérique (analysable par l'ordinateur).

118 TRAITEMENT D'IMAGES 118 Les cartes sons d'avant 1990 ne géraient que 2 voix en sortie (stéréo). Les cartes actuelles peuvent gérer jusqu'à 8 sorties audio indépendantes (8 haut-parleurs : 2 avants droits, 2 avants gauche, 1 central, 2 arrières et un caisson de basse) pour rendre un effet de positionnement spatial. a) b) Carte son. a) Schéma. b) Carte son PCI La carte son repose généralement sur un processeur DSP pour le traitement des signaux audio, qui communique avec le processeur central via le bus qu'elle possède. Elle est équipée de convertisseurs analogique - numérique pour numériser des signaux externes (micro,..), et de convertisseurs numérique - analogique pour restituer les signaux audibles vers les enceintes ou le casque. La plupart possèdent également une interface MIDI pour communiquer avec des synthétiseurs, également utilisée pour connecter un joystick. Les cartes sons travaillent sur des données numériques, c'est-à-dire des échantillons de sons. Elles sont en général classées suivant deux critères principaux: - la résolution. Elle indique le niveau de détail d'un échantillon. Plus la résolution est élevée, plus le son est précis et fin. Les cartes son grand public actuelles fonctionnent en 16 ou 24 bits. Lors de la numérisation, elles codent donc le signal analogique sur 16 ou 24 bits (i.e., valeurs ou un petit peu plus de 16 millions de valeurs). - la fréquence d échantillonnage (Hz) : elle correspond au nombre d'échantillons produits par seconde lors de l'échantillonnage. Les cartes sons actuelles ont des fréquences d'échantillonnage de l'ordre de Hz à 192 KHz. Plus l'échantillonnage est élevé, plus le son est détaillé. Principaux éléments d'une carte son : Processeur spécialisé (DSP: digital signal processor). Il est chargé de tous les traitements numériques du son (écho, réverbération, vibrato chorus, tremolo, effets 3D, etc.). Certaines cartes haut de gamme comportent plusieurs DSP, de la mémoire additionnelle, des entrées-sorties numériques, ou encore un boîtier de connexion externe (contenant les convertisseurs). Convertisseur digital - analogique (DAC: digital to analogue converter). Il convertit les données audio de l'ordinateur en signal analogique vers un système de restitution sonore (baffles, amplificateur,...). Convertisseur analogique / numérique appelé ADC (analogue to digital converter). Il convertit le signal analogique des entrées en donnés numériques pouvant être traitées par l'ordinateur ; Connecteurs d'entrées-sorties externes : - Une ou 2 sorties ligne au format jack standard 3.5 mm (notée Line Out, Speaker output ou SPK). - Une entrée ligne (Line in) ; - Une entrée microphone (notée parfois Mic), généralement au format jack 3.5 mm. - Une sortie numérique SPDIF (Sony Philips Digital Interface). Elle envoie des données sonores numériques à un amplificateur numérique par un câble coaxial terminé par des connecteurs RCA - Une interface MIDI qui connecte des instruments de musique et peut servir de port de jeu (game port en anglais) pour brancher une manette (joystick ou game pad) possédant une prise SUB-D 15. Les connecteurs d'entrées-sorties internes : - Connecteur relié à la sortie audio analogique du CD/DVD-ROM par un câble CD Audio. - Entrée auxiliaire (AUX-In) qui connecte des sources audio internes telles qu'une carte tuner TV ; - Connecteur pour répondeur téléphonique (TAD, Telephone Answering Devices).

119 TRAITEMENT D'IMAGES 119 VI.4 CARTE RESEAU Une carte réseau (NIC : Network Interface Card) est une carte d'extension d'ordinateur. Elle assure le rattachement d'un équipement informatique (e.g., ordinateur) à un ensemble d'autres ressources connectées sur le même réseau. Les équipements communiquent sur le réseau au moyen de signaux qui doivent absolument respecter des normes. La fonction d une carte réseau est de préparer, d envoyer et de contrôler les données sur le réseau. Elle possède généralement deux témoins lumineux (LEDs) : - LED verte correspond à l'alimentation de la carte ; - LED orange (10 Mb/s) ou rouge (100 Mb/s) indique une activité du réseau (envoi / réception de données). Carte réseau. a) Schéma. b) Carte Etherlink. Le média ou support de l'information est en général un réseau filaire. Depuis peu, chez les particuliers, la transmission sans fil (Wi-Fi) peut remplacer le réseau filaire par un réseau d'ondes électromagnétiques. Avec un réseau filaire, la carte réseau a alors un connecteur sur lequel on branche un câble réseau. Ce câble est relié au réseau via une prise murale ou directement via un équipement d'interconnexion de réseau comme un concentrateur (Hub : nœud de réseau informatique) ou un commutateur (Switch). Le hub assure une connexion systématique entre tous les équipements connectés, alors que le switch permet de diriger les données uniquement vers la machine destinataire. Il possède deux types de ports (i.e., prises physiques) : - Ports pour la connexion des ordinateurs du (sous)-réseau. - Port pour extension du réseau : un ou plusieurs autres hubs s y connectent. Il est identique au port précédent, mais le câblage y est inversé. Pour préparer les données à envoyer, la carte réseau utilise un transceiver qui transforme les données parallèles en données séries. Toute carte a une adresse unique (adresse MAC) donnée par le fabriquant de la carte, ce qui l'identifie de façon unique dans le monde parmi toutes les autres cartes réseau. Les adresses sont inscrites sur les puces des cartes. Elles sont définies par l IEEE (Institute of Electrical and Electronics Engineer) qui attribue des plages d adresses à chaque fabriquant de cartes réseau. Les cartes réseau disposent de paramètres qu il est possible de configurer : l interruption matérielle (IRQ), l adresse de base du port E/S, l adresse de base de la mémoire (DMA), etc. Pour garantir la compatibilité entre l ordinateur et le réseau, la carte doit être adaptée à l architecture du bus de données de l ordinateur et avoir le type de connecteur approprié au câblage. Chaque carte est conçue pour s adapter à un certain type de câble. Certaines cartes ont plusieurs connecteurs d interfaces, souvent paramétrés automatiquement (PnP: Plug and Play), ou bien avec des cavaliers, ou des DIP, ou de façon logicielle. Les connecteurs RJ-45 sont les plus répandus. Certaines topologies réseau propriétaires utilisant la paire torsadée ont recours au connecteur RJ-11. Ces topologies sont parfois appelées "pré-10baset". Les données se déplacent dans l ordinateur sur des chemins parallèles appelés "bus". Les premiers bus fonctionnaient en 8 bits. L ordinateur PC/AT d IBM a introduit les premiers bus 16 bits. La plupart des bus actuels sont en 32 bits. Ils vont être remplacés par des 64 bits. En fait, sur un câble les données circulent en série (1 flux de bits) dans un seul sens. L ordinateur peut envoyer ou recevoir des informations, mais pas les deux simultanément. Ainsi, la carte réseau

120 TRAITEMENT D'IMAGES 120 restructure un groupe de données arrivant en parallèle en données circulant en série (1 bit). Pour cela, les signaux numériques sont transformés en signaux électriques ou optiques susceptibles de voyager sur les câbles du réseau. Cette traduction est assurée par le Transceiver. La carte traduit les données et indique son adresse au reste du réseau afin de pouvoir être distinguée des autres cartes du réseau. La carte indique qu un autre ordinateur demande des données à l ordinateur qui la contient. Si les données circulent plus vite que la carte ne peut les traiter, elles sont placées dans la mémoire tampon affectée à la carte (RAM) dans laquelle elles sont stockées temporairement pendant l émission et la réception des données. L ordinateur affecte une partie de sa mémoire aux cartes munies d un Accès Direct à la Mémoire (DMA : Direct Access Memory). Lors de toute transmission de données, les cartes émettrice et réceptrice doivent s accorder sur : * Taille maximale des groupes de données à envoyer * Volume de données à envoyer avant confirmation * Intervalles de temps entre les transmissions partielles de données * Délai d attente avant envoi de la confirmation * Quantité que chaque carte peut contenir avant débordement * Vitesse de transmission des données Eléments de la carte devant être paramétrés : Interruption (IRQ). Les IRQ 3 et 5 sont souvent attribués aux cartes réseau. L IRQ 5 est conseillé (s il est disponible!) et la plupart des cartes l utilisent comme paramètre par défaut. Adresse de base du port d entrée/sortie (E/S). Chaque périphérique doit utiliser une adresse de base différente pour le port correspondant. Adresse de base de la mémoire, pour les cartes réseau qui utilisent les adresses RAM de la machine. Elle désigne un emplacement de la mémoire vive (RAM) de l ordinateur. La carte utilise cet emplacement comme tampon pour les données qui entrent et qui sortent. Il s'agit de l'"adresse de début" (RAM Start Address), soit en général D8000 pour une carte réseau. Il est essentiel de prendre soin de ne pas sélectionner une adresse de base déjà utilisée par un autre périphérique. VI.5 ECRANS L'image s'affiche sur un écran (appelé aussi moniteur). Cette information parvient de façon "indirecte", car le processeur traite tout d'abord l'information provenant de la mémoire vive (RAM * ) de l'ordinateur, puis l'envoie à une carte graphique qui est chargée de convertir l'information en impulsions électriques qu'elle envoie au moniteur. Les 2 familles majeures d'écrans sont : - Ecrans à tube cathodique (CRT: Cathode Ray Tube). Ils sont en voie de disparition, car ils sont volumineux, lourds et consomment beaucoup. - Ecrans plats : ordinateurs portables, assistants personnels (PDA), appareils photo numérique, et de plus en plus d'ordinateurs de bureau. Ils sont peu encombrants, légers et consomment peu. Les moniteurs sont souvent caractérisés par les données suivantes: - La définition. C'est le nombre de points (pixel) que l'écran peut afficher. Il est en général compris entre 640x480 (640 points en longueur, 480 points en largeur) et 2048x1536, mais des résolutions supérieures sont techniquement possibles. Diagonale Définition 15" ( 38cm) 800x600 17" ( 43cm) 1024x768 19" ( 48cm) 1280x " ( 53cm) 1600x1200 Diagonale de l'écran vs. Définition conseillée. * Mémoires dynamiques (DRAM, Dynamic Random Access Module), peu coûteuses, et surtout utilisées pour la mémoire centrale de l'ordinateur. Mémoires statiques (SRAM, Static Random Access Module), rapides et onéreuses, notamment utilisées pour les mémoires cache du processeur.

121 TRAITEMENT D'IMAGES La taille. C'est la taille de la diagonale de l'écran, en général exprimée en pouces (1 pouce = 2,54 cm). Il ne faut pas confondre la définition de l'écran et sa taille : un écran d'une taille donnée peut afficher différentes définitions, mais certaines définitions sont conseillées. - Le pas de masque (en anglais dot pitch). C'est la distance entre 2 luminophores. Plus elle est petite, plus l'image est précise. Un pas de masque inférieur ou égal à 0,25 mm procure un bon confort. - La résolution. C'est le nombre de pixels par unité de surface : pixels par pouce linéaire (DPI: Dots Per Inch). Une résolution de 300 dpi signifie 300 colonnes et 300 rangées de pixels sur un pouce carré, soit pixels sur un pouce carré. La résolution de référence de 72 dpi donne un pixel de 1"/72 (un pouce divisé par 72) 0.353mm ; i.e., un point pica (unité typographique anglo-saxonne). On appelle mode graphique le mode d'affichage des informations à l'écran, en terme de définition et de nombre de couleurs. Il représente ainsi la capacité d'une carte graphique à gérer des détails ou celle d'un écran de les afficher. Les modes graphiques actuels ont beaucoup évolué depuis 1981, date d'apparition du mode MDA (Monochrome Display Adapter) pour les écrans monochromes avec un affichage en mode texte de 80 colonnes par 25 lignes. Il permettait uniquement les caractères ASCII. Format d'affichage Résolution horizontale Résolution verticale Nombre de pixels Ratio VGA SVGA ,56 XGA ,56 SXGA ,27 SXGA ,78 SXGA ,27 UXGA ,25 QXGA ,2 QSXGA ,242,800 17,1 QUXGA ,680, Modes d'affichage des écrans Beaucoup de normes s'appliquent aux moniteurs pour garantir leur qualité, une limitation du rayonnement et une consommation d'énergie limitée. Ainsi, à la fin des années 80, une autorité suédoise a élaboré la norme MPR1 qui mesure le rayonnement des matériels. Son amendement en 1990 a donné la norme internationale MPR2. En 1992, la confédération suédoise des employés professionnels a introduit le standard TCO. Ce dernier décrit le niveau d'émission de rayonnements non plus en terme de niveau de sécurité minimal mais en terme de niveau minimal possible techniquement. Ses révisions en 1992, 1995 et 1999 ont donné respectivement les normes TCO92, TCO95 et TCO99. Logo de la norme TCO'99 : En 1993, le consortium de fabricants de matériel informatique VESA (Video Electronics Standards Association) a créé la norme DPMS (Display Power Management Signalling) qui propose 4 modes de fonctionnement pour les appareils s'y conformant : * En marche. * En veille (standby), avec une consommation inférieure à 25W. * En suspension, avec une consommation inférieure à 8W. Dans ce mode le canon à électrons est éteint, ce qui implique un délai de remise en route plus grand qu'en veille. * En arrêt. Ecrans à tube cathodique Jusqu'au début de cette décennie, le moniteur (écran d'ordinateur) était en général un tube cathodique (i.e., tube à rayonnement cathodique), c'est à dire un tube en verre sous vide, dans lequel un canon à électrons émet un flux d'électrons dirigés par un champ électrique vers un écran couvert de petits

122 TRAITEMENT D'IMAGES 122 éléments phosphorescents (luminophores) constituant des points (pixels) émettant de la lumière lorsque les électrons viennent les heurter. Le canon à électrons comprend une cathode (i.e., électrode métallique chargée négativement) et une ou plusieurs anodes (électrodes chargées positivement). La cathode émet des électrons attirés par l'anode. L'anode agit ainsi comme un accélérateur et un concentrateur pour les électrons afin de constituer un flux d'électrons dirigé vers l'écran. Un champ magnétique est chargé de dévier les électrons de gauche à droite et de bas en haut. Il est créé grâce à deux bobines X et Y sous tension (appelées déflecteurs) servant respectivement à dévier le flux horizontalement et verticalement. L'écran est recouvert d'une fine couche d'éléments phosphorescents, appelés luminophores. Ces derniers émettent de la lumière par excitation lorsque les électrons viennent les heurter, ce qui constitue un point lumineux appelé pixel. En activant le champ magnétique, un balayage peut être créé de gauche à droite, puis vers le bas une fois en bout de ligne. Il n'est pas perçu par nos yeux grâce à la persistance rétinienne. Ce phénomène peut être visualisé en agitant une main devant un écran : on la voit en plusieurs exemplaires! Un moniteur noir et blanc permet d'afficher des dégradés de couleur (niveaux de gris) en variant l'intensité du rayon. Pour les moniteurs couleur, trois faisceaux d'électrons (correspondant à trois cathodes) viennent chacun heurter un point d'une couleur spécifique : un rouge, un vert et un bleu (RGB, correspondant à Red, Green, Blue ou en français RVB, Rouge, vert, bleu). Trois points de couleur sont ainsi appelés une triade (en anglais triad ou dot trio). Les luminophores bleus sont réalisés à base de sulfure de zinc, les verts en sulfure de zinc et de cadmium. Les rouges enfin sont plus difficile à réaliser, et sont faits à partir d'un mélange d'yttrium et europium, ou bien d'oxyde de gadolinium. Ces luminophores sont assez proches les uns des autres pour que l'oeil, compte tenu de son pouvoir séparateur, ne les distingue pas: il voit une couleur composée de ces 3 couleurs. Ainsi, une minuscule goutte d'eau déposée sur le verre d'un écran a un effet de loupe qui fait apparaître les luminophores. Le phénomène de bavure (e.g., un électron destiné à frapper un luminophore vert frappe un bleu) est évité en plaçant une grille métallique (masque) devant la couche de luminophores pour guider les flux d'électrons. On distingue souvent 3 catégories d'écrans cathodiques selon le masque utilisé. Tube FST-Invar (Flat Square Tube) Les luminophores sont ronds. Le masque (shadow mask) donne une image nette et de bonnes couleurs Tube Diamondtron (Mitsubishi) et Trinitron (Sony) Le masque est constitué de fentes verticales qui laissent Tubes Cromaclear (Nec) Le masque est constitué d'un système hybride avec des fentes en forme d'alvéoles

123 TRAITEMENT D'IMAGES 123 mais les coins sont déformés et assombris. passer plus d'électrons. L'image est donc plus lumineuse. constituant la meilleure technologie des trois. Les écrans CRT fonctionnent avec une fréquence de balayage vertical (refresh rate en anglais). Celleci est le nombre d'images affichées par seconde, ou plutôt le nombre de rafraîchissements de l'image par seconde (i.e., taux de rafraîchissement, exprimé en Hertz). Plus ce taux est élevé, meilleur est le confort visuel (on ne voit pas l'image scintiller). En général, les gens ne voient pas de scintillement (flicker) au-delà de 70 Hz. Il est donc en général retenu un taux supérieur ou égal à 75 Hz. Ecrans à écran plat Ils sont parfois notés FPD (Flat panel display). Ils se généralisent de plus en plus. En effet, par rapport aux écrans CRT traditionnels, ils n'émettent pas de rayonnement électromagnétique et ils ont de plus faibles facteurs d'encombrement, des poids très inférieurs. De plus, les technologies des écrans plats consomment moins d'énergie (consommation < 10W contre 100W pour les CRT). - Technologie LCD (Liquid Crystal Display) La technologie LCD emploie un écran composé de 2 plaques parallèles rainurées transparentes, orientées à 90, avec entre celles-ci une fine couche de liquide contenant des molécules (cristaux liquides) qui peuvent s'orienter quand elles sont soumises à du courant électrique. Combinée à une source de lumière, la première plaque striée agit comme un filtre polarisant, ne laissant passer que les composantes de la lumière dont l'oscillation est parallèle aux rainures. En l'absence de tension électrique, la lumière est bloquée par la seconde plaque, agissant comme un filtre polarisant perpendiculaire. Sous l'effet d'une tension, les cristaux vont progressivement s'aligner dans le sens du champ électrique et ainsi pouvoir traverser la seconde plaque! Le contrôle local de l'orientation de ces cristaux permet de constituer des pixels. On distingue en général 2 types d'écrans plats selon le système de commande qui permet de polariser les cristaux : - Les écrans dits à "matrice passive". Les pixels sont contrôlés par ligne et par colonne. Ainsi les pixels sont adressés par lignes et par colonne grâce à des conducteurs transparents situés dans la dalle. Le pixel s'allume lors de son adressage et s'éteint entre deux balayages. Les écrans à matrice passive utilisent généralement la technologie TN (Twisted Nematics). Les écrans à matrice passive souffrent habituellement d'un manque de contraste et de luminosité.- Les écrans dits à "matrice active". Chaque pixel est contrôlé individuellement. La technologie la plus utilisée est la technologie TFT (Thin Film Transistor) appelée "transistors en couche mince". Elle permet de contrôler chaque pixel à l'aide de trois transistors (correspondant aux 3 couleurs RVB). Ainsi, le transistor couplé à chaque pixel permet de mémoriser son état et, le cas échéant, de le maintenir allumé entre deux balayages successifs. Les écrans à matrice active bénéficient ainsi d'une meilleure luminosité et d'un affichage plus fin. Que les écrans soient à matrice active ou passive, ils ont besoin d'une source lumineuse pour fonctionner. Les termes suivants définissent la manière par laquelle l'écran est éclairé : - Les écrans réflectifs sont des écrans éclairés par devant, par une lumière artificielle ou tout simplement par la lumière ambiante (e.g., cas de la plupart des montres digitales).

124 TRAITEMENT D'IMAGES Les écrans transmissifs utilisent un rétro éclairage pour afficher les informations. Ce type d'écran est très bien adapté pour des conditions de faible éclairage. Il fournit en général une image contrastée et lumineuse. Il est par contre difficilement lisible utilisé en extérieur. - Les écrans transflectifs utilisent un rétro éclairage ainsi qu'un polariseur composé d'un matériau translucide capable de transmettre la lumière d'arrière plan tout en réfléchissant une partie de la lumière ambiante. Ce type d'écran convient en particulier aux appareils destinés à une utilisation tant en intérieur qu'en extérieur (appareils photo numérique, PDA). - Technologie plasma La technologie plasma (PDP, Plasma Display Panel) est basée sur une émission de lumière grâce à l'excitation d'un gaz. Le gaz utilisé dans les écrans plasma est un mélange d'argon (90%) et de xénon (10%). Du gaz est contenu dans des cellules, correspondant aux pixels, dans lesquelles sont adressées une électrode ligne et une électrode colonne permettant d'exciter le gaz de la cellule. En modulant la valeur de la tension appliquée entre les électrodes et la fréquence de l'excitation il est possible de définir jusqu'à 256 valeurs d'intensités lumineuses. Le gaz ainsi excité produit un rayonnement lumineux ultraviolet (donc invisible pour l'œil humain. Grâce à des luminophores respectivement bleus, verts et rouges répartis sur les cellules le rayonnement lumineux ultraviolet est converti en lumière visible, ce qui permet d'obtenir des pixels (composés de 3 cellules) de 16 millions de couleurs (256 x 256 x 256). La technologie plasma permet d'obtenir des écrans de grande dimension avec de très bonnes valeurs de contrastes mais le prix d'un écran plasma reste élevé. De plus la consommation électrique est plus de 30 fois supérieure à celle d'un écran LCD. Les écrans plats sont souvent caractérisés par la définition, la taille, la résolution, ainsi que par : - Le temps de réponse : Défini par la norme internationale ISO , il correspond à la durée nécessaire pour qu'un pixel passe du blanc au noir, puis de nouveau au blanc. Le temps de réponse (défini en millisecondes) doit être choisi le plus petit possible (en pratique inférieur à 25 ms). - La luminance : Exprimée en candelas par mètre carré (Cd/m 2 ), elle définit la "luminosité" de l'écran. L'ordre de grandeur de la luminance est d'environ 250 cd/m 2. - L'angle de vision vertical et horizontal. Exprimé en degrés, il permet de définir l'angle à partir duquel la vision devient difficile lorsque l'on n'est plus face à l'écran.

125 VII LOGICIEL APHELION Le système de traitement et d'analyse d'images Aphelion (Image Processing and Understanding Software) a été développé par les sociétés AMERINEX (USA) et ACDIS (Caen). Outre une aide en ligne, une documentation et un cours de vision, il comprend : - Module de base. - Module de visualisation (gestion d'une caméra). - Module Développeur. - Langage Basicscript (écriture de macros dans un langage compatible avec levisual Basic). I. INTERFACE Les éléments de l'interface d'aphelion (i.e., barre de menu, barres d'outil, etc.) sont décrits ici. Aide contextuelle Edition de page d'impression Histogramme Aide générale Cache/affiche BDO IHM Images en mémoire Objets en mémoire Caméra Diagramme de la mémoire Lien entre images Liste / sélection des macros Démos Barre de menu Barre principale d'outil Derniers opérateurs utilisés Nom de l'opérateur Barre d'outil Objet Sélection d'opérateur Aide sur l'opérateur Détruit toutes les images Affichage des opérateurs utilisés Information: valeur du pixel, etc. Barre d'outil image Exécuter opérateur Annule l'opération Ecrans virtuels BOITE DE DIALOGUE OPERATEUR (BDO) Barre d'état - Graphique - ROI - Profil - Histogramme de sous image MULTIPLE DOCUMENT INTERFACE (MDI) Panneau de commande du logiciel Aphelion. Barre de Menu : située en haut à gauche de l'interface, elle contient les menus tels que File et View qui donnent accès aux commandes de gestion d'aphelion. Barre principale d'outil : elle est juste sous la barre de menu. Elle contient les boutons des tâches les plus courantes comme les "couper / coller' et l'accès à l'aide en Ligne. Barre d'outil Objet : située à droite de la barre principale d'outil, elle contient les boutons de gestion des objets *. Elle permet d'afficher la liste des images créées durant la session de travail, de visualiser la liste des macros, d'attacher une macro à la barre d'outil, d'établir des liens entre plusieurs images (e.g., le zoom dans une image induit un zoom dans l'image liée à celle-ci) et entre des régions d'une image et un tableau qui contient le descriptif de ces régions. Barre d'outil Image : située à droite de l'interface lorsqu'une image est visualisée, elle contient les boutons de gestion des images. Les commandes disponibles dépendent du mode activé : - "graphique" : tracé de courbes et surfaces, * Un objet est une région (ensemble connexe de pixels), un point, un rectangle, une ligne, ou une chaîne avec ses mesures associées (e.g., aire, etc.). La représentation "Objets vs. Mesures" se présente comme un tableau à 2 dimensions. C'est la représentation symbolique intermédiaire (ISR).

126 APHELION "ROI" : définition de "régions d'intérêt", - "Profil" : calcul des intensités le long d'un segment de droite dessiné dans l'image avec la souris. Très utile pour analyser les contours et le rapport signal/bruit. - "Histogramme" : distribution des niveaux de gris d'une partie de l'image définie avec la souris. Utile pour déterminer les techniques de traitement et de segmentation les plus efficaces. Barre d'état : dans la partie gauche de la barre d'état est affichée l'aide contextuelle. Les coordonnées et la valeur du pixel sous le curseur de la souris sont affichées dans la partie droite. Boite de Dialogue Opérateur : elle donne accès à tous les opérateurs d'aphelion. Elle permet de définir les paramètres nécessaires (paramètres des images, etc.) et d'exécuter les opérateurs. L'aide en ligne sur l'opérateur choisi dans la boite de dialogue Opérateur est obtenue en pressant la touche F1 ou en cliquant la souris sur le bouton d'aide dans la boîte de dialogue opérateur. Fenêtre Info/Historique/Messages : cette fenêtre IHM (Interface Homme Machine) comprend trois volets qui renseignent sur l'environnement courant. Le contenu de chaque volet peut être stocké sauvé dans un fichier en cliquant sur le bouton droit de la souris. - Fenêtre Info : informations générales d'analyse d'image. - Fenêtre Historique : séquence des opérateurs exécutés durant la session de travail, avec leurs paramètres. - Fenêtre Messages : messages d'erreurs non critiques. Ecrans virtuels : ils affichent simultanément de nombreux documents dans un même écran. Un écran virtuel est sélectionné en cliquant sur l'onglet correspondant en bas de l'interface graphique. II. UTILISATION DE L'AIDE L'aide en ligne est toujours disponible : Guide de l'utilisateur pour les références et les procédures d'utilisation d'aphelion, Guide de Référence Aphelion pour les opérateurs d'aphelion, et Guide de Référence du Langage Macro renseigne pour les macros. - Système complet d'aide en ligne: cliquez sur le bouton Aide générale de la barre principale d'outils. La page Contents affiche le sujet voulu et l'onglet Index permet de chercher par mot-clé. - Information sur l'opérateur affiché dans la boîte de dialogue opérateur: cliquez sur le bouton Aide Opérateur dans cette boîte de dialogue. - Information sur un élément de l'interface (e.g., commande de menu ou bouton de barre d'outils) : cliquez sur le bouton Aide contextuelle, puis pointez l'élément. - Aide concernant une boîte de dialogue spécifique : cliquez sur le bouton d'aide "Help" dans la boîte de dialogue ou appuyez sur F1. III. CHARGER ET SAUVEGARDER UNE IMAGE Il existe trois méthodes pour charger une image dans Aphelion - charger une image dont le format est supporté : fichier image taggué TIFF (.tif), bitmap BMP (.bmp), JPEG (.jpg) etkbvision KBV (.im). - importer une image de format non supporté. - acquérir une image avec une caméra. 1.) Classe des images Toute image appartient à une classe d'images prédéfinie et les comptes numériques de ses pixels sont codés avec un type de codage prédéfini (i.e., codage de l'information). Ainsi, les différents types correspondent à des entiers signés et non signés sur 8, 16 et 32 bits, réels sur 32 et 64 bits. Les classes indiquent la nature des images. Par suite, une image de classe donnée ne peut être traitée que par un opérateur adapté à cette classe. Les différentes classes sont : - Gris: image mono canal où les comptes numériques peuvent être des entiers ou des réels. - Binaire: image mono canal dont les valeurs supérieures à 0 sont supposées vraies par les opérateurs logiques. Il est préférable d'utiliser des images binaires avec des d'opérateurs logiques. - Label: les comptes numériques (i.e., entiers non signés) indiquent/étiquettent une région de l'image, - Couleur: image qui contient 3 images mono canal. - Pente: image qui contient des couples de valeurs qui indiquent la pente locale (dx,dy) dans l'image. - Complexe: image qui contient des couples de valeurs (réel, imaginaire).

127 APHELION Fréquence: image des couples de valeurs (réel, imaginaire) issus de la transformée de Fourier. 2.) Ouvrir une image Les images dont le format est supporté par Aphelion peuvent être ouvertes selon 2 méthodes : 1. Cliquez sur le bouton Ouvrir une Image de la barre principale d'outils. La boîte de dialogue Ouverture s'ouvre, affichant la liste de toutes les images tif du répertoire \Aphelion\Images. Pour changer de liste de type d'images, cliquez sur la flèche de liste de type de fichier. Finalement, double-cliquez sur l'image que vous voulez charger. L'image s'ouvre dans une fenêtre image. 2. Cliquez sur Sélectionner un Opérateur Image Utilitaires Entrée/Sortie ImgRead. 3.) Sauver une image Toute image peut être sauvegardée en sélectionnant Image Utilitaires Entrée/Sortie ImgWrite ou cliquez sur le bouton Enregistrer de la barre principale d'outils. 4.) Gérer l'affichage d'une image Plusieurs modes d'affichage sont possibles (aide générale: tapez Image Views dans l'onglet Index) : - affichage d'un pixel image dans un pixel écran (pixel écran = pixel image) - affichage adapté à la taille de la fenêtre - affichage conservant l'aspect initial (i.e., échelle horizontale = échelle verticale) Le click droit de la souris sur l'image active un menu pop up avec plusieurs options : Afficher / Propriétés: - afficher / modifier certaines propriétés de l'image (type ou nom d'image,...). - sélectionner DC (Display Context) : amélioration plus ou moins automatique du contraste. - sélectionner LUT : changer / éditer une table vidéo (LUT). Tapez Images dans Index pour avoir l'aide en ligne. Opérateurs: détruire l'image, histogramme de l'image et statistiques. Outils graphiques: Graphic ROI, profil. 5.) Importer une image Des images de format autre que les formats supportés (TIFF, BMP, JPEG, KBV) peuvent être importées dans Aphelion directement avec l'opérateur Imglmport (importation d'images binaires non compressées) ou indirectement après conversion par un logiciel (e.g., PaintShopPro). Pour l'aide en ligne, tapez Importing Images (autres formats d'image) dans l'onglet Index. Utiliser l'opérateur lmglmport 1. Déterminez la taille et le type numérique de l'image (commande Options de l'icône de l'image de sortie) ainsi que les caractéristiques du fichier que vous voulez importer. 2. Dans la boîte de dialogue opérateur, cliquez sur le bouton Sélectionner un Opérateur, puis sélectionnez Image Utilitaires Entrée/Sortie ImgImport. 6.) Acquérir une Image Aphelion supporte les pilotes Twain et dispose d'interfaces pour plusieurs cartes d'acquisition d'images. Un signal vidéo peut être acquis via diverses cartes (Imaging Technology, etc.). Pilotage de caméra avec Aphelion 1. Dans la barre principale d'outils, cliquez 2 fois sur Caméra, puis sur "Twain Driver" \ "Select source", et enfin sélectionnez le driver proposé. Si la caméra n'est pas sélectionnée, cliquer sur le bouton "Camera", puis sélectionner la première ligne dans chaque colonne, puis faire OK. 2. Dans l'"operator Dialog", sélectionnez "Image Acquisition" "Grab/Snap" "ImgSnap". 3. Sélectionner "Acquisition Board" : " Twain Driver", puis cliquer sur la flèche verte. 4. Apparition de la boîte de dialogue Twain : - acquisition d'images en continue : cliquer sur le bouton "Live". - gel de l'image (bouton "Freeze"). - transfert d'une image "gelée" dans l'environnement Aphelion (bouton "Xfer"). Si l'image obtenue est incorrecte, cliquer sur le bouton "Config", puis sélectionner "RGB 888" dans la partie droite de la boîte de dialogue ouverte.

128 APHELION 128 Figure : Menu Pop up d'une image. 7.) Exécuter un opérateur SELECTIONNER UN OPERATEUR Aide en ligne : cliquez sur le bouton AideOpérateur dans la.boîte de dialogue opérateur ou tapez "Selecting an Operator" dans Index. Les opérateurs sont sélectionnés en cliquant sur le bouton : - Liste A.. Z. Ce dernier donne la liste alphabétique des opérateurs". - Sélection d'opérateur. Menus en cascade : (1) liste des groupes d'opérateurs, (2) liste des sousgroupes d'opérateurs du groupe choisi et (3) liste des opérateurs du sous-groupe sélectionné.

129 APHELION 129 Opérations arithmétiques Addition Soustraction Multiplication Division Minimum Maximum, etc. Opérations logiques ET OU Non ET Non OU XOR XNOR NOT Différence logique Opérations avec constante Addition Multiplication Soustraction Filtres passe bas Filtre 3x3 passe bas Filtre 5x5 passe bas Filtre 7x7 passe bas Filtre "flou" Filtre nxn passe bas Filtre gaussien Filtres passe haut Filtre 3x3 passe haut, etc.

130 APHELION 130 Fourier Fourier direct Fourier inverse Filtres passe bas et passe haut 2-D Rectangulaire Butterworth Exponentiel Trapézoïdal Transformations géométriques Echelle, translation, rotation, points de contrôle, etc. RGB mono canaux HSI Figure : Opérateurs d'aphelion Paramètres des opérateurs Avant d'exécuter un opérateur, il faut définir toutes les valeurs des paramètres requis, soit en les sélectionnant dans une liste, soit en les tapant (e.g., chaînes de caractères et nombres). - nom des images d'entrée et de sortie, nom du noyau pour une convolution - forme de l'élément structurant pour une transformation morphologique - taille du noyau ou de l'élément structurant

131 APHELION 131 Pour l'aide en ligne, tapez Selecting Operator Parameters (Paramétrer un Opérateur) dans Index. Exécuter un opérateur Cliquez sur la flèche verte de la boîte de dialogue Opérateur. Cliquez sur le bouton rouge pour arrêter l'exécution. A la fin, le bouton d'arrêt devient blanc et l'éventuelle image de sortie s'affiche. Ensemble des opérations arithmétiques et logiques Convolution et filtres (passe haut et passe bas) Filtres : Laplacien, morphologie, linéaires (Prewitt, Sobel, etc.), etc. Ouverture, fermeture, reconstruction d'images, etc. Transformée de Fourier directe et inverse, filtres fréquentiels, etc. Transformations géométriques, changement de coordonnées, couleur. Génération d'image (gaussienne, etc.), équipopulation, entrée/sortie, etc. Seuillages, etc. Mesures (aire, longueur, etc.), recherche de droites (Hough, etc.) Transformation géométrique, érosion, regroupement, etc. Utilitaires d'objets. Acquisition d'images avec une caméra Menu activé par le bouton "Sélection d'opérateurs". Les sous menus associés sont affichés dans les figures suivantes. Les opérateurs d'aphelion peuvent traiter tous les pixels d'une image ou seulement les pixels situés dans une zone dite d'intérêt (ROI: region of interest). Une ROI est liée à l'image où elle a été définie ainsi qu'aux images calculées à partir de cette image. Une ROI peut être activée, désactivée, copiée et éliminée. Elle peut être crée par traçage et par conversion d'objets/attributs attachés à l'image. VI. EXEMPLE DE TRAITEMENT D'IMAGES: LE FILTRAGE VI.1 Filtrage pour éliminer le bruit en intensité Dans une image, le bruit correspond à une variation aléatoire ou régulière des comptes numériques. 1.) Filtrage linéaire ou convolution Le filtrage linéaire est le plus classique des outils de traitement d'image. En fonction du noyau utilisé par ImgConvolve, vous pouvez appliquer sur l'image un filtre passe-bas ou passe-haut. Un filtre passe-bas comme ImgLowPass5x5 est utile pour diminuer un bruit aléatoire. Filtres non-linéaires Les filtres non linéaires sont les filtres dont le résultat n'est pas une combinaison linéaire des comptes numériques de l'image d'entrée. Ainsi, le filtre "Moyenne" est linéaire contrairement au filtre "Médian", car ce dernier, appelé ImgMedian dans Aphelion, remplace chaque pixel par la valeur médiane des valeurs (ordonnées du plus petit au plus grand) de son voisinage. Comme pour les filtres linéaires passe-bas, plus le voisinage choisi est grand et plus le lissage sera fort. Filtres fréquentiels Les filtres fréquentiels sont utiles lorsque la réponse fréquentielle du bruit est connue. Il est souvent utile d'exécuter lmgfft pour voir le spectre de puissance de l'image. L'apparition de pics bien définis ne correspondant à aucune structure de l'image peut être révélatrice d'un bruit qui peut être éliminé, ou du moins réduit, avec un filtre fréquentiel tel que ImgHPRectangularFilter. L'emploi de l'opérateur ImgInverseFFT sur le spectre de puissance filtré génère l'image filtrée. 2.) Filtrage pour éliminer le bruit spatial Il s'agit d'un bruit spatial (e.g., frontières grossières ou trous dans les objets) avec certaines caractéristiques géométriques (épaisseur, longueur). Les opérateurs morphologiques sont les plus efficaces pour éliminer ce type de bruit. Par exemple, ImgClose peut être utilisé pour boucher les trous dans les objets, alors que ImgOpen peut être appliqué à une image binaire, une image à teinte de gris ou en couleurs afin d'éliminer les bords d'objets brillants.

132 APHELION 132 VII. EXTRAIRE ET ANALYSER DES OBJETS Ce paragraphe explique comment extraire des objets d'une image et effectuer des mesures sur ceux-ci. 1.) Mesures globales Les mesures globales sont celles qui sont calculées sur l'ensemble de l'image. Par exemple, pour une image binaire donnée, le nombre de pixels non nuls donne la surface représentée par les pixels non nuls. Cette mesure est obtenue par ImgArea. Pour une image à niveaux de gris, la somme des valeurs de tous les pixels (i.e., opérateur ImgVolume) donne le "volume" de l'image. Les mesures globales peuvent être interactives (e.g., ImgDistance donne la longueur d'un segment tracé par l'opérateur sur l'image). Avec certains opérateurs d'analyse globale (e.g., ImgHistogram), un bouton dans la boîte de dialogue opérateur permet d'afficher un menu qui autorise l'envoi des résultats dans la fenêtre Info, dans un graphique (histogramme) ou dans Excel. Beaucoup de mesures globales peuvent être calculées dans des unités physiques plutôt qu'en pixels. Pour cela, il faut avoir calibré l'image avec la commande Calibration du menu contextuel de l'image. Pour une aide en ligne, tapez Calibrating an Image (Calibrer une Image) dans Index. 2.) Segmentation Il est souvent plus intéressant de traiter (e.g., contrôle dimensionnel) certaines régions de l'image plutôt que la totalité de l'image. Les opérateurs de segmentation ont pour but de déterminer ces régions. Aphelion comprend deux types d'opérateurs de segmentation de régions. Les opérateurs dont le nom se termine par "Obj" génèrent des objets, tandis que les autres génèrent des images binaires. Le plus simple opérateur de segmentation est ImgThreshold. Il crée une image binaire telle que tous les pixels de l'image initiale compris entre une borne inférieure et une borne supérieure deviennent "vrais". Les autres pixels deviennent "faux". L'opérateur ImgClustersToLabel peut ensuite être utilisé pour affecter un nom (label ou étiquette) à toute zone connexe d'une image binaire. Le seuillage d'une image avec ImgThresholdObj crée des régions à partir d'un seuil haut et d'un seuil bas. Une région est un ensemble de pixels connexes (non nuls) enregistrés dans une représentation bitmap. C'est la représentation d'objet la plus souvent utilisée. La segmentation peut être automatique (e.g., ImgEntropyThresholdObj, ImgMultiModalThresholdObj). Aphelion propose d'autres représentations d'objet que les régions : - Segments de droite (ImgGradientLines) - Points de contour (EdgesToEdgel) - Rectangles (LabelsToRectangles) - Chaînes (EdgelsToChains) - Polygones (RegionConvexHuIlPolygons) Plusieurs opérateurs travaillent sur les objets : - Conversion (ObjSpatialAttributesToRegions) d'objet en région. Cela rend possible le calcul de toutes les mesures de région pour les objets tels que segments de droite, chaînes ou polygones. - Transforme (ObjRotate) - Morphologie (RegionErode) - Groupement (EdgelsToChains, RegionSplitConvex) - Analyse (ImgVolume, RegionFeret, ChainAttributes) - Utilitaires (ObjFiller, ObjCopy) 3.) Mesures d'objet Les mesures d'objet sont des attributs calculés pour les objets tels que les régions, les segments de droite et les chaînes. Elles peuvent servir à filtrer, classifier ou quantifier les objets de l'image. Les ensembles d'objets appartiennent à la Représentation Symbolique Intermédiaire (ISR). L'ISR est une base de données utilisée pour le stockage et la gestion des attributs d'objet. Elle se présente

133 APHELION 133 comme un tableau bidimensionnel de mesures où chaque ligne correspond à un objet et chaque colonne à une mesure spécifique. En fait, l'isr est plus qu'un tableau de mesures, car il est possible d'ordonner les valeurs, d'ajouter ou de supprimer des objets ou des mesures et d'accéder à la représentation spatiale des objets avec des opérateurs comme ObjCopy, ObjFilter et ObjRead. Le format des fichiers ISR est compatible avec le format des fichiers ISR de KBVision. Pour charger ou enregistrer un ensemble d'objets (base de données ISR), utiliser la commande Ouvrir un ensemble d'objets du menu Fichier. L'opérateur ObjComputeMeasurements permet de calculer différentes mesures : - Région : coordonnées, aire, forme, texture, couleur - Ligne : coordonnées, longueur, orientation, contraste, couleur - Chaîne : coordonnées, longueur, courbure, contraste, couleur - Polygone: coordonnées, aire, périmètre, couleur - Point de contour : coordonnées, orientation, intensité, couleur - Rectangle : coordonnées, aire, couleur Grille de mesures segmentation étiquetage Image ImgThreshold Image binaire ImgClusterToLabel Label ImgThresholdObj Objets "région" ImgClusterObj Mj ImgLabelObj Oi ISR (base de données) Création d'objets Exemple : afficher des mesures d'objet dans une grille 1. Ouvrir l'image avec laquelle vous voulez travailler.

134 APHELION Choisir alors "Segmentation Segmentation par Région ImgThresholdObj." - Spécifier les paramètres de l'opérateur: image d'entrée dans le menu déroulant de la boîte "Entrée" et objet à créer (e.g., "Parcelles") dans le champ réservé à "Objectset de sortie". Le réglage avec les réglettes des seuils haut et bas permet de colorer en rouge les objets voulus. - Cliquer sur le bouton Exécuter un Opérateur pour effectuer l'opération. 3. Calculer toutes les mesures de région. Pour cela, avec le bouton de sélection des opérateurs, sélectionnez Analyse Objets ObjComputeMeasurements. - Sélectionnez l'image d'entrée depuis le menu déroulant en cliquant sur la boîte "Input", puis sélectionnez "Parcelles" depuis le menu déroulant lié au paramètre "Input ObjectSet". - Cliquez sur le bouton Exécuter un Opérateur pour effectuer l'opération. 4. Visualisation des mesures en sélectionnant "Parcelles" avec le bouton Liste des ensembles d'objet dans la barre d'outils Objet. 4.) Grilles Les résultats d'une analyse d'objet sont automatiquement stockés dans une grille Aphelion (i.e., tableau de mesures). Si vous choisissez Afficher automatiquement les grilles dans Préférences du menu principal en cliquant sur Options Préférences, la grille s'ouvre automatiquement quand elle est créée. Autrement, utilisez la procédure suivante pour afficher les données ISR dans une grille : 1. Cliquez sur le bouton Liste des ensembles d'objet dans la barre d'outils Objet. 2. Sélectionnez la grille que vous désirez ouvrir, en choisissant son nom. La grille peut être utilisée pour ordonner, filtrer, modifier et exporter les mesures. Elle peut également être utilisée pour sélectionner un objet individuel ou un ensemble d'objet et le visualiser en superposition dans l'image. Pour une information en ligne, tapez Grid Documents (Documents grilles) ou Message Passing (Passage d'informations) dans Index. VIII. RAPPORTS D'ANALYSE 1.) Impression Il est possible d'imprimer (1) des documents individuels comme des images, des macros ou des graphiques, et (2) des pages composées comprenant différents types de document et du texte. - Impression de document individuel: sélectionnez la fenêtre que vous désirez imprimer (image, macro ou autre), puis cliquez sur le bouton Imprimer de la barre principale d'outils. - Impression d'une page composée: cliquez sur le bouton éditeur de pages d'impression dans la barre d'outils Objet, puis avec un clic droit de la souris, affichez le menu d'édition de pages d'impression qui permet d'ajouter les images, les graphiques et/ou le texte dans la page. Utilisez la souris et le menu d'édition pour mettre en page les différents éléments. Sélectionnez Aperçu avant Impression depuis le menu Fichier pour pré-visualiser la page d'impression, puis cliquez sur le bouton Imprimer de la barre principale d'outils pour imprimer la page. 2.) Exporter les mesures d'objet Les mesures d'objet peuvent être exportées vers Excel, Access, etc. pour trier, tracer des courbes, etc. Ainsi, l'opérateur, ObjExport génère un fichier ASCIl avec séparation par tabulation. IX. EDITER UNE MACRO Les fichiers Macro (extension.apm) sont écrits avec BasicScript, c'est à dire un langage interprété très puissant et compatible VisualBasic. Une macro permet par exemple de faire des boucles sur plusieurs images ou objets, d'accéder aux pixels et de créer des boîtes de dialogue.

135 APHELION 135 Ajout de point d'arrêt Arrêt du débogage Lance la macro Arrête la macro Affichage de variable durant le programme Step into Step over Démarre l'enregistrement de la macro Arrête l'enregistrement de la macro Clic avec bouton droit de la souris Affichage du menu Fenêtre d'édition et d'exécution de Macro. Créer / charger une macro 1. Dans le menu Fichier, choisissez Nouveau. La boîte de dialogue New apparaît. 2. Sélectionnez Document Macro et cliquez sur OK pour ouvrir une fenêtre macro. 4. Cliquez sur le bouton droit de la souris pour afficher le menu associé, en plaçant le curseur dans la bannière grise de la fenêtre. 5. Choisissez Charger pour afficher la boîte de dialogue Ouvrir, où apparaît la liste des macros du répertoire courant. Choisissez la macro que vous voulez ouvrir et cliquez sur Ouvrir. Raccourci : cliquer sur le bouton Liste des Macros dans la barre d'outils Objet pour afficher la liste des macros d'aphelion, puis cliquer sur la macro que vous voulez charger. Enregistrer une Macro Toute séquence d'opérateurs exécutés depuis la boîte de dialogue opérateur peut être enregistrée (i.e., icône "petite caméra") dans une macro pour regrouper des opérations "multi opérateurs", pour la sauvegarder et pour la ré-exécuter. Pour l'aide en ligne, tapez Macros dans Index. Exécuter et Déboguer une Macro Aphelion propose un environnement BasicScript d'exécution et de déboguage complet. Ce dernier permet d'exécuter une macro, complètement ou pas à pas, et de contrôler les valeurs des paramètres de la macro. Ceci est utile pour déceler les erreurs dans une macro ou pour faire une démonstration pas à pas. Pour plus d'information, ouvrez l'aide en ligne et tapez Macros dans Index. Créer une boite de dialogue BasicScript comprend un environnement spécifique pour créer vos propres boites de dialogue, avec boutons, fenêtres pour entrer une variable, menus déroutants, etc. Ceci est utilisé afin de créer une application comportant un nombre limité d'options pour l'utilisateur, comme par exemple le choix entre trois filtrages suivi du choix de mesures à calculer. Pour l'aide en ligne, ouvrez l'aide en ligne et tapez Using the Dialog Editor (Editeur de Dialogue) dans Index. Exemple de macro : dialogue seuil$ = AskBox$("Entrer le seuil de binarisation entre 0 et 255",128,"Seuil") if seuil$ = "" then s = 128 ' "s" est un paramètre utilisable par la suite else s = CInt(seuil$) if s < 0 then s = 0 elseif s > 255 then s = 255 end if end if Exemple de macro : FFT directe et inverse avec changement interactif du type de l'image traitée

136 APHELION 136 Sub main Begin Dialog UserDialog,,180,96,"Untitled" OKButton 132,8,40,14 CancelButton 132,28,40,14 Text 20,20,52,8,"Début du travail",.text1 End Dialog Dim bb as UserDialog Response%=Dialog(bb) Select Case response% Case -1 'ok button s$ = InputBox$("Enter a Tiff image name (without extension):","traitement","image") t$ = s$ & ".tif" MsgBox "The file name is :" & t$ AphImgRead AphImgNew(s$),"S:\images\IUT_mp\" & t$ Msgopen "Changez le type de l'image",1,false,false 'AphImgSetClass AphImg(s$),"Gris" Sleep 8000 Msgclose AphImgFFT AphImg(s$),AphImgNew("fourier") AphImgLPRectangularFilter AphImg("fourier"),AphImgNew("fourierf"),AphNamedFrequencyMask("Square",128,128,50,50,0,1) AphImgInverseFFT AphImg("fourierf"), AphImgNew("new image") End select End Sub Lexique BasicScipt: langage interprété (compatible avec Visual Basic) utilisé pour créer des macros. Ecran virtuel : affichages multiples sur une même zone de l'écran. Chaque affichage peut contenir différents documents tels que des images, des grilles et du texte. L'affichage d'un écran virtuel s'obtient en cliquant sur un onglet spécifique situé à gauche en bas de l'interface d'aphelion. Ensemble d'objets : structure de données comprenant à la fois la description spatiale et les attributs d'objet qui sont extraits d'un ensemble de données de même type par un même algorithme. Différents algorithmes sont employés pour produire différents ensembles d'objets. Exploreur d'écrans virtuels : une boîte de dialogue qui présente les écrans virtuels et leurs contenus sous forme d'arbre. Depuis cette boîte, vous pouvez déplacer des éléments d'un écran virtuel à un autre par action de type glisser-déplacer. Mesure : tout attribut calculé sur une image ou sur un objet d'une image. Elle est stockée en tant que colonne dans un ensemble d'objets. Objet : région, point, rectangle, ligne, point de contour ou chaîne, et ses mesures associées. Un objet est représenté par une ligne dans une grille (tableau de mesures). Typiquement, les objets sont obtenus par l'application d'une méthode d'extraction de caractéristique sur une image composée de pixels (données de bas niveau). Opérateur : algorithme de traitement ou d'interprétation d'image, implémenté comme une routine indépendante. Tout opérateur est inclus dans une DLL (Dynamic Linked Library). Passage d'information : mécanisme qui envoie des messages entre une image dans laquelle est affiché un ensemble d'objets et une grille ou une courbe graphique. Il permet de visualiser une même information sous différentes formes. Projet : fichier (extension.ap) qui peut contenir les paramètres les paramètres liés à un ensemble de tâches spécifiques, des images, des paramètres d'image, des noms d'écrans virtuels, des valeurs de calibration, des noyaux de convolution, etc.

137 Résumé des principales manipulations à réaliser Ici, il sera surtout utilisé 3 classes d'image : - images de classe "gris" et de type "8 bits non signés". Ce sont des images mono canal où chaque pixel est caractérisé par un compte numérique compris entre 0 et images de classe "couleur". Tout pixel est caractérisé par un triplet de comptes numériques (CN1, CN2, CN3) qui sont affichés en teintes de rouge (CN1), vert (CN2) et bleu (CN3). L'affichage d'une image "couleur" est donc la superposition de 3 images monocanal (gris). - images de classe "binaire". Elles sont bien adaptées aux traitements par des opérateurs logiques, contrairement aux images de classe "gris". Toute image "binaire" peut être transformée en image "gris", et inversement. Ces transformations ne modifient pas les comptes numériques de l'image. Lecture de fichier image: lire le fichier image "Cook2ic.tif" dans le répertoire de travail avec l'opérateur "Utilitaires d'images - Entrée/sortie ImgRead". Pourquoi le logiciel peut il afficher correctement l'image? Visualiser les comptes numériques (CN) des pixels pointés par la souris: en bas à droite de l'écran. Noter les propriétés de l'image: la commande "Bouton droit de la souris - Propriétés - Données de l'image" du menu pop up de l'image affiche le nom, la classe et la dimension (nombres de lignes et de colonnes) de l'image. La commande "Bouton droit de la souris - Opérateurs - Statistiques" du menu pop up affiche les statistiques de l'image. Quels sont les 2 comptes numériques maxima de cook2? Afficher l'histogramme de l'image: ceci est réalisé avec la commande "Bouton droit de la souris - Opérateurs - Histogramme" du menu pop up de l'image. A quels objets de l'image correspondent les différents modes de l'histogramme? Afficher le LUT de l'image: ceci est réalisé avec la commande "Bouton droit de la souris - Propriétés - LUT - LUT de l'image" du menu pop up de l'image. Que représente l'axe horizontal? l'axe vertical? Où se trouvent les comptes numériques (CN) relatifs à l'océan, à l'île et au lagon? Modifier l'apparence visuelle de l'image: ceci est réalisé avec la commande "Propriétés - LUT - LUT de l'image - Nouvelle LUT" du menu pop up de l'image. Le click du bouton droit de la souris positionnée sur le LUT fait apparaître un menu qui permet d'ajouter, et éventuellement d'enlever, des points sur le LUT pour modifier ce dernier. Il convient d'obtenir des images telles que : - l'image ne comporte que des teintes de rouge. - le lagon est blanc et tout le reste est totalement noir. - le lagon est noir et tout le reste est totalement blanc. - le lagon est vert, l'île est rouge et l'océan est jaune. Pourquoi ces modifications de LUT ne modifient pas les comptes numériques? Lecture du fichier image "cookcc.tif": ceci est réalisé avec l'opérateur "Utilitaires d'images - Entrée/sortie - ImgRead". L'importation est simplement réalisée en spécifiant le nom de l'image. Notez que les comptes numériques des pixels sont des triplets de valeurs en général différentes. Que représentent ces valeurs? (cf. Chap. II.3) Extraire les 3 images mono canal de l'image "Cookcc": l'opérateur "Transformation - Couleur - ImgColorToRGB" sera utilisé. Une fois spécifié le nom de l'image "couleur" traitée, les caractéristiques (classe, dimension, nom) des 3 images mono canal à extraire peuvent être indiquées en appliquant la commande "Nouvelle image avec option" à leurs 3 icônes. Autrement, Aphelion choisit seul ces caractéristiques, mais les noms "Cook3", "Cook2" et "Cook1" doivent être donnés. Quels sont les domaines spectraux associés aux 3 images mono canal? (cf. Chap. II.3) Pourquoi le lagon a des teintes claires dans cookk2 et des teintes très foncées dans Cook3? Pourquoi l'île a des teintes claires dans cook3? Pourquoi l'écume a des teintes claires dans les 3 images?

138 MANIPULATION A EFFECTUER 138 Appliquez l'opérateur "Transformation - Couleur - ImgRGBToColor" à "Cook1, Cook2, Cook3" pour : - créer une image de classe "couleur" identique à "Cookcc" : - créer une image de classe "couleur" avec l île en vert, puis l île en jaune. Si nécessaire, les images peuvent être éliminées individuellement de la mémoire vive avec la commande "Bouton droit de la souris - Opérateurs - Détruire Image" du menu pop up de l'image. Importer l'image "cook2ic.tif": Réalisé avec l'opérateur "Utilitaires d'images - Entre/Sortie - ImgImport". Quel est le nombre de lignes? de colonnes? Que se passe t'il si l'on emploie un nombre erroné de colonnes? Faites l'importation en indiquant un nombre de colonne diminué d'une unité. Binariser l'image "cook2": Réalisé avec l'opérateur "Segmentation - Seuillage - ImgThreshold" en spécifiant les bornes inférieures CN inf et supérieures CN sup du filtre. Ainsi, tout compte numérique CN de [CN inf CN sup ] est mis à 1 et tout CN hors de cet intervalle est mis à 0. Seuillage d'image de classe "Gris" Créer une image identique à Cook2, mais où les pixels de l'océan et de l'île ont des CN égaux à 0. Il conviendra d'utiliser les opérateurs arithmétiques et logiques. Créer une image identique à Cook2, mais où les pixels de l'océan et de l'île ont des CN égaux à 100. T hresho ld N ot x 10 0 C 2 m _lago n m _ocea n ocea n10 0 x lagon _C 2 resu Schéma des différentes opérations à réaliser La classe des images est modifiée pour que les opérateurs arithmétiques soient appliqués à des images de classe gris et les opérateurs logiques à des images de classe binaire. Créer une image où les pixels de l île, les îlots et l'écume ont les CN de Cook2 et où les autres pixels ont les CN de Cook3. Créez un LUT que vous appliquerez à l image résultat ainsi qu à Cook2 et Cook3 pour donner l'impression visuelle que le résultat est correct. Appliquer l opérateur "Transforms Color ImRGBToColor" à des images dérivées de Cook1, Cook2 et Cook3 pour créer une image de classe "couleur" identique à Cookcc, mais où - tous les pixels de l île, des îlots et de l océan sont (0,0,0). - tous les pixels de l île, des îlots et de l océan apparaissent en rouge (i.e., codage (255,0,0)). Remarque : la 1ère image peut être obtenue en combinant un masque et Cookcc. Créer une image de classe "gris" égale à Cook2, mais où l île, les îlots et l océan ont un même compte numérique spécifique et apparaissent en rouge. Lissage d'images : Créer une image identique à Cook2, mais où seuls les comptes numériques des îles et de l'écume sont lissés. Il convient d utiliser l opérateur "Filtrage Passe bas ImgLowPass 7x7". +

139 MANIPULATION A EFFECTUER 139 Détection de contours: L opérateur est "Détection de contour Laplacien ImgLaplacien" sera appliqué à l image qui fait le mieux apparaître les frontières "île - lagon" et "lagon - océan". Créer une image de type "gris" puis une image de classe "couleur" qui sont toutes deux égales à la superposition "Image Cook2" + "Image des principales frontières (i.e., frontières île lagon et lagon océan)". Les frontières doivent apparaître avec la couleur rouge. Transformée de Fourier: (cf. V.3.1) L image "grille" contient des barres horizontales (fréquences f y selon les y) et verticales (fréquences spatiales f x selon les x). Sa transformée de Fourier donne une image "FFT" où le CN de tout pixel au point (f x, f y ) est l'amplitude complexe de la composante de fréquence (f x, f y ) dans l'image "grille". Créer l'image "FFT" avec l'opérateur "Domaine fréquentiel - Fourier - ImgFFT". Vérifier que la transformation de "FFT" avec l'opérateur "Domaine fréquentiel - Fourier - ImgInverseFFT" donne une image très similaire à l'image "grille". Comment quantifier cette similitude? Atténuer les barres horizontales de l'image "grille" en filtrant l'image "FFT" avec l'opérateur "Domaine fréquentiel - Filtrages haute fréquence - ImgHPRectangularFilter" avec l'option "Masque rectangulaire". Vérifier l'effet de ce filtrage avec l'opérateur "ImgInverseFFT". Vérifier que l image {ImgHPRectangularFilter("FFT")} (i.e., opérateur ImgHPRectangularFilter appliqué à image FFT), avec l option "Masque carré", représente plus ou moins bien l'image "grille" selon la taille mask du "Masque carré". Expliquez le résultat obtenu si mask = 1. Vérifier que {ImgInverseFFT ("FFT filtrée avec filtre passe bas")} + {ImgInverseFFT ("FFT filtrée avec filtre passe haut (complémentaire du passe bas)} = {Image initiale}. Expliquez. Image "grille" Transformée de Fourier Transformée de Fourier filtrée Image "grille" filtre Opérateurs morphologiques: (cf. V.4) - érosion : "Morphologie mathématique - Erosion/Dilatation - ImgErode" - dilatation : "Morphologie mathématique - Erosion/Dilatation - ImgDilate" - ouverture : "Morphologie mathématique - Ouverture / Fermeture - ImgOpen" - fermeture : "Morphologie mathématique - Ouverture / Fermeture - ImgClose" - reconstruction : "Morphologie mathématique - Géodésie - ImgReconstruct" Créer une image où tous les pixels de l'île sont ceux de "cook3" et tous les autres pixels sont à 100. Créer une image identique à l'image "cook2", mais où les pixels des îlots ont tous la valeur 110. Eliminer l'objet circulaire de l'image "camera2" avec les opérateurs morphologiques (érosion, ). Image initiale. Image finale.

140 MANIPULATION A EFFECTUER 140 Créer l image "Resu" à partir des images "Dk" et "Dk_oblique_dos". Dans "Resu", l'étiquette est lisible comme dans "Dk" et le coin droit 'coupé' de la disquette est comme dans "Dk_oblique_dos". Aide : Caler / projeter l image "Dk" sur "Dk_oblique_dos" avec l'opérateur "ImgWarpControlPoint" de la rubrique "Transformations Géométrie". Cet opérateur (1) définit des points de contrôle communs à l image de référence et à l image à caler, et (2) réalise la transformation géométrique (rotation, homothétie) qui cale / projette l image traitée sur l image de référence. Image de départ : Dk.tif Image de départ: Dk_oblique_dos.tif Image finale : Resu.tif Labellisation d'image binaire (pixels connectés label. Fond = "0") Labelliser le masque des 3 objets de "camera" avec "Segmentation/Utilitaires/ImgClustersToLabels". Création de l'ensemble X des objets d'une image "gris" Visualiser la table X de l'ensemble des objets de "camera" obtenue par seuillage de "camera" avec "Segmentation/Segmentation par régions/imgthresholdobj". Eliminer un objet (ligne) de la table X, puis appliquer l'opérateur "Utilitaires d'objets/conversion/objspatialattributetoimage" à partir de "camera", puis de son masque. Calcul des caractéristiques des objets de "X" sur une image donnée Appliquer l'opérateur "Analyse/Objets/ObjCompute/Measurements" sur "camera" en spécifiant que la table qui stocke les objets considérés est "X". Visualiser les résultats stockés dans "X". Indiquer les approches qui affichent automatiquement le nombre d'objets de "camera". Eliminer l'objet circulaire de l'image "camera" avec les 2 approches suivantes : - labélisation (opérateur "ImgClustersToLabels") des objets de l'image binaire de "camera". - création d'objets "X" par seuillage (opérateur "ImgThresholdObj") de "camera". Création de macro Aphelion (cf. Annexe Logiciel Aphelion) Créer une macro qui permette d'éliminer automatiquement le disque de l'image "camera" Ajouter à cette macro des menus interactifs (cf. paragraphe "Macro d Aphelion") : - Choix de l image à traiter, - Choix des attributs utilisés pour "combler" les objets éliminés, - Choisir un délai entre des opérations automatiques successives, - Elimination des images, etc.

141 MACROS D'APHELION I. MACROS D'APPLICATION Les macros d'application sont dans le répertoire \Aphelion\Macros. Elles se chargent en cliquant sur le bouton Macros de la barre d'objets, puis sur l'entrée Macros, et enfin en sélectionnant la macro. Macros Aphelion BasicExample.apm Blood.apm Ceramic.apm Circuit.apm Color.apm Confocal.apm PemoDialog.apm DemoLoop.apm Feret Access.apm Fourier.apm Granulo.apm Grille.apm ImgRegister.apm Fonctionnalités mises en oeuvre dans les macros Exemples BasicScript, surtout des boîtes de dialogue et contrôle des fenêtres Mesures ISR de base Traitement d'images de base et techniques d'isr Opérateurs morphologiques pour détecter un défaut Traitement sur une image couleurs Conversion RVB (Rouge - Vert - Bleu) en TIS (Teinte - Intensité - Saturation) Affichage d'une boîte de dialogue permanente pour exécuter une application Boucle sur toutes les images d'un dossier auxquelles on applique plusieurs opérateurs. Calcul et accès aux diamètres de Feret d'un objet ISR Exemples de filtrage par Fourier Granulométrie morphologique et export vers Excel Traitement morphologique et mesures ISR Compare une image à une référence. lmmunomarker.apm Utilisation de l'information couleur pour la détection des cellules - Muscie.apm Road.apm RoiProcess.apm Sequencelnterface.apm WCCO.apm Traitement morphologique pour détecter des cellules cancéreuses Calcul des points de contour,'conversion en chaînes puis en segments de droite Présente la conversion des ensembles d'objets en régions d'intérêt Dialogue pour l'acquisition de séquence d'images Segmentation utilisant la ligne de partage des eaux II. AUTRES EXEMPLES DE MACROS D'autres macros sont rangées dans le répertoire \Aphelion\Examples. Pour les charger, cliquez sur le bouton Macros dans la barre d'objets, puis sur l'entrée Examples, puis sélectionnez la macro. Macros Aphelion BrowseDirectory.apm ColorImageAccess.apm Fonctionnalités mises en oeuvre dans les macros Parcourt un répertoire image depuis Visual Basic, et boucle sur les images Comment accéder aux pixels d'une image couleur en Basic ComplexImageAccess.apm Comment accéder aux pixels d'une image complexe en Basic Dialog.apm ExportToExcel.apm ExportToNotepad.apm ExportToWord.apm FilcAccess.apm FrarneGrabber.apm Visualise une boîte de dialogue permanente afin de lancer une application Démarre Excel et charge un histogramme associé à une image dans une feuille Démarre le Bloc Note et y charge du texte Démarre Word et y charge une image et du texte Montre comment lire et écrire un Fichier en Basic Dialogue mettant en oeuvre des fonctions associées aux cartes d'acquisition GlobalMeasurements.apm Calcule un certain nombre de mesures globales HistogramAccess.apm ImageAccess.apm ImageFlickerView.apm ImageRefresh.apm Accède aux valeurs d'un histogramme depuis Visual Basic Lit et écrit les points d'une image depuis Basic Afficher successivement 2 images dans la même fenêtre pour les comparer. Comment ne pas visualiser les images dans une macro afin d'aller plus vite

142 MACROS D'APHELION 142 ImgBoxes.apm Transforme des régions en boîtes circonscrites puis les filtre ImgChains.apm Comment extraire des chaînes dans une image à teinte de gris ImgHistogramChart.apm Emploie les fonctions du serveur graphique pour afficher l'histogramme d'une image lmglines.apm Comment extraire des lignes dans une image à teinte de gris ImgRead.apm Choix d'une image, puis chargement dans la MDI. Macro utilisable comme sous-routine. LineROI.apm Crée des régions d'intérêt qui sont dérivées d'un ensemble d'objets contenant des droites. Lines2Regions.apm Conversion d'objets en régions puis calcul de mesures ManageOverlay.apm Comment récupérer les coordonnées de différents recouvrements. ObjectAccess.apm Accède les attributs des objets ISR depuis Basic ObjHistogramChart.apm Emploie les fonctions du serveur graphique pour afficher l'histogramme d'un objet PrintPage.apm Utilisation des fonctions d'impression depuis Basic ProcessDialog.apm Affiche une boite de dialogue permanente pour lancer des opérations sur une image. RegionMorphology.apm Morphologie effectuée sur des régions ISR RegionRotate.apm Rotation d'objets ISR Regions2Lines.apm Transformation de régions ISR en droites ShowImageSequence.apm Comment afficher une séquence d'images 2D. Viewmanipulation.apm Modification de la taille et de la position de fenêtres III. EXEMPLE : MACRO "CERAMIC.APM" D'APHELION La macro Aphelion "Ceramic.apm" est décrite ici pour illustrer l emploi de BasicScript. Elle traite une image (CN [0 255]) de fibres acquise par un microscope électronique pour: - extraire toutes les fibres (objets circulaires et sombres) par seuillage de niveaux de gris. - mesurer des caractéristiques (surface, élongation et circularité) de chaque fibre - fournir les coordonnées en pixels de la position de chaque fibre. Les commentaires sont précédés d'une apostrophe ou de la chaîne de caractères "rem". ' --- Ceramic.apm ----Date of creation: 27/01/96 - Date of last modifications: 26/09/9 --- Toute sous routine doit avoir un nom. Le nom par défaut est main, mais tout autre nom peut lui être attribué. Une sous routine peut en appeler une autre, en utilisant le concept de librairie de macros. Sub main Définition des deux variables entières breaktime et bt1000 : Dim breaktime As Integer Dim bt1000 As Integer Définition du type de boîte de dialogue "YesNoDialog" (i.e., nouveau type de variable), de titre "Aphelion Dialog Box", pour supprimer ou non des images. La fenêtre {x o, y o, l x, l y } a son coin haut gauche en (x o, y o ) et la taille (l x, l y ). L expression {Text x o,y o,l x,l y, "Bof.Text1} indique que Bof est de type Text, est stocké dans la variable.text1 et apparaît dans la fenêtre {x o,y o,l x,l y } Begin Dialog YesNoDialog,,180,48,"Aphelion Dialog Box" OKButton 132,8,40,14 GroupBox 4,20,108,24,"",.GroupBox1 Text 4,8,108,8, "Delete images and ObjectSets?",.Text1 OptionGroup.OptionGroupl OptionButton 16,32,32,8,"YES", OptionButton1 OptionButton 72,32,32,8,"NO", OptionButton2 End Dialog Définition de variable "boîte de dialogue de type YesNoDialog" : Dim ABox As YesNoDialog

143 MACROS D'APHELION 143 Définition de boîte de dialogue " de boîte de dialogue "YesNoDialog" (i.e., nouveau type de variable), de titre " Break Time during the execution ", pour spécifier le temps de pause. En fonction du choix de l'utilisateur, les variables OptionButton 1, 2 et 3 sont égales à 0 ou 1 Les autres valeurs numériques correspondent aux tailles et positions des boutons OK et des trois options. Begin Dialog BreakTimeDialog,189,76,"Break Time during the execution" OKButton 144,8,40,14 GroupBox 4,4,132,68,"",.GroupBoxl OptionGroup OptionGroupl OptionButton 16,16,108,8, "No break during the execution",.optionbuttonl OptionButton 16,36,116,8, "messages displayed during 3sec",.OptionButton2 OptionButton 16,56,116,8, "messages displayed during 5sec",.OptionButton3 End Dialog Définition de variable "boîte de dialogue de type BreakTimeDialog" : Dim BreakBox As BreakTimeDialog Définition de boîte de dialogue pour spécifier les filtres qui seront appliqués sur les mesures ISR. Toutes les valeurs numériques correspondent aux positions et tailles des boutons et textes. Begin Dialog FilterBox,172,100,"Object Filtering" OKButton 124,8,40,14 CancelButton 124,28,40,14 Text 16,8,92,20,"The filtering of fibers is based on:",.textl,"arial",9,ebbold CheckBox 16,36,68,8,"Surface area", surface CheckBox 16,52,66,8,"Location", location CheckBox 16,68,68,8,"Elongation", elongation CheckBox 16,84,68,8,"Compacity", compacity End Dialog Définition de variable "boîte de dialogue de type FilterBox" : Dim FBox As FilterBox Les deux variables suivantes sont utilisées dans l'opération d'étiquetage (labélisation) pour spécifier le nombre de pixels voisins considérés, avec des voisinages de 4 ou 8 pixels (i.e., 4- et 8- connected). graph4c = AphNgbGraph("2D 4-connected") graph8c = AphNgbGraph("2D 8-connected") Après ces déclarations, le programme commence. ' Main program a) Appel de la boite de dialogue "BreakBox" : sélection du temps de pause entre 2 opérations. La variable response prend la valeur -1 (bouton OK choisi) ou 0 (bouton CANCEL choisi). En fait, le bouton CANCEL n'étant pas disponible, seule la valeur -1 peut apparaître. Si le bouton OK est choisi, la variable OptionGroupl prend la valeur 0, 1 ou 2 selon l'option qui est sélectionnée. response% = Dialog(BreakBox) La commande Case lance les lignes de code à éxécuter selon l option choisie. Ainsi, Case.nom_var permet l'exécution conditionnelle de lignes de code selon la valeur de la variable nom_var. Select Case response% Case -1 'OK button If BreakBox.OptionGroup1 = 0 Then breaktime = 0 Else If BreakBox.OptionGroup1 = 1 Then breaktime = 3 Else breaktime = 5 End If End If Case 0 'Cancel button MsgBox "Cancel button doesn't exist!"

144 MACROS D'APHELION 144 End Select bt1000 = breaktime * 1000 multiplication par 1000, car dans BasicScript, les temps sont en ms b) AphImgRead copie l'image ceramic.tif du disque dur dans l image original créée et initialisée (i.e., valeur ceramique ) par AphImgNew. Le chemin complet de ceramic.tif doit être spécifié. original = AphImgNew() original,"c:\aphelion\images\ceramic.tif" c) La commande MsgOpen afficher une chaîne de caractères. Elle est fermée par la commande MsgClose. La commande Sleep génère une pause égale à la valeur de la variable btl000.. MsgOpen "Composite material in a ceramics matrix", breaktime, False, False Sleep btl000 MsgClose d) Affichage de messages, puis Seuillage. - 1 er et 2 ème messages : information. - 3 ème message : le système conseille le choix des seuils 1 et Seuillage avec la fonction AphImgThreshold. Cette fonction requiert 3 paramètres d entrée (i.e., noms des images d'entrée et de sortie, et 2 seuils). Vu que les seuils ne sont pas fournis, l'exécution de la macro s interrompt pour que l opérateur donne ces seuils. BasicScript ne permettant pas d'omettre les premiers paramètres et de spécifier les derniers, il faut ne spécifier aucun paramètre pour pouvoir entrer interactivement les 1 er paramètres. Le seuillage de l'image original donne l image binaire Binary1. Son nom apparait dans la bannière de la fenêtre. MsgOpen "The gray level histogram of this image includes two modes", breaktime, False, False Sleep bt1000 MsgClose MsgOpen "A threshold will segment the two phases", breaktime, False, False Sleep btl000 MsgClose MsgOpen "Specify Low as 1 and High as 117", 0, False, False Sleep 3000 b1 = AphImgNew("Binaryl") AphImgThreshold original,b1 Msgclose MsgOpen "Interactive gray level Thresholding", breaktime, False, False Sleep btl000 MsgClose e) L'image Binary1 inclue des fibres et un fond bruité (i.e., mosaïque de zones foncées plus petites que les fibres). La dilatation morphologique en niveaux de gris de l'image originale avec AphImgDilate et un élément structurant de taille comprise entre les fibres et le bruit du fond élimine donc les pixels les plus foncés. L emploi de l élément structurant 3x3 donne l'image Image1 i1 = AphImgNew("Image1") AphImgDilate original,i1,aphse1ement("square",3) f) Seuillage (seuils 0 et 117) de l'image dilatée avec AphImgThreshold pour extraire les germes des fibres. L'image résultat ne contenant plus de bruit de fond, est appelée Binary2. b2 = AphImgNew("Binary2") AphImgThreshold i1,b2,aphtreshold(0,117) g) La fonction AphImgReconstruct est une reconstruction binaire de la 1 ère image binaire à partir des graines de la 2 ème image binaire. L'image résultat contient toutes les fibres de la 1 ère image binaire qui avaient au moins une graine dans la 2 ème image binaire. Ici, la reconstruction utilise la 4- connexité, ce qui signifie que la reconstruction s'effectue de proche en proche en considérant que chaque pixel a 4 voisins dans les directions 0, 90, 180 et 270 degrés. b3 = AphImgNew("Binary3")

145 MACROS D'APHELION 145 AphImgReconstruct b1,b2,b3,graph4c h) AphImgFree supprime deux images binaires, Binaryl et Binary2, inutiles par la suite. AphImgFree b1 AphImgFree b2 i) Déconnection de fibres avec l'opérateur AphImgClustersSplitConvex (algorithme de la ligne de partage des eaux) appliqué à l'image binaire où les fibres sont connectées. b4 = AphImgNew("Binary4") AphImgClustersSplitConvex b3, b4, 10, graph4c j) Remplissage des trous dans les fibres de l'image binaire b4 : AphhImgHoleFill b4, b4, graph8c k) AphImgBorderKill élimine les objets qui intersectent les bords de l'image (fibres incomplètes), avec la 4-connexité. Ici, les images d'entrée et de sortie sont identiques. AphImgBorderKill b4, b4, graph4c l) Génération de l image étiquette i1 par l'opérateur AphlmgClustersToLabels à partir d'une image binaire, et ici d une connexité 4. Les étiquettes ont des valeurs entre 1 et le nombre d'objets. Le 1 er objet est le 1 er rencontré lors d'un balayage de haut en bas et de gauche à droite. i1 = AphImgNew("Label") AphImgClustersToLabels b4, i1, AphNgbGraph("2D 4-connected") AphImgFree b4 m) Représentation ISR avec AphlingLabelsObj à partir de l image i1 : création de l'ensemble d'objets "Fibers" ; i.e. limites rectangulaires de la région de chaque fibre et nombre de pixels de chaque fibre, à raison d une fibre (i.e., étiquette) par ligne de la grille "Fibers". AphImgLabelsObj i1, AphObjNew("Fibers") n) Analyse de chaque région et calcul de leur enveloppe convexe à partir de la représentation "Fibers". AphRegionConvexHullPolygons AphObj("Fibers") o) AphObjDraw affiche sur l'image original les contours des objets Fibers, sous forme polygonale. AphObjDraw original, AphObj("FIBERS"), "POLYGON" p) AphObjComputeMeasurements calcule de multiples mesures des éléments de ("Fibers") : PIXEL COUNT Nombre de pixels dans chaque objet POLYGON.EXTENTS.LL.X Coordonnée X du coin en bas à gauche du polygone POLYGON.EXTENTS.LL.Y Coordonnée Y du coin en bas à gauche du polygone POLYGON.EXTENTS.UR.X Coordonnée X du coin en haut à droite du polygone POLYGON.EXTENTS.UR.Y Coordonnée Y du coin en haut à droite du polygone POLYGON.NUMPOINTS Nombre de côtés de l'enveloppe convexe de l'objet REGION.EXTENTS.LL.X ordonnée X du coin en bas à gauche de la région REGION.EXTENTS.LL.Y Coordonnée Y du coin en bas à gauche de la région REGION.EXTENTS.UR.X Coordonnée X du coin en haut à droite de la région REGION.EXTENTS.UR.Y Coordonnée Y du coin en haut à droite de la région q) Choix du filtre à appliquer avec la boite de dialogue. Quatre filtres sont proposés en fonction de quatre paramètres : surface, position, élongation et circularité. response% = Dialog(FBox) Select Case response% Case -1 ' OK button If FBox.surface Then il = APhImgNew("Surface") AphImgCopy original, il

146 MACROS D'APHELION 146 r) Filtrage de l'ensemble des objets de Fibers avec AphObjFilter. Le résultat est stocké dans l'ensemble d'objets SURFACE. Ici, l 'attribut sur lequel le filtrage est effectué est PIXEL_COUNT. Les seuils bas et haut sont respectivement égaux à 1000 et AphObjFilter AphObj("Fibers"), AphObjNew("SURFACE"), "PIXEL COUNT", 1000, 1400 s) Affichage des objets sur l'image originale: AphObjDraw il, AphObj("SURFACE"), "POLYGON" t) Filtrage des objets selon leur position dans l'image, ce qui donne un nouvel ensemble d'objets ISR, nommé ici LOCATION. Comme la valeur d'étiquette la plus petite correspond à l'objet placé le plus haut dans l'image, il suffit de filtrer selon la valeur de TOKEN_INDEX. Les seuils choisis sont 1 et 10. If FBox.location Then i2 = AphImgNew("Location") AphImgCopy original, i2 AphObjFilter AphObj("Fibers"), AphObjNew("LOCATION"), "TOKEN_INDEX", 1, 10 AphObjDraw i2, AphObj("LOCATION"), "POLYGON" MsgOpen "Selection of the 10 first fibers", breaktime, False, False Sleep 2000 MsgClose End If Filtrage selon l élongation des objets. L élongation doit être calculée sur les régions et non sur les contours. Les seuils choisis sont 0 et Un ensemble d'objets ISR nommé ELONGATION est créé. If FBox.elongation Then i3 = AphImgNew("Elongation") AphImgCopy original, i3 AphRegionShape AphObj("FIBERS"), "REGION" AphObjFilter Aphobj("FIBERS"), AphObjNew("ELONGATION"), "ELONGATION", 0, 0.05 AphObjDraw i3, AphObj("ELONGATION"), "POLYGON" MsgOpen "Fibers with élongation between 0 and 0.05", breaktime, False, False Sleep 2000 MsgClose End If Autres filtrages. Filtrage selon la circularité avec AphObjAttributeRatio qui génère 2 attributs par objet : A1 = AREA / PERIMETER et l indice de circularité A2 = A1 / PERIMETER = AREA / carré de PERIMETER. Ici, les 2 seuils sont et Le résultat s'affiche en le superposant à l'image initiale. BasicScript permet de créer de nouveaux attributs avec les fonctions dont le nom débute par AphObj (e.g., AphObjAttributeRatio, AphObjAddAttribute, AphObjSetAttribute). If FBox.compacity Then i4 = AphImgNew("Compacity") AphImgCopy original, i4 AphRegionShape AphObj("FIBERS"), "REGION" AphObjAttributeRatio AphObj("FIBERS"), "PIXEL COUNT", "PERIMETER", "Al" AphObjAttributeRatio AphObj("FIBERS"), "Al", "PERIMETER", "A2" AphObjFilter AphObj("FIBERS"), AphObjNew("COMPACITY"), "A2", 0.045, 0.06 AphObjDraw i4, AphObj("COMPACITY"), "POLYGON" MsgOpen "Fibers whose shape is close to a circle", breaktime, False, False Sleep 2000 MsgClose End If Case 0 'Cancel button MsgBox "Cancel button doesn't exist!" End Select

147 MACROS D'APHELION 147 u) Boîte de dialogue Abox pour supprimer les images et les objets créés par la macro. La variable OptionGroupl prend la valeur 0 s'il est choisi de supprimer tous les objets et images. response% = Dialog(ABox) If ABox.OptionGroupl = 0 Then AphImgFree original if (il<>0) then AphImgFree i1 AphObjFree AphObj("SURFACE") end if if (i2<>0) then AphImgFree i2 AphObjFree Aphobj("LOCATION"I) end if if (i3<>o) then AphImgFree i3 AphObjFree AphObj("ELONGATION"I) AphImgFree i3 end if if (i4<>0) then AphImgFree i4 AphObjFree AphObj("COMPACITY") end if AphObj'Free Aphobj("FIBERS") End If v) Fin de la macro avec l appel de la fonction End Sub. IV. EXEMPLE : Macro "TrPonctuel.apm" (P. Dalle) La macro "TrPonctuel.apm": - crée une nouvelle structure image, affiche les catalogues disque, demande à l'utilisateur de sélectionner une image, puis charge et affiche l'image, - demande d'entrer un seuil de binarisation en fournissant une valeur par défaut, - duplique l'image et parcourt ensuite la nouvelle image ligne par ligne en effectuant un traitement (ici une binarisation) sur chaque pixel de la ligne courante; - affiche l'image traitée. Sub main InImg = AphImgNew() outimg = AphImgNew() ' Définit une nouvelle structure pour l'image d'entrée ' Définit une nouvelle structure pour l'image de sortie ' Chargement de l'image à traiter dans InImg Dim f As String ChDir ("..\") ' Pour remonter d'un niveau f$ = OpenFilename$("Sélectionner une image","fichiers Image: *.*") If f$ = "" Then MsgBox "Pas d'image sélectionnée..." Else AphImgRead InImg, f$ End If AphImgCopy inimg, outimg dim size() as long AphImgGetSize inimg, size xsize = size(0) ysize = size(1) dim row() as double ' On duplique l'image ' Le tableau row contiendra une ligne de pixels

148 MACROS D'APHELION 148 dim point(2) as long ' Le tableau point contiendra le numéro de la ligne dim s as Integer seuil$ = AskBox$("Entrer le seuil de binarisation entre 0 et 255",128,"Seuil") if seuil$ = "" then s = 128 else s = CInt(seuil$) if s < 0 then s = 0 elseif s > 255 then s = 255 end if end if dim x as Integer, y as Integer, r as Integer for y = 0 to ysize -1 ' Boucle sur les lignes (coordonnée y) point(1) = y AphImgGetRow inimg, point, row ' chargement de la ligne courante dans row for x = 0 to xsize -1 ' Traitement de la ligne courante r = row(x) if r < s then row(x) = 0 else row(x) = 255 next x AphImgSetRow outimg, point, row 'sauvegarde de la ligne traitée dans l'image de sortie next y AphImgCopy outimg, outimg Copie de l'image pour réafficher l'image dans l'interface GUI MsgBox "Image binarisée avec un seuil de " & s,ebokonly, "Résultat" Begin Dialog OuiNonDialog,,180,48," Sauvegarde " OKButton 132,8,40,14 GroupBox 4,20,108,24,"",.GroupBox1 Text 4,8,108,8,"Effacer toutes les images?",.text1 OptionGroup.OptionGroup1 OptionButton 16,32,32,8,"OUI",.OptionButton1 OptionButton 72,32,32,8,"NON",.OptionButton2 End Dialog Dim FreeImagesBox As OuiNonDialog ' Boite de dialogue pour libérer les images response% = Dialog(FreeImagesBox) ' Ouvrir la boite de dialogue pour effacer ou non les images If FreeImagesBox.OptionGroup1 = 0 Then AphImgFree inimg End If End Sub

Sujet. calculatrice: autorisée durée: 4 heures

Sujet. calculatrice: autorisée durée: 4 heures DS SCIENCES PHYSIQUES MATHSPÉ calculatrice: autorisée durée: 4 heures Sujet Approche d'un projecteur de diapositives...2 I.Questions préliminaires...2 A.Lentille divergente...2 B.Lentille convergente et

Plus en détail

Chapitre 18 : Transmettre et stocker de l information

Chapitre 18 : Transmettre et stocker de l information Chapitre 18 : Transmettre et stocker de l information Connaissances et compétences : - Identifier les éléments d une chaîne de transmission d informations. - Recueillir et exploiter des informations concernant

Plus en détail

Traitement numérique de l'image. Raphaël Isdant - 2009

Traitement numérique de l'image. Raphaël Isdant - 2009 Traitement numérique de l'image 1/ L'IMAGE NUMÉRIQUE : COMPOSITION ET CARACTÉRISTIQUES 1.1 - Le pixel: Une image numérique est constituée d'un ensemble de points appelés pixels (abréviation de PICture

Plus en détail

Chapitre 22 : (Cours) Numérisation, transmission, et stockage de l information

Chapitre 22 : (Cours) Numérisation, transmission, et stockage de l information Chapitre 22 : (Cours) Numérisation, transmission, et stockage de l information I. Nature du signal I.1. Définition Un signal est la représentation physique d une information (température, pression, absorbance,

Plus en détail

LES CAPTEURS CCD/CMOS

LES CAPTEURS CCD/CMOS Jérôme SIX Léo MEIGNAN Licence Professionnelle Gestion de la Production Industrielle, spécialité Vision Industrielle LES CAPTEURS CCD/CMOS Introduction...3 I) CCD...4 I.1) Historique...4 I.2) Fonctionnement...4

Plus en détail

PRINCIPE MICROSCOPIE CONFOCALE

PRINCIPE MICROSCOPIE CONFOCALE PRINCIPE MICROSCOPIE CONFOCALE Un microscope confocal est un système pour lequel l'illumination et la détection sont limités à un même volume de taille réduite (1). L'image confocale (ou coupe optique)

Plus en détail

TP SIN Traitement d image

TP SIN Traitement d image TP SIN Traitement d image Pré requis (l élève doit savoir): - Utiliser un ordinateur Objectif terminale : L élève doit être capable de reconnaître un format d image et d expliquer les différents types

Plus en détail

Analyse d images. Edmond.Boyer@imag.fr. Edmond Boyer UFRIMA 1

Analyse d images. Edmond.Boyer@imag.fr. Edmond Boyer UFRIMA 1 Analyse d images Edmond.Boyer@imag.fr Edmond Boyer UFRIMA 1 1 Généralités Analyse d images (Image Analysis) : utiliser un ordinateur pour interpréter le monde extérieur au travers d images. Images Objets

Plus en détail

LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION

LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION ) Caractéristiques techniques des supports. L infrastructure d un réseau, la qualité de service offerte,

Plus en détail

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE Le schéma synoptique ci-dessous décrit les différentes étapes du traitement numérique

Plus en détail

CHAPITRE IX : Les appareils de mesures électriques

CHAPITRE IX : Les appareils de mesures électriques CHAPITRE IX : Les appareils de mesures électriques IX. 1 L'appareil de mesure qui permet de mesurer la différence de potentiel entre deux points d'un circuit est un voltmètre, celui qui mesure le courant

Plus en détail

La conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA)

La conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA) La conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA) I. L'intérêt de la conversion de données, problèmes et définitions associés. I.1. Définitions:

Plus en détail

Acquisition et conditionnement de l information Les capteurs

Acquisition et conditionnement de l information Les capteurs Acquisition et conditionnement de l information Les capteurs COURS 1. Exemple d une chaîne d acquisition d une information L'acquisition de la grandeur physique est réalisée par un capteur qui traduit

Plus en détail

Chapitre 13 Numérisation de l information

Chapitre 13 Numérisation de l information DERNIÈRE IMPRESSION LE 2 septembre 2013 à 17:33 Chapitre 13 Numérisation de l information Table des matières 1 Transmission des informations 2 2 La numérisation 2 2.1 L échantillonage..............................

Plus en détail

Leica DM4000 B LED. Une imagerie facilitée par un éclairage brillant!

Leica DM4000 B LED. Une imagerie facilitée par un éclairage brillant! Leica DM4000 B LED Une imagerie facilitée par un éclairage brillant! Microscope numérique Leica avec éclairage à LED pour les applications biomédicales LEICA DM4000 B LED UN ÉCLAIRAGE BRILLANT POUR L'IMAGERIE!

Plus en détail

DIFFRACTion des ondes

DIFFRACTion des ondes DIFFRACTion des ondes I DIFFRACTION DES ONDES PAR LA CUVE À ONDES Lorsqu'une onde plane traverse un trou, elle se transforme en onde circulaire. On dit que l'onde plane est diffractée par le trou. Ce phénomène

Plus en détail

Les capteurs et leurs branchements

Les capteurs et leurs branchements bts mi 2 \ COURS\Technologie des capteurs et leurs branchements 1 1. Les Modules Entrées Les capteurs et leurs branchements Module d extension d Entrées/Sorties TOR Module réseau : communication entre

Plus en détail

DEMONSTRATION AMIENS

DEMONSTRATION AMIENS THERMOGRAPHIE INFRAROUGE DES INSTALLATIONS ELECTRIQUE SUIVANT LE DESCRIPTIF TECHNIQUE APSAD D19 DEMONSTRATION AMIENS Page 1 / 18 Rapport de contrôle Client : DEMONSTRATION Lieu d'intervention : AMIENS

Plus en détail

Q6 : Comment calcule t-on l intensité sonore à partir du niveau d intensité?

Q6 : Comment calcule t-on l intensité sonore à partir du niveau d intensité? EXERCICE 1 : QUESTION DE COURS Q1 : Qu est ce qu une onde progressive? Q2 : Qu est ce qu une onde mécanique? Q3 : Qu elle est la condition pour qu une onde soit diffractée? Q4 : Quelles sont les différentes

Plus en détail

Mesures de PAR. Densité de flux de photons utiles pour la photosynthèse

Mesures de PAR. Densité de flux de photons utiles pour la photosynthèse Densité de flux de photons utiles pour la photosynthèse Le rayonnement lumineux joue un rôle critique dans le processus biologique et chimique de la vie sur terre. Il intervient notamment dans sur les

Plus en détail

DIPLÔME INTERUNIVERSITAIRE D ECHOGRAPHIE. Examen du Tronc Commun sous forme de QCM. Janvier 2012 14 h à 16 h

DIPLÔME INTERUNIVERSITAIRE D ECHOGRAPHIE. Examen du Tronc Commun sous forme de QCM. Janvier 2012 14 h à 16 h ANNEE UNIVERSITAIRE 2011-2012 DIPLÔME INTERUNIVERSITAIRE D ECHOGRAPHIE Examen du Tronc Commun sous forme de QCM Janvier 2012 14 h à 16 h Les modalités de contrôle se dérouleront cette année sous forme

Plus en détail

8563A. SPECTRUM ANALYZER 9 khz - 26.5 GHz ANALYSEUR DE SPECTRE

8563A. SPECTRUM ANALYZER 9 khz - 26.5 GHz ANALYSEUR DE SPECTRE 8563A SPECTRUM ANALYZER 9 khz - 26.5 GHz ANALYSEUR DE SPECTRE Agenda Vue d ensemble: Qu est ce que l analyse spectrale? Que fait-on comme mesures? Theorie de l Operation: Le hardware de l analyseur de

Plus en détail

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies

Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Régis Boulet Charlie Demené Alexis Guyot Balthazar Neveu Guillaume Tartavel Sommaire Sommaire... 1 Structure

Plus en détail

ÉPREUVE COMMUNE DE TIPE 2008 - Partie D. TITRE : Comment s affranchir de la limite de la diffraction en microscopie optique?

ÉPREUVE COMMUNE DE TIPE 2008 - Partie D. TITRE : Comment s affranchir de la limite de la diffraction en microscopie optique? ÉPREUVE COMMUNE DE TIPE 2008 - Partie D TITRE : Comment s affranchir de la limite de la diffraction en microscopie optique? Temps de préparation :...2 h 15 minutes Temps de présentation devant le jury

Plus en détail

Sensibilité (bas niveaux de lumière, hauts niveaux de lumière) Spectre de sensibilité : visible (400-700 nm) mais aussi IR, UV, RX

Sensibilité (bas niveaux de lumière, hauts niveaux de lumière) Spectre de sensibilité : visible (400-700 nm) mais aussi IR, UV, RX Les capteurs pour l imagerie en biologie i Marc Moreau Catherine Leclerc Centre de Biologie du développement UMR 5547 et GDR E n 731 Toulouse BC02 mars 2013 Les différents système d imagerie à base de

Plus en détail

Société de Geo-engineering

Société de Geo-engineering Gestion de la maintenance des réseaux le géoréférencement inertiel direct, technologie automatisée d'acquisition d'objets 2D / 3D vers les SIG Société de Geo-engineering Activité d'expertise et d'ingénierie

Plus en détail

C - ICM LTE Gamme DE

C - ICM LTE Gamme DE Gamme DELTEC - ICM ICM micro Projecteur de profil numérique 2D Système de mesure 2D, fruit de plus de 25 ans d expérience dans la métrologie par vision! Déposer c est mesurer! - Reconnaissance de la pièce

Plus en détail

PHYSIQUE-CHIMIE. Partie I - Spectrophotomètre à réseau

PHYSIQUE-CHIMIE. Partie I - Spectrophotomètre à réseau PHYSIQUE-CHIMIE L absorption des radiations lumineuses par la matière dans le domaine s étendant du proche ultraviolet au très proche infrarouge a beaucoup d applications en analyse chimique quantitative

Plus en détail

Leçon 1 : Les principaux composants d un ordinateur

Leçon 1 : Les principaux composants d un ordinateur Chapitre 2 Architecture d un ordinateur Leçon 1 : Les principaux composants d un ordinateur Les objectifs : o Identifier les principaux composants d un micro-ordinateur. o Connaître les caractéristiques

Plus en détail

document proposé sur le site «Sciences Physiques en BTS» : http://nicole.cortial.net BTS AVA 2015

document proposé sur le site «Sciences Physiques en BTS» : http://nicole.cortial.net BTS AVA 2015 BT V 2015 (envoyé par Frédéric COTTI - Professeur d Electrotechnique au Lycée Régional La Floride Marseille) Document 1 - Etiquette énergie Partie 1 : Voiture à faible consommation - Une étiquette pour

Plus en détail

Chap17 - CORRECTİON DES EXERCİCES

Chap17 - CORRECTİON DES EXERCİCES Chap17 - CORRECTİON DES EXERCİCES n 3 p528 Le signal a est numérique : il n y a que deux valeurs possibles pour la tension. Le signal b n est pas numérique : il y a alternance entre des signaux divers

Plus en détail

Chapitre 2 : communications numériques.

Chapitre 2 : communications numériques. Chapitre 2 : communications numériques. 1) généralités sur les communications numériques. A) production d'un signal numérique : transformation d'un signal analogique en une suite d'éléments binaires notés

Plus en détail

Sujet. calculatrice: autorisée durée: 4 heures

Sujet. calculatrice: autorisée durée: 4 heures DS SCIENCES PHYSIQUES MATHSPÉ calculatrice: autorisée durée: 4 heures Sujet Spectrophotomètre à réseau...2 I.Loi de Beer et Lambert... 2 II.Diffraction par une, puis par deux fentes rectangulaires... 3

Plus en détail

Un spectromètre à fibre plus précis, plus résistant, plus pratique Concept et logiciel innovants

Un spectromètre à fibre plus précis, plus résistant, plus pratique Concept et logiciel innovants & INNOVATION 2014 NO DRIVER! Logiciel embarqué Un spectromètre à fibre plus précis, plus résistant, plus pratique Concept et logiciel innovants contact@ovio-optics.com www.ovio-optics.com Spectromètre

Plus en détail

X-Rite RM200QC. Spectrocolorimètre d'imagerie portable

X-Rite RM200QC. Spectrocolorimètre d'imagerie portable Spectrocolorimètre d'imagerie portable X-Rite RM200QC Le spectrocolorimètre d'imagerie RM200QC d X-Rite permet d'établir un lien entre l'apparence de la couleur et la couleur des matériaux des lots entrants

Plus en détail

Numérisation du signal

Numérisation du signal Chapitre 12 Sciences Physiques - BTS Numérisation du signal 1 Analogique - Numérique. 1.1 Définitions. Signal analogique : un signal analogique s a (t)est un signal continu dont la valeur varie en fonction

Plus en détail

Comparaison des performances d'éclairages

Comparaison des performances d'éclairages Comparaison des performances d'éclairages Présentation Support pour alimenter des ampoules de différentes classes d'efficacité énergétique: une ampoule LED, une ampoule fluorescente, une ampoule à incandescence

Plus en détail

TD1 Signaux, énergie et puissance, signaux aléatoires

TD1 Signaux, énergie et puissance, signaux aléatoires TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver

Plus en détail

F210. Automate de vision hautes fonctionnalités. Caractèristiques. Algorithmes vectoriels

F210. Automate de vision hautes fonctionnalités. Caractèristiques. Algorithmes vectoriels Automate de vision hautes fonctionnalités Caractèristiques Algorithmes vectoriels Les algorithmes permettent de sélectionner les éléments de traitement requis dans la bibliothèque, puis les combinent et

Plus en détail

Mise en pratique : Etude de spectres

Mise en pratique : Etude de spectres Mise en pratique : Etude de spectres Introduction La nouvelle génération de spectromètre à détecteur CCD permet de réaliser n importe quel spectre en temps réel sur toute la gamme de longueur d onde. La

Plus en détail

Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est:

Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est: Travaux Pratiques 3. IFT 1002/IFT 1005. Structure Interne des Ordinateurs. Département d'informatique et de génie logiciel. Université Laval. Hiver 2012. Prof : Bui Minh Duc. Tous les exercices sont indépendants.

Plus en détail

ENREGISTREUR DE TEMPERATURE

ENREGISTREUR DE TEMPERATURE ENREGISTREUR DE TEMPERATURE Jean-Pierre MANDON 2005 www.pictec.org Cet enregistreur de température a été réalisé dans le cadre de la construction d'un chauffe eau solaire. Il me permet d'enregistrer les

Plus en détail

Dossier 03 Périphériques d acquisition

Dossier 03 Périphériques d acquisition Dossier 03 Périphériques d acquisition I. PERIPHERIQUES D ACQUISITION... 1 II. CARACTERISTIQUES GENERALES... 2 A. CLAVIER... 2 B. SOURIS... 3 C. LECTEUR DE CODES A BARRES (OU CODE-BARRES)... 3 D. SCANNER...

Plus en détail

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE RANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE Un message numérique est une suite de nombres que l on considérera dans un premier temps comme indépendants.ils sont codés le plus souvent

Plus en détail

LES CAPTEURS TOUT OU RIEN

LES CAPTEURS TOUT OU RIEN LES CAPTEURS TOUT OU RIEN SOMMAIRE Généralités...3 Caractéristiques générales...4 Les capteurs mécaniques : principe...5 Les capteurs mécaniques : avantages et utilisation...6 Les capteurs mécaniques :

Plus en détail

Microscopie de fluorescence Etat de l art

Microscopie de fluorescence Etat de l art Etat de l art Bibliométrie (Web of sciences) CLSM GFP & TPE EPI-FLUORESCENCE 1 Fluorescence Diagramme de JABLONSKI S2 S1 10-12 s Excitation Eex Eem 10-9 s Émission Courtoisie de C. Spriet

Plus en détail

Outils permettant la diffusion de l information. Un point sur le droit numérique

Outils permettant la diffusion de l information. Un point sur le droit numérique Technologies de l Information et de la Communication Introduction aux NTE/TICE Présentation des UNR UNT Outils permettant la diffusion de l information Conceptualisation d un module d apprentissage numérique

Plus en détail

Résonance Magnétique Nucléaire : RMN

Résonance Magnétique Nucléaire : RMN 21 Résonance Magnétique Nucléaire : RMN Salle de TP de Génie Analytique Ce document résume les principaux aspects de la RMN nécessaires à la réalisation des TP de Génie Analytique de 2ème année d IUT de

Plus en détail

- MANIP 2 - APPLICATION À LA MESURE DE LA VITESSE DE LA LUMIÈRE

- MANIP 2 - APPLICATION À LA MESURE DE LA VITESSE DE LA LUMIÈRE - MANIP 2 - - COÏNCIDENCES ET MESURES DE TEMPS - APPLICATION À LA MESURE DE LA VITESSE DE LA LUMIÈRE L objectif de cette manipulation est d effectuer une mesure de la vitesse de la lumière sur une «base

Plus en détail

Glossaire technique Veditec

Glossaire technique Veditec Glossaire technique Veditec 3D/2D DNR (digital noise réduction) La technologie DNR est un système de réduction numérique de bruit ayant pour but de réduire le bruit sur l image. Elle permet d obtenir des

Plus en détail

INFO 2 : Traitement des images

INFO 2 : Traitement des images INFO 2 : Traitement des images Objectifs : Comprendre la différence entre image vectorielle et bipmap. Comprendre les caractéristiques d'une image : résolution, définition, nombre de couleurs, poids Etre

Plus en détail

1S9 Balances des blancs

1S9 Balances des blancs FICHE 1 Fiche à destination des enseignants 1S9 Balances des blancs Type d'activité Étude documentaire Notions et contenus Compétences attendues Couleurs des corps chauffés. Loi de Wien. Synthèse additive.

Plus en détail

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd UE 503 L3 MIAGE Initiation Réseau et Programmation Web La couche physique A. Belaïd abelaid@loria.fr http://www.loria.fr/~abelaid/ Année Universitaire 2011/2012 2 Le Modèle OSI La couche physique ou le

Plus en détail

Ecole Centrale d Electronique VA «Réseaux haut débit et multimédia» Novembre 2009

Ecole Centrale d Electronique VA «Réseaux haut débit et multimédia» Novembre 2009 Ecole Centrale d Electronique VA «Réseaux haut débit et multimédia» Novembre 2009 1 Les fibres optiques : caractéristiques et fabrication 2 Les composants optoélectroniques 3 Les amplificateurs optiques

Plus en détail

Chapitre 02. La lumière des étoiles. Exercices :

Chapitre 02. La lumière des étoiles. Exercices : Chapitre 02 La lumière des étoiles. I- Lumière monochromatique et lumière polychromatique. )- Expérience de Newton (642 727). 2)- Expérience avec la lumière émise par un Laser. 3)- Radiation et longueur

Plus en détail

Multivac Vision System (MVS) : Détection visuelle d objets et inspection qualité. * Le meilleur de l emballage

Multivac Vision System (MVS) : Détection visuelle d objets et inspection qualité. * Le meilleur de l emballage Multivac Vision System (MVS) : Détection visuelle d objets et inspection qualité * * Le meilleur de l emballage MVS Composants Domaines d application Données techniques Automatisation efficace de la production

Plus en détail

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES Compétences mises en jeu durant l'activité : Compétences générales : S'impliquer, être autonome. Compétence(s) spécifique(s) : Reconnaître des signaux de nature

Plus en détail

Information. BASES LITTERAIRES Etre capable de répondre à une question du type «la valeur trouvée respecte t-elle le cahier des charges?

Information. BASES LITTERAIRES Etre capable de répondre à une question du type «la valeur trouvée respecte t-elle le cahier des charges? Compétences générales Avoir des piles neuves, ou récentes dans sa machine à calculer. Etre capable de retrouver instantanément une info dans sa machine. Prendre une bouteille d eau. Prendre CNI + convocation.

Plus en détail

Comprendre l Univers grâce aux messages de la lumière

Comprendre l Univers grâce aux messages de la lumière Seconde / P4 Comprendre l Univers grâce aux messages de la lumière 1/ EXPLORATION DE L UNIVERS Dans notre environnement quotidien, les dimensions, les distances sont à l échelle humaine : quelques mètres,

Plus en détail

Activité 1 : Rayonnements et absorption par l'atmosphère - Correction

Activité 1 : Rayonnements et absorption par l'atmosphère - Correction Activité 1 : Rayonnements et absorption par l'atmosphère - Correction Objectifs : Extraire et exploiter des informations sur l'absorption des rayonnements par l'atmosphère terrestre. Connaitre des sources

Plus en détail

Exposition. VLR plongée e commission photo

Exposition. VLR plongée e commission photo Exposition VLR plongée e commission photo Agenda Définitions Exposition / analogie du verre d eau (de vin?) Ouverture Vitesse Sensibilité La notion d EV Pourquoi cela ne suffit pas? Dynamique des capteurs

Plus en détail

GENERALITES SUR LA MESURE DE TEMPERATURE

GENERALITES SUR LA MESURE DE TEMPERATURE Distributeur exclusif de GENERALITES SUR LA MESURE DE TEMPERATURE INTRODUCTION...2 GENERALITES SUR LA MESURE DE TEMPERATURE...2 La température...2 Unités de mesure de température...3 Echelle de température...3

Plus en détail

I- Définitions des signaux.

I- Définitions des signaux. 101011011100 010110101010 101110101101 100101010101 Du compact-disc, au DVD, en passant par l appareil photo numérique, le scanner, et télévision numérique, le numérique a fait une entrée progressive mais

Plus en détail

Recherche De Coalescences Binaires Étalonnage Du Détecteur

Recherche De Coalescences Binaires Étalonnage Du Détecteur Recherche De Coalescences Binaires Étalonnage Du Détecteur Fabrice Beauville Journées Jeunes Chercheurs 18/12/2003 Les Coalescences Binaires & VIRGO Système binaire d objets compacts (étoiles à neutrons,

Plus en détail

MOTORISATION DIRECTDRIVE POUR NOS TELESCOPES. Par C.CAVADORE ALCOR-SYSTEM WETAL 2013 10 Nov

MOTORISATION DIRECTDRIVE POUR NOS TELESCOPES. Par C.CAVADORE ALCOR-SYSTEM WETAL 2013 10 Nov 1 MOTORISATION DIRECTDRIVE POUR NOS TELESCOPES Par C.CAVADORE ALCOR-SYSTEM WETAL 2013 10 Nov Pourquoi motoriser un télescope? 2 Pour compenser le mouvement de la terre (15 /h) Observation visuelle Les

Plus en détail

Utilisation du visualiseur Avermedia

Utilisation du visualiseur Avermedia Collèges Numériques Utilisation du visualiseur Avermedia Un visualiseur est aussi appelé caméra de table et ce nom rend mieux compte de sa fonction première à savoir filmer un document (revue,carte, dissection,

Plus en détail

G.P. DNS02 Septembre 2012. Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3. Réfraction

G.P. DNS02 Septembre 2012. Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3. Réfraction DNS Sujet Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3 Réfraction I. Préliminaires 1. Rappeler la valeur et l'unité de la perméabilité magnétique du vide µ 0. Donner

Plus en détail

Mesure de Salinité Réalisation d'un conductimètre

Mesure de Salinité Réalisation d'un conductimètre Kourou Novembre 2010. MANGOTECHNO Mesure de Salinité Réalisation d'un conductimètre Frédéric BOUCHAR (TENUM Toulouse) Version 1.0 Table des matières 1.Introduction...3 2.Qu'est-ce que la salinité?...3

Plus en détail

L'intelligence en mouvement. Caméras AUTODOME 7000 avec fonction de suivi intelligent

L'intelligence en mouvement. Caméras AUTODOME 7000 avec fonction de suivi intelligent L'intelligence en mouvement Caméras AUTODOME 7000 avec fonction de suivi intelligent 2 Bosch AUTODOME 7000 Les caméras IP et HD AUTODOME 7000 combinent une intelligence avancée, une flexibilité de diffusion

Plus en détail

Guide de l'utilisateur de l'utilitaire d'installation de caméra Avigilon

Guide de l'utilisateur de l'utilitaire d'installation de caméra Avigilon Guide de l'utilisateur de l'utilitaire d'installation de caméra Avigilon Version 4.10 PDF-CIT-D-Rev1_FR Copyright 2011 Avigilon. Tous droits réservés. Les informations présentées sont sujettes à modification

Plus en détail

Supports. Images numériques. notions de base [1] http://lilapuce.net

Supports. Images numériques. notions de base [1] http://lilapuce.net Supports Images numériques notions de base [1] http://lilapuce.net Deux grands types d images numériques : bitmap et vectoriel La création d'une image informatique n'est possible qu'en utilisant l'un des

Plus en détail

ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE

ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE ESPACE MULTIMEDIA DU CANTON DE ROCHESERVIERE Session découverte La Gestion des photos avec Windows Vista / Windows 7 et le traitements d images numériques 1 Généralités sur le jargon de l image numérique

Plus en détail

Le poids et la taille des fichiers

Le poids et la taille des fichiers Le poids et la taille des fichiers Au tout départ des 0 et des 1 En français et en anglais on appelle cela un bit 8 bit donne un octet (ou byte en anglais) Exemple d octet : 11111111 10111010 00001000

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

UNIVERSITE MOHAMMED V Rabat Ecole Normale Supérieure

UNIVERSITE MOHAMMED V Rabat Ecole Normale Supérieure UNIVERSITE MOHAMMED V Rabat Ecole Normale Supérieure APPEL D OFFRES OUVERT SUR OFFRES DE PRIX 08/ENS/24 BORDEREAU DES PRIX-DETAIL ESTIMATIF Lot n 2 : Achat et installation de matériel pour l enseignement

Plus en détail

INTRODUCTION. A- Modélisation et paramétrage : CHAPITRE I : MODÉLISATION. I. Paramétrage de la position d un solide : (S1) O O1 X

INTRODUCTION. A- Modélisation et paramétrage : CHAPITRE I : MODÉLISATION. I. Paramétrage de la position d un solide : (S1) O O1 X INTRODUCTION La conception d'un mécanisme en vue de sa réalisation industrielle comporte plusieurs étapes. Avant d'aboutir à la maquette numérique du produit définitif, il est nécessaire d'effectuer une

Plus en détail

Traitement bas-niveau

Traitement bas-niveau Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.

Plus en détail

Projet de Traitement du Signal Segmentation d images SAR

Projet de Traitement du Signal Segmentation d images SAR Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,

Plus en détail

Les algorithmes de base du graphisme

Les algorithmes de base du graphisme Les algorithmes de base du graphisme Table des matières 1 Traçage 2 1.1 Segments de droites......................... 2 1.1.1 Algorithmes simples.................... 3 1.1.2 Algorithmes de Bresenham (1965).............

Plus en détail

COMMUNICATEUR BLISS COMMANDE PAR UN SENSEUR DE POSITION DE L'OEIL

COMMUNICATEUR BLISS COMMANDE PAR UN SENSEUR DE POSITION DE L'OEIL COMMUNICATEUR BLISS COMMANDE PAR UN SENSEUR DE POSITION DE L'OEIL J. TICHON(1) (2), J.-M. TOULOTTE(1), G. TREHOU (1), H. DE ROP (2) 1. INTRODUCTION Notre objectif est de réaliser des systèmes de communication

Plus en détail

Scanner de film numérique

Scanner de film numérique HD-CR 35 NDT Le nouveau standard de la radiographie numérique avec la technologie TroisFocales Scanner de film numérique Données techniques HD-CR 35 NDT Taille ajustable des spots laser : 12,5-25 - 50

Plus en détail

Puis le convertisseur bloque en mémoire cette valeur pendant une période d échantillonnage.

Puis le convertisseur bloque en mémoire cette valeur pendant une période d échantillonnage. PATIE 7 CHAPITE (PHYSIQUE) NUMÉISATION, STOCKAGE ET TANSMISSION DE L INFOMATION TS I. LE SIGNAL NUMÉIQUE. Signal analogique ou numérique? Un signal est la représentation physique d une information qui

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

Sommaire. Bertrand PECUCHET

Sommaire. Bertrand PECUCHET Sommaire I. Introduction... 2 II. Présentation de la Kinect... 3 1. Caractéristiques :... 4 III. Focus sur les différents capteurs de la Kinect... 5 1. Le capteur RGB... 5 2. Capteur et émetteur Infrarouge...

Plus en détail

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Détection et reconnaissance des sons pour la surveillance médicale Dan Istrate le 16 décembre 2003 Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Thèse mené dans le cadre d une collaboration

Plus en détail

Géométrie discrète Chapitre V

Géométrie discrète Chapitre V Géométrie discrète Chapitre V Introduction au traitement d'images Géométrie euclidienne : espace continu Géométrie discrète (GD) : espace discrétisé notamment en grille de pixels GD définition des objets

Plus en détail

CHAPITRE V. Théorie de l échantillonnage et de la quantification

CHAPITRE V. Théorie de l échantillonnage et de la quantification CHAPITRE V Théorie de l échantillonnage et de la quantification Olivier FRANÇAIS, SOMMAIRE I INTRODUCTION... 3 II THÉORIE DE L ÉCHANTILLONNAGE... 3 II. ACQUISITION DES SIGNAUX... 3 II. MODÉLISATION DE

Plus en détail

Régler les paramètres de mesure en choisissant un intervalle de mesure 10µs et 200 mesures.

Régler les paramètres de mesure en choisissant un intervalle de mesure 10µs et 200 mesures. TP Conversion analogique numérique Les machines numériques qui nous entourent ne peuvent, du fait de leur structure, que gérer des objets s composés de 0 et de. Une des étapes fondamentale de l'interaction

Plus en détail

nom : Collège Ste Clotilde

nom : Collège Ste Clotilde UNE CONFIGURATION INFORMATIQUE Objectif : Identifier les éléments principaux d une configuration L ordinateur enregistre des données qu il traite pour produire un résultat Sifflements 20 Notice 12 attache

Plus en détail

Enregistrement automatique. des données

Enregistrement automatique. des données Enregistrement automatique des données Chapitre: 6 Page No.: 1 Il n y a que quelques années que l enregistrement manuel de données géotechniques était de coutume. L introduction de l enregistrement automatique

Plus en détail

Leica DISTO A2. The original laser distance meter

Leica DISTO A2. The original laser distance meter Leica DISTO A2 The original laser distance meter Manuel d'utilisation Français Nous vous félicitons pour l'achat de votre Leica DISTO. Vous trouverez les consignes de sécurité dans la brochure en annexe.

Plus en détail

Chapitre 1 Régime transitoire dans les systèmes physiques

Chapitre 1 Régime transitoire dans les systèmes physiques Chapitre 1 Régime transitoire dans les systèmes physiques Savoir-faire théoriques (T) : Écrire l équation différentielle associée à un système physique ; Faire apparaître la constante de temps ; Tracer

Plus en détail

Conservation des documents numériques

Conservation des documents numériques Conservation des documents numériques Qu'est ce qu'un document numérique? Matthieu GIOUX matthieu.gioux@bnf.fr Contexte de la préservation des documents numériques Une croissance en expansion Développement

Plus en détail

Chapitre I La fonction transmission

Chapitre I La fonction transmission Chapitre I La fonction transmission 1. Terminologies 1.1 Mode guidé / non guidé Le signal est le vecteur de l information à transmettre. La transmission s effectue entre un émetteur et un récepteur reliés

Plus en détail

Gérer, stocker et partager vos photos grâce à Picasa. Janvier 2015

Gérer, stocker et partager vos photos grâce à Picasa. Janvier 2015 Gérer, stocker et partager vos photos grâce à Picasa Janvier 2015 Sommaire 1 - Découverte de Picasa 2 - Gestion des dossiers et des photos 3 - Trier, filtrer et rechercher 4 - Retoucher une image 5 - Création

Plus en détail

Par Richard Beauregard. Novembre 2011

Par Richard Beauregard. Novembre 2011 Par Richard Beauregard Novembre 2011 La lutte contre le bruit et autres parasites lumineux Le temps d exposition versus le compositage Les images de prétraitement L'image de précharge (Offset ou Bias)

Plus en détail

Dr E. CHEVRET UE2.1 2013-2014. Aperçu général sur l architecture et les fonctions cellulaires

Dr E. CHEVRET UE2.1 2013-2014. Aperçu général sur l architecture et les fonctions cellulaires Aperçu général sur l architecture et les fonctions cellulaires I. Introduction II. Les microscopes 1. Le microscope optique 2. Le microscope à fluorescence 3. Le microscope confocal 4. Le microscope électronique

Plus en détail

FAG Detector II le collecteur et l analyseur de données portatif. Information Technique Produit

FAG Detector II le collecteur et l analyseur de données portatif. Information Technique Produit FAG II le collecteur et l analyseur de données portatif Information Technique Produit Application La maintenance conditionnelle Principe de fonctionnement Application Le FAG II est, à la fois, un appareil

Plus en détail