D.I.I.C. 3 - INC Module COMV - Contrôle 1



Documents pareils
Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Transmission d informations sur le réseau électrique

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Systèmes de communications numériques 2

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Quantification Scalaire et Prédictive

Formats d images. 1 Introduction

Travaux pratiques. Compression en codage de Huffman Organisation d un projet de programmation

Chaine de transmission

Traitement bas-niveau

ISO/CEI NORME INTERNATIONALE

Codage hiérarchique et multirésolution (JPEG 2000) Codage Vidéo. Représentation de la couleur. Codage canal et codes correcteurs d erreur

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S

Chapitre 13 Numérisation de l information

Projet d informatique M1BI : Compression et décompression de texte. 1 Généralités sur la compression/décompression de texte

Chapitre 2 : communications numériques.

Technique de compression des images médicales 4D

Approche par marquage pour l évaluation de la qualité d image dans les applications multimédias

Numérisation du signal

Livrable 2.1 Rapport d analyse et de restructuration de code monothread des modules P, T, Q et F de l encodage MPEG-4 AVC

Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est:

Université de La Rochelle. Réseaux TD n 6

Programmation linéaire

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Représentation des Nombres

Optimisation de la compression fractale D images basée sur les réseaux de neurones

Un schéma de compression avec pertes efficace pour les images médicales volumiques

Chap17 - CORRECTİON DES EXERCİCES

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

Algorithmique I. Algorithmique I p.1/??

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Chapitre 18 : Transmettre et stocker de l information

Architecture des ordinateurs TD1 - Portes logiques et premiers circuits

DEVANT L UNIVERSITE DE RENNES 1

REALISATION D UNE CALCULATRICE GRACE AU LOGICIEL CROCODILE CLIPS 3.

L information sera transmise selon des signaux de nature et de fréquences différentes (sons, ultrasons, électromagnétiques, électriques).

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Mesure agnostique de la qualité des images.

TD : Codage des images

GPA770 Microélectronique appliquée Exercices série A

1 Introduction au codage

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

ÉPREUVE COMMUNE DE TIPE Partie D

Définitions. Numéro à préciser. (Durée : )

Dimensionnement d une roue autonome pour une implantation sur un fauteuil roulant

Théorie des Graphes Cours 3: Forêts et Arbres II / Modélisation

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses

Théorie et codage de l information

Resolution limit in community detection

3 Approximation de solutions d équations

Technique de codage des formes d'ondes

Compression Compression par dictionnaires

Représentation d un entier en base b

Transmission de données. A) Principaux éléments intervenant dans la transmission

Résolution d équations non linéaires

Hiver 2013 IMN 259. Introduction à l analyse d images. Par Pierre-Marc Jodoin

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Géométrie discrète Chapitre V

Q6 : Comment calcule t-on l intensité sonore à partir du niveau d intensité?

Interception des signaux issus de communications MIMO

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Calcul différentiel sur R n Première partie

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

1.1 Codage de source et test d hypothèse

TD 9 Problème à deux corps

Communications numériques

La classification automatique de données quantitatives

Gestion de gros fichiers binaires (images) en APL*PLUS III

Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test

Fonctions de plusieurs variables

Activité 1. Compter les points Écriture binaire des nombres. Résumé. Liens pédagogiques. Compétences. Âge. Matériel

Le codage informatique

Durée de L épreuve : 2 heures. Barème : Exercice n 4 : 1 ) 1 point 2 ) 2 points 3 ) 1 point

TP Modulation Démodulation BPSK

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES

TP : Gestion d une image au format PGM


Arbres binaires de décision

Plus courts chemins, programmation dynamique

Projet Matlab/Octave : segmentation d'un ballon de couleur dans une image couleur et insertion d'un logo

EPREUVE OPTIONNELLE d INFORMATIQUE CORRIGE

L essentiel du tableau de bord

Chapitre 3. Les distributions à deux variables

TD1 PROPAGATION DANS UN MILIEU PRESENTANT UN GRADIENT D'INDICE

de calibration Master 2: Calibration de modèles: présentation et simulation d

USTL - Licence ST-A 1ère année Codage de l information TP 1 :

Programmation Linéaire - Cours 1

JPEG, PNG, PDF, CMJN, HTML, Préparez-vous à communiquer!

Exemples de problèmes et d applications. INF6953 Exemples de problèmes 1

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

Systèmes de transmission

TP SIN Traitement d image

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Cours d introduction à l informatique. Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions

Projet de Traitement du Signal Segmentation d images SAR

Transcription:

Université de Rennes 1 année 2009-2010 I.F.S.I.C. 11 Décembre 2009 D.I.I.C. 3 - INC Module COMV - Contrôle 1 cours d Olivier LE MEUR Durée : 2 heures Documents autorisés : documents des cours, TD et TP, calculatrices autorisées Nombre de pages : 6 Remarques : Le barème est indicatif. Les exercices sont indépendants. 1

I. QCM argumenté / Questions de cours (6 points) Pour les questions de type QCM, vous devez indiquer pour chaque réponse proposée si elle est correcte ou incorrecte et pourquoi. Il peut y avoir une ou plusieurs bonnes réponses par question. 1. Si une image à N niveaux de gris a une entropie H proche de log 2 N, alors : (a) l image contient beaucoup d information (au sens de Shannon) (b) l image est approximativement uniforme (c) son histogramme est approximativement uniforme (d) on pourra efficacement la comprimer sans perte 2. On réalise un codage de Huffman des niveaux de gris de l image Lena (codée sur 8 bits). Ce codage fournit un arbre de Huffman. Cet arbre est utilisé pour coder une image de synthèse comportant 8 niveaux de gris distincts. Quel résultat obtient-on? (a) on ne peut pas décoder le message binaire obtenu (b) le modèle de source n est pas adpaté (c) on obtient le même taux de compression qu avec l image Lena (d) on aurait pu obtenir un meilleur taux de compression en utilisant l arbre de Huffman construit à partir de l image de synthèse. 3. Que peut-on faire pour exploiter la dépendance spatiale entre les pixels d une image en vue d une compression efficace? (a) appliquer une transformée fréquentielle (b) réaliser une quantification scalaire des valeurs (c) réaliser une quantification vectorielle des valeurs (d) appliquer un algorithme de type DPCM 4. Qu appelle-t-on codage avec pertes? Quels sont les intérêts de ce type de codage par rapport au codage sans perte? Comment peut-il être mis en oeuvre (citer deux façons de le faire)? 5. La capacité d un canal (a) est le nombre maximal de bits d information par secondes qu il peut transmettre (b) dépend de l entropie de la source que l on cherche à transmettre (c) doit être supérieure à l entropie de la source pour une transmission sans perte (d) dépend du modèle de source choisi 6. Un quantificateur optimal au sens de l erreur quadratique moyenne... (a) est un quantificateur qui vérifie la règle du centroïde et la règle du plus proche (b) vise à réduire les erreurs de quantification (c) minimise la distorsion visuelle (d) maximise le PSNR (e) tient compte de la distribution des valeurs à quantifier pour le choix des seuils de décision et des niveaux de quantification 2

7. La quantification vectorielle (a) est une méthode réalisant une quantification optimale des vecteurs de mouvement (b) est une méthode qui quantifie des n-uplets de valeurs (c) est plus avantageuse que la quantification scalaire en terme de compromis débit-distortion (d) est plus avantageuse que la quantification scalaire (performances équivalentes pour une faible complexité calculatoire) 8. Dans un schéma de codage, pourquoi utilise-t-on une transformée (DCT, DWT...)? 3

II. Entropie mutuelle conditionnelle (3 points) Soient X et Y deux variables aléatoires discrètes à valeurs dans {x 1, x 2,..., x n } et {y 1, y 2,..., y m }. On désigne par p ij la loi du couple (X, Y ). On rappelle que l information mutuelle de X et Y, notée I(X; Y ) peut s écrire : I(X; Y ) = H(X) H(X Y ) = H(Y ) H(Y X), avec H() l entropie. Soit Z une variable aléatoire discrète à valeurs dans {z 1, z 2,..., z p }. Par extension de la formule précédente, on définit l information mutuelle entre X et Y sachant Z : I(X; Y Z) = H(X Z) H(X Y, Z) = H(Y Z) H(Y X, Z) 1. Montrez que I(X; (Y, Z)) = I(X; Z) + I(X; Y Z). 2. Que se passe-t-il si Y est indépendante de X sachant Z? III. Codage par bloc de symboles (6 points) On considère une source S constituée de 3 symboles et définie par les probabilités suivantes : S s 1 s 2 s 3 p(s = s i ) 0.38 0.34 0.28 1. Rappeler l objectif d un codage par bloc de symboles. 2. Calculer l entropie de la source S. Que signifie cette valeur? 3. Proposer un code de longueur fixe. Quelle est son efficacité? (Rappel : l efficacité est donnée par le rapport de l entropie sur la longueur moyenne du code) 4. Proposer un code de Huffman (donner l arbre). Quelle est son efficacité? 5. Proposer un code de Fano-Shannon. Quelle est son efficacité? On se propose de coder les symboles 2 par 2. Cela revient à définir une nouvelle source qui émet un bi-symbole. On applique cette transformation à la source S en supposant que la probabilité d un bi-symbole est le produit de la probabilité des symboles le composant. 6. Construire cette nouvelle source, notée S 2, en donnant pour chaque symbole sa probabilité d apparition. 7. Calculez l entropie de la nouvelle source. 4

8. Proposer un code de Huffman (donner l arbre). Quelle est son efficacité? 9. Proposer un code de Fano-Shannon. Quelle est son efficacité? 10. Conclure. IV. Codage DPCM (5 points) Soit le bloc 4 4 suivant extrait d une image : 160 095 70 70 132 132 95 95 132 132 95 70 160 160 95 70 1. Calculer l entropie de cette image en définissant la variable aléatoire X, son alphabet et sa densité de probabilité. 2. On se propose d utiliser le prédicteur non linéaire adaptatif mis en oeuvre dans le standard JPEG-LS : min(a, b) si c max(a, b) x p = max(a, b) si c min(a, b) a + b c Le voisinage (c est à dire les valeurs a, b et c) est défini de la façon suivante (x est la valeur courante) : c b d a x La gestion des bords de l imagette se fait comme indiqué ci-dessous. Les valeurs en gras sont ajoutées. 160 160 95 70 70 160 160 95 70 70 132 132 132 95 95 132 132 132 95 70 160 160 160 95 70 3. Calculer l imagette de prédiction 5

4. Calculer l imagette de l erreur de prédiction ainsi que l erreur quadratique moyenne 5. Calculer l entropie de l erreur de prédiction 6. Concluer sur ce prédicteur. 6