Codage de source et compression

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "Codage de source et compression"

Transcription

1 Institut Mines-Telecom J Codage de source et compression Marco Cagnazzo, Journées X-UPS

2 Plan Introduction au codage de source et à la compression Huffman et codage arithmétique scalaire prédictive avec contrainte entropique Allocation des ressources Exemples 2/ Institut Mines-Telecom Codage de source et compression

3 Plan Introduction au codage de source et à la compression 3/ Institut Mines-Telecom Codage de source et compression

4 Pourquoi comprimer? Exemple 1 : Libraire de photos numériques Images à 5 Megapixel Trois composantes couleur Un octet par composant Occupation mémoire : 15 Mo par photo Publication sur le Web? 4/ Institut Mines-Telecom Codage de source et compression

5 Pourquoi comprimer? Exemple 2 : Télévision système analogique bande de fréquence : 6 MHz Système numérique : TV-SD 1 composante de luminance composantes de chrominance quantification sur 8 bits 25 images par seconde R 125 Mbps 2 heures de film > 100 Go TV-HD : pixels, 50 images par second : R 1250 Mbps, 2h de film > 1To 5/ Institut Mines-Telecom Codage de source et compression

6 Fondements de la compression La redondance Redondance statistique des données images : homogénéité spatiale vidéo : similitude entre images successives texte : influence entre lettres et entre mots son : signal localement stationnaire Redondance psychovisuel / psychoacustique effets de masquage (spatial, temporel, en fréquence) sensibilité aux baisses fréquences (images) limites de système de perception humain Un algorithme de compression doit exploiter au maximum la redondance des données 6/ Institut Mines-Telecom Codage de source et compression

7 Fondements de la compression Types d algorithme Algorithmes sans perte (lossless) Reconstruction parfaite Basés sur la redondance statistique Faible rapport de compression Algorithmes avec perte (lossy) Données reconstruites données originales Basés sur la quantification Redondance psychovisuel : perceptually lossless Rapport de compression élevé 7/ Institut Mines-Telecom Codage de source et compression

8 Critères de performance Débit Rapport (taux) de compression = R in R out T = B in B out Débit de codage Image : R = Bout NM [bpp] Vidéo, son : R = Bout T [bps] Exemples : Codage d image sans perte : T 3 Codage d image avec perte : T 5? Codage vidéo avec perte : T 20? 8/ Institut Mines-Telecom Codage de source et compression

9 Critères de performance Qualité et distorsion Le seul débit n est pas suffisant pour évaluer un algorithme avec pertes Il faut déterminer la qualité ou la distorsion de l image reconstruite Les Critères objectifs sont fonctions mathématiques de fn,m : image d origine ; et fn,m : image reconstruite après compression Les critères objectifs non perceptuels ne prennent pas en compte les caractéristiques du système visuel humain (SVH) Les critères objectifs perceptuels sont basés sur un modèle du système visuel humain (SVH) 9/ Institut Mines-Telecom Codage de source et compression

10 Critères de performance Critères objectifs non perceptuels Signal d erreur : E(f, f) = f f Erreur quadratique moyenne (MSE) D : D(f, f) = 1 N M E 2 = 1 N M Rapport signal sur bruit ( crête ) : PSNR(f, f) = 10 log D(f, f) N M n=1m=1 Mesure simple, dérivable, liée à la norme L 2 E 2 n,m 10/ Institut Mines-Telecom Codage de source et compression

11 Critères de performance Critères objectifs perceptuels (images) Weighted PSNR : Étant donnée une fonction de pondération fréquentielle (filtre linéaire) h : H WPSNR(f, f) = 10 log 10 ( D W (f, f) D W (f, f) = 1 N M h E 2 11/ Institut Mines-Telecom Codage de source et compression 0 ν y ) où 0 ν x 0.5

12 Critères de performance Critères objectifs perceptuels (images) Structural Similarity Index (SSIM Index) entre deux blocs x et y : SSIM(x, y) = [l (x, y)] α [c(x, y)] β [s(x, y)] γ l (x, y) = 2µxµy + C 1 µ 2 x +µ 2 y + C 1 Luminance c(x, y) = 2σxσy + C 2 σ 2 x +σ 2 y + C 2 s(x, y) = σxy + C 3 σ xσ y + C 3 Contraste Structure pour simplicité, α = β = γ = 1, C 3 = C 2 /2 SSIM = (2µ xµ y + C 1 )(2σ xy + C 2 ) ( µ 2 x +µ 2 y + C 1 )( σ 2 x +σ 2 y + C 2 ) Le SSIM entre deux images est la moyenne des SSIM des blocs 12/ Institut Mines-Telecom Codage de source et compression

13 Perception des erreurs Erreur distribuée, bruit blanc σ = 4 MSE: 16 SSIM: / Institut Mines-Telecom Codage de source et compression

14 Perception des erreurs Bruit concentré sur pixels MSE: 16 SSIM: / Institut Mines-Telecom Codage de source et compression

15 Perception des erreurs Bruit concentré sur les contours (estimation par filtre de Sobel) MSE: 16 SSIM: / Institut Mines-Telecom Codage de source et compression

16 Perception des erreurs Bruit sur les hautes fréquences spatiales MSE: 16 SSIM: / Institut Mines-Telecom Codage de source et compression

17 Perception des erreurs Sous-échantillonnage dans l espace des couleurs MSE: SSIM: / Institut Mines-Telecom Codage de source et compression

18 Perception et qualité : bilan Modèles perceptuels nécessaires pour des bons performances de compression Système d audition relativement bien compris, et exploité dans les codeurs audio Système de perception visuel encore loin d être parfaitement compris Manque de mesures perceptuelles de qualité complètement fiables Tout de même, les meilleures performances de compression ne peuvent pas être atteintes si on tient pas en compte l aspect psychovisuel 18/ Institut Mines-Telecom Codage de source et compression

19 Critères de performance Qualité et distorsion Les Critères subjectifs sont basés sur l évaluation de la qualité des image faite par des humaines Difficulté de créer un bon modèle du SVH Analyse statistique des résultats Évaluations longues, difficiles et coûteuses En conclusion, souvent on se limite à utiliser les critères objectifs non perceptuels : Simplicité Interprétation géométrique (norme euclidienne) Optimisation analytique Relation avec la qualité perçue? 19/ Institut Mines-Telecom Codage de source et compression

20 Critères de performance Complexité, retard et robustesse La complexité d un algorithme de codage peut être limitée par : contraintes liées à l application (temps réel) limités du matériel (hardware) coût économique Le retard est normalement mesuré au codeur Lié à la complexité Influencé par l ordre de codage Robustesse: sensibilité de l algorithme de compression/reconstruction à des petites altérations du code comprimé (erreurs de transmission) 20/ Institut Mines-Telecom Codage de source et compression

21 Critères de performance Bilan Besoins contradictoire : Débit Qualité Complexité Robustesse Retard 21/ Institut Mines-Telecom Codage de source et compression

22 Outils fondamentaux pour la compression Transformée Concentre l information en peu de coefficients Prédiction Méthode alternative (et parfois complémentaire) à la transformée pour concentrer l information Réduction du débit : représentation grossière des coefficients moins importants (CSP) : réalisé par des codes à longueur variable Réduction de la redondance résiduelle Prédiction Transformée CSP 22/ Institut Mines-Telecom Codage de source et compression

23 Huffman et codage arithmétique Plan Introduction au codage de source et à la compression Huffman et codage arithmétique 23/ Institut Mines-Telecom Codage de source et compression

24 Huffman et codage arithmétique Introduction La compression sans perte est basée sur les statistiques des données Mots de code courts pour les symboles probables Mots de code longs pour les symboles peu probables Définitions : Alphabet Code : X = {x 1, x 2,...,x M } ensemble des symboles à coder {0, 1,...,255} dans le cas de valeurs de luminance alphabet français dans le cas d un texte : application entre X et {0, 1}, l ensemble des chaînes de bits de longueur finie. Codes à longueur fixe Codes à longueur variable 24/ Institut Mines-Telecom Codage de source et compression

25 Huffman et codage arithmétique Choix du code Code : C : x i X c i {0, 1} Codes à longueur fixe (FLC) Tout mot de code a la même longueur Si on a M = 256 symboles, il nous faut log M = 8 bits pour coder chaque symbole Dans le cas d un texte, M = 26, il nous faut log M = 5 bps (bit par symbole) Codes à longueur variable (VLC) l i : longueur du mode de code c i On peut comprimer sans pertes si : Condition de décodabilité : condition du préfixe Les symboles ne sont pas équiprobables 25/ Institut Mines-Telecom Codage de source et compression

26 Huffman et codage arithmétique Exemple : Compression d un texte français Technique Code à longueur fixe Nombre de symboles 26 Taux de codage (L) 5 bps Rapport de compression 1 Chaque lettre est représentée sur 5 bits Aucune compression est obtenue 26/ Institut Mines-Telecom Codage de source et compression

27 Huffman et codage arithmétique VLC : condition de décodabilité On utilise pas de séparateurs entre les mots de code Codes instantanés et décodables Inégalité de Kraft : il existe un code instantané avec longueurs {l 1,...,l M } si et seulment si : 2 l i 1 Les codes décodables n ont pas des meilleures performances par rapport aux codes instantanés i 27/ Institut Mines-Telecom Codage de source et compression

28 Huffman et codage arithmétique Inégalité de Kraft : de la demonstration Condition du préfix i 2 l i 1 Construction de l arbre binaire de profondeur l max Association entre mots de code et nœuds Pour chaque feuille, on remonte vers la racine : combien de mots de codes peut-on rencontrer? Zéro ou un (condition du prefix) Numéro feuilles = A B = Numéro feuille avec exactement un mot de code entre les ancêtres A = 2 lmax B = M i=1 Nombre de feuilles qui descendent de l i-ème mot de code = M i=1 2lmax l i 28/ Institut Mines-Telecom Codage de source et compression

29 Huffman et codage arithmétique i 2 l i Inégalité de Kraft : de la demonstration 1 Condition du préfix Construction de l arbre binaire de profondeur l max Premier mot de code c 1 : prendre une feuille et remonter au niveau l 1 Couper le sous-arbre associé au premier mot de code c 1 Tout nœud survecu n a pas c 1 comme préfix Pour tout nouveau mot de code, on coupe le sous-arbre associé Par consequence, si il reste des feuilles, on pourra trouver un nouveau mot de code 29/ Institut Mines-Telecom Codage de source et compression

30 Huffman et codage arithmétique Inégalité de Kraft : de la demonstration 1 Condition du préfix i 2 l i Raisonnement par récurrence et par construction On a montré comment trouver c 1 Récurrence : si on a trouvé {c i } n 1 i=1, on peut trouver cn, avec n M Combien de feuilles on a éliminé au pas n 1? Pour le mot de code c i on a éliminé 2 lmax l i feuilles ; en total : n 1 n 1 2 lmax l i = 2 lmax 2 l i (1) i=1 i=1 M < 2 lmax 2 l i 2 lmax (2) i=1 On peut donc ajouter c n en remontant d une des feuilles residuelles jusqu au niveau l n 30/ Institut Mines-Telecom Codage de source et compression

31 Huffman et codage arithmétique Inégalité de Kraft Un code est défini par l ensemble des longueurs {l 1,...,l M } De l ensemble des longueurs on construit un arbre De l arbre on construit le code 31/ Institut Mines-Telecom Codage de source et compression

32 Huffman et codage arithmétique Information et entropie Le symbole x i a une probabilité p i d apparaître Longueur moyenne du code : L = p i l i L information associé à x i est I(x i ) = log p i I(xi ) 0 Si pi = 1, I = 0 Si deux symboles sont indépendants, I(xi, x j ) = I(x i )+I(x j ) Entropie de la source : information moyenne des symboles H(X) = i p i log p i 32/ Institut Mines-Telecom Codage de source et compression

33 Huffman et codage arithmétique Entropie d une variable binaire Exemple p = P{X = 0} H(X) = p log(p) (1 p) log(1 p) q =P{X = 1} = 1 p H(X) P{X=0} 33/ Institut Mines-Telecom Codage de source et compression

34 Huffman et codage arithmétique Distribution à entropie maximum On peut montrer que la distribution qui maximise l entropie d une v.a. discrete à M valeurs est le vecteur p = [p1 p 2... p M ] tel que pi = 1 M i {1, 2,...,M} Problème de maximisation avec contrainte : p = arg max p M p i log 1 p i i=1 M i=1 p i = 1 J(p) = J p i = ( M M ) p i log p i +λ p i 1 i=1 ( 1 ln 2 + log p i i=1 J p i (p ) = 0 ) +λ p i = λ log e = cnste 34/ Institut Mines-Telecom Codage de source et compression

35 Huffman et codage arithmétique Entropie conjointe Considerons un couple de v.a. X et Y Distribution de probabilité conjointe p i,j = P{X = x i, Y = y j } Entropie conjointe : information moyenne des couples H(X, Y) = i,j p i,j log p i,j Formalement, il n y pas de différence entre l entropie d un couple et l entropie d une variable Z avec les mêmes probabilités (independemment des valeurs) 35/ Institut Mines-Telecom Codage de source et compression

36 Huffman et codage arithmétique Entropie conditionnelle Considerons un couple de v.a. X et Y Soit p j = P{Y = y j } Entropie conditionnelle : H(X Y) = j p j H(X Y = y j ) On montre facilement que : H(X, Y) =H(Y)+H(X Y) H(X)+H(Y X) 36/ Institut Mines-Telecom Codage de source et compression

37 Huffman et codage arithmétique Propriétés de l entropie H(X) >0 H(X, Y) =H(Y)+H(X Y) H(X)+H(Y X) H(X, Y) H(X)+H(Y) H(X Y) H(X) H(X) log 2 M avec égalité indépendence avec égalité indépendence avec égalité X U 37/ Institut Mines-Telecom Codage de source et compression

38 Huffman et codage arithmétique Code optimal On relâche la condition l i entier Minimisation avec contrainte : l = arg min l i p i l i soumis à i 2 l i = 1 38/ Institut Mines-Telecom Codage de source et compression

39 Huffman et codage arithmétique Code optimal On relâche la condition l i entier Minimisation avec contrainte : l = arg min l i p i l i soumis à 2 l i = 1 i J(l) = ( ) p i l i +λ 2 l J i 1 = p i (λ ln 2)2 l i = 0 l i i i p i = (λ ln 2) 2 l i 1 = λ ln 2 i i 2 l i = p i l i = log 2 p i L = p i log 2 p i = H(X) i 38/ Institut Mines-Telecom Codage de source et compression

40 Huffman et codage arithmétique Thèoreme de Shannon sur le codage de source Si on introduit à nouveau la condition l i N, on peut montrer que : Thèoreme de Shannon L H(X) avec égalité si et seulement si: i {1, 2,...M}, l i N p i = 2 l i 39/ Institut Mines-Telecom Codage de source et compression

41 Huffman et codage arithmétique Codage entropique Théorème de Shannon: Taux de codage code optimale Entropie de la source du coup le nom Codage Entropique. La relation devient une identité stricte si les probabilités sont dyadiques (puissances négatives de deux) La relation est pratiquement une identité quand il y a un nombre important de symboles dans l alphabet. 40/ Institut Mines-Telecom Codage de source et compression

42 Huffman et codage arithmétique Codage entropique En consequence du Théorème de Shannon, on peut facilement montrer que : H(X) L < H(X)+1 (3) 1 Il suffit de prendre l k = log 2 p k Il est facile de montrer que l inégalité de Kraft est satisfaite Il est aussi facile de prouver l inégalité (3) 41/ Institut Mines-Telecom Codage de source et compression

43 Huffman et codage arithmétique Codage entropique Théorème de Shannon : H(X) L < H(X)+1 L entropie est une excellente approximation du taux de codage optimale Dans la suite on sera souvent amenés à considerer L = H(X) 42/ Institut Mines-Telecom Codage de source et compression

44 Huffman et codage arithmétique Exemple : Compression d un texte français Entropie de la source bps Technique Code à longueur variable Taux de codage (L) bps Rapport de compression Distribution des lettres dans un texte français 12 % Freq A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 43/ Institut Mines-Telecom Codage de source et compression

45 Huffman et codage arithmétique Codage de Huffman Huffman a découvert comment construire le code optimum pour n importe quelle source. Exemple : Symbole Probabilité A 0.4 B 0.2 C 0.15 D 0.15 E 0.05 F symboles, 3 bits par symboles sans codage. 44/ Institut Mines-Telecom Codage de source et compression

46 Huffman et codage arithmétique Codage de Huffman A 40% A 40% B 20% B 20% C 15% C 15% D 15% D 15% 0 25% E 5% 0 E 5% % 10% F 5% 1 45/ Institut Mines-Telecom Codage de source et compression F 5% 1

47 Huffman et codage arithmétique Codage de Huffman A 40% 0 B 20% 0 100% 35% C 15% % D 15% % E 5% 0 1 F 5% 1 10% 46/ Institut Mines-Telecom Codage de source et compression

48 Huffman et codage arithmétique Codage de Huffman Symbole Probabilité Code A B C D E F L = = 2.3 bits/symbole H = 0.4 log log log log = bits/symbole 47/ Institut Mines-Telecom Codage de source et compression

49 Huffman et codage arithmétique Exemple : Compression d un texte français Technique Huffman Entropie de la source bps Taux de codage (L) bps Rapport de compression % Freq Codeword length A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 0 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z Distribution des lettres dans un texte français Longueur des mots de code dans le code d Huffman 48/ Institut Mines-Telecom Codage de source et compression

50 Huffman et codage arithmétique Codage de Huffman Comment améliorer les performances? Le bloc des premiers K symboles du processus aléatoire X i est appellé X K H(X K ) i H(X i) avec égalité si et seulement si les variables de X K sont independentes Codage par blocs : on essaie de reduire la longueur du code mesurée en bits par symbole 49/ Institut Mines-Telecom Codage de source et compression

51 Huffman et codage arithmétique Codage de Huffman Codage par blocs Hypothèse : la suite H(X K ) K est convergente Cela est vrai p.e. pour un processus stationnaire Longueur moyenne du code optimum : H(X K ) L < H(X K )+1 H(X K ) K lim K L K = L S < H(X K ) + 1 K K H(X K ) = H(X) K H(X) H(X) L S = lim K L S H(X) est appellé taux entropique 50/ Institut Mines-Telecom Codage de source et compression

52 Huffman et codage arithmétique Codage de Huffman Codage par blocs Codage par blocs : L S H(X) H(X) Les meilleures performances sont obtenues quand on code l entier message de K symboles comme un symbole d un alphabet de taille N K Le codage par blocs est avantageux même pour v.a.i.i.d. : cela élimine le bit supplémentaire des distributions non-dyadiques 51/ Institut Mines-Telecom Codage de source et compression

53 Huffman et codage arithmétique Codage de Huffman Codage par blocs Codage par contextes : l entropie d un symbole donnés ses K 1 voisins est typiquement largement inférieure à H(X) On peut donc imaginer de coder X k X k 1 dont l entropie est inférieure ou égale à H(X) On peut montrer que, pour un processus stationnaire, lim k H(X k X k 1 ) = H(X) 52/ Institut Mines-Telecom Codage de source et compression

54 Huffman et codage arithmétique Exemple : Compression d un texte français K=1 Entropie des lettres bpb bps K=2 Entropie des digrams bpb bps K=3 Entropie des trigrams bpb bps bpb : bits par bloc ; bps : bits par symbole, bits par lettre A B C D E F G H I J K L M N O P Q R S T U V W X Y Z A B C D E F G H I J K L M N O P Q R S T U V W X Y Z Distribution des digrams dans un texte français Les trigrams les plus communs : ait ent les 1.59% 1.25% 0.94% lle des ant 0.78% 0.72% 0.70% que our ien 0.67% 0.63% 0.60% 53/ Institut Mines-Telecom Codage de source et compression

55 Huffman et codage arithmétique Limites du code de Huffman De l exemple précédent, on comprend qu on voudrait aller jusqu à la limite K =longueur du message. C est pratiquement impossible avec Huffman Difficile et coûteux de connaître les probabilités Complexité exponentielle du code avec la taille du bloc Le dictionnaire devrait comprendre tout les possibles messages de K symboles: Tous les possibles textes Toutes les possibles images... 54/ Institut Mines-Telecom Codage de source et compression

56 Huffman et codage arithmétique Limites du code de Huffman De l exemple précédent, on comprend qu on voudrait aller jusqu à la limite K =longueur du message. C est pratiquement impossible avec Huffman Difficile et coûteux de connaître les probabilités Complexité exponentielle du code avec la taille du bloc Le dictionnaire devrait comprendre tout les possibles messages de K symboles: Tous les possibles textes Toutes les possibles images... Le codage arithmétique résout le problème 54/ Institut Mines-Telecom Codage de source et compression

57 Huffman et codage arithmétique Codage arithmétique Le codage arithmétique permets de faire un codage par blocs ou par contextes avec complexité linéaire Idée : ne pas chercher le code pour n importe chaîne de n symboles, mais uniquement pour la chaîne à coder Le codeur arithmétique n est pas optimal, mais asymptotiquement optimal L H(X K )+2 L S = L/K lim L H K S = lim K K K = H(X) Faible complexité de codage/décodage (opérations arithmétiques, dont le nom) 55/ Institut Mines-Telecom Codage de source et compression

58 Huffman et codage arithmétique Codage arithmétique: exemple Symbole A B C D E F Probabilité Séquence à coder : ACFD A B C D E F / Institut Mines-Telecom Codage de source et compression

59 Huffman et codage arithmétique Codage arithmétique: exemple Symbole A B C D E F Probabilité Séquence à coder : ACFD A B C D E F / Institut Mines-Telecom Codage de source et compression

60 Huffman et codage arithmétique Codage arithmétique: exemple Symbole A B C D E F Probabilité Séquence à coder : ACFD A B C D E F / Institut Mines-Telecom Codage de source et compression

61 Huffman et codage arithmétique Codage arithmétique: exemple Symbole A B C D E F Probabilité Séquence à coder : ACFD A B C D E F / Institut Mines-Telecom Codage de source et compression

62 Huffman et codage arithmétique Codage arithmétique: exemple Symbole A B C D E F Probabilité Séquence à coder : ACFD A B C D E F / Institut Mines-Telecom Codage de source et compression

63 Huffman et codage arithmétique Codage arithmétique: exemple Symbole A B C D E F Probabilité Séquence à coder : ACFD A B C D E F / Institut Mines-Telecom Codage de source et compression

64 Huffman et codage arithmétique Codage arithmétique Pour chaque nouveau symbole, 2 multiplications et 2 addition Codage de la suite de symboles : centre de l interval sélectionné, avec précision inférieure à la demi-taille de l interval. Problème : estimation de P(X K ), en principe avec K =longueur totale du message Exemple précédent : Symboles supposés indépendants, P(X K ) = K i=1 p(x i) Apprentissage des statistiques au cours du codage (adaptivité) 57/ Institut Mines-Telecom Codage de source et compression

65 Huffman et codage arithmétique Codage par contextes Estimation de P(X K ): souvent le prochain symbole ne dépende que de peu de voisins. Idée : souvent il suffit connaître un voisinage limité du symbole courant (contexte) H(X K ) = K H(X i X i 1 ) i=1 En théorie, le context est tout le passé : X i 1 Le contexte peut être fait par les quelques lettres précédentes ou les quelques pixels autour du pixel courant Si on a M possibles contextes, c est comme si on avait M codeurs arithmétiques, et on passait de l un à l autre 58/ Institut Mines-Telecom Codage de source et compression

66 Huffman et codage arithmétique Codage par contextes : Image N/B Soient X et Y deux pixels voisins. X Y N B N B Probabilités conjointes de X et Y X Y N B N B Probabilités conditionnelles de X donné Y H(X) H(X,Y)/2 H(X Y) HE AE CB AE HE: Huffman Encoder, One Symbol AE: Arithmetic Encoder CB-AE: Context-Based AE 59/ Institut Mines-Telecom Codage de source et compression

67 Huffman et codage arithmétique Codage arithmétique : conclusions Avantages Permet d implémenter le codage de longue suites de symboles avec une complexité linéaire Codage par blocs : statistiques d ordre supérieure et distribution dyadiques Codage par contexte : simple modélisation des statistiques d ordre supérieure Adaptivité : sources non-stationnaires 60/ Institut Mines-Telecom Codage de source et compression

68 Huffman et codage arithmétique Codage arithmétique : conclusions Inconvénients Implémentation parfois compliquée Choix des contextes Adaptivité : il faut assez de données pour une estimation robuste Besoin d initialisation 61/ Institut Mines-Telecom Codage de source et compression

69 QS prédictive avec contrainte entropique Plan Introduction au codage de source et à la compression scalaire prédictive avec contrainte entropique 62/ Institut Mines-Telecom Codage de source et compression

70 QS prédictive avec contrainte entropique Définitions Q : x R y C = { x 1, x 2,... x L } R C : Dictionnaire, c est un sous-ensemble discret de R x i : niveau de quantification, niveau de restitution, codeword, mot de code e = x Q(x) : Bruit de quantification Θ i = { x : Q(x) = x i} : Régions de décision Un quantificateur scalaire (QS) est complètement défini par ses régions et ses niveaux 63/ Institut Mines-Telecom Codage de source et compression

71 t 0 t 1 t 2 t 3 t 4 t 5 t 6 t 7 t 8 Introduction au codage de source et à la compression QS prédictive avec contrainte entropique Définitions : scalaire (QS) Q : x R y C = { x 1, x 2,... x L } R x 7 x 6 x 5 x 4 x 3 x 2 x 1 64/ Institut Mines-Telecom Codage de source et compression

72 QS prédictive avec contrainte entropique Exemple 1 x(n) / Institut Mines-Telecom Codage de source et compression

73 QS prédictive avec contrainte entropique Exemple 1 x(n) / Institut Mines-Telecom Codage de source et compression

74 QS prédictive avec contrainte entropique Exemple 1 1 x(n) y(n)=q[x(n)] / Institut Mines-Telecom Codage de source et compression

75 QS prédictive avec contrainte entropique Exemple 1 1 y(n)=q[x(n)] e(n)=x(n) y(n) / Institut Mines-Telecom Codage de source et compression

76 QS prédictive avec contrainte entropique Exemple 2 1 x(n) y(n)=q[x(n)] / Institut Mines-Telecom Codage de source et compression

77 QS prédictive avec contrainte entropique Exemple 2 1 y(n)=q[x(n)] e(n)=x(n) y(n) / Institut Mines-Telecom Codage de source et compression

78 QS prédictive avec contrainte entropique Définitions : Quantificateur régulier Typiquement on considère un QS régulier : 1) Θ i = (t i 1, t i ), avec t l R 2) x i Θ i t 0 t i 1 t i t L x i Θ i 67/ Institut Mines-Telecom Codage de source et compression

79 QS prédictive avec contrainte entropique Quantificateur régulier Dans la suite on considérera uniquement des quantificateurs réguliers Pour un quantificateur régulier : t 0 < x 1 < t 1 < x 2 < t 2 <... < x L < t L Si le signal d entrée est non-limité, t 0 = et t L = + Les t i sont appelés seuils de décision On définit i la longueur de Θ i Les ensembles T = {t i } et C = { x i } définissent complètement un QS régulier 68/ Institut Mines-Telecom Codage de source et compression

80 QS prédictive avec contrainte entropique comme codage/décodage x(n) E i(n) D x(n) Θ i C Ce que le codeur envoie c est les i(n) Le décodage associe à i(n) le mot de code x i(n) Souvent (avec abus de langage) on appel quantification l application x i et quantification inverse le décodage i x i 69/ Institut Mines-Telecom Codage de source et compression

81 QS prédictive avec contrainte entropique Débit d un QS Le débit d un QS est le nombre de bit nécessaire pour représenter les indices i(n) Par définition, R = log 2 L Cela correspond à un codeur à longueur fixe et à un nombre de niveaux que soit une puissance entière de 2 On verra dans le cours de codage sans pertes qu il est souvent possible de réduire ce coût de codage 70/ Institut Mines-Telecom Codage de source et compression

82 QS prédictive avec contrainte entropique Distorsion On définit la distorsion ponctuelle comme l erreur quadratique : d[x(n), x(n)] = e(n) 2 = x(n) x(n) 2 Si on considère tout le signal x( ) de durée N, on utilise comme distorsion l erreur quadratique moyenne : D = 1 N N 1 n=0 d[x(n), x(n)] 71/ Institut Mines-Telecom Codage de source et compression

83 QS prédictive avec contrainte entropique Distorsion : cas aléatoire Souvent on utilise des modèles aléatoires centrés pour les signaux. Dans ce cas, l EQM associé à la QS du processus aléatoire X est : { D = E X(n) Q(X(n)) 2} = E { E(n) 2} La distorsion est donc la puissance du processus aléatoire E(n) = X(n) Q(X(n)) On indiquera la distorsion d un QS comme σ 2 Q 72/ Institut Mines-Telecom Codage de source et compression

84 QS prédictive avec contrainte entropique Courbe débit/distorsion d un QS Souvent on caractérise un QS par rapport au nombre de niveaux L Le débit croit avec L : R = log 2 L Pour tout les cas d intérêt, la distorsion décroit avec L, mais la relation explicite entre D et L est plus difficile à déterminer En général, un QS est donc caractérisé par une courbe paramétrique R(L), D(L) Il est intéressant de trouver la relation explicite entre D et R : c est la courbe débit/distorsion D = D(R) 73/ Institut Mines-Telecom Codage de source et compression

85 QS prédictive avec contrainte entropique Courbes RD Courbe D(R) pour une v.a. uniforme : D = σ 2 X 2 2R Courbe D(R) pour une v.a. non uniforme et q.u. en haute résolution : D = k X σ 2 X 2 2R Courbe D(R) pour une v.a. non uniforme et q.n.u. en haute résolution : D = c X σ 2 X 2 2R c X est une constante qui dépend de la distribution de X (facteur de forme) cx = 1 dans le cas uniforme cx = 3 2 π dans le cas gaussien À faible resolution, il existe un algorithme qui produit un 74/ QNUInstitut localement Mines-Telecom Codage de source et compression

86 QS prédictive avec contrainte entropique Débit de codage 2 possibilités pour coder les niveaux de quantification codes de longueur fixe b bits par niveau avec log 2 (L) b < log 2 (L)+1 codes de longueur variable b i bits pour coder ˆx i entropie : H(x) = L i=1 p i log 2 (p i ) avec p i = P(x = ˆx i ) longueur moyenne : b = L i=1 b i p i H(x) code d Huffman : b < H(x)+1 plus performant 75/ Institut Mines-Telecom Codage de source et compression

87 QS prédictive avec contrainte entropique scalaire : exemple sur image couleurs Image Originale, 24 bpp 76/ Institut Mines-Telecom Codage de source et compression

88 QS prédictive avec contrainte entropique scalaire : exemple sur image couleurs Débit 21 bpp PSNR db TC / Institut Mines-Telecom Codage de source et compression

89 QS prédictive avec contrainte entropique scalaire : exemple sur image couleurs Débit 18 bpp PSNR db TC / Institut Mines-Telecom Codage de source et compression

90 QS prédictive avec contrainte entropique scalaire : exemple sur image couleurs Débit 15 bpp PSNR db TC / Institut Mines-Telecom Codage de source et compression

91 QS prédictive avec contrainte entropique scalaire : exemple sur image couleurs Débit 12 bpp PSNR db TC / Institut Mines-Telecom Codage de source et compression

92 QS prédictive avec contrainte entropique scalaire : exemple sur image couleurs Débit 9 bpp PSNR db TC / Institut Mines-Telecom Codage de source et compression

93 QS prédictive avec contrainte entropique scalaire : exemple sur image couleurs Débit 6 bpp PSNR db TC / Institut Mines-Telecom Codage de source et compression

94 QS prédictive avec contrainte entropique scalaire : exemple sur image couleurs Débit 3 bpp PSNR db TC / Institut Mines-Telecom Codage de source et compression

95 QS prédictive avec contrainte entropique Codage prédictive La seule quantification est peu efficace pour la compression Modèle soujacent trop simple : échantillons indépendants et tous également importants Idée : exploiter la corrélation entre échantillons par une prédiction Réduction de la variance 84/ Institut Mines-Telecom Codage de source et compression

96 QS prédictive avec contrainte entropique Schéma de codage Schéma simplifié L échantillon f k dépend des échantillon précédents (voisins) Si on connaît les voisins de f k, on les utilise pour le prédire Si on fait un bonne prédiction, f k f k f k e k Q ẽ k fk fk fk Comment on fait la prédiction? Qu est-ce qu on gagne? 85/ Institut Mines-Telecom Codage de source et compression

97 QS prédictive avec contrainte entropique Gain de prédiction Erreur sur la prédiction = erreur sur le signal : Gain de codage : ǫ k = ẽ k e k = ẽ k + f k (e k + f k ) = f k f k σf 2 SNR p = 10 log 10 ǫ 2 = 10 log σf 2 10 σe log 10 σ 2 e ǫ 2 = G P + G Q La prédiction doit produire un signal d erreur dont la variance est inférieure à la variance du signal d origine 86/ Institut Mines-Telecom Codage de source et compression

98 QS prédictive avec contrainte entropique Exemple f k N(0,σ 2 ) E[f k f m ] = σ 2 ρ k m ˆfk = f k 1 ρ : G P > 0? e k = f k f k 1 v.a. Gaussienne centrée [ σe 2 = E (f k f k 1 ) 2] = 2σ 2 2σ 2 ρ G P = 10 log 10 σ 2 f σ 2 e G P > 0 ρ > 1 2 = 10 log 10 σ 2 2(1 ρ)σ 2 87/ Institut Mines-Telecom Codage de source et compression

99 QS prédictive avec contrainte entropique Schéma de codage Schéma MICD (DPCM) complet Encodeur : f k e k Q ẽ k fk P fk ẽ k fk Décodeur : ẽ k fk fk P fk 88/ Institut Mines-Telecom Codage de source et compression

100 h 2 h 3 89/ Institut Mines-Telecom h 1 f Codage de source et compression k Introduction au codage de source et à la compression QS prédictive avec contrainte entropique Schéma de codage Choix du prédicteur Généralement on considère des prédicteurs linéaires : simples et optimaux dans le cas Gaussien Cas des images : fn,m = (i,j) S h i,j fn i,m j S : support causal demi-plan asymétrique typiquement, S = {(0, 1),(1, 0),(1, 1)} Représentation équivalente : fk = h T f (k) f (k) = { f n i,m j : (i, j) S}

101 QS prédictive avec contrainte entropique Schéma de codage Choix du prédicteur : moindres carrés Trouver le vecteur (filtre linéaire) h qui minimise : σe 2 = E [(f k h T f (k) ) 2] en faisant l hypothèse que f n,m f n,m 90/ Institut Mines-Telecom Codage de source et compression

102 QS prédictive avec contrainte entropique Schéma de codage Choix du prédicteur : moindres carrés Trouver le vecteur (filtre linéaire) h qui minimise : σe 2 = E [(f k h T f (k) ) 2] en faisant l hypothèse que f n,m f n,m [ σe 2 = E fk 2 + ht f (k) f (k)t h 2h t f k f (k)] = σ 2 f + h t R f h 2h t c R f = E[f (k) f (k)t ] c = E[f k f (k) ] σ 2 e h = Rh c σe 2 h = 0 h = R 1 c 90/ Institut Mines-Telecom Codage de source et compression

103 QS prédictive avec contrainte entropique Méthodes prédictives : exemple 100 Prédicteur : 50 ˆfn,m = 1 2 f n 1,m f n,m σf 2 = σe 2 = G P = 15.35dB 91/ Institut Mines-Telecom Codage de source et compression

104 QS prédictive avec contrainte entropique Conclusions Méthode simple de mise en œuvre mais performances limitées en codage d images introduit une causalité non naturelle en 2D code les pixels séparément Très efficace pour exploiter la redondance spatiale de la vidéo 92/ Institut Mines-Telecom Codage de source et compression

105 QS prédictive avec contrainte entropique et codage Quantificateur optimal : doit-il être changé en vue du codage sans perte? Quelles sont les performances d un système simple comme un quantificateur uniforme suivi d un codage entropique? 93/ Institut Mines-Telecom Codage de source et compression

106 QS prédictive avec contrainte entropique et codage Formulation du problème On represente le quantificateur avec un q.u. dont le pas est δ précédé d une non transformation non linéaire, dont la caracteristique est f(x) Il s agit de minimiser la puissance de l erreur de quantification : σq 2 = δ px (x) 12 f 2 (x) dx sous contrainte sur l entropie : H(ˆX) b On peut montrer que en hypothèse d haute résolution f doit être constant 94/ Institut Mines-Telecom Codage de source et compression

107 QS prédictive avec contrainte entropique et codage On peut montrer que, en hypothèse d haute résolution : Pour un niveau de distortion (EQM) fixé, l entropie minimum des symboles du quantificateur est obtenue avec un quantificateur uniforme Pour une entropie des symboles donnée, la distortion minimum est obtenue avec un quantificateur uniforme Un q.u. suivi d un codeur entropique a un gain de 2.81 db sur un codeur de Lloyd-Max dans le cas de sources Gaussienne i.i.d. La courbe RD est toujours dans la forme D 2 2R 95/ Institut Mines-Telecom Codage de source et compression

108 Allocation des ressources Exemples Plan Introduction au codage de source et à la compression Allocation des ressources Exemples 96/ Institut Mines-Telecom Codage de source et compression

109 Allocation des ressources Exemples de la transformée linéaire Transformation linéaire : changement de base Représentation alternative du signal Séparation des données entre importants et pas importants (concentration de l energie) Déterminer les informations importantes pour notre perception Allocation des ressources entre données importantes et peu importantes Mise en évidence des caractéristiques Réduire la corrélation 97/ Institut Mines-Telecom Codage de source et compression

110 Allocation des ressources Exemples Transformée linéaire Paradigme du codage par transformée y 0 Q 0 ŷ 0 x T y y 1 Q 1 ŷ 1 ŷ T 1 x y M 1 Q M 1 ŷ M 1 On passe du vecteur x à y = T f : on veut un vecteur plus facile à quantifier : peu de coefficients importants, beaucoup de coefficients insignifiants 98/ Institut Mines-Telecom Codage de source et compression

111 Allocation des ressources Exemples Transformations unitaires T unitaire T 1 = T H avantages : 1. inversion immédiate 2. conservation de la norme : Y = X Distorsion sur Y = distorsion sur X : [ [(Y Ŷ)H ] [ E Y Ŷ 2] = E (Y Ŷ) = E (X X) H T H T (X X) ] = E [ X X 2] Propriété fondamentale pour décider l allocation des ressource dans le domaine transformée 99/ Institut Mines-Telecom Codage de source et compression

112 Allocation des ressources Exemples du codage par sous-bandes Analyse temps-fréquence du signal Implantation par banc de filtres Échantillonnage critique Équivalence avec la transformée linéaire 100/ Institut Mines-Telecom Codage de source et compression

113 Allocation des ressources Exemples Codage en sous-bandes H 0 M y 0 Q 0 ŷ 0 M F 0 x H 1 M y 1 Q 1 ŷ 1 M F 1... x H M 1 M y M 1 ŷ M 1 Q M 1 M F M 1 y k (m) = M 1 l=0 x = Py h k (l)x(mm l) y =T x RP : PT = I 101/ Institut Mines-Telecom Codage de source et compression

114 Allocation des ressources Exemples Codage en sous-bandes Filtres d analyses et de synthèse Déterminer les filtres en sorte que la condition de RP soit respectée est difficile Solution simple : bancs de filtres modulée h k (n) = d k (n)h(n) f k (n) = d k (n)f(n) 2 [ d k (n) = M cos (2k + 1)(2n+1+N M) π ] [ 4M h(n) = f(n) = sin (2n+1) π ] 4M Choix de N et M : compromis entre résolution en fréquence et en temps 102/ Institut Mines-Telecom Codage de source et compression

115 Allocation des ressources Exemples Exemple Couple de v.a. fortement corrélées x f X1,X 2 (x 1, x 2 ) = { si (x 1, x 2 ) S 0 si (x 1, x 2 ) / S x S X 1 X 2 U[ 1 2 2, ] 103/ Institut Mines-Telecom Codage de source et compression

116 Allocation des ressources Exemples Transformée : rotation de 45 degrés Après transformation : v.a. indépendantes y y 1 f Y1,Y 2 (y 1, y 2 ) = { si (y 1, y 2 ) S 0 si (y 1, y 2 ) / S Y 1 U[ 1 2, 2 2 ] Y 2 U[ 2 2, 2 2 ] 104/ Institut Mines-Telecom Codage de source et compression

117 Allocation des ressources Exemples Performances RD de la quantification après transformée 2σ 2 Q.U. de X 1,X 2 Q.U. de Y 1,Y 2 Distorsion σ 2 σ 2 2 σ Débit bits 105/ Institut Mines-Telecom Codage de source et compression

118 Allocation des ressources Exemples Allocation des ressource Composants de y = T x interprétées comme réalisations de M processus aléatoires stationnaires de variance σk 2 Cas de transformée linéaire unitaire : T est une matrice carrée et la distorsion est la même dans le 2 domaines [ D = E X X 2] [ Y Ŷ 2] = E = E = [ M 1 M 1 k=0 ] (Y k Ŷk) 2 = k=0 D k M 1 k=0 E [(Y k Ŷk) 2] On connaît la relation entre D k et le débit de quantification b k (hypothèse HR) : D k = c k σ 2 k2 2b k 106/ Institut Mines-Telecom Codage de source et compression

119 Allocation des ressources Exemples Allocation des ressource Définition du problème Allocation optimale : minimiser D sous contrainte de débit mind(b) = M 1 k=0 c k σ 2 k 2 2b k k=0 soumis à k=0 M 1 k=0 Technique de Lagrange. Minimiser le critère : ( M 1 M 1 ) J(b,λ) = c k σk 2 2 2b k +λ b k B Solution (formule de Huang-Schulteiss) : [ ] bk = B M log c k σk 2 c GM σgm 2 b k B 107/ Institut Mines-Telecom Codage de source et compression

120 Allocation des ressources Exemples Allocation des ressources Interprétation du résultat Les ressources sont reparties uniformément ( b = B/M) avec une correction qui dépend des variances Valeur de la distorsion des composantes : D k = c k σ 2 k2 2b k D T = M 1 k=0 D k =cσ 2 k 2 2 b c GMσ 2 GM c k σ 2 k =Mc GM σ 2 GM2 2 b = c GM σ 2 GM 2 2 b Données Gaussiennes : c GM = c k = c N et donc bk = b+ 1 [ ] σ 2 2 log k σgm 2 Dk = c N σgm2 2 2 b D T = Mc N σ 2 GM2 2 b 108/ Institut Mines-Telecom Codage de source et compression

121 Allocation des ressources Exemples Gain de codage Soit X un vecteur aléatoire de M données d entrée (son, image...) Hypothèse : les composantes de X sont i.d., p.e. Gaussiennes N(0,σ 2 X ) Sans transformée, le mieux qu on puisse faire est quantification et allocation optimale des ressources (PCM). La distorsion est : D PCM = Mc N σ 2 X 2 2 b 109/ Institut Mines-Telecom Codage de source et compression

122 Allocation des ressources Exemples Gain de codage Le gain de codage d une transformée T est défini comme le rapport entre la distorsion qu on aurait sans transformée, et la distorsion qu on peut atteindre avec la transformée : G T = D PCM D T = σ2 X σ 2 GM = σ2 AM σ 2 GM La transformée doit rendre les variances des composantes du vecteur Y les plus inégales possible La moyenne géométrique d un ensemble de nombres positifs est toujours inférieur ou égal à la moyenne arithmétique 110/ Institut Mines-Telecom Codage de source et compression

123 Allocation des ressources Exemples Allocation des ressources Algorithmes pratiques La formule de Huang-Schulteiss Peut donner des valeurs négatifs Peut donner des valeurs fractionnaires Donc on utilise des algorithmes sous-optimales Algorithme de Huang-Schulteiss modifié Algorithme greedy 111/ Institut Mines-Telecom Codage de source et compression

124 Allocation des ressources Exemples Allocation des ressources Algorithme de Huang-Schulteiss modifié 1. On calcule bk avec H.-S. 2. Si certaines bk sont négatifs, on répète l algorithme en enlevant les σk 2 concernée ; ces variables seront codées avec zéro bitses variables seront codées avec zéro bits 3. Le pas précédent est répété jusqu à quand il n y a plus de valeurs négatifs 4. Les valeurs trouvé sont arrondis à l entier inférieur 5. Le débit résiduel est alloué aux coefficients avec l erreur maximum 112/ Institut Mines-Telecom Codage de source et compression

125 Allocation des ressources Exemples Algorithme greedy 1. Initialisation bk = 0 k {0, 1,...M 1}. Dk = σk 2 k {0, 1,...M 1}. 2. Tant que k b k B l = arg maxk D k bl b l + 1 Dl D l /4 113/ Institut Mines-Telecom Codage de source et compression

126 Allocation des ressources Exemples Exemples de compression d image Compression par TCD + + Codage Huffman (JPEG) Compression par transformée en ondelette (banc de filtres) + + Codage arithmetique + Allocation optimale (JPEG2000) 114/ Institut Mines-Telecom Codage de source et compression

127 Allocation des ressources Exemples JPEG Comparaison JPEG / JPEG2000 Image Originale, 24 bpp 115/ Institut Mines-Telecom Codage de source et compression

128 Allocation des ressources Exemples Comparaison JPEG / JPEG2000 Débit: 1bpp 116/ Institut Mines-Telecom Codage de source et compression

129 Allocation des ressources Exemples Comparaison JPEG / JPEG2000 Débit: 0.75bpp 117/ Institut Mines-Telecom Codage de source et compression

130 Allocation des ressources Exemples Comparaison JPEG / JPEG2000 Débit: 0.5bpp 118/ Institut Mines-Telecom Codage de source et compression

131 Allocation des ressources Exemples Comparaison JPEG / JPEG2000 Débit: 0.3bpp 119/ Institut Mines-Telecom Codage de source et compression

132 Allocation des ressources Exemples Comparaison JPEG / JPEG2000 Débit: 0.2bpp 120/ Institut Mines-Telecom Codage de source et compression

133 Allocation des ressources Exemples Comparaison JPEG / JPEG2000 Débit: 0.2bpp pour JPEG, 0.1 pour JPEG / Institut Mines-Telecom Codage de source et compression

Principes du codage sans perte

Principes du codage sans perte Principes du codage sans perte Codage d Huffman,, arithmétique Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 11 Janvier 213 M. Cagnazzo Codage sans perte 1/55 Plan Principes

Plus en détail

Compression d image et vidéo : Introduction

Compression d image et vidéo : Introduction Compression d image et vidéo : Introduction Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 17 septembre 2012 M. Cagnazzo Introduction 1/86 Plan Principes fondamentaux Compression

Plus en détail

Pourquoi comprimer? Partie 5: Approximation et compression des images. Comment comprimer? Critères de performance. Traitement d images

Pourquoi comprimer? Partie 5: Approximation et compression des images. Comment comprimer? Critères de performance. Traitement d images Pourquoi comprimer? Traitement d images Partie 5: Approximation et compression des images Thomas Oberlin Signaux et Communications, RT/ENSEEHT thomas.oberlin@enseeiht.fr ndispensable pour le stockage et

Plus en détail

UV Théorie de l Information. Quantification scalaire UNIFORME

UV Théorie de l Information. Quantification scalaire UNIFORME Cours n 7 : UV Théorie de l Information Compression de l information Codage de source avec distorsion : Quantification scalaire Quantification vectorielle Prediction linéaire 1 Quantification scalaire

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

TRAITEMENT DES DONNÉES MULTIMÉDIA CHAPITRE 2 COMPRESSION DES IMAGES ET VIDÉOS

TRAITEMENT DES DONNÉES MULTIMÉDIA CHAPITRE 2 COMPRESSION DES IMAGES ET VIDÉOS TRAITEMENT DES DONNÉES MULTIMÉDIA CHAPITRE 2 COMPRESSION DES IMAGES ET VIDÉOS ISET Kairouan Bassem Seddik Pourquoi faire la compression? 2 La taille de stockage 3 La présence de redondance Le nombre de

Plus en détail

Le format de compression JPEG

Le format de compression JPEG Le format de compression JPEG TSECS Elsa Angelini Département TSI ENST, Paris 8 Décembre 2004 Introduction JPEG = Joint Photographic Experts Group: Joint standards. (Janvier 1988) Commissions de standard

Plus en détail

Codage et Compression de données. Codage et Compression de données

Codage et Compression de données. Codage et Compression de données Département R&T IUT Nice Côte d Azur Université de Nice - Sophia Antipolis Frédéric Payan (MCF UNS) Quantification scalaire Notions Principe de la quantification La quantification consiste à représenter

Plus en détail

Compression d images. Frédéric Dufaux. 26 janvier 2011. Département Traitement du Signal et des Images TELECOM ParisTech. Compression. F.

Compression d images. Frédéric Dufaux. 26 janvier 2011. Département Traitement du Signal et des Images TELECOM ParisTech. Compression. F. d images Frédéric Dufaux Département Traitement du Signal et des Images TELECOM ParisTech 26 janvier 2011 1 / 91 Plan 1 sur la compression d images 2 Quantification 3 4 Codage par Transformée 5 2 / 91

Plus en détail

M1108 : Acquisition et codage de l information

M1108 : Acquisition et codage de l information 1/74 M1108 : Acquisition et codage de l information Frédéric PAYAN IUT Nice - Côte d Azur, Département R&T Université de Nice Sophia Antipolis frederic.payan@unice.fr 17 novembre 2016 2/74 Présentation

Plus en détail

Cours/TD 2 Codage proche de l entropie

Cours/TD 2 Codage proche de l entropie Cours/TD 2 Codage proche de l entropie 1.1 Codage Shannon-Fano Definition (Rappel de l entropie de la source). Soit une source discrete et sans mémoire produisant (indépendament) des symboles (lettres/mots)

Plus en détail

UV Théorie de l Information. Synoptique d un système de transmission numérique

UV Théorie de l Information. Synoptique d un système de transmission numérique UV Théorie de l Information Cours n 9 : Codage de canal Description de ses composantes Évaluation de la qualité Caractérisation d un canal bruité Objet et principe du codage de canal 1 Synoptique d un

Plus en détail

Rapport S/B de quantification (RSB Q ) pour un signal

Rapport S/B de quantification (RSB Q ) pour un signal Rapport S/B de quantification (RSB Q ) pour un signal réel de bande B Ce que l on peut retenir : fréquence d échantillonnage : F e 2B, quantification uniforme : RSB Q 6N + 10 log 10 (F e /2B) où N désigne

Plus en détail

Chapitre 6. Canaux et signaux continus

Chapitre 6. Canaux et signaux continus Chapitre 6. Canaux et signaux continus 1. Notions de base (survol rapide voir notes àtête reposée) (a) Processus aléatoires en temps continu (b) Théorème d échantillonnage (c) Entropies différentielles

Plus en détail

Table des matières. Avant-propos... 11

Table des matières. Avant-propos... 11 Table des matières Avant-propos... 11 Introduction..................................... Chapitre 1. Introduction à la théorie de l information... 17 1.1. Introduction..................................

Plus en détail

Théorie et codage de l information

Théorie et codage de l information Théorie et codage de l information Canaux discrets - Chapitre 4 - Codage de canal Motivations Dans un système réel, le message reçu par le destinataire peut différer de celui qui rag replacements a été

Plus en détail

Codage et Compression de données

Codage et Compression de données Codage et Compression de données multimédia Département R&T IUT Nice Côte d Azur Université de Nice - Sophia Antipolis Frédéric Payan (MCF UNS) Plan du cours (II) Chapitre III : Codage binaire (compression

Plus en détail

Ondelettes et compression d images

Ondelettes et compression d images Ondelettes et compression d images Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 30 Octobre 2012 M. Cagnazzo Ondelettes 1/98 Plan Introduction 1 Introduction 2 Bancs de

Plus en détail

Réseaux de neurones évaluation et sélection de modèle p.1/57

Réseaux de neurones évaluation et sélection de modèle p.1/57 Réseaux de neurones : évaluation et sélection de modèle Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine Réseaux de neurones évaluation et sélection de modèle p.1/57 lan du cours

Plus en détail

Codage des sources discrètes sans mémoire 1/34

Codage des sources discrètes sans mémoire 1/34 Codage des sources discrètes sans mémoire 1/34 Plan du cours 1. Historique : codage de Morse ; 2. Définitions : codage ; efficacité d un codage ; 3. codes de longueur fixe, codage des chiffres ; 4. condition

Plus en détail

Compression et codage : méthodes élémentaires

Compression et codage : méthodes élémentaires Compression et codage : méthodes élémentaires Nikola Stikov/Yves Goussard ELE8812 15 mars 2016 Nikola Stikov (ELE8812) Compression et codage I 15 mars 2016 1 / 27 Plan 1 Notions fondamentales Introduction

Plus en détail

Théorie de l Information

Théorie de l Information Massih-Reza Amini Université Joseph Fourier Laboratoire d Informatique de Grenoble 2/33 Introduction Mesure de l information Codage de source Table des matières 1 Introduction 2 Mesure de l information

Plus en détail

Sommaire. Intérêt de la compression d image Une courte introduction à la théorie de l information Compression sans perte Compression avec perte

Sommaire. Intérêt de la compression d image Une courte introduction à la théorie de l information Compression sans perte Compression avec perte COMPRESSION D IMAGE Sommaire Intérêt de la compression d image Une courte introduction à la théorie de l information Compression sans perte Compression avec perte 2 Compression d image Une image numérique

Plus en détail

Chapitre 1. Conversion analogique/numérique

Chapitre 1. Conversion analogique/numérique Chapitre 1. Conversion analogique/numérique 1 Échantillonnage Quantification Encodage Codage en signaux Contenu Modulation impulsionnelle codée Modulation delta Techniques d analyse-synthèse Transmission

Plus en détail

La théorie de l information

La théorie de l information Cours n 6 Sources discrètes sans mémoire Information et entropie conjointes Entropie conditionnelle Loi de Bayes Exemple canal binaire Extensions à n sources Capacité d un canal 1 La théorie de l information

Plus en détail

Initiation au. traitement du signal - Séance 3. F. Sur - ENSMN. Position du. 1 Position du problème. Codage et décodage Codes préfixes

Initiation au. traitement du signal - Séance 3. F. Sur - ENSMN. Position du. 1 Position du problème. Codage et décodage Codes préfixes Cours électif CET42 signal et applications : compression numérique sans perte Frédéric Sur École des Mines de Nancy 1 2 www.loria.fr/ sur/enseignement/signal/ 3 1/23 2/23 1 2 3 Signaux considérés : signaux

Plus en détail

Compression d images : pourquoi, comment? Aline ROUMY Chercheur, INRIA Rennes

Compression d images : pourquoi, comment? Aline ROUMY Chercheur, INRIA Rennes Compression d images : pourquoi, comment? Aline ROUMY Chercheur, INRIA Rennes Juin 2013 SOMMAIRE 1. Pourquoi compresser une vidéo? 2. Comment compresser? 3. Compression avec pertes 4. Compression par transformation

Plus en détail

Compression d images par ondelettes

Compression d images par ondelettes Compression d images par ondelettes SI 222 Techniques de Compression Frédéric Dufaux 02/02/2011 Table des matières Techniques de codage basées sur la T.O. Algorithme EZW Caractéristiques Algorithme JPEG

Plus en détail

Compression d images

Compression d images Compression d images ENSEA 3ième année SyM / Master SIC David Picard ETIS / ENSEA - Université de Cergy-Pontoise - CNRS UMR 8051 F-95000 Cergy-Pontoise Cedex, France 2011 Principe de compression Format

Plus en détail

Projet de synthèse I2 Traitement de l image Compression

Projet de synthèse I2 Traitement de l image Compression Projet de synthèse I2 Traitement de l image Compression Sébastien FRANÇOIS, Yvonnick BRUNET avril 2006 (http://seb.france.free.fr/eseo/i2-tst/traitement-d image/) Résumé Le but de ce projet est de découvrir

Plus en détail

Codage de la parole et de la musique

Codage de la parole et de la musique Codage de la parole et de la musique Principes et standards Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 11 Octobre 2010 M. Cagnazzo Codage parole/audio 1/44 Plan Introduction

Plus en détail

Cours/TD 5 Codage Shannon. Codage arithmétique : Elias

Cours/TD 5 Codage Shannon. Codage arithmétique : Elias Cours/TD 5 Codage Shannon. Codage arithmétique : Elias 5. De l algorithme de Fano et Shannon au codage arithméthique Si N j=0 2 l j < l inégalité de Kraft-McMillan est vérifiée, alors il existe un code

Plus en détail

Segmentation et Reconnaissance de Forme

Segmentation et Reconnaissance de Forme Analyse et Synthèse d'images James L. Crowley DESS Génie Informatique 1999/00 Séance 7 : 15 fevrier1900 Plan de la Séance : Segmentation et Reconnaissance de Forme Méthodes Statistique de la Reconnaissance

Plus en détail

Information et Codage

Information et Codage Information et Codage ENSTA Voie SIC (Systèmes d Information et de Communication) Module ES204 Olivier RIOUL ENST/COMELEC rioul@comelec.enst.fr Pierre DUHAMEL SUPELEC/LSS pierre.duhamel@lss.supelec.fr

Plus en détail

Moindres carrés récursifs et algorithme adaptatif

Moindres carrés récursifs et algorithme adaptatif Moindres carrés récursifs et algorithme adaptatif Département du Traitement du Signal et des Images Laboratoire de Transmission et de Communication de l Information-UMR5141 Télécom Paris-Tech 6 mars 2011

Plus en détail

MAP X2009. Fonction caractéristique, Vecteur gaussien, Convergence en loi, Théorème de la limite centrale 1. 1 MAP 311, Chapitre 6

MAP X2009. Fonction caractéristique, Vecteur gaussien, Convergence en loi, Théorème de la limite centrale 1. 1 MAP 311, Chapitre 6 MAP 311 - X2009 Leçon 6 Fonction caractéristique, Vecteur gaussien, Convergence en loi, Théorème de la limite centrale 1 1 MAP 311, Chapitre 6 ATTENTION! COURS 7: reporté au lundi 28 juin de 8h30 à 10h,

Plus en détail

Statistique (MATH-F-315, Cours #5)

Statistique (MATH-F-315, Cours #5) Statistique MATH-F-315, Cours #5) Thomas Verdebout Université Libre de Bruxelles 2015 Plan de la partie Statistique du cours 1 Introduction 2 Théorie de l estimation 3 Tests d hypothèses et intervalles

Plus en détail

Analyse Spectrale. Mesure des grandeurs spectrales. P. Granjon. année Grenoble INP, ense3, gipsa-lab

Analyse Spectrale. Mesure des grandeurs spectrales. P. Granjon. année Grenoble INP, ense3, gipsa-lab Spectrale Mesure des grandeurs s P. pierre.granjon@grenoble-inp.fr Grenoble INP, ense3, gipsa-lab année 2-22 du cours à estimer 2 Estimateur par banc de filtres 3 Estimateurs basés sur le périodogramme

Plus en détail

MÉTHODE DE MONTE CARLO PAR CHAÎNE DE MARKOV.

MÉTHODE DE MONTE CARLO PAR CHAÎNE DE MARKOV. MÉTHODE DE MONTE CARLO PAR CHAÎNE DE MARKOV. Alexandre Popier Université du Maine, Le Mans A. Popier (Université du Maine) MCMC. 1 / 31 PLAN DU COURS 1 RAPPELS SUR LES CHAÎNES DE MARKOV Théorème ergodique

Plus en détail

T.I.P.E : La compression JPEG

T.I.P.E : La compression JPEG T.I.P.E : La compression JPEG FLIEDEL Romain 10 mars 2005 La norme J.P.E.G. (Joint Photographic Experts Groups) permet de compresser des images au format RGB en images de taille beaucoup moins importante

Plus en détail

Codes de symbole. Un codeur (binaire) est une application C : X {0, 1} + Le décodeur D est une application des séquences binaires dans l alphabet X :

Codes de symbole. Un codeur (binaire) est une application C : X {0, 1} + Le décodeur D est une application des séquences binaires dans l alphabet X : Codes de symbole Un codeur (binaire) est une application C : X {0, 1} + x c(x) Le décodeur D est une application des séquences binaires dans l alphabet X : D : {0, 1} + X c(x) d(c(x)) Code (binaire) étendu,

Plus en détail

TRAITEMENT DU SIGNAL ALÉATOIRE

TRAITEMENT DU SIGNAL ALÉATOIRE Télécom Physique Strasbourg Module 0 TRAITEMENT DU SIGNAL ALÉATOIRE Signal original Signal filtré N=50.5.5 0.5 0.5 0 0 0.5 0.5.5.5 0 0. 0. 0.3 0.4 0.5 0.6 0.7 0.8 0.9 0 0. 0. 0.3 0.4 0.5 0.6 0.7 0.8 0.9

Plus en détail

Modulation par Impulsions Codées ( MIC) Puls Code Modulation (PCM) NAJJAR M. 1

Modulation par Impulsions Codées ( MIC) Puls Code Modulation (PCM) NAJJAR M. 1 Modulation par Impulsions Codées ( MIC) Puls Code Modulation (PCM) NAJJAR M. 1 Modulation par Impulsions Codées La modulation par Impulsions Codées implique nécessairement L'échantillonnage des signaux

Plus en détail

1 Quanti cation. 1.1 Quanti cation linéaire. Approximation de chaque valeur de s(t) par s q = nq; n : entier, q : échelon de quanti cation.

1 Quanti cation. 1.1 Quanti cation linéaire. Approximation de chaque valeur de s(t) par s q = nq; n : entier, q : échelon de quanti cation. 1 Quanti cation Approximation de chaque valeur de s(t) par s q = nq; n : entier, q : échelon de quanti cation. 1.1 Quanti cation linéaire q = constante, quelque soit l amplitude de s(t): Si s(t) [ S max

Plus en détail

Bases du traitement des images. Opérations de base et améliorations

Bases du traitement des images. Opérations de base et améliorations Opérations de base et améliorations Séverine Dubuisson 6 octobre 2010 1 / 66 Plan du cours 1 Types d opérations sur une image 2 Transformations géométriques 3 Opérations entre images 4 Améliorations 2

Plus en détail

COMPRESSION D IMAGES 4 IMAGE NUMÉRIQUE 2 LUMINANCE-CHROMINANCE 3

COMPRESSION D IMAGES 4 IMAGE NUMÉRIQUE 2 LUMINANCE-CHROMINANCE 3 COMPRESSION D IMAGES. Compression d images numériques. JPEG Principe Transformée Cosinus Discrète Quantification Compression IMAGE NUMÉRIQUE. Image numérique : numérisée ou image de synthèse Ensemble de

Plus en détail

RESTAURATION D IMAGES

RESTAURATION D IMAGES RESTAURATION D IMAGES Restauration d images (image restoration) La restauration est la suppression des dégradations subies par l image. 2 Restauration d images (image restoration) La restauration est la

Plus en détail

Statistiques inférentielles

Statistiques inférentielles Chapitre 5 : Estimation ponctuelle Télécom Saint-Étienne 2015 Sommaire 1 Introduction 2 Estimateurs sans biais Estimateur convergent Erreur quadratique moyenne 3 Plan 1 Introduction 2 3 Introduction -

Plus en détail

Tutoriel sur un filtre passe-partout : le filtre RII du premier ordre

Tutoriel sur un filtre passe-partout : le filtre RII du premier ordre Tutoriel sur un filtre passe-partout : le filtre RII du premier ordre J. Arzi Courriel : contact AT tsdconseil.fr 14 mars 2016 Avant-propos Ce filtre numérique très simple (un unique coefficient!), aussi

Plus en détail

Introduction Stats Econométrie. Régression Logistique + Tests du χ 2

Introduction Stats Econométrie. Régression Logistique + Tests du χ 2 Introduction Stats Econométrie Régression Logistique + Tests du χ 2 marco.cuturi@ensae.fr ISE-2017 1 Quand la régression par moindre carrés ne marche pas Considérons le problème suivant: Des points x j

Plus en détail

Multimédia Rappels. François Cayre Grenoble-INP. F. Cayre (G-INP) Multimédia Rappels / 43

Multimédia Rappels. François Cayre Grenoble-INP. F. Cayre (G-INP) Multimédia Rappels / 43 Multimédia Rappels François Cayre francois.cayre@grenoble-inp.fr Grenoble-INP 2012 2013 F. Cayre (G-INP) Multimédia Rappels 2012 2013 1 / 43 Plan Rappels de probabilités Définitions 1 Rappels de probabilités

Plus en détail

Notes de cours Codage de Huffman

Notes de cours Codage de Huffman Département d informatique et de génie logiciel Compression de données IFT-43/IFT-723 Notes de cours Codage de Huffman Édition Hiver 22 Mohamed Haj Taieb Local: PLT 23 Courriel: mohamed.haj-taieb.@ulaval.ca

Plus en détail

Théorie de l Information

Théorie de l Information Massih-Reza Amini Université Joseph Fourier Laboratoire d Informatique de Grenoble 2/31 Rappel Canal de communication Codage par répétition Table des matières 1 Rappel 2 Canal de communication 3 Codage

Plus en détail

ENSEIRB - Année 1. Traitement du Signal Numérique : Pierre Hanna. Traitement du Signal Numérique p.1/50

ENSEIRB - Année 1. Traitement du Signal Numérique : Pierre Hanna. Traitement du Signal Numérique p.1/50 ENSEIRB - Année 1 Traitement du Signal Numérique : Pierre Hanna hanna@labri.fr Traitement du Signal Numérique p.1/50 ENSEIRB Informatique Année 1 Introduction au Traitement du Signal Numérique 14 (?) séances

Plus en détail

Reconnaissance de forme: Rappels de probabilités et de statistiques

Reconnaissance de forme: Rappels de probabilités et de statistiques Reconnaissance de forme: Rappels de probabilités et de statistiques 1 er février 2010 Plan 1 Introduction : pourquoi des probabilités? 2 Notions de probabilités 3 Statistiques et estimation Introduction

Plus en détail

Cours 4 : algorithmes de codage de source adaptatifs

Cours 4 : algorithmes de codage de source adaptatifs Cours 4 : algorithmes de codage de source adaptatifs 7 octobre 26 Théorie de l information Plan du cours 1. Motivation ; 2. Huffman adaptatif ; 3. Méthode de Gallager et Knuth ; 4. Méthode par dictionnaire

Plus en détail

03/04/2007 V R V U Y R V Y U

03/04/2007 V R V U Y R V Y U Informatique multimédia Compression d'image non réversible Algorithme JPEG Algorithme JPEG 000 Algorithme JPEG JPEG (Joint Photographic Expert Group) 990 Principe suppression des données peu significatives

Plus en détail

Statistiques - Ajustement de courbes

Statistiques - Ajustement de courbes Statistiques - Ajustement de courbes 1 Rappels de Statistiques 1.1 Moyenne, variance, écart-type Soit une série statistique : x 1, x 2, x n (n valeurs) Moyenne x = 1 n x i n i=1 Somme des carrés des écarts

Plus en détail

Table des matières. 1 Introduction 11

Table des matières. 1 Introduction 11 Table des matières 1 Introduction 11 2 Codage de canal 17 2.1 Le canal binaire symétrique........................ 17 2.2 Codes en bloc linéaires........................... 20 2.2.1 Définition d un code

Plus en détail

Pour une certaine région, les prévisions d'un météorologiste M se distribuent suivant les fréquences relatives données par le tableau :

Pour une certaine région, les prévisions d'un météorologiste M se distribuent suivant les fréquences relatives données par le tableau : 1 EXERCICES EXERCICE 1 Pour une certaine région, les prévisions d'un météorologiste M se distribuent suivant les fréquences relatives données par le tableau : Les colonnes correspondent au temps effectif

Plus en détail

Modulation par Impulsions Codées ( MIC) Puls Code Modulation (PCM) NAJJAR M. 1

Modulation par Impulsions Codées ( MIC) Puls Code Modulation (PCM) NAJJAR M. 1 Modulation par Impulsions Codées ( MIC) Puls Code Modulation (PCM) NAJJAR M. 1 Modulation par Impulsions Codées La modulation par Impulsions Codées implique nécessairement L'échantillonnage des signaux

Plus en détail

Tests non-paramétriques

Tests non-paramétriques Tests non-paramétriques Michaël Genin Université de Lille EA 694 - Santé Publique : Epidémiologie et Qualité des soins michaelgenin@univ-lillefr Plan 1 Introduction Comparaison de K = échantillons indépendants

Plus en détail

Compression d image et vidéo : Introduction

Compression d image et vidéo : Introduction Institut Mines-Telecom Compression d image et vidéo : Introduction Giuseppe Valenzise Compresssion images et vidéo Plan Principes fondamentaux Principes fondamentaux Compression Critères d évaluation de

Plus en détail

Décodeur de canal. Décodeur de source. Figure 1 Principe d une chaîne de transmission numérique

Décodeur de canal. Décodeur de source. Figure 1 Principe d une chaîne de transmission numérique LA CHAINE DE COMMUNICATION NUMERIQUE : 1- Introduction : Les systèmes de transmission numérique véhiculent de l'information entre une source et un destinataire en utilisant un support physique comme le

Plus en détail

Baccalauréat S Centres étrangers 10 juin 2015

Baccalauréat S Centres étrangers 10 juin 2015 Corrigé Baccalauréat S Centres étrangers 10 juin 015 A. P. M. E. P. Exercice 1 Commun à tous les candidats 4 points Partie A 1. On a p = 0, 0 et n = 500. Un intervalle de fluctuation au seuil de 95 % est

Plus en détail

Standards de codage vidéo

Standards de codage vidéo Standards de codage vidéo Béatrice Pesquet-Popescu Département Traitement du Signal et des Images TELECOM ParisTech 15 mai 2012 B. Pesquet Standards vidéo 1/101 Plan 1 2 Les principes de la compression

Plus en détail

1ère Partie : Représentation des signaux et des images (20 points)

1ère Partie : Représentation des signaux et des images (20 points) U Analyse Multi-résolution et Ondelettes xamen Analyse Multi-résolution et Ondelettes 24 janvier 2013 Durée de l examen : 2h. Portables éteints et rangés. Documents autorisés : polycopiés de cours (éventuellement

Plus en détail

La théorie de l information

La théorie de l information La théorie de l information Comment mesurer la sécurité apportée par un système de cryptographie? C est le mathématicien Claude Shannon qui en 1947 a répondu à cette question en développant la théorie

Plus en détail

Estimation de la probabilité d événements rares par méthodes de krigeage pour des fonctions boîtes noires coûteuses

Estimation de la probabilité d événements rares par méthodes de krigeage pour des fonctions boîtes noires coûteuses Estimation de la probabilité d événements rares par méthodes de krigeage pour des fonctions boîtes noires coûteuses Yves AUFFRAY 1, Pierre BARBILLON 2, Jean-Michel MARIN 3 Université Paris-Sud 11 Projet

Plus en détail

TABLE DES MATIÈRES. Introduction CHAPITRE I STATISTIQUE DESCRIPTIVE

TABLE DES MATIÈRES. Introduction CHAPITRE I STATISTIQUE DESCRIPTIVE TABLE DES MATIÈRES Introduction... 21 CHAPITRE I STATISTIQUE DESCRIPTIVE I L observation statistique...2 I.1 Concepts de base... 2 I.2 L élaboration de tableaux statistiques... 29 I.21 Étude d un seul

Plus en détail

IFT-7002 Apprentissage Automatique

IFT-7002 Apprentissage Automatique IFT-7002 Apprentissage Automatique Modèle d apprentissage général et le compromis biais-complexité Shai Shalev-Shwartz The Hebrew University of Jerusalem Traduit et adapté par Mario Marchand Université

Plus en détail

Notes de cours Codage arithmétique: génération du code binaire

Notes de cours Codage arithmétique: génération du code binaire Département d informatique et de génie logiciel Compression de données IFT-4003/IFT-7023 Notes de cours Codage arithmétique: génération du code binaire Édition Hiver 2012 Mohamed Haj Taieb Local: PLT 2113

Plus en détail

Problème pratique: les limites théoriques de systèmes de communication. Codeur Source

Problème pratique: les limites théoriques de systèmes de communication. Codeur Source Cours n 7 Caractérisation d un codage Efficacité d un codage Codage par blocs et extension de la source er Théorème de Shannon Codage par plages Codage de Shannon-Fano Codage de Huffman Problème pratique:

Plus en détail

Bases du traitement des images. Filtrage d images

Bases du traitement des images. Filtrage d images Filtrage d images Séverine Dubuisson 22 octobre 2010 1 / 62 Plan du cours 1 Filtrage spatial linéaire 2D 2 Filtrage spatial non linéaire 3 Cas des images en couleurs 4 Filtrage fréquentiel (1D et 2D) 2

Plus en détail

Cours analyse spectrale Part III Mesures spectrales paramétriques. Polytech EEO-AA Philippe Ravier

Cours analyse spectrale Part III Mesures spectrales paramétriques. Polytech EEO-AA Philippe Ravier Cours analyse spectrale art III Mesures spectrales paramétriques olytech EEO-AA hilippe Ravier 1 Classification des méthodes d AS Méthodes non paramétriques Fourier (périodogramme/corrélogramme) Minimum

Plus en détail

Image numérique. Traitement bas-niveau. Traitement haut-niveau. Pré-traitement. Pré-traitement

Image numérique. Traitement bas-niveau. Traitement haut-niveau. Pré-traitement. Pré-traitement Plan Amélioration d images Compression d images Définition La restauration d'images a pour objet la réduction, voire l'élimination des distorsions introduites (bruits) par le système ayant servi à acquérir

Plus en détail

Support Vecteurs Machine

Support Vecteurs Machine Support Vecteurs Machine Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Support Vecteurs Machine IUP SID 2011-2012 1 / 20 Plan

Plus en détail

ENSEIRB. Théorie de l Information (4) Philippe Duchon. Transmission de. Codage de Huffman

ENSEIRB. Théorie de l Information (4) Philippe Duchon. Transmission de. Codage de Huffman Théorie Codage Huffman Capacité d un Théorie ENSEIRB 2008-09 Codage Huffman (1) Théorie Codage Huffman Capacité d un Lemme (Huffman) Pour toute source S, émettant les symboles s 1,..., s N avec les probabilités

Plus en détail

Apprentissage: cours 1 Introduction au cadre de l apprentissage supervisé

Apprentissage: cours 1 Introduction au cadre de l apprentissage supervisé Apprentissage: cours 1 Introduction au cadre de l apprentissage supervisé Guillaume Obozinski 16 février 2012 1 Introduction générale Notations x : observation scalaire (ou quelconque si x n est pas utilisé).

Plus en détail

Estimation et intervalle de confiance

Estimation et intervalle de confiance Estimation et intervalle de confiance S. Robin robin@agroparistech.fr AgroParisTech, dépt. MMIP 8 octobre 2007 A lire : Chapitre 3 Estimation de paramètre du livre Statistique Inférentielle, Daudin, R.,

Plus en détail

Initiation au. traitement du signal - Séance 4. F. Sur - ENSMN. 1 Quelques propriétés de la TFD. Quelques. Décroissance des coefficients de Fourier

Initiation au. traitement du signal - Séance 4. F. Sur - ENSMN. 1 Quelques propriétés de la TFD. Quelques. Décroissance des coefficients de Fourier .8.6.4.. 4 6 8 4 6.4.5.5.5 4 6 8 4 6.5 3 5 5 5 3 5 5 5 4 6 8 4 6 4 6 8 4 6 ours électif ET4 signal et applications Séance 4: avec perte Frédéric Sur École des Mines de ancy www.loria.fr/ sur/enseignement/signal/

Plus en détail

1 Introductions. 3. Propriétés et Répartition spectrale. 1 Energie moyenne, distance. 2 Densité Spectrale de Puissance (DSP)

1 Introductions. 3. Propriétés et Répartition spectrale. 1 Energie moyenne, distance. 2 Densité Spectrale de Puissance (DSP) C o m m u n i c a t i o n s N u m é r i q u e s C N 2 1 1 Introductions. 2. Représentation des signaux Numériques. 1 Signal binaire. Modulation en BdB et sur fréquence porteuse, MAQ. 2 Représentation vectorielle,

Plus en détail

Contrôle des connaissances du cours «Méthodes de traitement des données» du DEA de Strasbourg. Corrigé

Contrôle des connaissances du cours «Méthodes de traitement des données» du DEA de Strasbourg. Corrigé Contrôle des connaissances du cours «Méthodes de traitement des données» du DEA de Strasbourg. Corrigé Le jeudi 28 janvier 1999 de 10h 30à 12h30 à l Observatoire de Strasbourg. Le contrôle est noté sur

Plus en détail

Feuille TD n 1 : Calcul approché

Feuille TD n 1 : Calcul approché Feuille TD n : Calcul approché Exercice. Convertir (.) 2 en hexadécimal, octal et décimal. Exercice 2. Proposer une méthode pour éviter la perte de précision dans les calculs suivants :. e x sin(x) cos(x)

Plus en détail

Estimation ARMA. Un processus ARMA est la solution stationnaire de l équation récurrente : θ k Z t k + Z t. k=1. k=1 φ kz k 0 pour z = 1.

Estimation ARMA. Un processus ARMA est la solution stationnaire de l équation récurrente : θ k Z t k + Z t. k=1. k=1 φ kz k 0 pour z = 1. Estimation ARMA Un processus ARMA est la solution stationnaire de l équation récurrente : X t = p φ k X t k + k=1 q θ k Z t k + Z t k=1 où Z t BB(0, σ 2 ) et où φ(z) = 1 + p k=1 φ kz k 0 pour z = 1. Paramètre

Plus en détail

École Nationale Supérieure de Techniques Avancées module : Commande des Systèmes. examen du cours B7 1 Filtrage bayésien et approximation particulaire

École Nationale Supérieure de Techniques Avancées module : Commande des Systèmes. examen du cours B7 1 Filtrage bayésien et approximation particulaire École Nationale Supérieure de Techniques Avancées module : Commande des Systèmes examen du cours B7 1 Filtrage bayésien et approximation particulaire lundi 18 octobre 2010, 8:30 à 10:30 Exercice 1 : L

Plus en détail

Rendements et matrices de covariances Simulations et Estimations en Excel Mean Blur

Rendements et matrices de covariances Simulations et Estimations en Excel Mean Blur Rendements et matrices de covariances Simulations et Estimations en Excel Mean Blur Daniel Herlemont 15 juin 011 Table des matières 1 Objectifs et motivations Programmer en Excel : ˆ La génération de nombres

Plus en détail

Optimisation d un schéma de codage d image à base d une TCD. Application à un codeur JPEG pour l enregistrement numérique à bas débit

Optimisation d un schéma de codage d image à base d une TCD. Application à un codeur JPEG pour l enregistrement numérique à bas débit Optimisation d un schéma de codage d image à base d une TCD. Application à un codeur JPEG pour l enregistrement numérique à bas débit Moussa Ammar To cite this version: Moussa Ammar. Optimisation d un

Plus en détail

Notes de cours Quantification scalaire

Notes de cours Quantification scalaire Département d informatique et de génie logiciel Compression de données IFT-4003/IFT-703 Notes de cours Quantification scalaire Édition Hiver 01 Mohamed Haj Taieb Local: PLT 113 Courriel: mohamed.haj-taieb.1@ulaval.ca

Plus en détail

Compression : sommaire

Compression : sommaire Compression : sommaire Introduction Compression RLE Compression d Huffman Compression JPEG Autres formats de compression Transparent 1 Introduction But de la compression : Réduire le volume de données

Plus en détail

Semaine 10 : Série d exercices sur la compression de données [Solutions]

Semaine 10 : Série d exercices sur la compression de données [Solutions] Information, calcul et communication (SMA/SPH) EPFL MA/PH Automne 26 Semaine : Série d exercices sur la compression de données [Solutions] Algorithme de compression 39 7 6 5 3 39 7 6 5 3 5 3 39 7 6 5 3

Plus en détail

Progression terminale S

Progression terminale S Progression terminale S Chapitre 1 : Suites (3 semaines) I. Rappels sur les suites A. Mode de génération d une suite B. Représentations graphiques C. Suites arithmétiques et géométriques II. III. IV. Raisonnement

Plus en détail

Erreur de prédiction

Erreur de prédiction Erreur de prédiction Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Erreur de prédiction IUP SID 2011-2012 1 / 27 PLAN Introduction

Plus en détail

Michel Rioux, ing., M.Ing. Directeur Génie des opérations et de la logistique (514) GOL675 Planification et

Michel Rioux, ing., M.Ing. Directeur Génie des opérations et de la logistique (514) GOL675 Planification et Michel Rioux, ing., M.Ing. Directeur Génie des opérations et de la logistique (514) 396-8617 michel.rioux @etsmtl.ca Planification et optimisation d expériences Chapitre 11 - Méthodes et plans de surfaces

Plus en détail

Estimation et Intervalle de Confiance

Estimation et Intervalle de Confiance Estimation et Intervalle de Confiance Jean-Jacques Daudin AgroParisTech October 26, 2011 Document disponible sur http://www.agroparistech.fr/mmip/tice/mathematiques/ J.J. Daudin () Estimation et Intervalle

Plus en détail

Restauration. Isabelle Bloch. Ecole Nationale Supérieure des Télécommunications - CNRS UMR 5141 LTCI Paris - France

Restauration. Isabelle Bloch. Ecole Nationale Supérieure des Télécommunications - CNRS UMR 5141 LTCI Paris - France Restauration Isabelle Bloch http://perso.telecom-paristech.fr/ bloch Ecole Nationale Supérieure des Télécommunications - CNRS UMR 5141 LTCI Paris - France Restauration p.1/16 Restauration : définition

Plus en détail

B. Compression des images et des vidéos

B. Compression des images et des vidéos GINF 53C4: document multimédia : description et recherche automatique B. Compression des images et des vidéos Georges Quénot and Philippe Mulhem Équipe Modélisation et Recherche d Information Multimédia

Plus en détail

COURS DE STATISTIQUE DEFINITIONS ET PROPRIETES DES PRINCIPALES LOIS UNIDIMENSIONNELLES

COURS DE STATISTIQUE DEFINITIONS ET PROPRIETES DES PRINCIPALES LOIS UNIDIMENSIONNELLES Université Paris Magistère d Economie - ère année COURS DE STATISTIQUE DEFINITIONS ET PROPRIETES DES PRINCIPALES LOIS UNIDIMENSIONNELLES Convention : Si la variable aléatoire (v.a.) X suit la loi L, on

Plus en détail

FILTRAGE LINEAIRE OPTIMAL

FILTRAGE LINEAIRE OPTIMAL Chapître I FILTRAGE LINEAIRE OPTIMAL Systèmes Linéaires et Processus Gaussiens Markoviens Département de Génie Electrique et Informatique - Filtrage Linéaire Optimal - 2001 1 Plan I.0 Introduction I.1.

Plus en détail

Segmentation d'image : Contours

Segmentation d'image : Contours Segmentation d'image : Contours Philippe Montesinos EMA/LGI2P Parc Scientifique G.Besse 30000 Nîmes montesin@site-eerie.ema.fr http://www.lgi2p.ema.fr/~montesin 1 Détection de contours (plan) Signal, échantillonnage,

Plus en détail