Quantification Scalaire et Prédictive



Documents pareils
Communications numériques

Soutenance de stage Laboratoire des Signaux et Systèmes

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Echantillonnage Non uniforme

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

3 Approximation de solutions d équations

TD1 Signaux, énergie et puissance, signaux aléatoires

Le modèle de Black et Scholes

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Probabilités III Introduction à l évaluation d options

Chaine de transmission

Intérêt du découpage en sous-bandes pour l analyse spectrale

Technique de codage des formes d'ondes

Expérience 3 Formats de signalisation binaire

Systèmes de transmission

Correction de l examen de la première session

Méthodes de Simulation

Mesure agnostique de la qualité des images.

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

IFT3245. Simulation et modèles

Projet de Traitement du Signal Segmentation d images SAR

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Rappels sur les suites - Algorithme

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Chap17 - CORRECTİON DES EXERCİCES

Précision d un résultat et calculs d incertitudes

CAPTEURS - CHAINES DE MESURES

Température corporelle d un castor (une petite introduction aux séries temporelles)

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Systèmes de communications numériques 2

Chapitre I La fonction transmission

4 Distributions particulières de probabilités

Le concept cellulaire

MODELES DE DUREE DE VIE

Programmation linéaire

Relation entre deux variables : estimation de la corrélation linéaire

Programmes des classes préparatoires aux Grandes Ecoles

Chapitre 2 : Systèmes radio mobiles et concepts cellulaires

LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION

Cours d Analyse. Fonctions de plusieurs variables

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Transmission des signaux numériques

Introduction à l approche bootstrap

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Modélisation et simulation

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Introduction au pricing d option en finance

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Fonctions de deux variables. Mai 2011

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Correction du Baccalauréat S Amérique du Nord mai 2007

Table des matières. I Mise à niveau 11. Préface

Chapitre 2 : communications numériques.

TP: Représentation des signaux binaires. 1 Simulation d un message binaire - Codage en ligne

Transmission de données. A) Principaux éléments intervenant dans la transmission

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Commun à tous les candidats

Codage hiérarchique et multirésolution (JPEG 2000) Codage Vidéo. Représentation de la couleur. Codage canal et codes correcteurs d erreur

Livrable 2.1 Rapport d analyse et de restructuration de code monothread des modules P, T, Q et F de l encodage MPEG-4 AVC

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Simulation de variables aléatoires

ÉVALUATION FORMATIVE. On considère le circuit électrique RC représenté ci-dessous où R et C sont des constantes strictement positives.

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE

Correction du baccalauréat ES/L Métropole 20 juin 2014

Interception des signaux issus de communications MIMO

Texte Agrégation limitée par diffusion interne

SIGNAUX NUMERIQUES ET MODULATIONS NUMERIQUES

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Approche par marquage pour l évaluation de la qualité d image dans les applications multimédias

Fonctions de plusieurs variables

Calcul différentiel sur R n Première partie

PROBABILITES ET STATISTIQUE I&II

OM 1 Outils mathématiques : fonction de plusieurs variables

4. Martingales à temps discret

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

NON-LINEARITE ET RESEAUX NEURONAUX

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

Représentation des Nombres

Continuité et dérivabilité d une fonction

Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test

Un schéma de compression avec pertes efficace pour les images médicales volumiques

Modélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé

ERRATA ET AJOUTS. ( t) 2 s2 dt (4.7) Chapitre 2, p. 64, l équation se lit comme suit : Taux effectif = 1+

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

Optimisation, traitement d image et éclipse de Soleil

- MANIP 2 - APPLICATION À LA MESURE DE LA VITESSE DE LA LUMIÈRE

MCMC et approximations en champ moyen pour les modèles de Markov

Enregistrement et transformation du son. S. Natkin Novembre 2001

Chp. 4. Minimisation d une fonction d une variable

Cours de Mécanique du point matériel

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Technique de compression des images médicales 4D

Transcription:

Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64

Plan Introduction 1 Introduction Définitions 2 Quantification scalaire optimale Quantification optimale en HR Algorithme de Lloyd-Max 3 Quantification scalaire prédictive Gain de prédiction M. Cagnazzo Quantification Scalaire et Prédictive 2/64

Plan Introduction Définitions 1 Introduction Définitions 2 Quantification scalaire optimale Quantification optimale en HR Algorithme de Lloyd-Max 3 Quantification scalaire prédictive Gain de prédiction M. Cagnazzo Quantification Scalaire et Prédictive 3/64

Définitions Introduction Définitions Q : x R y C = { x 1, x 2,... x L } R C : Dictionnaire, c est un sous-ensemble discret de R x i : niveau de quantification, niveau de restitution, codeword, mot de code e = x Q(x) : Bruit de quantification Θ i = { x : Q(x) = x i} : Régions de décision Un quantificateur scalaire (QS) est complètement défini pas les régions et les niveaux M. Cagnazzo Quantification Scalaire et Prédictive 4/64

t 0 t 1 t 2 t 3 t 4 t 5 t 6 t 7 t 8 Introduction Définitions Définition : Quantification scalaire (QS) Q : x R y C = { x 1, x 2,... x L } R x 7 x 6 x 5 x 4 x 3 x 2 x 1 M. Cagnazzo Quantification Scalaire et Prédictive 5/64

Exemple 1 Introduction Définitions 1 x(n) 0.5 0 0.5 1 0 5 10 15 20 25 30 M. Cagnazzo Quantification Scalaire et Prédictive 6/64

Exemple 1 Introduction Définitions 1 x(n) 0.5 0 0.5 1 0 5 10 15 20 25 30 M. Cagnazzo Quantification Scalaire et Prédictive 6/64

Exemple 1 Introduction Définitions 1 x(n) y(n)=q[x(n)] 0.5 0 0.5 1 0 5 10 15 20 25 30 M. Cagnazzo Quantification Scalaire et Prédictive 6/64

Exemple 1 Introduction Définitions 1 y(n)=q[x(n)] e(n)=x(n) y(n) 0.5 0 0.5 1 0 5 10 15 20 25 30 M. Cagnazzo Quantification Scalaire et Prédictive 6/64

Exemple 2 Introduction Définitions 1 x(n) y(n)=q[x(n)] 0.5 0 0.5 1 0 5 10 15 20 25 30 M. Cagnazzo Quantification Scalaire et Prédictive 7/64

Exemple 2 Introduction Définitions 1 y(n)=q[x(n)] e(n)=x(n) y(n) 0.5 0 0.5 1 0 5 10 15 20 25 30 M. Cagnazzo Quantification Scalaire et Prédictive 7/64

Définitions Définitions : Quantificateur régulier Typiquement on considère un QS régulier : 1) Θ i = (t i 1, t i ), avec t l R 2) x i Θ i t 0 t i 1 t i t L x i Θ i M. Cagnazzo Quantification Scalaire et Prédictive 8/64

Quantificateur régulier Introduction Définitions Dans la suite on considérera uniquement des quantificateurs réguliers Pour un quantificateur régulier : t 0 < x 1 < t 1 < x 2 < t 2 <... < x L < t L Si le signal d entrée est non-limité, t 0 = et t L = + Les t i sont appelés seuils de décision On définit i la longueur de Θ i Les ensembles T = {t i } et C = { x i } définissent complètement un QS régulier M. Cagnazzo Quantification Scalaire et Prédictive 9/64

Quantification d un signal discret Définitions Typiquement on quantifie une suite (un signal discret) avec un QS régulier Les signaux d intérêt ont une dynamique limitée [ A, A] Dans ce cas, t 0 = A et t L = +A, toutes les régions sont finies, et l erreur maximum est bornée La quantification consiste donc à associer à chaque échantillon d entrée x(n) un indice i(n), qui détermine la région de décision, c.-à.-d. le mot de code x i(n) M. Cagnazzo Quantification Scalaire et Prédictive 10/64

Définitions Quantification comme codage/décodage x(n) E i(n) D x(n) Θ i C Ce que le codeur envoie c est les i(n) Le décodage associe à i(n) le mot de code x i(n) Souvent (avec abus de langage) on appel quantification l application x i et quantification inverse le décodage i x i M. Cagnazzo Quantification Scalaire et Prédictive 11/64

Débit d un QS Introduction Définitions Le débit d un QS est le nombre de bit nécessaire pour représenter les indices i(n) Par définition, R = log 2 L Cela correspond à un codeur à longueur fixe et à un nombre de niveaux que soit une puissance entière de 2 On verra dans le cours de codage sans pertes qu il est souvent possible de réduire ce coût de codage M. Cagnazzo Quantification Scalaire et Prédictive 12/64

Distorsion Introduction Définitions On définit la distorsion ponctuelle comme l erreur quadratique : d[x(n), x(n)] = e(n) 2 = x(n) x(n) 2 Si on considère tout le signal x( ) de durée N, on utilise comme distorsion l erreur quadratique moyenne : D = 1 N N 1 n=0 d[x(n), x(n)] M. Cagnazzo Quantification Scalaire et Prédictive 13/64

Distorsion : cas aléatoire Définitions Souvent on utilise des modèles aléatoires centrés pour les signaux. Dans ce cas, l EQM associé à la QS du processus aléatoire X est : { D = E X(n) Q(X(n)) 2} = E { E(n) 2} La distorsion est donc la puissance du processus aléatoire E(n) = X(n) Q(X(n)) On indiquera la distorsion d un QS comme σ 2 Q M. Cagnazzo Quantification Scalaire et Prédictive 14/64

Définitions Distorsion : modèles pour le signal de bruit Un modèle commun pour la quantification est le modèle additif X(n) E(n) X(n) Le bruit de quantification est donc vu comme un bruit additif E(n) et X(n) sont modelés comme incorrelés E(n) est modelé comme uniforme E est un processus blanc (corrélation impulsionnelle) M. Cagnazzo Quantification Scalaire et Prédictive 15/64

Courbe débit/distorsion d un QS Définitions Souvent on caractérise un QS par rapport au nombre de niveaux L Le débit croit avec L : R = log 2 L Pour tout les cas d intérêt, la distorsion décroit avec L, mais la relation explicite entre D et L est plus difficile à déterminer En général, un QS est donc caractérisé par une courbe paramétrique R(L), D(L) Il est intéressant de trouver la relation explicite entre D et R : c est la courbe débit/distorsion D = D(R) M. Cagnazzo Quantification Scalaire et Prédictive 16/64

Définitions Un QS uniforme (QU) est caractérisé par : Régions de décision d amplitude fixe : i, t i = t i 1 + Les niveaux de restitution sont les centres des régions : x i = ti +t i 1 2 Le QU est simple, minimise l erreur maximale et est optimale pour des v.a. uniformes. On a encore : i = = 2A/L M. Cagnazzo Quantification Scalaire et Prédictive 17/64

Définitions : calcul de la distorsion Hypothèse : X U ( A, A). Trouver σ 2 Q = E [ (X X) 2 ] M. Cagnazzo Quantification Scalaire et Prédictive 18/64

Définitions : calcul de la distorsion Hypothèse : X U ( A, A). Trouver σ 2 Q = E [ (X X) 2 ] σq [(X 2 =E X) 2] A = p X (u)[u Q(u)] 2 du A M. Cagnazzo Quantification Scalaire et Prédictive 18/64

Définitions : calcul de la distorsion Hypothèse : X U ( A, A). Trouver σ 2 Q = E [ (X X) 2 ]... = σq [(X 2 =E X) 2] A = L i=1 = 1 2A A Θ i 1 2A [u x i )] 2 du = 1 2A L i=1 /2 /2 p X (u)[u Q(u)] 2 du L i=1 x i + /2 x i /2 t 2 dt = 1 2A L 3 12 = 2 12 [u x i )] 2 du En effet le bruit de quantification dans ce cas est une v.a. uniforme en ( /2, /2) M. Cagnazzo Quantification Scalaire et Prédictive 18/64

Définitions : courbe D(R) D = 2 12 = 4A2 12L 2 = A2 3 2 2R =σ 2 X 2 2R On peut mesurer la qualité par le rapport signal sur bruit : SNR = 10 log 10 E { X 2} D = 10 log 10 2 2R 6R = 10 log 10 σ 2 X σ 2 X 2 2R M. Cagnazzo Quantification Scalaire et Prédictive 19/64

Définitions en haute résolution Hypothèse : L +, X v.a. quelconque En HR, pour tout Θ i on approxime p X comme constante. Donc le bruit de quantification en Θ i est U ( 2, ) 2 Pour la probabilité totale, E U ( 2, ) 2 Donc : D = 2 12 = A2 3 2 2R M. Cagnazzo Quantification Scalaire et Prédictive 20/64

Définitions en haute résolution On peut écrire : SNR = 10 log 10 E { X 2} D σx 2 γ 2 = 10 log 10 A 2 /3 22R 6R 10 log 10 3 où on a définit γ 2 = X 2 max σ 2 X = A2 σ 2 x et puissance moyenne (facteur de charge) On trouve encore : rapport entre puissance de crête D = A2 3 2 2R = γ2 3 σ2 X 2 2R = K X σ 2 X 2 2R Le facteur de charge est donc un paramètre unique qui caractérise les performance de la QU en HR. M. Cagnazzo Quantification Scalaire et Prédictive 21/64

Définitions Quantification scalaire : exemple sur image couleurs Image Originale, 24 bpp M. Cagnazzo Quantification Scalaire et Prédictive 22/64

Définitions Quantification scalaire : exemple sur image couleurs Débit 21 bpp PSNR 47.19 db TC 1.143 M. Cagnazzo Quantification Scalaire et Prédictive 23/64

Définitions Quantification scalaire : exemple sur image couleurs Débit 18 bpp PSNR 42.38 db TC 1.333 M. Cagnazzo Quantification Scalaire et Prédictive 24/64

Définitions Quantification scalaire : exemple sur image couleurs Débit 15 bpp PSNR 36.97 db TC 1.600 M. Cagnazzo Quantification Scalaire et Prédictive 25/64

Définitions Quantification scalaire : exemple sur image couleurs Débit 12 bpp PSNR 31.40 db TC 2.000 M. Cagnazzo Quantification Scalaire et Prédictive 26/64

Définitions Quantification scalaire : exemple sur image couleurs Débit 9 bpp PSNR 29.26 db TC 2.667 M. Cagnazzo Quantification Scalaire et Prédictive 27/64

Définitions Quantification scalaire : exemple sur image couleurs Débit 6 bpp PSNR 27.83 db TC 4.000 M. Cagnazzo Quantification Scalaire et Prédictive 28/64

Définitions Quantification scalaire : exemple sur image couleurs Débit 3 bpp PSNR 25.75 db TC 8.000 M. Cagnazzo Quantification Scalaire et Prédictive 29/64

Plan Introduction Quantification optimale en HR Algorithme de Lloyd-Max 1 Introduction Définitions 2 Quantification scalaire optimale Quantification optimale en HR Algorithme de Lloyd-Max 3 Quantification scalaire prédictive Gain de prédiction M. Cagnazzo Quantification Scalaire et Prédictive 30/64

Quantification optimale Quantification optimale en HR Algorithme de Lloyd-Max Pour une densité de probabilité p X (x) donnée, déterminer le quantificateur qui minimise la distorsion pour un débit donné. Problème équivalent à déterminer les seuils t i et les niveaux x i. Solutions : Solution analytique en haute résolution: D = h X σ 2 x 2 2R Si l hypothèse de haute résolution n est pas satisfaite, on peut atteindre un minimum local de la distorsion avec l algorithme de Max-Lloyd M. Cagnazzo Quantification Scalaire et Prédictive 31/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution En hypothèse de haute résolution (L + ), x Θ i = (t i 1, t i ), p X (x) p X ( x i ) i {1,...,L}, (i) 0 i {1,...,L}, x i = ti 1 + t i 2 On définit (i) = t i t i 1 et P(i) = Prob{X Θ i } En HR, P(i) = p X ( x i ) (i) M. Cagnazzo Quantification Scalaire et Prédictive 32/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Distorsion σ 2 Q : Comme On a σ 2 Q = L t i i=1 σ 2 Q = 1 12 t i p X ( x i ) (u x i ) 2 du t i 1 t i 1 (u x i ) 2 du = L P(i) (i) 2 i=1 (i)/2 (i)/2 u 2 du = (i)3 12 Le problème devient donc : rechercher les amplitudes des intervalles qui minimisent σ 2 Q = 1 12 E{ 2 } M. Cagnazzo Quantification Scalaire et Prédictive 33/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Minimisation de σq 2 = 1 L 12 i=1 P(i) (i)2 Posons α 3 (i) = p X ( x i ) 3 (i) = P(i) (i) 2. L α(i) = i=1 L [p X ( x i )] 1 3 (i) i=1 R [p X (u)] 1 3 du = cste Donc on doit minimiser la somme de cubes de L nombres positifs ayant somme constante. Solution : α(1) = α(2) = = α(l) M. Cagnazzo Quantification Scalaire et Prédictive 34/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Tous les α 3 (i) ont la même valeur : α 3 (i) = α 3 Donc σq 2 = 1 L α 3 (i) = L 12 12 α3 Mais comme α = 1 L i=1 L α(i) = 1 L i=1 R [p X (u)] 1 3 du Alors σq 2 = 1 [ ] 3 12L 2 [p X (u)] 1 3 du R C est la formule de Bennett M. Cagnazzo Quantification Scalaire et Prédictive 35/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Soit U = X σ X Si U p U (u), alors X 1 σ X p U ( u σ X ) Calculer la distorsion de quantification optimale de X en fonction de p U et σ X M. Cagnazzo Quantification Scalaire et Prédictive 36/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Soit U = X σ X Si U p U (u), alors X 1 σ X p U ( u σ X ) Calculer la distorsion de quantification optimale de X en fonction de p U et σ X R [p X (x)] 1 3 dx = 1 σ 1/3 X R ( ) p 1/3 x U σ X dx = σ 2/3 X R p 1/3 U (t)dt Avec t = x σ X Donc : et dt = dx σ X. σ 2 Q = 2 2R σ 2 X [ ] 3 1 p 1/3 U 12 (t)dt R M. Cagnazzo Quantification Scalaire et Prédictive 36/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Donc σ 2 Q = c Xσ 2 X 2 2R avec c X = 1 [ ] 3 p 1/3 12 U (t)dt R c X est appelé facteur de forme, car il dépend seulement de la forme de la PDF de X (c.-à.-d. de p U ) et pas de sa variance Facteurs de forme pour PDF communes : Uniforme Gaussienne c X 1 3 2 π 2.72 M. Cagnazzo Quantification Scalaire et Prédictive 37/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Pour le quantificateur optimale, α(1) = α(2) = = α(l) Donc : p X ( x 1 ) 3 (1) = p X ( x 2 ) 3 (2) = = p X ( x L ) 3 (L). Mais si X est uniforme, p X ( x 1 )=p X ( x 2 )= p X ( x L ) et donc : (1) = (2) = = (L) Le quantificateur optimale pour une v.a. uniforme est le QU Pour les autres v.a., p 1/3 X ( x i ) (i) = α (i) p X ( x i ) 1/3 M. Cagnazzo Quantification Scalaire et Prédictive 38/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Variable uniforme Pour une v.a. uniforme, p X = 1 2A Rect A,A(x), σx 2 = A2 3 Alors pour U = 3X/A on a p U (t) = 1 2 Rect 3 3, 3 (t) et : M. Cagnazzo Quantification Scalaire et Prédictive 39/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Variable uniforme Pour une v.a. uniforme, p X = 1 2A Rect A,A(x), σx 2 = A2 3 Alors pour U = 3X/A on a p U (t) = 1 2 Rect 3 3, 3 (t) et : [ ] [ 3 3 ( ) p 1/3 1 1/3 3 U (t)dt = dt] R 3 2 3 [ ] 3 = 1 3 2 3 dt = 1 ( 3 2 2 3 3) = 12 3 c X = 1 D = σ 2 X 2 2R SNR = 6R M. Cagnazzo Quantification Scalaire et Prédictive 39/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Variable gaussienne p U (t) = 1 e t2 2 2π M. Cagnazzo Quantification Scalaire et Prédictive 40/64

Quantification optimale en HR Algorithme de Lloyd-Max Quantification optimale en haute résolution Variable gaussienne p U (t) = 1 e t2 2 2π [ ] [ 3 ] 3 p 1/3 U (t)dt 1 t = 2 e 6 dt 1/6 R R (2π) [ = 1 3 2π3 e t2 2 3 dt] = (2π) 1/2( ) 3 2π3 = 6π 3 2π R 2π3 3 c X = 2 π D = c X σ 2 X 2 2R SNR = 6R 4.35dB M. Cagnazzo Quantification Scalaire et Prédictive 40/64

Quantification optimale non-hr Quantification optimale en HR Algorithme de Lloyd-Max Les hypothèses d haute résolution ne sont pas toujours respectées Les cas plus intéressants sont au contraire ceux où le débit disponible est faible On dispose pas de formules pour la quantification optimale à faible débit En revanche, on peut trouver des conditions nécessaires et pour avoir un QO Ces conditions permettent de déterminer un algorithme de quantification (algorithme de Lloyd-Max) M. Cagnazzo Quantification Scalaire et Prédictive 41/64

Formulation du problème Quantification optimale en HR Algorithme de Lloyd-Max Un quantificateur régulier est caractérisé par l ensemble des seuils T = {t 0, t 1, t 2,..., t L } et l ensemble des niveau C = { x 1, x 2,..., x L } L optimisation devrait se faire conjointement sur C et T Par contre on a des conditions nécessaires d optimalité: Pour C étant donné T ; et pour T étant donné C. M. Cagnazzo Quantification Scalaire et Prédictive 42/64

Condition du plus proche voisin Quantification optimale en HR Algorithme de Lloyd-Max Les niveaux sont donnés, on doit choisir les seuils L objectif est de minimiser la distorsion : Θ i = {x R: j i, d(x, x i ) d(x, x j )} Cette équation est appelée règle du plus proche voisin M. Cagnazzo Quantification Scalaire et Prédictive 43/64

Condition du plus proche voisin Quantification optimale en HR Algorithme de Lloyd-Max Les niveaux sont donnés, on doit choisir les seuils L objectif est de minimiser la distorsion : Θ i = {x R: j i, d(x, x i ) d(x, x j )} Cette équation est appelée règle du plus proche voisin Cela se traduit, pour les seuils : t i = x i + x i+1 2 M. Cagnazzo Quantification Scalaire et Prédictive 43/64

Condition du centroïd Introduction Quantification optimale en HR Algorithme de Lloyd-Max Les seuils sont donnés, il faut optimiser le dictionnaire On doit minimiser la distorsion [ D(C) = E (X Q(X)) 2] = = L i=1 t i+1 t i R p X (x)(x x i ) 2 dx [ p X (x) (x Q(x)) 2] dx On impose D x i = 0 M. Cagnazzo Quantification Scalaire et Prédictive 44/64

Condition du centroïd Introduction Quantification optimale en HR Algorithme de Lloyd-Max On trouve : D x i = x i x i = = 2 t i+1 t i t i+1 t i t i+1 t i t i+1 t i p X (x)(x x i ) 2 dx xp X (x)dx 2 x i xp X (x)dx p X (x)dx C est la condition du centroïd t i+1 = E[X X Θ i ] t i p X (x)dx = 0 M. Cagnazzo Quantification Scalaire et Prédictive 45/64

Quantification optimale Algorithme de Lloyd-Max Quantification optimale en HR Algorithme de Lloyd-Max Algorithme de Lloyd-Max 1 initialiser les régions (p.e. uniforme) 2 trouver les meilleures régions pour le dictionnaire donné t i = x i + x i+1, i {1,...,L 1} 2 3 trouver le meilleur dictionnaire pour les régions données x i Θ = E[X X Θ i ] = i xp X (x)dx Θ i p X (x)dx 4 boucler en 2 jusqu à la convergence M. Cagnazzo Quantification Scalaire et Prédictive 46/64

Quantification optimale en HR Algorithme de Lloyd-Max Algorithme de Lloyd-Max pour les données On a pas toujours les distributions de probabilités des signaux, souvent on a seulement un ensemble de M observations L algorithme de Lloyd-Max se modifie comme il suit : 1 Soit X = {u 1, u 2,...u M } l ensemble des données à quantifier 2 Initialisation (k =0) avec un dictionnaire quelconque (p.e. uniforme) : C (k) = { x i 0 } i=1,...l 3 Règle du plus proche voisin : W i k = {u m X : j i u m x i k u m x j k } 4 Règle du centroïd : x k+1 i = 1 W u k i m W u k i m 5 Boucler en 3 jusqu à convergence M. Cagnazzo Quantification Scalaire et Prédictive 47/64

Quantification optimale en HR Algorithme de Lloyd-Max Convergenze de l algorithme de Lloyd-Max Rien n assure la convergence à l optimum global Le résultat depend de l initialisation En tout cas, à chaque itération la distorsion n augmente pas Critère d arrêt : Soit D (k) la distorsion du k-ème quantificateur Une condition d arrêt typique est : D (k) D (k+1) D (k) ǫ M. Cagnazzo Quantification Scalaire et Prédictive 48/64

Initialisation de LM Introduction Quantification optimale en HR Algorithme de Lloyd-Max Initialisation uniforme : x n A 0 + n n = 1,...,L Initialisation aléatoire : les mots de code sont distribués comme le signal d entrée ou comme un signal qui optimise les performances RD Pruning Pairwise nearest neighbours M. Cagnazzo Quantification Scalaire et Prédictive 49/64

Algorithme de Lloyd-Max Quantification optimale en HR Algorithme de Lloyd-Max M. Cagnazzo Quantification Scalaire et Prédictive 50/64

Bilan de la quantification scalaire Quantification optimale en HR Algorithme de Lloyd-Max D(R), QU et v.a. uniforme : D = σ 2 X 2 2R D(R), QU et v.a. non uniforme en HR : D = K X σ 2 X 2 2R D(R), QO et v.a. non uniforme en HR : σ 2 Q = c Xσ 2 X 2 2R c X est une constante qui dépend de la distribution de X (facteur de forme) c X = 1 dans le cas uniforme c X = 3 2 π dans le cas gaussien À faible resolution, LM produit un QNU localement optimale M. Cagnazzo Quantification Scalaire et Prédictive 51/64

Plan Introduction Gain de prédiction 1 Introduction Définitions 2 Quantification scalaire optimale Quantification optimale en HR Algorithme de Lloyd-Max 3 Quantification scalaire prédictive Gain de prédiction M. Cagnazzo Quantification Scalaire et Prédictive 52/64

Codage prédictive Principes Introduction Gain de prédiction La seule quantification est peu efficace pour la compression Modèle soujacent trop simple : échantillons indépendants et tous également importants Idée : exploiter la corrélation entre échantillon par une prédiction Réduction de la variance M. Cagnazzo Quantification Scalaire et Prédictive 53/64

Schéma de codage Schéma en boucle ouverte Introduction Gain de prédiction L échantillon X(n) est lié au échantillons passés (et futurs) On utilise les voisins de X(n) pour le prédire Si on fait un bonne prédiction, X(n) X(n) x(n) y(n) ŷ(n) x(n) Q v(n) v(n) Comment on fait la prédiction? Qu est-ce qu on gagne? M. Cagnazzo Quantification Scalaire et Prédictive 54/64

Gain de prédiction Introduction Gain de prédiction Erreur sur la prédiction = erreur sur le signal : q(n) = y(n) ŷ(n) = x(n) v(n) x(n)+v(n) = q(n) Donc l objectif de la devient celui de minimiser la distorsion de y Gain de codage : σx 2 SNR p = 10 log 10 D = 10 log σx 2 10 σy 2 + 10 log 10 σ 2 Y D = G P + G Q La prédiction doit produire un signal d erreur dont la variance est inférieure à la variance du signal d origine M. Cagnazzo Quantification Scalaire et Prédictive 55/64

Exemple Introduction Gain de prédiction X(n) N(0,σ 2 ) E[X(n)X(m)] = σ 2 ρ n m V(n) = X(n 1) ρ : G P > 0? M. Cagnazzo Quantification Scalaire et Prédictive 56/64

Exemple Introduction Gain de prédiction X(n) N(0,σ 2 ) E[X(n)X(m)] = σ 2 ρ n m V(n) = X(n 1) ρ : G P > 0? Y(n) = X(n) X(n 1) v.a. Gaussienne centrée σ 2 Y = E [(X(n) X(n 1)) 2] = 2σ 2 2σ 2 ρ G P = 10 log 10 σ 2 X σ 2 Y = 10 log 10 σ 2 2(1 ρ)σ 2 G P > 0 ρ > 1 2 M. Cagnazzo Quantification Scalaire et Prédictive 56/64

Prédicteurs Introduction Gain de prédiction On s intéressera aux prédicteurs linéaires : simples et optimaux dans le cas Gaussien v(n) = P a i x(n i) i=1 y(n) = x(n) v(n) = Filtre de prédiction à P paramètres P a i (x n 1) Erreur de prédiction i=0 Avec a 0 = 1. On peut donc voir y comme filtrage de x avec le filtre de fonction de transfert : A(z) = 1+a 1 z 1 +...+a P z P Filtre optimale : minimisation de σ 2 Y M. Cagnazzo Quantification Scalaire et Prédictive 57/64

Modèle AR du signal Introduction Gain de prédiction Si Y(z) = A(z)X(z), X(z) = Y(z) A(z) On montre que, si la prédiction est optimale, Y(z) est du bruit blanc de puissance σ 2 Y Dans ce cas, la DSP de X est S X (f) = σ2 Y A(f) 2 Le modèle sous-jacente pour X est celui d un signal auto-regressif : Y(z) X(z) = 1+a 1 z 1 +...+a P z P x(n)+a 1 x(n 1)+...+ a P x(n P) = y(n) x(n) est donc le filtrage AR de y(n) M. Cagnazzo Quantification Scalaire et Prédictive 58/64

Choix du prédicteur Introduction Gain de prédiction Problème : Trouver le vecteur (filtre linéaire) a qui minimise : [ ] } 2 P σy {Y 2 = E 2 (n) = E X(n)+ a i X(n i) i=1 M. Cagnazzo Quantification Scalaire et Prédictive 59/64

Choix du prédicteur Introduction Gain de prédiction { } σy 2 = E X 2 (n) + 2 avec : P a i E{X(n)X(n i)}+ i=1 = σ 2 X + 2r t a+a t R X a r = [r X (1)...r X (P)] R X = r X (k) = E{X(n)X(n k)} P i=1 P a i a j E{X(n i)x(n j)} j=1 r X (0) r X (1)... r X (P 1) r X (1) r X (2)... r X (P 2)............ r X (P 1) r X (P 2)... r X (0) M. Cagnazzo Quantification Scalaire et Prédictive 60/64

Choix du prédicteur Introduction Gain de prédiction Minimisation de la variance de Y : On a donc : σ 2 Y a = 2r + 2R X a = 0 a opt = R 1 X r σ2 Y = σ2 X + r t a opt L autocorrélation r X peut généralement être estimé avec : r X (k) = 1 N 1 kx(n)(x(n+k) N n=0 M. Cagnazzo Quantification Scalaire et Prédictive 61/64

Gain de prédiction Introduction Gain de prédiction Gain de prédiction : rapport entre la puissance de l erreur sans et avec prédiction. cσx 2 G P (P) = 10 log 2 2R 10 cσy 2 = 10 log σx 2 2 2R 10 σy 2 σx 2 σx 2 = σx 2 + r t a opt = r X (0) r X (0)+ P σ 2 Y i=1 aopt i r X (i) Quand i croît, les r X (i) sont normalement de plus en plus petits (la corrélation entre des échantillons éloignés est de plus en plus petite) M. Cagnazzo Quantification Scalaire et Prédictive 62/64

Gain de prédiction Introduction Gain de prédiction σ 2 X [det R P ] 1/P On peut montrer que : σ2 X = σy 2 Valeur asymptotique du gain de prédiction G P = lim P + σ 2 X [det R P ] 1/P Cette valeur est liée au dégrée de corrélation du signal On peut montrer que : 1/2 1/2 G P = S X(f)df ( ) 1/2 exp 1/2 ln S X(f)df 1 N 1 N Π N 1 k=0 k=0 S X ( k N) [ SX ( k N)] 1 N Rapport entre moyennes arithmétiques et géométriques M. Cagnazzo Quantification Scalaire et Prédictive 63/64

Gain de prédiction Schéma de codage Schéma prédictif (DPCM) complet (boucle fermée) Encodeur : Décodeur : X(n) V(n) Q V(n) V(n) X(n) Y(n) P X(n) V(n) Y(n) P X(n) Y(n) M. Cagnazzo Quantification Scalaire et Prédictive 64/64