COURS ELE112 BASES DE COMMUNICATIONS NUMERIQUES. Didier LE RUYET. Département Electronique Automatique et Systèmes (EASY) CNAM Paris



Documents pareils
Quantification Scalaire et Prédictive

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE

Systèmes de communications numériques 2

Systèmes de communications numériques 2

Chaine de transmission

Expérience 3 Formats de signalisation binaire

Communications numériques

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Chapitre 2 : communications numériques.

Transmission d informations sur le réseau électrique

Transmission des signaux numériques

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Transmission de données. A) Principaux éléments intervenant dans la transmission

LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION

Technique de codage des formes d'ondes

Université de La Rochelle. Réseaux TD n 6

TP: Représentation des signaux binaires. 1 Simulation d un message binaire - Codage en ligne

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

TD1 Signaux, énergie et puissance, signaux aléatoires

Les techniques de multiplexage

Chapitre I La fonction transmission

Chapitre 2 : Techniques de transmission

TRANSMISSION NUMERIQUE

Introduction aux Communications Numériques

Numérisation du signal

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

ISO/CEI NORME INTERNATIONALE

SIGNAUX NUMERIQUES ET MODULATIONS NUMERIQUES

TP Modulation Démodulation BPSK

CHAPITRE V. Théorie de l échantillonnage et de la quantification

Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information

LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise.

I. TRANSMISSION DE DONNEES

Enregistrement et transformation du son. S. Natkin Novembre 2001

Traitement du signal avec Scilab : transmission numérique en bande de base

LABO PROJET : IMPLEMENTATION D UN MODEM ADSL SOUS MATLAB

TD 1 - Transmission en bande de passe

Echantillonnage Non uniforme

Fonctions de la couche physique

Systèmes de transmission

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

La couche physique de l ADSL (voie descendante)

Intérêt du découpage en sous-bandes pour l analyse spectrale

Chapitre 2 : Systèmes radio mobiles et concepts cellulaires

Année Transmission des données. Nicolas Baudru mél : nicolas.baudru@esil.univmed.fr page web : nicolas.baudru.perso.esil.univmed.

Précision d un résultat et calculs d incertitudes

I. Polynômes de Tchebychev

Cours d Électronique du Tronc Commun S3. Le filtrage optimisé du signal numérique en bande de base. Notion de BRUIT en télécommunication.

Formats d images. 1 Introduction

Projet de Traitement du Signal Segmentation d images SAR

Codage hiérarchique et multirésolution (JPEG 2000) Codage Vidéo. Représentation de la couleur. Codage canal et codes correcteurs d erreur

Le concept cellulaire

Simulation de variables aléatoires

Chapitre 13 Numérisation de l information

LÕenregistrement Enregistrement analogique et enregistrement numžrique

Chap17 - CORRECTİON DES EXERCİCES

Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test

Signalisation, codage, contrôle d'erreurs

3 Approximation de solutions d équations

Chapitre 2 Le problème de l unicité des solutions

xdsl Digital Suscriber Line «Utiliser la totalité de la bande passante du cuivre»

TELEVISION NUMERIQUE

La structure du mobile GSM

Telecommunication modulation numérique

Méthodes de Simulation

Fonctions de plusieurs variables. Sébastien Tordeux

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

Télécommunications. Plan

Introduction à l étude des Corps Finis

Cours d Analyse. Fonctions de plusieurs variables

EMETTEUR ULB. Architectures & circuits. Ecole ULB GDRO ESISAR - Valence 23-27/10/2006. David MARCHALAND STMicroelectronics 26/10/2006

F411 - Courbes Paramétrées, Polaires

choisir H 1 quand H 0 est vraie - fausse alarme

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES

Telecommunication modulation numérique

Interception des signaux issus de communications MIMO

1 Introduction au codage

Représentation des Nombres

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

M1107 : Initiation à la mesure du signal. T_MesSig

LABO 5 ET 6 TRAITEMENT DE SIGNAL SOUS SIMULINK

Incertitudes expérimentales

TSTI 2D CH X : Exemples de lois à densité 1

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

EP A1 (19) (11) EP A1 (12) DEMANDE DE BREVET EUROPEEN. (43) Date de publication: Bulletin 2011/26

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Multimedia. Systèmes, Communications et Applications. Ahmed MEHAOUA

Chapitre 2 Les ondes progressives périodiques

Conversion d un entier. Méthode par soustraction

- Instrumentation numérique -

2. Couche physique (Couche 1 OSI et TCP/IP)

Compression Compression par dictionnaires

Travaux pratiques. Compression en codage de Huffman Organisation d un projet de programmation

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

Automatique Linéaire 1 Travaux Dirigés 1A ISMIN

Circuits RL et RC. Chapitre Inductance

Transcription:

. COURS ELE112 BASES DE COMMUNICATIONS NUMERIQUES Didier LE RUYET Département Electronique Automatique et Systèmes (EASY) CNAM Paris didier.le_ruyet@cnam.fr 1

PROGRAMME Cours 1 : Introduction, paradigme de Shannon, rappels de probabilités, notion d entropie, Information mutuelle Cours 2 : théorème fondamental du codage de source, inégalité de Kraft, codage d Huffman, débit d entropie, codage LZ Cours 3 : quantification, loi A et mu, codage pour source analogique Cours 4 : Codes en ligne, NRZ Cours 5 : filtrage adapté, Cours 6 calcul du taux d erreurs Cours 7 : critère de Nyquist 2

PROGRAMME Cours 8 : capacité d un canal de transmission Cours 9 : introduction codes en bloc Cours 10 : Décodage des codes en bloc (méthode du syndrome, Viterbi,...) Cours 11 : Critère MAP/ML décodage à entrées pondérées Cours 12 : Codes cycliques, BCH, RS Cours 13 : codes convolutifs Cours 14 : introduction aux modulations numériques 3

COURS 1 Introduction, paradigme de Shannon, rappels de probabilités notion d entropie, Information mutuelle 4

PARADIGME DE SHANNON SOURCE CODAGE DE SOURCE CODAGE DE CANAL MODULATEUR CANAL DE TRANSMISSION DESTINATAIRE DECODAGE DE SOURCE DECODAGE DE CANAL DETECTEUR DEMODULATEUR L objectif du codeur de source est de représenter le message avec le moins de bits possibles. Pour ce faire, il cherche à éliminer toute la redondance contenue dans le message de la source. Le rôle du codage de canal est de protéger le message des perturbations du canal de transmission en ajoutant de la redondance au message compressé. La modulation consiste à effectuer un codage dans l espace euclidien. Pour une modulation M-aire, on associe à chaque mot de g bits un signal φ i (t),i = 1,...,M de durée T choisi parmi lesm = 2 g signaux. 5

PARADIGME DE SHANNON SOURCE CODAGE DE SOURCE CODAGE DE CANAL MODULATEUR CANAL DE TRANSMISSION DESTINATAIRE DECODAGE DE SOURCE DECODAGE DE CANAL DETECTEUR DEMODULATEUR Le rôle du démodulateur est d extraire les échantillons tout en maximisant le rapport signal à bruit L objectif du détecteur est de décider en faveur des symboles les plus probablement émis La qualité d un système de transmission est évaluée en calculant ou en mesurant la probabilité d erreurs par bit d information (ou par bloc d information). 6

RAPPELS DE PROBABILITES Soit une variable aléatoire X ayant pour alphabet ou espace de réalisations A X = {x 1,x 2,...,x n } avec les probabilités respectives P X = {p 1,p 2,...,p n } : Probabilité conjointe P(X = x i ) = p i p i 0 et x i A X p i = 1 (1) Soit deux variables aléatoires X et Y ayant pour espace de réalisations respectif A X = {x 1,x 2,...,x n } et A Y = {y 1,y 2,...,y m } On appelle P(X = x i,y = y j ) la probabilité conjointe des évènements X = x i et Y = y j. On a bien entendu : P(X = x i,y = y j ) = 1 (2) y j A y Probabilité marginale x i A x Il est possible d obtenir la probabilité P(X = x i ) à partir de la probabilité conjointe 7

P(X = x i,y = y j ) : P(X = x i ) = y j A y P(X = x i,y = y j ) (3) Probabilité conditionnelle P(X = x i Y = y j ) = P(X = x i,y = y j ) P(Y = y j ) De la même manière on a : Ainsi on a la relation P(Y = y j X = x i ) = P(X = x i,y = y j ) P(X = x i ) (4) (5) P(Y = y j,x = x i ) = P(X = x i Y = y j )P(Y = y j ) = P(Y = y j X = x i )P(X = x i ) (6) 8

Loi de Bayes et P(Y = y j X = x i ) = P(X = x i Y = y j )P(Y = y j ) P(X = x i ) = P(X = x i Y = y j )P(Y = y j ) y k A y P(X = x i,y = y k ) P(X = x i Y = y j )P(Y = y j ) = y k A y P(X = x i Y = y k )P(Y = y k ) P(X = x i Y = y j ) est appelée la probabilité a posteriori P(Y = y i ) est appelée la probabilité a priori. Indépendance L indépendance de deux variables aléatoires X et Y implique P(X,Y) = P(X)P(Y) (7) P(X Y) = P(X) (8) 9

UNE MESURE LOGARITHMIQUE DE L INFORMATION h(x i ) la mesure de l information associée à l événement X = x i doit satisfaire : h(x i ) doit être continue pour p(x = x i ) compris entre 0 et 1 h(x i ) = si P(X = x i ) = 0 h(x i ) = 0 sip(x = x i ) = 1 un événement certain n apporte pas d information h(x i ) > h(y j ) si P(Y = y j ) > P(X = x i ) h(x i ) + h(y j ) = h(x i,y j ). La réalisation de 2 évènements indépendants Y = y j et X = x i apporte une quantité d information égale à la somme des informations de ces 2 évènements h(x i ) et h(y j ). La seule expression de la quantité d information h(x i ) associée à la réalisation de l évènement X = x i satisfaisant les propriétés énumérées ci-dessus est la suivante: 1 h(x i ) = log 2 P(X = x i ) = log 2P(X = x i ) = log 2 p i (9) Exemple : soit une source discrète produisant des bits (0 ou 1) avec la probabilité 1 2. On a : 1 h(0) = h(1) = log 2 = 1 Sh (10) 10 2

Considérons maintenant la réalisation de 2 évènements X = x i et Y = x j. La quantité d information associée est : h(x i,y j ) = log 2 1 P(X = x i,y = y j ) = log 2P(X = x i,y = y j ) (11) où P(X = x i,y = y j ) est la probabilité conjointe des deux évènements. La quantité d information associée à la réalisation de l événément X = x i conditionnellement à l évènement Y = y j est la suivante : On en déduit : h(x i y j ) = log 2 1 P(X = x i Y = y j ) = log 2P(X = x i Y = y j ) (12) h(x i,y j ) = h(x i y j )+h(y j ) = h(y j x i )+h(x i ) (13) 11

INFORMATION MUTUELLE On définit l information mutuellei(x i,y j ) comme la quantité d information que la réalisation de l évènement Y = y j apporte sur l évènement X = x i : i(x i,y j ) = log P(X = x i Y = y j ) (14) P(X = x i ) Si les deux événements sont indépendants, alors P(X = x i Y = y j ) = P(X = x i ) et donc i(x i,y j ) = 0. Si l événement X = x i est équivalent à l événement Y = y j, alors P(X = x i Y = y j ) = 1 et i(x i,y j ) = h(x i ). L information que la réalisation de l évènement Y = y j apporte sur l évènement X = x i est identique à l information que la réalisation de l évènement X = x i apporte sur l évènement Y = y j. i(x i,y j ) = i(y j,x i ) (15) 12

On a également les relations suivantes : i(x i,y j ) = i(y j,x i ) = h(x i ) h(x i y j ) = h(x i )+h(y j ) h(x i,y j ) = h(y j ) h(y j x i ) Contrairement à h(x i ), l information mutuelle i(x i,y j ) peut être négative. 13

ENTROPIE ET INFORMATION MUTUELLE MOYENNE Déterminons l entropie d une source décrite par la variable aléatoire X ayant pour espace de réalisation A X = {x 1,x 2,...,x n } avec les probabilités respectives P X = {p 1,p 2,...,p n }. La quantité d information moyenne ou entropie de la source est la moyenne des informations relatives à chaque réalisation de l évènement X = x i : H(X) = = n p i h(x i ) i=1 n 1 p i log 2 i=1 = H(X) mesure l incertitude sur X. Propriétés : p i n p i log 2 p i en Sh/symbole (16) i=1 H(X) 0 avec égalité si p i = 1 pour une valeur de i (17) 14

H(X) log 2 n (18) Si les probabilités P(X = x i ) = p i sont toutes égales à 1, alors on a : n H(X) = log 2 n (19) L entropie est donc maximale lorsque toutes les probabilités p i sont égales. 15

Exemple : soit une source à 2 étatsx 0 et x 1 avec p 0 = p et p 1 = 1 p L entropie de cette source est la suivante : H(X) H(p,1 p) = plog 2 p (1 p)log 2 (1 p) (20) 1 0.9 0.8 0.7 H(X) 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 probabilité p Figure 1: Entropie d une source binaire Ainsi, l entropie de la source binaire est maximale (1 Sh/bit) lorsque p = 0.5 16

Considérons deux variables aléatoires X et Y ayant respectivement pour espace de réalisations A X = {x 1,x 2,...,x n } et A Y = {y 1,y 2,...,y m }. L entropie conjointe H(X,Y) est définie comme suit : n m H(X,Y) = P(X = x i,y = y j )h(x i,y j ) i=1 = j=1 n i=1 m P(X = x i,y = y j )log 2 P(X = x i,y = y j ) (21) j=1 Si les variables aléatoiresx ety sont indépendantes alorsh(x,y) = H(X)+H(Y). On peut aussi déterminer l entropie conditionnelle H(X/Y) qui détermine l information surx sachant l observation Y à partir de h(x i y j ): H(X Y) = n i=1 = m P(X = x i,y = y j )h(x i y j ) j=1 n i=1 m P(X = x i,y = y j )log 2 P(X = x i Y = y j ) (22) j=1 17

Ces différentes relations permettent d exprimer l entropie conjointe en fonction de l entropie et l entropie conditionnelle : H(X,Y) = H(X)+H(Y X) = H(Y)+H(X Y) (23) L incertitude surx ety est égale à l incertitude surx plus l incertitude sury sachant X. L information mutuelle associée à la réalisation d un événement peut également être étendue aux variables aléatoires X et Y. I(X,Y) = n m P(X = x i,y = y j )i(x i,y j ) = = i=1 n i=1 n i=1 j=1 m j=1 m j=1 P(X = x i,y = y j )log 2 P(X = x i Y = y j ) P(X = x i ) P(X = x i,y = y j )log 2 P(X = x i,y = y j ) P(X = x i )P(Y = y j ) (24) 18

Ainsi, on a les relations suivantes : I(X,Y) = H(X)+H(Y) H(X,Y) = H(X) H(X Y) = H(Y) H(Y X) (25) L information mutuelle I(X, Y) mesure la réduction d incertitude moyenne sur X qui résulte de la connaissance de Y. H(X,Y) H(X) H(Y) H(X Y) I(X,Y) H(Y X) 19

COURS 2 théorème fondamental du codage de source, inégalité de Kraft, codage d Huffman, débit d entropie, codage LZ 20

CODAGE DE SOURCE l opération de codage de source consiste à associer à chaque message issu de la source un mot composé d un ou plusieurs symboles q-aire en cherchant à réduire au maximum le nombre moyen de ces symboles. Un message signifiera selon le contexte, soit un symbole Q-aire issu de la source, soit un ensemble de J symbolesq-aire. Nous nous restreindrons au cas où les symboles de sortie du codeur de source sont des bits (q = 2). 21

CODAGE DE SOURCE Le codage de source doit satisfaire les deux critères suivants : décodage unique : chaque message devra être codé par un mot différent déchiffrabilité : chaque mot devra pouvoir être dissocié sans ambiguité. Ce critère s obtient par : - codage par mot de longueur fixe - codage avec un symbole de séparation distinguable (exemple : système morse ) - codage par mot de longueur variable mais en évitant qu un mot ne soit le début d un autre. Un code est dit instantané si aucun mot code n est le début d un autre. 22

CODAGE PAR MOT DE LONGUEUR VARIABLE exemple 1 : message mot a 1 1 a 2 00 a 3 01 a 4 10 exemple 2 : message mot a 1 0 a 2 10 a 3 110 a 4 111 a 1 a 2 a 3 0 0 0 1 1 1 a 4 23

INEGALITE DE KRAFT théorème : un code instantané composé de M mots binaires de longueur respective {n 1,n 2,...,n M } avec n 1 n 2 n M doit satisfaire l inégalité suivante : M 2 n i 1 (26) i=1 démonstration Un code instantané peut être représenté graphiquement par un arbre binaire complet de profondeur M. 1 0 C 1 1 0 C 2 1 0 C 4 C 3 Figure 2: inégalité de Kraft Le choix d un noeud de degré n 1 comme premier mot C 1 élimine2 n M n 1 noeuds. 24

La condition pour obtenir un codage instantané devient donc : M 2 n M n i 2 n M i=1 en divisant les deux termes par 2 n M, on obtient bien l inégalité de Kraft : : M 2 n i 1 (27) i=1 25

THEOREME DU CODAGE DE SOURCE Soit une source sans mémoire d entropie par symbole H(X). Il est possible de construire un code instantané dont la longueur moyenne des mots R moy satisfait l inégalité suivante : H(X) R moy < H(X)+1 (28) démonstration Soit n i = log 2 p i longueur du mot associé au i-ième message. M 2 n i = i=1 M 2 log 2p i i=1 M 2 log 2p i = Ainsi on a vérifié que ce code satisfait l inégalité de Kraft. On a alors : i=1 M p i = 1 (29) i=1 R moy = M p i log 2 p i < i=1 M p i ( log 2 p i +1) = H(X)+1 (30) i=1 26

THEOREME DU CODAGE DE SOURCE Théorème : pour toute source stationnaire d entropie par symbole H(X), il existe un procédé de codage de source binaire dont la longueur moyenne R moy des mots est aussi voisine que l on veut deh(x). H(X) R moy < H(X)+ǫ (31) Groupons les symboles d une source sans mémoire d entropie par symbole H(X) par paquet de J symboles : on obtient une nouvelle source. En utilisant le théorème précédent, on obtient: En divisant les différents termes par J on obtient : JH(X) R Jmoy < JH(X)+1 (32) H(X) R moy < H(X)+ 1 J avec R moy nombre de bits moyens relatifs à un symbole de la source (33) Ce résultat se généralise immédiatement au cas des sources avec mémoire. 27

DEBIT D ENTROPIE Soit une source discrète et stationnaire X d entropie H(X) Sh/symbole délivrant D S symboles par seconde. débit d entropie ou débit informationnel moyen D I : D I = H(X)D S en Shannon/seconde (34) l entropie par bit en sortie du codeur de source binaire, le débit binaired B H (X) = H(X) (35) R moy en sortie du codeur D B = D S.R moy (36) le débit d entropie D I en sortie du codeur D I = H (X).D B = D I en Shannon/seconde (37) En multipliant les 2 termes par D S, on obtient : D B D S.H(X) = D I (38) 28

ALGORITHME D HUFFMAN On commence par classer la liste des messages de haut en bas par ordre de probabilité décroissante (chaque message correspond à un nœud). 1. Choix des deux messages de probabilités moindres. 2. Ces deux probabilités sont reliées avec la branche supérieure labelisée à 0 et la branche inférieure labelisée à 1. 3. La somme de ces deux probabilités est alors associée au nouveau nœud. 4. Suppression des deux messages précédemment choisis puis retour à la phase 1. On répète cette procédure jusqu à ce qu il ne reste plus aucun message. L arbre ainsi obtenu décrit graphiquement l ensemble du code. Les mots sont lus en parcourant chaque chemin de la droite vers la gauche. 29

exemple 3 : soit une source discrète à 8 messages a 1,a 2,a 3,a 4,a 5,a 6,a 7,a 8 avec les probabilités d apparition respectives{0.16; 0.15; 0.01; 0.05; 0.26; 0.11; 0.14; 0.12} d entropie H(X)=2.7358. L arbre obtenu par codage de Huffman est le suivant : 0.26 0 0.57 0 0.16 0 0.31 0.15 1 1 0.14 0 0.26 0 0.12 1 0.43 0.11 0 0.17 1 0.05 0 0.06 1 0.01 1 1 30

La table de codage est la suivante : message mot n i a 5 00 2 a 1 010 3 a 2 011 3 a 7 100 3 a 8 101 3 a 6 110 3 a 4 1110 4 a 3 1111 4 Le nombre de bit moyen par mot est égal à 2.8. Pour les sources sans mémoire l algorithme de Huffman fournit un codage de source optimal. Cependant, lorsque les symboles successifs sont corrélés, la complexité du codage de source utilisant l algorithme de Huffman devient très grande (le nombre de code est égal àq J si les messages sont composés dej symbolesq-aire). autre codage de source : codage LZW, codage arithmétique. 31

ALGORITHME DE LEMPEL-ZIV Cet algorithme, proposé en 1978 est indépendant des propriétés statistiques de la source. Le principe de l algorithme LZ78 consiste à découper la séquence de sortie de la source en petites suites de longueurs variables. exemple: considérons le début de séquence binaire issue d une source : 001000001100010010000010110001000001000 01100010101000010000011000001 01100000011 On commence par déterminer la suite la plus courte que nous n avons pas encore rencontrée en commencant par la gauche 0,01000001100010010000010110001000001000011 La seconde suite différente de 0 est 01 0,01,000001100010010000010110001000001000011 La troisième suite est 00 0,01,00,0001100010010000010110001000001000011 Finalement, cette séquence est décomposée en suite comme suit : 0, 01, 00, 000, 1, 10, 001, 0010, 0000, 101, 100, 010, 00001, 000011 32

L encodage se fait au fil de l eau. Les suites sont décrites à partir des suites précédemment rencontrées Nous obtenons la table suivante: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 0 01 00 000 1 10 001 0010 0000 101 100 010 00001 000011 00 11 10 30 01 50 31 70 40 61 60 20 91 131 La première ligne de la table correspond à l index des suites, la seconde aux suites et la troisième à l encodage de ces suites. Par exemple, la suite 0010 est encodée par 70 car elle est construite à partir de la séquence 001 (index 7) à laquelle on ajoute 0. L ensemble vide est encodé par 0. Finalement la séquence encodée en binaire devient : 0 0, 1 1, 01 0, 11 0, 000 1, 101 0, 011 1, 111 0, 0100 0, 0110 1, 0110 0, 0010 0, 1001 1, 1101 1 Afin de permettre le décodage, le nombre de bits utilisés pour encoder l index est toujours croisant : 2 suites dont l index est de longueur 1, puis 2 suites dont l index est de longueur 2, puis2 2 suites de longueur 3,2 3 suites de longueur 4,... Le décodeur utilisera donc le même algorithme pour reconstruire la séquence initiale. 33

Le principal inconvénient de cet algorithme est que la taille du dictionnaire augmente sans limite. Une des solutions envisagées consiste à fixer une taille maximale comme dans l algorithme de Lempel-Ziv-Welch. 34

ALGORITHME DE LEMPEL-ZIV-WELCH Algorithme indépendant des propriétés statistiques de la source L algorithme de Lempel-Ziv utilise pour coder une liste de suites stockées dans un dictionnaire. Principe de base : la séquence de sortie de la source est découpée en petites suites de longueurs variables. Les suites qui sont stockées dans un dictionnaire initialement vide sont appelées les suites prototypes. Une suite nouvelle est ajoutée dans le dictionnaire chaque fois qu elle est différente des suites prototypes déjà stockées. De plus, cette suite à laquelle on ajoute un bit 0 ou 1 ne doit pas être déjà présente dans le dictionnaire. 35

EXEMPLE 00100000110001001000001011000100000100001100010101000010000011000001 01100000011 0, 01, 00, 000, 1, 10, 001, 0010, 0000, 101, 100, 010, 00001, 000011, 0001, 0101, 000010, 0000110, 0000101, 1000, 00011 0 0 1 1 1 0 1 1 0 0 1 0 0 1 0 1 0 1 0 0 1 36

EXEMPLE La table donne la liste des 16 suites prototypes dans cet exemple Chaque suite prototype est ici codée avec un mot de 4 bits. position suite prototype mot de code 1 1 0000 2 01 0001 3 001 0010 4 010 0011 5 100 0100 6 101 0101 7 0000 0110 8 0001 0111 9 0010 1000 10 0101 1001 11 1000 1010 12 00011 1011 13 000010 1100 14 000011 1101 15 0000101 1110 16 0000110 1111 37

EXEMPLE Finalement, la séquence binaire issue d une source est décomposée en utilisant les suites prototypes stockées dans le dictionnaire : 0010, 0000110, 0010, 010, 0000101, 1000, 1000, 0010, 00011, 0001, 0101, 000010, 0000110, 0000101, 1000, 00011 La sortie du codeur de source est la suivante : 1000 1111 1000 0011 1110 1010 1010 1000 1011 0111 1001 1101 1111 1110 1010 1011 Le décodeur de source utilisant le même algorithme pourra reconstruire le dictionnaire utilisé au codage et donc reconstituer instantanément la séquence émise par la source. Il est à noter que ici le codage Lempel-Ziv encode les 79 bits de la séquence de la source en 16 mots de 4 bits soit 64 bits au total. En pratique, le contenu du dictionnaire est adapté dynamiquement en fonction de l évolution des caractéristiques de la source. L algorithme Lempel-Ziv et ses variantes sont utilisés pour la compression des fichiers. 38

COURS 3 échantillonnage, quantification, loi A et mu, codage pour source analogique 39

ECHANTILLONNAGE Soit le signal x(t) à bande limitéeb issu d une source analogique. En utilisant le théorème de l échantillonnage, on montre que ce signal peut être représenté comme suit : x(t) = + k= ( π ) x(kt)sinc T (t kt) avec sinc(x) = sin(x) x et T = 1 2B. La suitex(kt) représente les échantillons du signal x(t) aux instantskt = k 2B. Cette suite est donc obtenue par échantillonnage dex(t) à la fréquence de2b échantillons par seconde. (39) 40

ECHANTILLONNAGE 1.2 1 0.8 x(t) 0.6 0.4 0.2 0 0.2 3 2 1 0 1 2 3 t/t 41

QUANTIFICATION La quantification consiste à quantifier l amplitude possible des échantillons sur L valeurs. La valeur ˆx choisie est la plus proche au sens de la distance euclidienne de l amplitude x de l échantillon. Si L est une puissance de 2, (L = 2 R ) alors chaque échantillon quantifié x pourra être représenté par un mot binaire de R bits (opération de codage). R = log 2 L bits/échantillon (40) définition : soit un ensemble d intervalles ou celluless = [s 1,s 2,...,s L ] et un ensemble de valeurs ou points Y = [y 1,y 2,...,y L ]. L opération de quantification est définie mathématiquement par la relation suivante : x = y i pour x S i (41) Chaque intervalle ou cellule S i est bornée par deux seuils notés a i 1 et a i. Ainsi, la largeur de S i est égale à a i a i 1 L opération de quantification introduit une erreur de quantification q = x x 42

QUANTIFICATION UNIFORME La quantification est dite uniforme si tous les intervalles ont la même largeur notée. y 1 y 2 y 3 y 4 y 5 y 6 y 7 y 8 x a 1 a 2 a 3 a 4 a 5 a 6 a 7 Figure 3: Quantification uniforme pour L = 8 7 2 = x~ y 8 5 2 = y 7 3 = y 6 2 3 = a 1 2 = a 2 = a 3 = y 5 2 = a 5 2 = a 6 a x 3 = 7 = y 4 2 3 2 = y 3 5 = y 2 2 7 2 = y 1 Figure 4: Quantification uniforme L = 8 43

QUANTIFICATION NON UNIFORME La quantification est dite non uniforme si tous les intervalles n ont la même largeur. y 1 y 2 y 3 y 4 y 5 y 6 y 7 y 8 x a 1 a 2 a 3 a 4 a 5 a 6 a 7 Figure 5: Quantification non uniforme pour L = 8 x~ y 8 y 7 y 6 y 5 a 1 a 2 a 3 y 4 a 5 a 6 a 7 x y 3 y 2 y 1 Figure 6: Quantification non uniforme L = 8 44

ERREUR QUADRATIQUE MOYENNE La mesure la plus commune pour évaluer la différence entre le signal quantifié et le signal d origine est l erreur quadratique : eq(x, x) = (x x) 2 (42) On définit l erreur quadratique moyenne (EQM) ou distorsion moyenne D D = E(eq(x, x)) = = i + eq(x, x)f(x)dx S i eq(x,y i )f(x)dx (43) oùf(x) est la densité de probabilité dex. Ainsi, lorsque la densité de probabilité f(x) est connue, l objectif de la quantification est de coder les échantillons de la source avec le minimum de bits en minimisant la distorsion moyenne D. 45

QUANTIFICATION VECTORIELLE Si on associe à chaque échantillon un mot binaire, on réalise une quantification scalaire Il est possible de grouper plusieurs échantillons ensemble avant de réaliser l opération de quantification de ce groupe d échantillons. On parlera de quantification vectorielle. Figure 7: Region de Voronoi 46

QUANTIFICATION VECTORIELLE Si on associe à chaque échantillon un mot binaire, on réalise une quantification scalaire Il est possible de grouper plusieurs échantillons ensemble avant de réaliser l opération de quantification de ce groupe d échantillons. On parlera de quantification vectorielle. Figure 8: Quantification Vectorielle 47

Définition : THEOREME DU CODAGE DE SOURCE AVEC PERTES on définit pour une source sans mémoire la fonction taux-distorsionr(d) (rate distortion function en anglais) comme suit : R(D) = min p(y x) {I(X,Y) E((X Y)2 ) D} (44) Théorème du codage de source avec pertes : le nombre de bits minimum R permettant de représenter une suite d échantillons avec une distorsion moyenne donnée D doit être supérieur ou égal à R(D) R R(D) en bits (45) 48

THEOREME DU CODAGE DE SOURCE AVEC PERTES On peut montrer que l inégalité suivante est toujours vraie : R(D) 1 2 log 2 oùσ 2 x est la variance de la source. σ 2 x D 0 D σ 2 x (46) : En introduisant la fonction distorsion-débit D(R) la relation ci-dessus peut aussi s écrire D(R) σ 2 x2 2R (47) Les deux inégalités se transforment en égalités pour une distribution gaussienne. 49

EXEMPLE D UNE SOURCE GAUSSIENNE 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 3 2 1 0 1 2 3 Figure 9: Quantification uniforme et non uniformel = 8 pour une source gaussienne de varianceσ x = 1 Dans ce cas ( R = 3 bits et σ x = 1), les distorsions moyennes des quantifications uniforme et non uniforme sont respectivement égales à -14,27 db et -14,62 db. La limite théorique est 10log 10 2 6 = 18.06 db Comme les probabilités de chaque intervalle ne sont pas identiques, on peut appliquer un codage de Huffman après l opération de quantification pour réduire encore le débit binaire. Ce codage permet de gagner ici environ 2 db. Pour atteindre la limite théorique, il faudra utiliser une quantification vectorielle 50

ERREUR DE QUANTIFICATION L opération de quantification introduit une erreur de quantification q entre l amplitude x et l amplitude quantifiée x. On a la relation suivante : x = x+q (48) Pour la quantification uniforme, q [ 2,+ 2 ] En considérant que l amplitude du signal est suffisamment grande devant, la densité de probabilité de q est approximativement uniforme. p(q) = 1 2 q 2 Calculons l erreur quadratique moyenne E(q 2 ) : E(q 2 ) = E((eq(x, x)) = = 1 + 2 2 51 q 2 p(q)dq q 2 dq = 2 12 (49) (50)

ERREUR DE QUANTIFICATION Si la quantification uniforme est réalisée sur L niveaux avec R = log 2 L et que la dynamique du signal issu de la source est égal àaaveca = L = 2 R, alors le rapport signal à bruit en décibel s exprime comme suit : SNR = 10log 10 σ 2 x E(q 2 ) = 10log 10 σx 10log 2 2 10 12 = 10log 10 σx 10log 2 A 2 10 12 +10log 102 2R = 10log 10 σx 10log 2 A 2 10 12 + ln2 ln10 20R = 10log 10 σx 10log 2 A 2 10 +6R (51) 12 On peut noter qu un bit supplémentaire améliore le rapport signal à bruit de 6 db. 52

ERREUR DE QUANTIFICATION Si on suppose que le signal est une sinusoide d amplitude crête à crête A (soit une amplitude crête dea/2), on a : On obtient alors : σ 2 x = A2 8 (52) SNR = 10log 10 σx 10log 2 A 2 10 12 +6R 3 = 10log 10 2 +6R = 1,76+6R db (53) 53

MODULATION PAR IMPULSION ET CODAGE Dans la modulation MIC ou PCM ( pulse coded modulation en anglais), après échantillonnage, les échantillons sont simplement quantifiés puis codés. Quantification Figure 10: Codeur PCM On a la relation suivante entre la sortie du codeur PCM et l entrée: où q n est l erreur de quantification Cette technique est bien adaptée aux sources sans mémoire. x n = x n +q n (54) 54

MODULATION PAR IMPULSION ET CODAGE Dans de nombreuses applications comme le traitement de la parole par exemple, les signaux de petites amplitudes se produisent plus fréquemment que ceux de grandes amplitudes Pour prendre en compte cette distribution non uniforme, plusieurs quantifications non uniformes ont été proposées pour améliorer les performances. Une solution classique consiste à chercher à maintenir constant le rapport signal à bruit dans la dynamique du signal. Pour le codage de la parole deux lois de compression (norme ITU-T G.711) sont principalement utilisées : loi A ( système européen) y = loi µ (système américain) { Ax 1+lnA si x 1 A A = 87,6 (signe dex) 1+ln(A x ) 1+ln A si 1 A x 1 (55) y = (signe de x) ln(1+µ(x)) ln(1+µ) avec µ = 255 et x 1 (56) 55

MODULATION PAR IMPULSION ET CODAGE Pour un signal de parole standard, la loi A apporte une réduction de 24 db du bruit de quantification par rapport à une quantification uniforme. 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1 Figure 11: Caractéristiques de transfert d un compresseur basé sur la loiaet la loiµ 56

MODULATION PAR IMPULSION ET CODAGE En pratique, la quantification non uniforme peut être vue comme la concaténation d une table de correspondance ( look up table en anglais) appelée aussi compresseur et d une quanfication uniforme. Le compresseur réalise l opération non linéaire. En pratique, la compression peut être réalisée à partir d une quantification uniforme sur 12 bits. On modélise la loi par 13 segments. La table d encodage est présentée ci-dessous : segment mot d entrée 12b mot de sortie 8b 13 0 1 X 1 X 2 X 3 X 4 N N N N N N 0 1 1 1 X 1 X 2 X 3 X 4 12 0 0 1 X 1 X 2 X 3 X 4 N N N N N 0 1 1 0 X 1 X 2 X 3 X 4 11 0 0 0 1 X 1 X 2 X 3 X 4 N N N N 0 1 0 1 X 1 X 2 X 3 X 4 10 0 0 0 0 1 X 1 X 2 X 3 X 4 N N N 0 1 0 0 X 1 X 2 X 3 X 4 9 0 0 0 0 0 1 X 1 X 2 X 3 X 4 N N 0 0 1 1 X 1 X 2 X 3 X 4 8 0 0 0 0 0 0 1 X 1 X 2 X 3 X 4 N 0 0 1 0 X 1 X 2 X 3 X 4 7 0 0 0 0 0 0 0 1 X 1 X 2 X 3 X 4 0 0 0 1 X 1 X 2 X 3 X 4 7 0 0 0 0 0 0 0 0 X 1 X 2 X 3 X 4 0 0 0 0 X 1 X 2 X 3 X 4 7 1 0 0 0 0 0 0 0 X 1 X 2 X 3 X 4 1 0 0 0 X 1 X 2 X 3 X 4 7 1 0 0 0 0 0 0 1 X 1 X 2 X 3 X 4 1 0 0 1 X 1 X 2 X 3 X 4 6 1 0 0 0 0 0 1 X 1 X 2 X 3 X 4 N 1 0 1 0 X 1 X 2 X 3 X 4 5 1 0 0 0 0 1 X 1 X 2 X 3 X 4 N N 1 0 1 1 X 1 X 2 X 3 X 4 4 1 0 0 0 1 X 1 X 2 X 3 X 4 N N N 1 1 0 0 X 1 X 2 X 3 X 4 3 1 0 0 1 X 1 X 2 X 3 X 4 N N N N 1 1 0 1 X 1 X 2 X 3 X 4 2 1 0 1 X 1 X 2 X 3 X 4 N N N N N 1 1 1 0 X 1 X 2 X 3 X 4 1 1 1 X 1 X 2 X 3 X 4 N N N N N N 1 1 1 1 X 1 X 2 X 3 X 4 57

CODAGE POUR SOURCES ANALOGIQUES CORRELES Les sources analogiques (son et image) possède souvent une forte redondance qu une simple modulation PCM ne peut exploiter. Cette redondance est directement liée à la corrélation entre échantillons : on parle aussi de source à mémoire. Il existe 3 grandes familles de techniques pour exploiter cette propriété afin de réduire le nombre de bits nécessaire pour transmettre ces échantillons : les techniques basées sur une forme d onde temporelle comme la modulation Delta, PCM, DPCM,... souvent utilisé pour le codage de la parole. les techniques utilisant une décomposition spectrale comme le codage par sous-bande et le codage par transformée (cosinus discret ou ondelettes). les techniques basées sur des modèles de source comme le codage linéaire prédictif (LPC) utilisés pour le codage de la parole à très bas débit. 58

) e~ MODULATION DELTA Lorsque la source est à mémoire, la variation de l amplitude entre les échantillons successifs est relativement faible. En quantifiant les différences entre les amplitudes des échantillons successifs, il est possible de réduire le débit en sortie du codeur. Le principe de base de la modulation Delta consiste à quantifier la différence d amplitude e n entre l échantillon courant x n et l échantillon quantifié ˆx n. e n = x n ˆx n (57) La quantification est uniquement réalisée sur deux niveaux (ẽ n = ± ). x(t Quantification 1 bit = ± Acc Figure 12: Modulateur Delta 59

) e~ MODULATION DELTA x(t Quantification 1 bit = ± Acc Figure 13: Modulateur Delta L accumulateur réalise l opération suivante : ˆx n = ˆx n 1 +ẽ n 1 (58) Si à l instant n, on a x n > ˆx n, alors ẽ n = + et la sortie de l accumulateur à l instant n+1 est incrémentée de : ˆx n+1 = ˆx n + Si à l instant n, on a x n ˆx n, alors ẽ n = et la sortie de l accumulateur à l instant n+1 est décrémentée de : ˆx n+1 = ˆx n 60

MODULATION DELTA Le démodulateur Delta est un simple accumulateur. On a : ˆx n = ˆx n 1 +ẽ n 1 (59) L erreur de quantificationq n apportée par l opération de quantification est donnée par : q n = ẽ n e n (60) Il est alors possible d exprimer l échantillon estimé ˆx n à partir dex n 1 et de l erreur de quantification : ˆx n = ˆx n 1 +ẽ n 1 = (x n 1 +q n 1 ẽ n 1 )+ẽ n 1 = x n 1 +q n 1 (61) Ainsi l échantillon estimé ˆx n est égal à l échantillon précédentx n 1 entaché de l erreur de quantification q n 1 61

MODULATION DELTA x(t) x(t) t Figure 14: Exemple d évolution de ˆx n dans un modulateur Delta On peut observer deux types d erreurs : l erreur de poursuite et le bruit granulaire L erreur de poursuite est liée à la pente de ˆx n limitée à /T ech. Pour diminuer l erreur de poursuite, la fréquence d échantillonnage doit être égale à 4 à 5 fois la fréquence minimum d échantillonnage. L autre solution consiste à augmenter la valeur de. Le bruit granulaire se produit même si le signal x(t) est constant. Les échantillons estimés ˆx n oscillent entre deux pas (bruit crête à crête de. Une solution consiste alors à diminuer. Le choix de est un compromis entre les deux types d erreurs. 62

MODULATION PAR IMPULSION ET CODAGE DIFFERENTIEL Le principe de base de la modulation DPCM ( differential pulse coded modulation en anglais) aussi notée modulation par impulsion et codage différentiel (MICD) consiste à quantifier la différence d amplitude e n entre l échantillon courant x n et l échantillon prédit ˆx n. e n est aussi appelée l erreur de prédiction. ˆx n est obtenu en utilisant un prédicteur d ordre P : e n = x n ˆx n (62) ˆx n = P a i x n i (63) i=1 63

PREDICTION + xˆn a 1 x a 2 x a P x x Z -1 n 1 x Z -1 Z -1 n 2 xn P Figure 15: synoptique du prédicteur d ordre P On déterminera les P coefficients de prédiction a i qui minimisent l erreur quadratique moyenne E(e 2 n) = E[(x n ˆx n ) 2 ]. Ces coefficients sont les solutions du système linéaire suivant : P a i φ(i j) = φ(j) pour j = 1,2,...,P (64) i=1 où φ(m) est la fonction d autocorrélation des échantillons x n. Ce système se résout efficacement en utilisant l algorithme de Levinson. Les coefficients a i sont déterminés en début de transmission mais peuvent aussi être ajustés périodiquement Avec cette structure, les échantillons à quantifier sont décorrélés et de très faible amplitude et nécessite donc un nombre de bits limités. 64

MODULATION PAR IMPULSION ET CODAGE DIFFERENTIEL Quantification Prédiction Figure 16: Codeur DPCM En entrée du prédicteur, au lieu des échantillons de la source x n, on utilise les échantillons modifiés par quantification x n = ˆx n +ẽ n : ˆx n = P a i x n i (65) i=1 On peut vérifier que l erreur de quantificationq n = ẽ n e n est aussi égale à la différence x n x n : q n = ẽ n e n = (( x n ˆx n ) x n ˆx n ) = x n x n (66) 65

MODULATION PAR IMPULSION ET CODAGE DIFFERENTIEL Synoptique d un décodeur DPCM : Prédiction Figure 17: Décodeur DPCM Pour le décodage, on utilise exactement le même prédicteur que pour le codage (en considérant l absence d erreurs de transmission). Ainsi, on peut reconstruire les échantillons x n = ẽ n + ˆx n. La modulation DPCM est utilisée pour le codage de la parole dans les standards ITU G.721, G.722, G.723 et G.726. 66

COMPARAISON DES TECHNIQUES POUR LE CODAGE DE LA PAROLE La table suivante présente une comparaison des différentes techniques de modulation pour le codage de la parole en considérant une fréquence d échantillonnage de 8kHz. Les paramètres choisis sont ceux qui sont les plus couramment utilisés. Table 1: Comparaison des modulations pour le codage de la parole technique quantificateur nbr de bits débit PCM uniforme 12 bits 96 kb/s log PCM logarithmique 8 bits 64 kb/s DPCM logarithmique 4-6 bits 32-48 kb/s ADPCM adaptative 3-4 bits 24-32 kb/s Delta binaire 1 bit 32-64 kb/s Delta adaptatif binaire 1 bit 16-32 kb/s LPC CELP 2,4-9,6 kb/s 67

COURS 4 Codes en ligne, NRZ 68

TRANSMISSION EN BANDE DE BASE Transmission en bande de base vs transmission par ondes modulées Une transmission en bande de base signifie que les symboles à émettre dans le canal de transmission ne subissent pas de translation de leur spectre autour d une fréquence porteuse. Dans le cas d une transmission par ondes modulées, les symboles à émettre module une porteuse de fréquence f c D une manière générale, le signal émis s écrit de la forme suivante : x(t) = k= a k g(t kt) T est la durée de l impulsion élémentaire ou durée symbole Les critères principaux pour choisir un code en ligne sont les suivants : la densité spectrale du code la densité des transitions dans le signal émis la résistance au bruit 69

, * + ) #+ $ " % ' & % $ % $ $! CODE NON RETOUR A ZERO Ce code associe un niveau +A à chaque bit égal à "1" et un niveau -A à chaque bit égal à "0". g (t ) +A T t ( 1 transition dans le signal émis à chaque transition de la séquence binaire problème de la longue série de "0" ou de "1" séquence pilote 70

CALCUL DE LA DENSITE SPECTRALE Soit γ XX (f) la densité spectrale d un signal x(t) émis en bande de base. Formule de Bennett : γ XX (f) = 1 T G(f) 2 γ AA (f) (67) où G(f) 2 est la densité spectrale de puissance de l impulsion g(t) et γ AA (f) est la transformée de Fourier de la fonction d autocorrélation γ aa (i) = E(a k a k+i). γ AA (f) = + i= γ aa (i)e j2πfit (68) 71

DENSITE SPECTRALE DU CODE NRZ Puisqueg(t) est une impulsion de largeur T et d amplitude A, on a : G(f) = + e j2πft g(t)dt = [ ] +T/2 Ae j2πft j2πf t T/2 = AT sinπft πft ( ) 2 sin(πft) G(f) 2 = A 2 T 2 (70) πft Dans le cas du code NRZ, les symboles a k sont indépendants et peuvent prendre les valeurs +1 et -1. Leur moyenne E(a k ) est nulle et leur variance E((a k ) 2 ) est égale à 1. la fonction d autocorrélation γ aa (i) est égale à { 1 si i = 0 γ aa (i) = (71) 0 sinon En conséquence, on a γ AA (f) = 1 Finalement, on obtient donc la densité spectrale de puissance suivante : γ XX (f) = A 2 T 72 (69) ( ) 2 sin(πft) (72) πft

DENSITE SPECTRALE DU CODE NRZ γ XX (f) = A 2 T ( ) 2 sin(πft) (73) πft 1 NRZ 0.9 0.8 0.7 0.6 φ XX (f) 0.5 0.4 0.3 0.2 0.1 0 0 0.5 1 1.5 2 2.5 3 fréquence normalisée ft Occupation spectrale théoriquement infinie 90 % de l énergie est contenue dans le premier lobe ( f = 0 à1/t ) 73

1 2 1 - / 0 0 0 / / / 6 4 5 3 CODE RETOUR A ZERO (RZ) UNIPOLAIRE Ce code associe à chaque bit égal à "1" un niveau +A pendant une duréet/2 puis un niveau O pendant T/2. A chaque bit égal à "0" est associé un niveau 0. Ce code est aussi appelé code RZ 1/2..+ moyenne du signal émis non nulle raie spectrale à f = 1/T 74

; < ; 7 9 : : : 9 9 9 @ >? = CODE RETOUR A ZERO (RZ) BIPOLAIRE SIMPLE Ce code associe à chaque bit égal à "1" un niveau +A pendant une durée T/2 puis un niveau O pendant T/2. A chaque bit égal à "0" est associé un niveau -A pendant une durée T/2 puis un niveau O pendant T/2. 8+ synchronisation facile 75

DSP DU CODE RZ BIPOLAIRE SIMPLE γ XX (f) = A2 T 4 ( ) 2 sin(πft/2) (74) πft/2 0.25 RZ bipolaire 0.2 0.15 φ XX (f) 0.1 0.05 0 0 0.5 1 1.5 2 2.5 3 frequence normalisée ft mais occupation spectrale plus élevée que le code NRZ 76

I A C C D D C D C H F G E CODE BIPHASE OU MANCHESTER Ce code associe à chaque bit égal à "1" un niveau +A pendant une duréet/2 puis un niveau -A pendant T/2. A chaque bit égal à "0" on associe un niveau -A pendant T/2 puis un niveau +A pendant T/2. B+ synchronisation facilité par les transitions régulières utilisé pour Ethernet 77

DSP DU CODE BIPHASE γ XX (f) = A 2 T (sin(πft/2))4 (πft/2) 2 (75) 0.7 biphase 0.6 φ XX (f) 0.5 0.4 0.3 0.2 0.1 0 0 0.5 1 1.5 2 2.5 3 occupation spectrale assez large fréquence normalisée ft intéressant lorsque le canal ne laisse pas passer les basses fréquences 78

N O N J L L M M L M L S Q R P CODE BIPOLAIRE OU AMI Ce code associe à chaque bit égal à "1" successivement un niveau +A et un niveau -A. A chaque bit égal à "0" est associé un niveau 0. Le code bipolaire est aussi appelé code Alternated Mark Inversion (AMI). K+ 79

CODE DE MILLER Ce code associe à chaque bit égal à "1" soit un niveau +A pendantt/2 puis un niveau 0 soit un niveau 0 pendant T/2 puis un niveau 0. A chaque bit égal à "0" on associe soit un niveau -A et un niveau +A. La polarité du signal associé à un bit égal à "1" est choisie de façon à garantir une continuité avec l impulsion précédente. La polarité du signal associé à un bit égal à "0" est choisie de façon à garantir une continuité avec l impulsion précédente si celle ci portait un bit égal à "1". x(t) + A 1 0 0 1 0 1 1 T t s2 s4 s s 1 2 s4 s3 s2 S1 S2 S4 S1 S2 S4 S3 S2 80

DENSITE SPECTRALE DU CODE BIPOLAIRE ET MILLER 2.5 code bipolaire code de Miller 2 1.5 φ XX (f) 1 0.5 0 0 0.5 1 1.5 2 2.5 3 fréquence normalisée ft 81

U Z V T `+ W+ [ ` W W X X X Y Y X Y Y _ ] ^ \ Exemple pourm = 4,T = 2Tb CODE NRZ M-AIRE 82

DENSITE SPECTRALE DU CODE NRZ M-AIRE γ XX (f) = A2 T 3 (M2 1) Densité spectrale des codes NRZ et NRZ-4 aire : ( ) 2 sin(πft) (76) πft 5 4.5 code NRZ code NRZ 4 aire 4 3.5 3 φ XX (f) 2.5 2 1.5 1 0.5 0 0 0.5 1 1.5 2 2.5 3 fréquence normalisée ft b 83

COURS 5 Filtrage adapté 84

h f g e f g e f g e k j l d b c a m i b c a CANAL DE TRANSMISSION Le signal émis x(t) est modifié par le canal de transmission qui est en général modélisé par un filtre linéaire de réponse impulsionnelle c(t). De plus, le canal ajoute un bruit blanc gaussien b(t). Canal de transmission Le signal reçu r(t) est égal à : r(t) = x(t) c(t)+b(t) = + c(τ)x(t τ)dτ +b(t) 85

u s t r v s t r q o p n CANAL A BRUIT BLANC ADDITIF GAUSSIEN Le canal à bruit blanc additif gaussien (BBAG) est un canal de transmission dont la réponse en fréquence C(f) est égale à 1 sur toute la bande du signal émis : Il permet de modéliser les canaux dont le bruit prédominant est un bruit thermique On a la relation suivante entre l entrée et la sortie du canal BBAG : b(t) est un bruit blanc centré gaussien r(t) = x(t)+b(t) (77) 86

γ w x } { z CANAL A BRUIT BLANC ADDITIF GAUSSIEN b(t) est un bruit blanc centré gaussien de densité spectrale de puissance bilatérale : γ F (f) = N 0 2 Sa fonction d autocorrélation γ t (τ) est égale à γ t (τ) = + γ F (f)exp(2jπfτ)df = N 0 2 δ(τ) ( f ) γ (τ ) N y 2 τ 87

ƒ ~ CANAL A BRUIT BLANC ADDITIF GAUSSIEN b(t) est modélisé par un processus aléatoire gaussien centré dont la densité de probabilité est la suivante : ( ) 1 p(b) = exp b2 (78) 2πσ 2 2σ 2 avec σ 2 = N 0 2 πσ σ aire de la surface grisée=1 erf(a) erfc(a) a a 88

CHAINE DE COMMUNICATION Rappelons la structure d une chaîne de communication point à point: SOURCE CODAGE DE SOURCE CODAGE DE CANAL MODULATEUR CANAL DE TRANSMISSION DESTINATAIRE DECODAGE DE SOURCE DECODAGE DE CANAL DETECTEUR DEMODULATEUR Le rôle du démodulateur est d extraire les échantillons tout en maximisant le rapport signal à bruit. Le role du détecteur est de décider en faveur des symboles les plus probablement émis. Récepteur cohérent = les paramètres comme la fréquence et la phase des signaux reçus sont connus ou ont été correctement estimés. 89

STRUCTURE DU MODULATEUR 1 On suppose que le codeur de canal délivre des bits groupés par bloc de g bits. On a donc M = 2 g messages différents possibles c {c 1,c 2,...,c M }. le modulateur associe à chaque message c = c i un signal x i (t), défini sur l intervalle fini 0 t T et choisi parmi un jeu dem = q g signaux d énergie égale àe s x 1 x ( t ) 1 1 x 2 x 2 ( t ) x (t) x M c x M (t) 90

exemple : cas du code en ligne non retour à zéro (NRZ) composé de M = 2 signaux élémentaires x 1 (t) et x 2 (t). x 1( t ) x2(t) E S T T t T t E S T x(t) = { x 1 (t) si c = 0 (x 1 = 1,x 2 = 0) x 2 (t) si c = 1 (x 1 = 0,x 2 = 1) L énergie de chaque signal x i (t) entre 0 et T est égale àe s E s = T 0 x i (t) 2 dt (79) 91

STRUCTURE DU MODULATEUR 2 Il est également possible de représenter lesm signaux possiblesx i (t) par des combinaisons linéaires de N M fonctions de base orthonormées f i (t) et d énergie unitaire. Les signauxx i (t) peuvent s exprimer par : où x i (t) = N x n f n (t) (80) n=1 x n = T 0 x i (t)f n (t)dt (81) et où les fonctions de base f 1 (t),f 2 (t),...,f N (t) sont orthonormées: { T 1 si i = j f i (t)f j (t)dt = δ ij = 0 si i j 0 Ainsi l énergie des fonctions de base entre 0 et T est égale à 1. L énergie de chaque signal x i (t) entre 0 et T est égale àe s 92 (82)

E s = T 0 x i (t) 2 dt = N x 2 i (83) i=1 x i1 f ( t 1 ) c Encodeur x i2 f ( t 2 ) x ( t) = x ( t) i x in f N (t) 93

exemple 1(suite) : cas du code en ligne NRZ M = 2 signaux Une seule fonction f 1 (t) suffit pour générer les deux signaux x 1 (t) et x 2 (t). f ( ) 1 t 1 T T t x(t) = { E s f 1 (t) si c = 0 (x 1 = E s ) + E s f 1 (t) si c = 1 (x 1 = + E s ) 94

x c 0 E S 1 1 + E S f ( t ) 1 x (t) f 1 (t) correspond à la réponse impusionnelle g(t) du filtre d emission : 0 c E S 1 1 + E S x x (t) g(t) 95

RECEPTEUR OPTIMAL POUR CANAL BBAG On considére qu un desm signaux possiblesx i (t) a été transmis sur un canal à bruit blanc additif gaussien (BBAG) pendant la durée T. En entrée du récepteur, on a r(t) = x i (t)+b(t) 0 t T (84) où b(t) est un bruit blanc gaussien de densité spectrale de puissance unilatérale N 0 L objectif d un récepteur optimal est de retrouver la séquence émise en minimisant le taux d erreurs. Deux structures équivalentes de récepteur optimal : le corrélateur et le filtre adapté 96

CORRELATEUR 1 Une première structure de démodulateur consiste à projetter le signal reçu r(t) sur chacun des M signaux x i (t) possibles. ˆ Š ˆ Œ Š Ž yœ T dt ) ( yš T dt ) ( y œ dt ) ( décision ž ) ( Œ t y ˆ š Š Ÿ (t) y 97

ª ª CORRELATEUR 2 Une autre solution consiste à projetter le signal reçu sur lesn fonctions de basef i (t). ( ) dt y (t) T y r(t) f (t) ( ) dt T y f ( t) ( ) dt y Comme les fonctions de base f j (t) sont d énergie unitaire entre 0 et T on a relation suivante : 98

y j = y j (T) = = T 0 T 0 = x i +n j r(t)f j (t)dt x i (t)f j (t)dt+ T 0 b(t)f j (t)dt avec y j la sortie du ième échantillonneur à l instant T et 1 j N. Le signal reçu r(t) est maintenant représenté par un vecteur àn composantes y j Les échantillons de bruit n j sont des variables aléatoires relatives au bruit additif du canal de transmission. On peut montrer qu ils sont centrés et de variance σ 2 = N 0 2. Il nous restera à décider en faveur du signal le plus probablement émis. 99

exemple 1(suite) : r(t) f 1 ( t) T 0 ( ) dt y 1 ( t) T y 1 y = y 1 (T) = = T 0 T 0 = x i +n y(t)f 1 (t)dt x i (t)f 1 (t)dt+ T 0 n(t)f 1 (t)dt Le bruit n en sortie de l échantillonneur est gaussien de moyenne nulle E(n) = 0 et de variance σ 2 = N 0 2. 100

Le rapport signal à bruit SNR après échantillonnage est donc SNR = P x = E [ ] x 2 i = x2 i P n σn 2 σn 2 Commex 2 i = E s, et σ 2 n = N 0 2, on a SNR = 2E s N 0 Signaux en sortie du modulateur, du canal et du corrélateur : 2 1 x(t) 0 1 2 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 2 1 r(t) 0 1 2 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 2 1 y 1 (t) 0 1 2 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 temps 101

FILTRE ADAPTE On peut remplacer les corrélateurs par des filtres adaptés dont la réponse impulsionnelle est h j (t). La relation entre h j (t) et les fonctions de base f j (t) est la suivante : h j (t) = f j (T t) avec 0 t T (85) La sortie de chaque filtre s exprime comme suit : y j (t) = = t 0 t 0 y(t)h j (t τ)dτ y(t)f j (T t+τ)dτ (86) Si on échantillonne la sortie des filtres à l instantt, on retrouve la relation précédente y j (T) = y j la sortie des filtres adaptés h j (t) à l instant t = T est identique à celle de la structure avec corrélateur. 102

³ ³ ³ «± ± ± ² ² «± ± y«y y ( t) T r(t) T y On peut démontrer que l utilisation de filtres adaptés permet de maximiser le rapport signal à bruit et par conséquence de minimiser le taux d erreurs. Le rapport signal à bruit en sortie d un filtre adapté ne dépend pas de la forme du signal mais de son énergie! 103

exemple 1(suite) : Pour le cas du code en ligne NRZ, la réponse impulsionnelleh 1 (t) du filtre adapté est la suivante : h(t) = g(t t) oùg(t) est la réponse impulsionnelle du filtre d émission. r(t) T y 1 ( t) y1 g( T t) 104

COURS 6 Calcul du taux d erreurs 105

DETECTION OPTIMAL L objectif du détecteur optimal est de déterminer le message qui a été le plus vraisemblablement émis ˆx. Soit le message x envoyé dans un canal discret stationnaire sans mémoire de densité de probabilité conditionnelle p(y/x) et y le vecteur reçu après filtrage adapté. D une manière générale, un détecteur maximum a posteriori (MAP) cherche parmi tous les messages possibles x, le message estimé ˆx pour lequel la probabilité conditionnelle Pr(x y) est la plus grande. ˆx = argmax x En utilisant la loi de Bayes, on peut écrire : Pr(x y) = Pr(y x)pr(x) Pr(y) Pr(x y) (87) Si tous les messages sont équiprobables, et comme le dénominateur Pr(y) est commun à toutes les messages, le message estimé ˆx est le message pour lequel la probabilité conditionnelle Pr(y x) est la plus grande. 106 (88)

ˆx = argmaxpr(y x) (89) x Un détecteur utilisant ce critère est appelé un détecteur à maximum de vraisemblance (maximum likelihood en anglais ou ML). un détecteur ML calcule les distances euclidiennes entre l échantillon reçu et les échantillons correspondant à toutes les séquences possibles. Messages équiprobables détecteur MAP = détecteur ML. 107

¹ µ ¹+ CALCUL DU TAUX D ERREURS BINAIRES POUR UN CODE NRZ SUR CANAL BBAG Modèle équivalent (après filtrage adapté) : oùx i = ±1 y = E s x i +n n est une variable aléatoire gaussienne centrée de variance σ 2 = N 0 2 Le détecteur ML réalise simplement l opération de décision suivante : { 0 si y s ĉ = 1 si y > s La densité de probabilité p(y) a alors la forme suivante : (90) 108

Le seuil de décision est donc placé exactement entre + E S et E S : s = 0 (cas Pr(x i = +1) = Pr(x i = 1) = 1/2. La probabilité que l amplitude de l échantillon reçuy soit inférieure au seuil de décision s = 0 sachant que c = 1 ( et doncx i = +1) est égale à : 1 0 p(y < 0 x i = +1) = exp { (y E S ) 2 } dy (91) 2πσ 2 2σ 2 La probabilité que l amplitude de l échantillon y soit supérieure au seuil de décision sachant que c = 0 ( et donc x i = 1) est égale à : 1 + p(y > 0 x i = 1) = exp { (y + E S ) 2 } dy (92) 2πσ 2 2σ 2 Le taux d erreurs bit (TEB) est alors : 0 TEB = 1 2 p(y < 0 x i = +1)+ 1 2 p(y > 0 x i = 1) 1 + = exp { (y + E S ) 2 } dy (93) 2πσ 2 2σ 2 0 109

Faisons un changement de variable z = y+ E S 2σ,dz = dy 2σ. On obtient alors : TEB = 1 2πσ 2 + 0 = 1 π + ES / 2σ = 1 2 erfc { ES N 0 exp { (y + E S ) 2 2σ 2 exp( z 2 )dz où la fonction erfc (erf complémentaire) est définie comme suit : Comme ici E S = E B, on a } erfc(a) = 1 erf(a) = 2 π + TEB = 1 { } 2 erfc EB N 0 a } dy exp( z 2 )dz (94) 110

La courbe TEB = f(e b /N 0 ) pour un code NRZ sur canal BBAG est la suivante : 10 1 10 2 10 3 TEB 10 4 10 5 10 6 1 2 3 4 5 6 7 8 9 10 E B /N O (db) 111

PROBABILITE D ERREURS PAR PAIRE Soient deux mots x i et x j dont la distance euclidienne est d(x i, x j ). Pour un canal BBAG, la probabilité Pr(x j x i ) que y soit plus près de x j que de x i est donnée par : ( ) Pr(x j x i ) = 1 2 erfc d(x i, x j ) 2 (95) N 0 Dans le cas du code NRZ, le mot x i est l échantillon x i. La distance euclidienne est égale à2 E b et on retrouve bien l expression du TEB précédente. 112

CALCUL DU TES POUR UN CODE NRZ M-AIRE SUR CANAL BBAG Alphabet des symboles ={±d,±3d,...,±(m 1)d}. º» º ¼» ½» ½ ¼» ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ½ À» ½ Á» º À» º Á» º» º ¼» ½» ½ ¼» ¾ ¾ ¾ ¾ Â=4 Â=8 L amplitude des symboles est alors : A m = (2m 1 M)d avec m = 1,2,...,M L énergie moyenne par symbole est égale à : E s = 1 M M m=1 (A m ) 2 = d 2M2 1 3 113

Calculons une approximation du TES en ne tenant compte que des cas où l erreur symbole provient d une décision en faveur du symbole adjacent. On a 2(M 1) paires de points adjacents et la distance euclidienne entre ces points est égale à 2d. ( ) ( ) TES = M 1 M erfc 2d 2 = M 1 N 0 M erfc 3log2 M E b M 2 1N 0 10 0 NRZ4 NRZ 10 1 10 2 TES 10 3 10 4 10 5 0 2 4 6 8 10 12 14 E /N B 0 114

COURS 7 Critère de Nyquist 115

CRITERE DE NYQUIST Si la bande du signal émis est limitée, la forme de l impulsion élémentaireg(t) est de durée infinie Comment choisir g(t) pour pouvoir reconstituer parfaitement à la réception les échantillons émis à la cadence symbole de 1/T? Le signal après filtrage adapté s écrit : avec p(t) = g(t) c(t) h(t) y(t) = x(t) c(t) h(t)+n(t) = a k p(t kt)+n(t) (96) k= On échantillonne y(t) aux instants t = kt + τ (τ est un délai permettant d ajuster l instant optimal d échantillonnage) 116

CRITERE DE NYQUIST y(kt) = a k + + k i a i p((k i)t)+n(kt) (97) Cette expression est composée de 3 termes : Le premier terme est lek ieme symbole transmis Le second terme est la contribution de tous les autres symboles transmis sur l échantillon y(kt). Ce terme est appelé l interférence intersymbole. Le troisième terme est la contribution du bruit Comme le second et le troisième terme diminuent les performances du système de transmission, nous devrons choisir les filtres d émission et de réception afin de les minimiser. 117