COURS ELE112 BASES DE COMMUNICATIONS NUMERIQUES. Didier LE RUYET. Département Electronique Automatique et Systèmes (EASY) CNAM Paris

Dimension: px
Commencer à balayer dès la page:

Download "COURS ELE112 BASES DE COMMUNICATIONS NUMERIQUES. Didier LE RUYET. Département Electronique Automatique et Systèmes (EASY) CNAM Paris"

Transcription

1 . COURS ELE112 BASES DE COMMUNICATIONS NUMERIQUES Didier LE RUYET Département Electronique Automatique et Systèmes (EASY) CNAM Paris 1

2 PROGRAMME Cours 1 : Introduction, paradigme de Shannon, rappels de probabilités, notion d entropie, Information mutuelle Cours 2 : théorème fondamental du codage de source, inégalité de Kraft, codage d Huffman, débit d entropie, codage LZ Cours 3 : quantification, loi A et mu, codage pour source analogique Cours 4 : Codes en ligne, NRZ Cours 5 : filtrage adapté, Cours 6 calcul du taux d erreurs Cours 7 : critère de Nyquist 2

3 PROGRAMME Cours 8 : capacité d un canal de transmission Cours 9 : introduction codes en bloc Cours 10 : Décodage des codes en bloc (méthode du syndrome, Viterbi,...) Cours 11 : Critère MAP/ML décodage à entrées pondérées Cours 12 : Codes cycliques, BCH, RS Cours 13 : codes convolutifs Cours 14 : introduction aux modulations numériques 3

4 COURS 1 Introduction, paradigme de Shannon, rappels de probabilités notion d entropie, Information mutuelle 4

5 PARADIGME DE SHANNON SOURCE CODAGE DE SOURCE CODAGE DE CANAL MODULATEUR CANAL DE TRANSMISSION DESTINATAIRE DECODAGE DE SOURCE DECODAGE DE CANAL DETECTEUR DEMODULATEUR L objectif du codeur de source est de représenter le message avec le moins de bits possibles. Pour ce faire, il cherche à éliminer toute la redondance contenue dans le message de la source. Le rôle du codage de canal est de protéger le message des perturbations du canal de transmission en ajoutant de la redondance au message compressé. La modulation consiste à effectuer un codage dans l espace euclidien. Pour une modulation M-aire, on associe à chaque mot de g bits un signal φ i (t),i = 1,...,M de durée T choisi parmi lesm = 2 g signaux. 5

6 PARADIGME DE SHANNON SOURCE CODAGE DE SOURCE CODAGE DE CANAL MODULATEUR CANAL DE TRANSMISSION DESTINATAIRE DECODAGE DE SOURCE DECODAGE DE CANAL DETECTEUR DEMODULATEUR Le rôle du démodulateur est d extraire les échantillons tout en maximisant le rapport signal à bruit L objectif du détecteur est de décider en faveur des symboles les plus probablement émis La qualité d un système de transmission est évaluée en calculant ou en mesurant la probabilité d erreurs par bit d information (ou par bloc d information). 6

7 RAPPELS DE PROBABILITES Soit une variable aléatoire X ayant pour alphabet ou espace de réalisations A X = {x 1,x 2,...,x n } avec les probabilités respectives P X = {p 1,p 2,...,p n } : Probabilité conjointe P(X = x i ) = p i p i 0 et x i A X p i = 1 (1) Soit deux variables aléatoires X et Y ayant pour espace de réalisations respectif A X = {x 1,x 2,...,x n } et A Y = {y 1,y 2,...,y m } On appelle P(X = x i,y = y j ) la probabilité conjointe des évènements X = x i et Y = y j. On a bien entendu : P(X = x i,y = y j ) = 1 (2) y j A y Probabilité marginale x i A x Il est possible d obtenir la probabilité P(X = x i ) à partir de la probabilité conjointe 7

8 P(X = x i,y = y j ) : P(X = x i ) = y j A y P(X = x i,y = y j ) (3) Probabilité conditionnelle P(X = x i Y = y j ) = P(X = x i,y = y j ) P(Y = y j ) De la même manière on a : Ainsi on a la relation P(Y = y j X = x i ) = P(X = x i,y = y j ) P(X = x i ) (4) (5) P(Y = y j,x = x i ) = P(X = x i Y = y j )P(Y = y j ) = P(Y = y j X = x i )P(X = x i ) (6) 8

9 Loi de Bayes et P(Y = y j X = x i ) = P(X = x i Y = y j )P(Y = y j ) P(X = x i ) = P(X = x i Y = y j )P(Y = y j ) y k A y P(X = x i,y = y k ) P(X = x i Y = y j )P(Y = y j ) = y k A y P(X = x i Y = y k )P(Y = y k ) P(X = x i Y = y j ) est appelée la probabilité a posteriori P(Y = y i ) est appelée la probabilité a priori. Indépendance L indépendance de deux variables aléatoires X et Y implique P(X,Y) = P(X)P(Y) (7) P(X Y) = P(X) (8) 9

10 UNE MESURE LOGARITHMIQUE DE L INFORMATION h(x i ) la mesure de l information associée à l événement X = x i doit satisfaire : h(x i ) doit être continue pour p(x = x i ) compris entre 0 et 1 h(x i ) = si P(X = x i ) = 0 h(x i ) = 0 sip(x = x i ) = 1 un événement certain n apporte pas d information h(x i ) > h(y j ) si P(Y = y j ) > P(X = x i ) h(x i ) + h(y j ) = h(x i,y j ). La réalisation de 2 évènements indépendants Y = y j et X = x i apporte une quantité d information égale à la somme des informations de ces 2 évènements h(x i ) et h(y j ). La seule expression de la quantité d information h(x i ) associée à la réalisation de l évènement X = x i satisfaisant les propriétés énumérées ci-dessus est la suivante: 1 h(x i ) = log 2 P(X = x i ) = log 2P(X = x i ) = log 2 p i (9) Exemple : soit une source discrète produisant des bits (0 ou 1) avec la probabilité 1 2. On a : 1 h(0) = h(1) = log 2 = 1 Sh (10) 10 2

11 Considérons maintenant la réalisation de 2 évènements X = x i et Y = x j. La quantité d information associée est : h(x i,y j ) = log 2 1 P(X = x i,y = y j ) = log 2P(X = x i,y = y j ) (11) où P(X = x i,y = y j ) est la probabilité conjointe des deux évènements. La quantité d information associée à la réalisation de l événément X = x i conditionnellement à l évènement Y = y j est la suivante : On en déduit : h(x i y j ) = log 2 1 P(X = x i Y = y j ) = log 2P(X = x i Y = y j ) (12) h(x i,y j ) = h(x i y j )+h(y j ) = h(y j x i )+h(x i ) (13) 11

12 INFORMATION MUTUELLE On définit l information mutuellei(x i,y j ) comme la quantité d information que la réalisation de l évènement Y = y j apporte sur l évènement X = x i : i(x i,y j ) = log P(X = x i Y = y j ) (14) P(X = x i ) Si les deux événements sont indépendants, alors P(X = x i Y = y j ) = P(X = x i ) et donc i(x i,y j ) = 0. Si l événement X = x i est équivalent à l événement Y = y j, alors P(X = x i Y = y j ) = 1 et i(x i,y j ) = h(x i ). L information que la réalisation de l évènement Y = y j apporte sur l évènement X = x i est identique à l information que la réalisation de l évènement X = x i apporte sur l évènement Y = y j. i(x i,y j ) = i(y j,x i ) (15) 12

13 On a également les relations suivantes : i(x i,y j ) = i(y j,x i ) = h(x i ) h(x i y j ) = h(x i )+h(y j ) h(x i,y j ) = h(y j ) h(y j x i ) Contrairement à h(x i ), l information mutuelle i(x i,y j ) peut être négative. 13

14 ENTROPIE ET INFORMATION MUTUELLE MOYENNE Déterminons l entropie d une source décrite par la variable aléatoire X ayant pour espace de réalisation A X = {x 1,x 2,...,x n } avec les probabilités respectives P X = {p 1,p 2,...,p n }. La quantité d information moyenne ou entropie de la source est la moyenne des informations relatives à chaque réalisation de l évènement X = x i : H(X) = = n p i h(x i ) i=1 n 1 p i log 2 i=1 = H(X) mesure l incertitude sur X. Propriétés : p i n p i log 2 p i en Sh/symbole (16) i=1 H(X) 0 avec égalité si p i = 1 pour une valeur de i (17) 14

15 H(X) log 2 n (18) Si les probabilités P(X = x i ) = p i sont toutes égales à 1, alors on a : n H(X) = log 2 n (19) L entropie est donc maximale lorsque toutes les probabilités p i sont égales. 15

16 Exemple : soit une source à 2 étatsx 0 et x 1 avec p 0 = p et p 1 = 1 p L entropie de cette source est la suivante : H(X) H(p,1 p) = plog 2 p (1 p)log 2 (1 p) (20) H(X) probabilité p Figure 1: Entropie d une source binaire Ainsi, l entropie de la source binaire est maximale (1 Sh/bit) lorsque p =

17 Considérons deux variables aléatoires X et Y ayant respectivement pour espace de réalisations A X = {x 1,x 2,...,x n } et A Y = {y 1,y 2,...,y m }. L entropie conjointe H(X,Y) est définie comme suit : n m H(X,Y) = P(X = x i,y = y j )h(x i,y j ) i=1 = j=1 n i=1 m P(X = x i,y = y j )log 2 P(X = x i,y = y j ) (21) j=1 Si les variables aléatoiresx ety sont indépendantes alorsh(x,y) = H(X)+H(Y). On peut aussi déterminer l entropie conditionnelle H(X/Y) qui détermine l information surx sachant l observation Y à partir de h(x i y j ): H(X Y) = n i=1 = m P(X = x i,y = y j )h(x i y j ) j=1 n i=1 m P(X = x i,y = y j )log 2 P(X = x i Y = y j ) (22) j=1 17

18 Ces différentes relations permettent d exprimer l entropie conjointe en fonction de l entropie et l entropie conditionnelle : H(X,Y) = H(X)+H(Y X) = H(Y)+H(X Y) (23) L incertitude surx ety est égale à l incertitude surx plus l incertitude sury sachant X. L information mutuelle associée à la réalisation d un événement peut également être étendue aux variables aléatoires X et Y. I(X,Y) = n m P(X = x i,y = y j )i(x i,y j ) = = i=1 n i=1 n i=1 j=1 m j=1 m j=1 P(X = x i,y = y j )log 2 P(X = x i Y = y j ) P(X = x i ) P(X = x i,y = y j )log 2 P(X = x i,y = y j ) P(X = x i )P(Y = y j ) (24) 18

19 Ainsi, on a les relations suivantes : I(X,Y) = H(X)+H(Y) H(X,Y) = H(X) H(X Y) = H(Y) H(Y X) (25) L information mutuelle I(X, Y) mesure la réduction d incertitude moyenne sur X qui résulte de la connaissance de Y. H(X,Y) H(X) H(Y) H(X Y) I(X,Y) H(Y X) 19

20 COURS 2 théorème fondamental du codage de source, inégalité de Kraft, codage d Huffman, débit d entropie, codage LZ 20

21 CODAGE DE SOURCE l opération de codage de source consiste à associer à chaque message issu de la source un mot composé d un ou plusieurs symboles q-aire en cherchant à réduire au maximum le nombre moyen de ces symboles. Un message signifiera selon le contexte, soit un symbole Q-aire issu de la source, soit un ensemble de J symbolesq-aire. Nous nous restreindrons au cas où les symboles de sortie du codeur de source sont des bits (q = 2). 21

22 CODAGE DE SOURCE Le codage de source doit satisfaire les deux critères suivants : décodage unique : chaque message devra être codé par un mot différent déchiffrabilité : chaque mot devra pouvoir être dissocié sans ambiguité. Ce critère s obtient par : - codage par mot de longueur fixe - codage avec un symbole de séparation distinguable (exemple : système morse ) - codage par mot de longueur variable mais en évitant qu un mot ne soit le début d un autre. Un code est dit instantané si aucun mot code n est le début d un autre. 22

23 CODAGE PAR MOT DE LONGUEUR VARIABLE exemple 1 : message mot a 1 1 a 2 00 a 3 01 a 4 10 exemple 2 : message mot a 1 0 a 2 10 a a a 1 a 2 a a 4 23

24 INEGALITE DE KRAFT théorème : un code instantané composé de M mots binaires de longueur respective {n 1,n 2,...,n M } avec n 1 n 2 n M doit satisfaire l inégalité suivante : M 2 n i 1 (26) i=1 démonstration Un code instantané peut être représenté graphiquement par un arbre binaire complet de profondeur M. 1 0 C C C 4 C 3 Figure 2: inégalité de Kraft Le choix d un noeud de degré n 1 comme premier mot C 1 élimine2 n M n 1 noeuds. 24

25 La condition pour obtenir un codage instantané devient donc : M 2 n M n i 2 n M i=1 en divisant les deux termes par 2 n M, on obtient bien l inégalité de Kraft : : M 2 n i 1 (27) i=1 25

26 THEOREME DU CODAGE DE SOURCE Soit une source sans mémoire d entropie par symbole H(X). Il est possible de construire un code instantané dont la longueur moyenne des mots R moy satisfait l inégalité suivante : H(X) R moy < H(X)+1 (28) démonstration Soit n i = log 2 p i longueur du mot associé au i-ième message. M 2 n i = i=1 M 2 log 2p i i=1 M 2 log 2p i = Ainsi on a vérifié que ce code satisfait l inégalité de Kraft. On a alors : i=1 M p i = 1 (29) i=1 R moy = M p i log 2 p i < i=1 M p i ( log 2 p i +1) = H(X)+1 (30) i=1 26

27 THEOREME DU CODAGE DE SOURCE Théorème : pour toute source stationnaire d entropie par symbole H(X), il existe un procédé de codage de source binaire dont la longueur moyenne R moy des mots est aussi voisine que l on veut deh(x). H(X) R moy < H(X)+ǫ (31) Groupons les symboles d une source sans mémoire d entropie par symbole H(X) par paquet de J symboles : on obtient une nouvelle source. En utilisant le théorème précédent, on obtient: En divisant les différents termes par J on obtient : JH(X) R Jmoy < JH(X)+1 (32) H(X) R moy < H(X)+ 1 J avec R moy nombre de bits moyens relatifs à un symbole de la source (33) Ce résultat se généralise immédiatement au cas des sources avec mémoire. 27

28 DEBIT D ENTROPIE Soit une source discrète et stationnaire X d entropie H(X) Sh/symbole délivrant D S symboles par seconde. débit d entropie ou débit informationnel moyen D I : D I = H(X)D S en Shannon/seconde (34) l entropie par bit en sortie du codeur de source binaire, le débit binaired B H (X) = H(X) (35) R moy en sortie du codeur D B = D S.R moy (36) le débit d entropie D I en sortie du codeur D I = H (X).D B = D I en Shannon/seconde (37) En multipliant les 2 termes par D S, on obtient : D B D S.H(X) = D I (38) 28

29 ALGORITHME D HUFFMAN On commence par classer la liste des messages de haut en bas par ordre de probabilité décroissante (chaque message correspond à un nœud). 1. Choix des deux messages de probabilités moindres. 2. Ces deux probabilités sont reliées avec la branche supérieure labelisée à 0 et la branche inférieure labelisée à La somme de ces deux probabilités est alors associée au nouveau nœud. 4. Suppression des deux messages précédemment choisis puis retour à la phase 1. On répète cette procédure jusqu à ce qu il ne reste plus aucun message. L arbre ainsi obtenu décrit graphiquement l ensemble du code. Les mots sont lus en parcourant chaque chemin de la droite vers la gauche. 29

30 exemple 3 : soit une source discrète à 8 messages a 1,a 2,a 3,a 4,a 5,a 6,a 7,a 8 avec les probabilités d apparition respectives{0.16; 0.15; 0.01; 0.05; 0.26; 0.11; 0.14; 0.12} d entropie H(X)= L arbre obtenu par codage de Huffman est le suivant :

31 La table de codage est la suivante : message mot n i a a a a a a a a Le nombre de bit moyen par mot est égal à 2.8. Pour les sources sans mémoire l algorithme de Huffman fournit un codage de source optimal. Cependant, lorsque les symboles successifs sont corrélés, la complexité du codage de source utilisant l algorithme de Huffman devient très grande (le nombre de code est égal àq J si les messages sont composés dej symbolesq-aire). autre codage de source : codage LZW, codage arithmétique. 31

32 ALGORITHME DE LEMPEL-ZIV Cet algorithme, proposé en 1978 est indépendant des propriétés statistiques de la source. Le principe de l algorithme LZ78 consiste à découper la séquence de sortie de la source en petites suites de longueurs variables. exemple: considérons le début de séquence binaire issue d une source : On commence par déterminer la suite la plus courte que nous n avons pas encore rencontrée en commencant par la gauche 0, La seconde suite différente de 0 est 01 0,01, La troisième suite est 00 0,01,00, Finalement, cette séquence est décomposée en suite comme suit : 0, 01, 00, 000, 1, 10, 001, 0010, 0000, 101, 100, 010, 00001,

33 L encodage se fait au fil de l eau. Les suites sont décrites à partir des suites précédemment rencontrées Nous obtenons la table suivante: La première ligne de la table correspond à l index des suites, la seconde aux suites et la troisième à l encodage de ces suites. Par exemple, la suite 0010 est encodée par 70 car elle est construite à partir de la séquence 001 (index 7) à laquelle on ajoute 0. L ensemble vide est encodé par 0. Finalement la séquence encodée en binaire devient : 0 0, 1 1, 01 0, 11 0, 000 1, 101 0, 011 1, 111 0, , , , , , Afin de permettre le décodage, le nombre de bits utilisés pour encoder l index est toujours croisant : 2 suites dont l index est de longueur 1, puis 2 suites dont l index est de longueur 2, puis2 2 suites de longueur 3,2 3 suites de longueur 4,... Le décodeur utilisera donc le même algorithme pour reconstruire la séquence initiale. 33

34 Le principal inconvénient de cet algorithme est que la taille du dictionnaire augmente sans limite. Une des solutions envisagées consiste à fixer une taille maximale comme dans l algorithme de Lempel-Ziv-Welch. 34

35 ALGORITHME DE LEMPEL-ZIV-WELCH Algorithme indépendant des propriétés statistiques de la source L algorithme de Lempel-Ziv utilise pour coder une liste de suites stockées dans un dictionnaire. Principe de base : la séquence de sortie de la source est découpée en petites suites de longueurs variables. Les suites qui sont stockées dans un dictionnaire initialement vide sont appelées les suites prototypes. Une suite nouvelle est ajoutée dans le dictionnaire chaque fois qu elle est différente des suites prototypes déjà stockées. De plus, cette suite à laquelle on ajoute un bit 0 ou 1 ne doit pas être déjà présente dans le dictionnaire. 35

36 EXEMPLE , 01, 00, 000, 1, 10, 001, 0010, 0000, 101, 100, 010, 00001, , 0001, 0101, , , , 1000,

37 EXEMPLE La table donne la liste des 16 suites prototypes dans cet exemple Chaque suite prototype est ici codée avec un mot de 4 bits. position suite prototype mot de code

38 EXEMPLE Finalement, la séquence binaire issue d une source est décomposée en utilisant les suites prototypes stockées dans le dictionnaire : 0010, , 0010, 010, , 1000, 1000, 0010, 00011, 0001, 0101, , , , 1000, La sortie du codeur de source est la suivante : Le décodeur de source utilisant le même algorithme pourra reconstruire le dictionnaire utilisé au codage et donc reconstituer instantanément la séquence émise par la source. Il est à noter que ici le codage Lempel-Ziv encode les 79 bits de la séquence de la source en 16 mots de 4 bits soit 64 bits au total. En pratique, le contenu du dictionnaire est adapté dynamiquement en fonction de l évolution des caractéristiques de la source. L algorithme Lempel-Ziv et ses variantes sont utilisés pour la compression des fichiers. 38

39 COURS 3 échantillonnage, quantification, loi A et mu, codage pour source analogique 39

40 ECHANTILLONNAGE Soit le signal x(t) à bande limitéeb issu d une source analogique. En utilisant le théorème de l échantillonnage, on montre que ce signal peut être représenté comme suit : x(t) = + k= ( π ) x(kt)sinc T (t kt) avec sinc(x) = sin(x) x et T = 1 2B. La suitex(kt) représente les échantillons du signal x(t) aux instantskt = k 2B. Cette suite est donc obtenue par échantillonnage dex(t) à la fréquence de2b échantillons par seconde. (39) 40

41 ECHANTILLONNAGE x(t) t/t 41

42 QUANTIFICATION La quantification consiste à quantifier l amplitude possible des échantillons sur L valeurs. La valeur ˆx choisie est la plus proche au sens de la distance euclidienne de l amplitude x de l échantillon. Si L est une puissance de 2, (L = 2 R ) alors chaque échantillon quantifié x pourra être représenté par un mot binaire de R bits (opération de codage). R = log 2 L bits/échantillon (40) définition : soit un ensemble d intervalles ou celluless = [s 1,s 2,...,s L ] et un ensemble de valeurs ou points Y = [y 1,y 2,...,y L ]. L opération de quantification est définie mathématiquement par la relation suivante : x = y i pour x S i (41) Chaque intervalle ou cellule S i est bornée par deux seuils notés a i 1 et a i. Ainsi, la largeur de S i est égale à a i a i 1 L opération de quantification introduit une erreur de quantification q = x x 42

43 QUANTIFICATION UNIFORME La quantification est dite uniforme si tous les intervalles ont la même largeur notée. y 1 y 2 y 3 y 4 y 5 y 6 y 7 y 8 x a 1 a 2 a 3 a 4 a 5 a 6 a 7 Figure 3: Quantification uniforme pour L = = x~ y = y 7 3 = y = a 1 2 = a 2 = a 3 = y 5 2 = a 5 2 = a 6 a x 3 = 7 = y = y 3 5 = y = y 1 Figure 4: Quantification uniforme L = 8 43

44 QUANTIFICATION NON UNIFORME La quantification est dite non uniforme si tous les intervalles n ont la même largeur. y 1 y 2 y 3 y 4 y 5 y 6 y 7 y 8 x a 1 a 2 a 3 a 4 a 5 a 6 a 7 Figure 5: Quantification non uniforme pour L = 8 x~ y 8 y 7 y 6 y 5 a 1 a 2 a 3 y 4 a 5 a 6 a 7 x y 3 y 2 y 1 Figure 6: Quantification non uniforme L = 8 44

45 ERREUR QUADRATIQUE MOYENNE La mesure la plus commune pour évaluer la différence entre le signal quantifié et le signal d origine est l erreur quadratique : eq(x, x) = (x x) 2 (42) On définit l erreur quadratique moyenne (EQM) ou distorsion moyenne D D = E(eq(x, x)) = = i + eq(x, x)f(x)dx S i eq(x,y i )f(x)dx (43) oùf(x) est la densité de probabilité dex. Ainsi, lorsque la densité de probabilité f(x) est connue, l objectif de la quantification est de coder les échantillons de la source avec le minimum de bits en minimisant la distorsion moyenne D. 45

46 QUANTIFICATION VECTORIELLE Si on associe à chaque échantillon un mot binaire, on réalise une quantification scalaire Il est possible de grouper plusieurs échantillons ensemble avant de réaliser l opération de quantification de ce groupe d échantillons. On parlera de quantification vectorielle. Figure 7: Region de Voronoi 46

47 QUANTIFICATION VECTORIELLE Si on associe à chaque échantillon un mot binaire, on réalise une quantification scalaire Il est possible de grouper plusieurs échantillons ensemble avant de réaliser l opération de quantification de ce groupe d échantillons. On parlera de quantification vectorielle. Figure 8: Quantification Vectorielle 47

48 Définition : THEOREME DU CODAGE DE SOURCE AVEC PERTES on définit pour une source sans mémoire la fonction taux-distorsionr(d) (rate distortion function en anglais) comme suit : R(D) = min p(y x) {I(X,Y) E((X Y)2 ) D} (44) Théorème du codage de source avec pertes : le nombre de bits minimum R permettant de représenter une suite d échantillons avec une distorsion moyenne donnée D doit être supérieur ou égal à R(D) R R(D) en bits (45) 48

49 THEOREME DU CODAGE DE SOURCE AVEC PERTES On peut montrer que l inégalité suivante est toujours vraie : R(D) 1 2 log 2 oùσ 2 x est la variance de la source. σ 2 x D 0 D σ 2 x (46) : En introduisant la fonction distorsion-débit D(R) la relation ci-dessus peut aussi s écrire D(R) σ 2 x2 2R (47) Les deux inégalités se transforment en égalités pour une distribution gaussienne. 49

50 EXEMPLE D UNE SOURCE GAUSSIENNE Figure 9: Quantification uniforme et non uniformel = 8 pour une source gaussienne de varianceσ x = 1 Dans ce cas ( R = 3 bits et σ x = 1), les distorsions moyennes des quantifications uniforme et non uniforme sont respectivement égales à -14,27 db et -14,62 db. La limite théorique est 10log = db Comme les probabilités de chaque intervalle ne sont pas identiques, on peut appliquer un codage de Huffman après l opération de quantification pour réduire encore le débit binaire. Ce codage permet de gagner ici environ 2 db. Pour atteindre la limite théorique, il faudra utiliser une quantification vectorielle 50

51 ERREUR DE QUANTIFICATION L opération de quantification introduit une erreur de quantification q entre l amplitude x et l amplitude quantifiée x. On a la relation suivante : x = x+q (48) Pour la quantification uniforme, q [ 2,+ 2 ] En considérant que l amplitude du signal est suffisamment grande devant, la densité de probabilité de q est approximativement uniforme. p(q) = 1 2 q 2 Calculons l erreur quadratique moyenne E(q 2 ) : E(q 2 ) = E((eq(x, x)) = = q 2 p(q)dq q 2 dq = 2 12 (49) (50)

52 ERREUR DE QUANTIFICATION Si la quantification uniforme est réalisée sur L niveaux avec R = log 2 L et que la dynamique du signal issu de la source est égal àaaveca = L = 2 R, alors le rapport signal à bruit en décibel s exprime comme suit : SNR = 10log 10 σ 2 x E(q 2 ) = 10log 10 σx 10log = 10log 10 σx 10log 2 A log 102 2R = 10log 10 σx 10log 2 A ln2 ln10 20R = 10log 10 σx 10log 2 A R (51) 12 On peut noter qu un bit supplémentaire améliore le rapport signal à bruit de 6 db. 52

53 ERREUR DE QUANTIFICATION Si on suppose que le signal est une sinusoide d amplitude crête à crête A (soit une amplitude crête dea/2), on a : On obtient alors : σ 2 x = A2 8 (52) SNR = 10log 10 σx 10log 2 A R 3 = 10log R = 1,76+6R db (53) 53

54 MODULATION PAR IMPULSION ET CODAGE Dans la modulation MIC ou PCM ( pulse coded modulation en anglais), après échantillonnage, les échantillons sont simplement quantifiés puis codés. Quantification Figure 10: Codeur PCM On a la relation suivante entre la sortie du codeur PCM et l entrée: où q n est l erreur de quantification Cette technique est bien adaptée aux sources sans mémoire. x n = x n +q n (54) 54

55 MODULATION PAR IMPULSION ET CODAGE Dans de nombreuses applications comme le traitement de la parole par exemple, les signaux de petites amplitudes se produisent plus fréquemment que ceux de grandes amplitudes Pour prendre en compte cette distribution non uniforme, plusieurs quantifications non uniformes ont été proposées pour améliorer les performances. Une solution classique consiste à chercher à maintenir constant le rapport signal à bruit dans la dynamique du signal. Pour le codage de la parole deux lois de compression (norme ITU-T G.711) sont principalement utilisées : loi A ( système européen) y = loi µ (système américain) { Ax 1+lnA si x 1 A A = 87,6 (signe dex) 1+ln(A x ) 1+ln A si 1 A x 1 (55) y = (signe de x) ln(1+µ(x)) ln(1+µ) avec µ = 255 et x 1 (56) 55

56 MODULATION PAR IMPULSION ET CODAGE Pour un signal de parole standard, la loi A apporte une réduction de 24 db du bruit de quantification par rapport à une quantification uniforme Figure 11: Caractéristiques de transfert d un compresseur basé sur la loiaet la loiµ 56

57 MODULATION PAR IMPULSION ET CODAGE En pratique, la quantification non uniforme peut être vue comme la concaténation d une table de correspondance ( look up table en anglais) appelée aussi compresseur et d une quanfication uniforme. Le compresseur réalise l opération non linéaire. En pratique, la compression peut être réalisée à partir d une quantification uniforme sur 12 bits. On modélise la loi par 13 segments. La table d encodage est présentée ci-dessous : segment mot d entrée 12b mot de sortie 8b X 1 X 2 X 3 X 4 N N N N N N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N N N N N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N N N N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N N N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N X 1 X 2 X 3 X X 1 X 2 X 3 X X 1 X 2 X 3 X X 1 X 2 X 3 X X 1 X 2 X 3 X X 1 X 2 X 3 X X 1 X 2 X 3 X X 1 X 2 X 3 X X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N N N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N N N N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N N N N N X 1 X 2 X 3 X X 1 X 2 X 3 X 4 N N N N N N X 1 X 2 X 3 X 4 57

58 CODAGE POUR SOURCES ANALOGIQUES CORRELES Les sources analogiques (son et image) possède souvent une forte redondance qu une simple modulation PCM ne peut exploiter. Cette redondance est directement liée à la corrélation entre échantillons : on parle aussi de source à mémoire. Il existe 3 grandes familles de techniques pour exploiter cette propriété afin de réduire le nombre de bits nécessaire pour transmettre ces échantillons : les techniques basées sur une forme d onde temporelle comme la modulation Delta, PCM, DPCM,... souvent utilisé pour le codage de la parole. les techniques utilisant une décomposition spectrale comme le codage par sous-bande et le codage par transformée (cosinus discret ou ondelettes). les techniques basées sur des modèles de source comme le codage linéaire prédictif (LPC) utilisés pour le codage de la parole à très bas débit. 58

59 ) e~ MODULATION DELTA Lorsque la source est à mémoire, la variation de l amplitude entre les échantillons successifs est relativement faible. En quantifiant les différences entre les amplitudes des échantillons successifs, il est possible de réduire le débit en sortie du codeur. Le principe de base de la modulation Delta consiste à quantifier la différence d amplitude e n entre l échantillon courant x n et l échantillon quantifié ˆx n. e n = x n ˆx n (57) La quantification est uniquement réalisée sur deux niveaux (ẽ n = ± ). x(t Quantification 1 bit = ± Acc Figure 12: Modulateur Delta 59

60 ) e~ MODULATION DELTA x(t Quantification 1 bit = ± Acc Figure 13: Modulateur Delta L accumulateur réalise l opération suivante : ˆx n = ˆx n 1 +ẽ n 1 (58) Si à l instant n, on a x n > ˆx n, alors ẽ n = + et la sortie de l accumulateur à l instant n+1 est incrémentée de : ˆx n+1 = ˆx n + Si à l instant n, on a x n ˆx n, alors ẽ n = et la sortie de l accumulateur à l instant n+1 est décrémentée de : ˆx n+1 = ˆx n 60

61 MODULATION DELTA Le démodulateur Delta est un simple accumulateur. On a : ˆx n = ˆx n 1 +ẽ n 1 (59) L erreur de quantificationq n apportée par l opération de quantification est donnée par : q n = ẽ n e n (60) Il est alors possible d exprimer l échantillon estimé ˆx n à partir dex n 1 et de l erreur de quantification : ˆx n = ˆx n 1 +ẽ n 1 = (x n 1 +q n 1 ẽ n 1 )+ẽ n 1 = x n 1 +q n 1 (61) Ainsi l échantillon estimé ˆx n est égal à l échantillon précédentx n 1 entaché de l erreur de quantification q n 1 61

62 MODULATION DELTA x(t) x(t) t Figure 14: Exemple d évolution de ˆx n dans un modulateur Delta On peut observer deux types d erreurs : l erreur de poursuite et le bruit granulaire L erreur de poursuite est liée à la pente de ˆx n limitée à /T ech. Pour diminuer l erreur de poursuite, la fréquence d échantillonnage doit être égale à 4 à 5 fois la fréquence minimum d échantillonnage. L autre solution consiste à augmenter la valeur de. Le bruit granulaire se produit même si le signal x(t) est constant. Les échantillons estimés ˆx n oscillent entre deux pas (bruit crête à crête de. Une solution consiste alors à diminuer. Le choix de est un compromis entre les deux types d erreurs. 62

63 MODULATION PAR IMPULSION ET CODAGE DIFFERENTIEL Le principe de base de la modulation DPCM ( differential pulse coded modulation en anglais) aussi notée modulation par impulsion et codage différentiel (MICD) consiste à quantifier la différence d amplitude e n entre l échantillon courant x n et l échantillon prédit ˆx n. e n est aussi appelée l erreur de prédiction. ˆx n est obtenu en utilisant un prédicteur d ordre P : e n = x n ˆx n (62) ˆx n = P a i x n i (63) i=1 63

64 PREDICTION + xˆn a 1 x a 2 x a P x x Z -1 n 1 x Z -1 Z -1 n 2 xn P Figure 15: synoptique du prédicteur d ordre P On déterminera les P coefficients de prédiction a i qui minimisent l erreur quadratique moyenne E(e 2 n) = E[(x n ˆx n ) 2 ]. Ces coefficients sont les solutions du système linéaire suivant : P a i φ(i j) = φ(j) pour j = 1,2,...,P (64) i=1 où φ(m) est la fonction d autocorrélation des échantillons x n. Ce système se résout efficacement en utilisant l algorithme de Levinson. Les coefficients a i sont déterminés en début de transmission mais peuvent aussi être ajustés périodiquement Avec cette structure, les échantillons à quantifier sont décorrélés et de très faible amplitude et nécessite donc un nombre de bits limités. 64

65 MODULATION PAR IMPULSION ET CODAGE DIFFERENTIEL Quantification Prédiction Figure 16: Codeur DPCM En entrée du prédicteur, au lieu des échantillons de la source x n, on utilise les échantillons modifiés par quantification x n = ˆx n +ẽ n : ˆx n = P a i x n i (65) i=1 On peut vérifier que l erreur de quantificationq n = ẽ n e n est aussi égale à la différence x n x n : q n = ẽ n e n = (( x n ˆx n ) x n ˆx n ) = x n x n (66) 65

66 MODULATION PAR IMPULSION ET CODAGE DIFFERENTIEL Synoptique d un décodeur DPCM : Prédiction Figure 17: Décodeur DPCM Pour le décodage, on utilise exactement le même prédicteur que pour le codage (en considérant l absence d erreurs de transmission). Ainsi, on peut reconstruire les échantillons x n = ẽ n + ˆx n. La modulation DPCM est utilisée pour le codage de la parole dans les standards ITU G.721, G.722, G.723 et G

67 COMPARAISON DES TECHNIQUES POUR LE CODAGE DE LA PAROLE La table suivante présente une comparaison des différentes techniques de modulation pour le codage de la parole en considérant une fréquence d échantillonnage de 8kHz. Les paramètres choisis sont ceux qui sont les plus couramment utilisés. Table 1: Comparaison des modulations pour le codage de la parole technique quantificateur nbr de bits débit PCM uniforme 12 bits 96 kb/s log PCM logarithmique 8 bits 64 kb/s DPCM logarithmique 4-6 bits kb/s ADPCM adaptative 3-4 bits kb/s Delta binaire 1 bit kb/s Delta adaptatif binaire 1 bit kb/s LPC CELP 2,4-9,6 kb/s 67

68 COURS 4 Codes en ligne, NRZ 68

69 TRANSMISSION EN BANDE DE BASE Transmission en bande de base vs transmission par ondes modulées Une transmission en bande de base signifie que les symboles à émettre dans le canal de transmission ne subissent pas de translation de leur spectre autour d une fréquence porteuse. Dans le cas d une transmission par ondes modulées, les symboles à émettre module une porteuse de fréquence f c D une manière générale, le signal émis s écrit de la forme suivante : x(t) = k= a k g(t kt) T est la durée de l impulsion élémentaire ou durée symbole Les critères principaux pour choisir un code en ligne sont les suivants : la densité spectrale du code la densité des transitions dans le signal émis la résistance au bruit 69

70 , * + ) #+ $ " % ' & % $ % $ $! CODE NON RETOUR A ZERO Ce code associe un niveau +A à chaque bit égal à "1" et un niveau -A à chaque bit égal à "0". g (t ) +A T t ( 1 transition dans le signal émis à chaque transition de la séquence binaire problème de la longue série de "0" ou de "1" séquence pilote 70

71 CALCUL DE LA DENSITE SPECTRALE Soit γ XX (f) la densité spectrale d un signal x(t) émis en bande de base. Formule de Bennett : γ XX (f) = 1 T G(f) 2 γ AA (f) (67) où G(f) 2 est la densité spectrale de puissance de l impulsion g(t) et γ AA (f) est la transformée de Fourier de la fonction d autocorrélation γ aa (i) = E(a k a k+i). γ AA (f) = + i= γ aa (i)e j2πfit (68) 71

72 DENSITE SPECTRALE DU CODE NRZ Puisqueg(t) est une impulsion de largeur T et d amplitude A, on a : G(f) = + e j2πft g(t)dt = [ ] +T/2 Ae j2πft j2πf t T/2 = AT sinπft πft ( ) 2 sin(πft) G(f) 2 = A 2 T 2 (70) πft Dans le cas du code NRZ, les symboles a k sont indépendants et peuvent prendre les valeurs +1 et -1. Leur moyenne E(a k ) est nulle et leur variance E((a k ) 2 ) est égale à 1. la fonction d autocorrélation γ aa (i) est égale à { 1 si i = 0 γ aa (i) = (71) 0 sinon En conséquence, on a γ AA (f) = 1 Finalement, on obtient donc la densité spectrale de puissance suivante : γ XX (f) = A 2 T 72 (69) ( ) 2 sin(πft) (72) πft

73 DENSITE SPECTRALE DU CODE NRZ γ XX (f) = A 2 T ( ) 2 sin(πft) (73) πft 1 NRZ φ XX (f) fréquence normalisée ft Occupation spectrale théoriquement infinie 90 % de l énergie est contenue dans le premier lobe ( f = 0 à1/t ) 73

74 / / / / CODE RETOUR A ZERO (RZ) UNIPOLAIRE Ce code associe à chaque bit égal à "1" un niveau +A pendant une duréet/2 puis un niveau O pendant T/2. A chaque bit égal à "0" est associé un niveau 0. Ce code est aussi appelé code RZ 1/2..+ moyenne du signal émis non nulle raie spectrale à f = 1/T 74

75 ; < ; 7 9 : : : 9 9 >? = CODE RETOUR A ZERO (RZ) BIPOLAIRE SIMPLE Ce code associe à chaque bit égal à "1" un niveau +A pendant une durée T/2 puis un niveau O pendant T/2. A chaque bit égal à "0" est associé un niveau -A pendant une durée T/2 puis un niveau O pendant T/2. 8+ synchronisation facile 75

76 DSP DU CODE RZ BIPOLAIRE SIMPLE γ XX (f) = A2 T 4 ( ) 2 sin(πft/2) (74) πft/ RZ bipolaire φ XX (f) frequence normalisée ft mais occupation spectrale plus élevée que le code NRZ 76

77 I A C C D D C D C H F G E CODE BIPHASE OU MANCHESTER Ce code associe à chaque bit égal à "1" un niveau +A pendant une duréet/2 puis un niveau -A pendant T/2. A chaque bit égal à "0" on associe un niveau -A pendant T/2 puis un niveau +A pendant T/2. B+ synchronisation facilité par les transitions régulières utilisé pour Ethernet 77

78 DSP DU CODE BIPHASE γ XX (f) = A 2 T (sin(πft/2))4 (πft/2) 2 (75) 0.7 biphase 0.6 φ XX (f) occupation spectrale assez large fréquence normalisée ft intéressant lorsque le canal ne laisse pas passer les basses fréquences 78

79 N O N J L L M M L M L S Q R P CODE BIPOLAIRE OU AMI Ce code associe à chaque bit égal à "1" successivement un niveau +A et un niveau -A. A chaque bit égal à "0" est associé un niveau 0. Le code bipolaire est aussi appelé code Alternated Mark Inversion (AMI). K+ 79

80 CODE DE MILLER Ce code associe à chaque bit égal à "1" soit un niveau +A pendantt/2 puis un niveau 0 soit un niveau 0 pendant T/2 puis un niveau 0. A chaque bit égal à "0" on associe soit un niveau -A et un niveau +A. La polarité du signal associé à un bit égal à "1" est choisie de façon à garantir une continuité avec l impulsion précédente. La polarité du signal associé à un bit égal à "0" est choisie de façon à garantir une continuité avec l impulsion précédente si celle ci portait un bit égal à "1". x(t) + A T t s2 s4 s s 1 2 s4 s3 s2 S1 S2 S4 S1 S2 S4 S3 S2 80

81 DENSITE SPECTRALE DU CODE BIPOLAIRE ET MILLER 2.5 code bipolaire code de Miller φ XX (f) fréquence normalisée ft 81

82 U Z V T `+ W+ [ ` W W X X X Y Y X Y Y _ ] ^ \ Exemple pourm = 4,T = 2Tb CODE NRZ M-AIRE 82

83 DENSITE SPECTRALE DU CODE NRZ M-AIRE γ XX (f) = A2 T 3 (M2 1) Densité spectrale des codes NRZ et NRZ-4 aire : ( ) 2 sin(πft) (76) πft code NRZ code NRZ 4 aire φ XX (f) fréquence normalisée ft b 83

84 COURS 5 Filtrage adapté 84

85 h f g e f g e f g e k j l d b c a m i b c a CANAL DE TRANSMISSION Le signal émis x(t) est modifié par le canal de transmission qui est en général modélisé par un filtre linéaire de réponse impulsionnelle c(t). De plus, le canal ajoute un bruit blanc gaussien b(t). Canal de transmission Le signal reçu r(t) est égal à : r(t) = x(t) c(t)+b(t) = + c(τ)x(t τ)dτ +b(t) 85

86 u s t r v s t r q o p n CANAL A BRUIT BLANC ADDITIF GAUSSIEN Le canal à bruit blanc additif gaussien (BBAG) est un canal de transmission dont la réponse en fréquence C(f) est égale à 1 sur toute la bande du signal émis : Il permet de modéliser les canaux dont le bruit prédominant est un bruit thermique On a la relation suivante entre l entrée et la sortie du canal BBAG : b(t) est un bruit blanc centré gaussien r(t) = x(t)+b(t) (77) 86

87 γ w x } { z CANAL A BRUIT BLANC ADDITIF GAUSSIEN b(t) est un bruit blanc centré gaussien de densité spectrale de puissance bilatérale : γ F (f) = N 0 2 Sa fonction d autocorrélation γ t (τ) est égale à γ t (τ) = + γ F (f)exp(2jπfτ)df = N 0 2 δ(τ) ( f ) γ (τ ) N y 2 τ 87

88 ƒ ~ CANAL A BRUIT BLANC ADDITIF GAUSSIEN b(t) est modélisé par un processus aléatoire gaussien centré dont la densité de probabilité est la suivante : ( ) 1 p(b) = exp b2 (78) 2πσ 2 2σ 2 avec σ 2 = N 0 2 πσ σ aire de la surface grisée=1 erf(a) erfc(a) a a 88

89 CHAINE DE COMMUNICATION Rappelons la structure d une chaîne de communication point à point: SOURCE CODAGE DE SOURCE CODAGE DE CANAL MODULATEUR CANAL DE TRANSMISSION DESTINATAIRE DECODAGE DE SOURCE DECODAGE DE CANAL DETECTEUR DEMODULATEUR Le rôle du démodulateur est d extraire les échantillons tout en maximisant le rapport signal à bruit. Le role du détecteur est de décider en faveur des symboles les plus probablement émis. Récepteur cohérent = les paramètres comme la fréquence et la phase des signaux reçus sont connus ou ont été correctement estimés. 89

90 STRUCTURE DU MODULATEUR 1 On suppose que le codeur de canal délivre des bits groupés par bloc de g bits. On a donc M = 2 g messages différents possibles c {c 1,c 2,...,c M }. le modulateur associe à chaque message c = c i un signal x i (t), défini sur l intervalle fini 0 t T et choisi parmi un jeu dem = q g signaux d énergie égale àe s x 1 x ( t ) 1 1 x 2 x 2 ( t ) x (t) x M c x M (t) 90

91 exemple : cas du code en ligne non retour à zéro (NRZ) composé de M = 2 signaux élémentaires x 1 (t) et x 2 (t). x 1( t ) x2(t) E S T T t T t E S T x(t) = { x 1 (t) si c = 0 (x 1 = 1,x 2 = 0) x 2 (t) si c = 1 (x 1 = 0,x 2 = 1) L énergie de chaque signal x i (t) entre 0 et T est égale àe s E s = T 0 x i (t) 2 dt (79) 91

92 STRUCTURE DU MODULATEUR 2 Il est également possible de représenter lesm signaux possiblesx i (t) par des combinaisons linéaires de N M fonctions de base orthonormées f i (t) et d énergie unitaire. Les signauxx i (t) peuvent s exprimer par : où x i (t) = N x n f n (t) (80) n=1 x n = T 0 x i (t)f n (t)dt (81) et où les fonctions de base f 1 (t),f 2 (t),...,f N (t) sont orthonormées: { T 1 si i = j f i (t)f j (t)dt = δ ij = 0 si i j 0 Ainsi l énergie des fonctions de base entre 0 et T est égale à 1. L énergie de chaque signal x i (t) entre 0 et T est égale àe s 92 (82)

93 E s = T 0 x i (t) 2 dt = N x 2 i (83) i=1 x i1 f ( t 1 ) c Encodeur x i2 f ( t 2 ) x ( t) = x ( t) i x in f N (t) 93

94 exemple 1(suite) : cas du code en ligne NRZ M = 2 signaux Une seule fonction f 1 (t) suffit pour générer les deux signaux x 1 (t) et x 2 (t). f ( ) 1 t 1 T T t x(t) = { E s f 1 (t) si c = 0 (x 1 = E s ) + E s f 1 (t) si c = 1 (x 1 = + E s ) 94

95 x c 0 E S E S f ( t ) 1 x (t) f 1 (t) correspond à la réponse impusionnelle g(t) du filtre d emission : 0 c E S E S x x (t) g(t) 95

96 RECEPTEUR OPTIMAL POUR CANAL BBAG On considére qu un desm signaux possiblesx i (t) a été transmis sur un canal à bruit blanc additif gaussien (BBAG) pendant la durée T. En entrée du récepteur, on a r(t) = x i (t)+b(t) 0 t T (84) où b(t) est un bruit blanc gaussien de densité spectrale de puissance unilatérale N 0 L objectif d un récepteur optimal est de retrouver la séquence émise en minimisant le taux d erreurs. Deux structures équivalentes de récepteur optimal : le corrélateur et le filtre adapté 96

97 CORRELATEUR 1 Une première structure de démodulateur consiste à projetter le signal reçu r(t) sur chacun des M signaux x i (t) possibles. ˆ Š ˆ Œ Š Ž yœ T dt ) ( yš T dt ) ( y œ dt ) ( décision ž ) ( Œ t y ˆ š Š Ÿ (t) y 97

98 ª ª CORRELATEUR 2 Une autre solution consiste à projetter le signal reçu sur lesn fonctions de basef i (t). ( ) dt y (t) T y r(t) f (t) ( ) dt T y f ( t) ( ) dt y Comme les fonctions de base f j (t) sont d énergie unitaire entre 0 et T on a relation suivante : 98

99 y j = y j (T) = = T 0 T 0 = x i +n j r(t)f j (t)dt x i (t)f j (t)dt+ T 0 b(t)f j (t)dt avec y j la sortie du ième échantillonneur à l instant T et 1 j N. Le signal reçu r(t) est maintenant représenté par un vecteur àn composantes y j Les échantillons de bruit n j sont des variables aléatoires relatives au bruit additif du canal de transmission. On peut montrer qu ils sont centrés et de variance σ 2 = N 0 2. Il nous restera à décider en faveur du signal le plus probablement émis. 99

100 exemple 1(suite) : r(t) f 1 ( t) T 0 ( ) dt y 1 ( t) T y 1 y = y 1 (T) = = T 0 T 0 = x i +n y(t)f 1 (t)dt x i (t)f 1 (t)dt+ T 0 n(t)f 1 (t)dt Le bruit n en sortie de l échantillonneur est gaussien de moyenne nulle E(n) = 0 et de variance σ 2 = N

101 Le rapport signal à bruit SNR après échantillonnage est donc SNR = P x = E [ ] x 2 i = x2 i P n σn 2 σn 2 Commex 2 i = E s, et σ 2 n = N 0 2, on a SNR = 2E s N 0 Signaux en sortie du modulateur, du canal et du corrélateur : 2 1 x(t) r(t) y 1 (t) temps 101

102 FILTRE ADAPTE On peut remplacer les corrélateurs par des filtres adaptés dont la réponse impulsionnelle est h j (t). La relation entre h j (t) et les fonctions de base f j (t) est la suivante : h j (t) = f j (T t) avec 0 t T (85) La sortie de chaque filtre s exprime comme suit : y j (t) = = t 0 t 0 y(t)h j (t τ)dτ y(t)f j (T t+τ)dτ (86) Si on échantillonne la sortie des filtres à l instantt, on retrouve la relation précédente y j (T) = y j la sortie des filtres adaptés h j (t) à l instant t = T est identique à celle de la structure avec corrélateur. 102

103 ³ ³ ³ «± ± ± ² ² «± ± y«y y ( t) T r(t) T y On peut démontrer que l utilisation de filtres adaptés permet de maximiser le rapport signal à bruit et par conséquence de minimiser le taux d erreurs. Le rapport signal à bruit en sortie d un filtre adapté ne dépend pas de la forme du signal mais de son énergie! 103

104 exemple 1(suite) : Pour le cas du code en ligne NRZ, la réponse impulsionnelleh 1 (t) du filtre adapté est la suivante : h(t) = g(t t) oùg(t) est la réponse impulsionnelle du filtre d émission. r(t) T y 1 ( t) y1 g( T t) 104

105 COURS 6 Calcul du taux d erreurs 105

106 DETECTION OPTIMAL L objectif du détecteur optimal est de déterminer le message qui a été le plus vraisemblablement émis ˆx. Soit le message x envoyé dans un canal discret stationnaire sans mémoire de densité de probabilité conditionnelle p(y/x) et y le vecteur reçu après filtrage adapté. D une manière générale, un détecteur maximum a posteriori (MAP) cherche parmi tous les messages possibles x, le message estimé ˆx pour lequel la probabilité conditionnelle Pr(x y) est la plus grande. ˆx = argmax x En utilisant la loi de Bayes, on peut écrire : Pr(x y) = Pr(y x)pr(x) Pr(y) Pr(x y) (87) Si tous les messages sont équiprobables, et comme le dénominateur Pr(y) est commun à toutes les messages, le message estimé ˆx est le message pour lequel la probabilité conditionnelle Pr(y x) est la plus grande. 106 (88)

107 ˆx = argmaxpr(y x) (89) x Un détecteur utilisant ce critère est appelé un détecteur à maximum de vraisemblance (maximum likelihood en anglais ou ML). un détecteur ML calcule les distances euclidiennes entre l échantillon reçu et les échantillons correspondant à toutes les séquences possibles. Messages équiprobables détecteur MAP = détecteur ML. 107

108 ¹ µ ¹+ CALCUL DU TAUX D ERREURS BINAIRES POUR UN CODE NRZ SUR CANAL BBAG Modèle équivalent (après filtrage adapté) : oùx i = ±1 y = E s x i +n n est une variable aléatoire gaussienne centrée de variance σ 2 = N 0 2 Le détecteur ML réalise simplement l opération de décision suivante : { 0 si y s ĉ = 1 si y > s La densité de probabilité p(y) a alors la forme suivante : (90) 108

109 Le seuil de décision est donc placé exactement entre + E S et E S : s = 0 (cas Pr(x i = +1) = Pr(x i = 1) = 1/2. La probabilité que l amplitude de l échantillon reçuy soit inférieure au seuil de décision s = 0 sachant que c = 1 ( et doncx i = +1) est égale à : 1 0 p(y < 0 x i = +1) = exp { (y E S ) 2 } dy (91) 2πσ 2 2σ 2 La probabilité que l amplitude de l échantillon y soit supérieure au seuil de décision sachant que c = 0 ( et donc x i = 1) est égale à : 1 + p(y > 0 x i = 1) = exp { (y + E S ) 2 } dy (92) 2πσ 2 2σ 2 Le taux d erreurs bit (TEB) est alors : 0 TEB = 1 2 p(y < 0 x i = +1)+ 1 2 p(y > 0 x i = 1) 1 + = exp { (y + E S ) 2 } dy (93) 2πσ 2 2σ

110 Faisons un changement de variable z = y+ E S 2σ,dz = dy 2σ. On obtient alors : TEB = 1 2πσ = 1 π + ES / 2σ = 1 2 erfc { ES N 0 exp { (y + E S ) 2 2σ 2 exp( z 2 )dz où la fonction erfc (erf complémentaire) est définie comme suit : Comme ici E S = E B, on a } erfc(a) = 1 erf(a) = 2 π + TEB = 1 { } 2 erfc EB N 0 a } dy exp( z 2 )dz (94) 110

111 La courbe TEB = f(e b /N 0 ) pour un code NRZ sur canal BBAG est la suivante : TEB E B /N O (db) 111

112 PROBABILITE D ERREURS PAR PAIRE Soient deux mots x i et x j dont la distance euclidienne est d(x i, x j ). Pour un canal BBAG, la probabilité Pr(x j x i ) que y soit plus près de x j que de x i est donnée par : ( ) Pr(x j x i ) = 1 2 erfc d(x i, x j ) 2 (95) N 0 Dans le cas du code NRZ, le mot x i est l échantillon x i. La distance euclidienne est égale à2 E b et on retrouve bien l expression du TEB précédente. 112

113 CALCUL DU TES POUR UN CODE NRZ M-AIRE SUR CANAL BBAG Alphabet des symboles ={±d,±3d,...,±(m 1)d}. º» º ¼» ½» ½ ¼» ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ¾ ½ À» ½ Á» º À» º Á» º» º ¼» ½» ½ ¼» ¾ ¾ ¾ ¾ Â=4 Â=8 L amplitude des symboles est alors : A m = (2m 1 M)d avec m = 1,2,...,M L énergie moyenne par symbole est égale à : E s = 1 M M m=1 (A m ) 2 = d 2M

114 Calculons une approximation du TES en ne tenant compte que des cas où l erreur symbole provient d une décision en faveur du symbole adjacent. On a 2(M 1) paires de points adjacents et la distance euclidienne entre ces points est égale à 2d. ( ) ( ) TES = M 1 M erfc 2d 2 = M 1 N 0 M erfc 3log2 M E b M 2 1N NRZ4 NRZ TES E /N B 0 114

115 COURS 7 Critère de Nyquist 115

116 CRITERE DE NYQUIST Si la bande du signal émis est limitée, la forme de l impulsion élémentaireg(t) est de durée infinie Comment choisir g(t) pour pouvoir reconstituer parfaitement à la réception les échantillons émis à la cadence symbole de 1/T? Le signal après filtrage adapté s écrit : avec p(t) = g(t) c(t) h(t) y(t) = x(t) c(t) h(t)+n(t) = a k p(t kt)+n(t) (96) k= On échantillonne y(t) aux instants t = kt + τ (τ est un délai permettant d ajuster l instant optimal d échantillonnage) 116

117 CRITERE DE NYQUIST y(kt) = a k + + k i a i p((k i)t)+n(kt) (97) Cette expression est composée de 3 termes : Le premier terme est lek ieme symbole transmis Le second terme est la contribution de tous les autres symboles transmis sur l échantillon y(kt). Ce terme est appelé l interférence intersymbole. Le troisième terme est la contribution du bruit Comme le second et le troisième terme diminuent les performances du système de transmission, nous devrons choisir les filtres d émission et de réception afin de les minimiser. 117

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE RANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE Un message numérique est une suite de nombres que l on considérera dans un premier temps comme indépendants.ils sont codés le plus souvent

Plus en détail

Systèmes de communications numériques 2

Systèmes de communications numériques 2 Systèmes de Communications Numériques Philippe Ciuciu, Christophe Vignat Laboratoire des Signaux et Systèmes cnrs supélec ups supélec, Plateau de Moulon, 9119 Gif-sur-Yvette ciuciu@lss.supelec.fr Université

Plus en détail

Systèmes de communications numériques 2

Systèmes de communications numériques 2 Systèmes de Communications Numériques Philippe Ciuciu, Christophe Vignat Laboratoire des Signaux et Systèmes CNRS SUPÉLEC UPS SUPÉLEC, Plateau de Moulon, 91192 Gif-sur-Yvette ciuciu@lss.supelec.fr Université

Plus en détail

Chaine de transmission

Chaine de transmission Chaine de transmission Chaine de transmission 1. analogiques à l origine 2. convertis en signaux binaires Échantillonnage + quantification + codage 3. brassage des signaux binaires Multiplexage 4. séparation

Plus en détail

Expérience 3 Formats de signalisation binaire

Expérience 3 Formats de signalisation binaire Expérience 3 Formats de signalisation binaire Introduction Procédures Effectuez les commandes suivantes: >> xhost nat >> rlogin nat >> setenv DISPLAY machine:0 >> setenv MATLABPATH /gel/usr/telecom/comm_tbx

Plus en détail

Communications numériques

Communications numériques Communications numériques 1. Modulation numérique (a) message numérique/signal numérique (b) transmission binaire/m-aire en bande de base (c) modulation sur fréquence porteuse (d) paramètres, limite fondamentale

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Chapitre 2 : communications numériques.

Chapitre 2 : communications numériques. Chapitre 2 : communications numériques. 1) généralités sur les communications numériques. A) production d'un signal numérique : transformation d'un signal analogique en une suite d'éléments binaires notés

Plus en détail

Transmission d informations sur le réseau électrique

Transmission d informations sur le réseau électrique Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en

Plus en détail

Transmission des signaux numériques

Transmission des signaux numériques Transmission des signaux numériques par Hikmet SARI Chef de Département d Études à la Société Anonyme de Télécommunications (SAT) Professeur Associé à Télécom Paris. Transmission en bande de base... E

Plus en détail

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où

Plus en détail

Transmission de données. A) Principaux éléments intervenant dans la transmission

Transmission de données. A) Principaux éléments intervenant dans la transmission Page 1 / 7 A) Principaux éléments intervenant dans la transmission A.1 Equipement voisins Ordinateur ou terminal Ordinateur ou terminal Canal de transmission ETTD ETTD ETTD : Equipement Terminal de Traitement

Plus en détail

LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION

LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION ) Caractéristiques techniques des supports. L infrastructure d un réseau, la qualité de service offerte,

Plus en détail

Technique de codage des formes d'ondes

Technique de codage des formes d'ondes Technique de codage des formes d'ondes Contenu Introduction Conditions préalables Conditions requises Composants utilisés Conventions Modulation par impulsions et codage Filtrage Échantillon Numérisez

Plus en détail

Université de La Rochelle. Réseaux TD n 6

Université de La Rochelle. Réseaux TD n 6 Réseaux TD n 6 Rappels : Théorème de Nyquist (ligne non bruitée) : Dmax = 2H log 2 V Théorème de Shannon (ligne bruitée) : C = H log 2 (1+ S/B) Relation entre débit binaire et rapidité de modulation :

Plus en détail

TP: Représentation des signaux binaires. 1 Simulation d un message binaire - Codage en ligne

TP: Représentation des signaux binaires. 1 Simulation d un message binaire - Codage en ligne Objectifs : Ce TP est relatif aux différentes méthodes de codage d une information binaire, et à la transmission en bande de base de cette information. Les grandes lignes de ce TP sont l étude des méthodes

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE Le schéma synoptique ci-dessous décrit les différentes étapes du traitement numérique

Plus en détail

TD1 Signaux, énergie et puissance, signaux aléatoires

TD1 Signaux, énergie et puissance, signaux aléatoires TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver

Plus en détail

Les techniques de multiplexage

Les techniques de multiplexage Les techniques de multiplexage 1 Le multiplexage et démultiplexage En effet, à partir du moment où plusieurs utilisateurs se partagent un seul support de transmission, il est nécessaire de définir le principe

Plus en détail

Chapitre I La fonction transmission

Chapitre I La fonction transmission Chapitre I La fonction transmission 1. Terminologies 1.1 Mode guidé / non guidé Le signal est le vecteur de l information à transmettre. La transmission s effectue entre un émetteur et un récepteur reliés

Plus en détail

Chapitre 2 : Techniques de transmission

Chapitre 2 : Techniques de transmission Chapitre 2 : Techniques de transmission /home/kouna/d01/adp/bcousin/repr/cours/2.fm - 14 Janvier 1998 20:09 Plan. Introduction. Phénomènes caractéristiques. Les éléments de la transmission. La modulation.

Plus en détail

TRANSMISSION NUMERIQUE

TRANSMISSION NUMERIQUE TRANSMISSION NUMERIQUE 1. SYSTEMES ET CANAUX DE TRANSMISSIONS 1.1. Un système complet pour la transmission numérique 1.2. Intérêts de la transmission numérique 1.3. Définitions 2. CODAGE DE VOIE - CODAGE

Plus en détail

Introduction aux Communications Numériques

Introduction aux Communications Numériques Université de Cergy-Pontoise - 01 - Communications numériques Introduction aux Communications Numériques Master M1 ISIM March 19, 01 Iryna ANDRIYANOVA iryna.andriyanova@u-cergy.fr 1 Contenu du cours 1

Plus en détail

Numérisation du signal

Numérisation du signal Chapitre 12 Sciences Physiques - BTS Numérisation du signal 1 Analogique - Numérique. 1.1 Définitions. Signal analogique : un signal analogique s a (t)est un signal continu dont la valeur varie en fonction

Plus en détail

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd UE 503 L3 MIAGE Initiation Réseau et Programmation Web La couche physique A. Belaïd abelaid@loria.fr http://www.loria.fr/~abelaid/ Année Universitaire 2011/2012 2 Le Modèle OSI La couche physique ou le

Plus en détail

ISO/CEI 11172-3 NORME INTERNATIONALE

ISO/CEI 11172-3 NORME INTERNATIONALE NORME INTERNATIONALE ISO/CEI 11172-3 Première édition 1993-08-01 Technologies de l information - Codage de l image animée et du son associé pour les supports de stockage numérique jusqu à environ Ii5 Mbit/s

Plus en détail

SIGNAUX NUMERIQUES ET MODULATIONS NUMERIQUES

SIGNAUX NUMERIQUES ET MODULATIONS NUMERIQUES SIGNAUX NUMERIQUES ET MODULATIONS NUMERIQUES ----------------------------------------------------------------------------------------------------------------- LES SIGNAUX NUMERIQUES Un signal numérique

Plus en détail

TP Modulation Démodulation BPSK

TP Modulation Démodulation BPSK I- INTRODUCTION : TP Modulation Démodulation BPSK La modulation BPSK est une modulation de phase (Phase Shift Keying = saut discret de phase) par signal numérique binaire (Binary). La phase d une porteuse

Plus en détail

CHAPITRE V. Théorie de l échantillonnage et de la quantification

CHAPITRE V. Théorie de l échantillonnage et de la quantification CHAPITRE V Théorie de l échantillonnage et de la quantification Olivier FRANÇAIS, SOMMAIRE I INTRODUCTION... 3 II THÉORIE DE L ÉCHANTILLONNAGE... 3 II. ACQUISITION DES SIGNAUX... 3 II. MODÉLISATION DE

Plus en détail

Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information

Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information Florent Dupont Université Claude Bernard Lyon1 / Laboratoire LIRIS Florent.Dupont@liris.cnrs.fr http://liris.cnrs.fr/florent.dupont

Plus en détail

LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise.

LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise. M Informatique Réseaux Cours bis Couche Physique Notes de Cours LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise. Les technologies utilisées sont celles du traitement

Plus en détail

I. TRANSMISSION DE DONNEES

I. TRANSMISSION DE DONNEES TD I. TRANSMISSION DE DONNEES 1. QU'EST-CE QU'UN CANAL DE TRANSMISSION? 1.1 Rappels Une ligne de transmission est une liaison entre les deux machines. On désigne généralement par le terme émetteur la machine

Plus en détail

Enregistrement et transformation du son. S. Natkin Novembre 2001

Enregistrement et transformation du son. S. Natkin Novembre 2001 Enregistrement et transformation du son S. Natkin Novembre 2001 1 Éléments d acoustique 2 Dynamique de la puissance sonore 3 Acoustique géométrique: effets de diffusion et de diffraction des ondes sonores

Plus en détail

Traitement du signal avec Scilab : transmission numérique en bande de base

Traitement du signal avec Scilab : transmission numérique en bande de base Traitement du signal avec Scilab : transmission numérique en bande de base La transmission d informations numériques en bande de base, même si elle peut paraître simple au premier abord, nécessite un certain

Plus en détail

LABO 5-6 - 7 PROJET : IMPLEMENTATION D UN MODEM ADSL SOUS MATLAB

LABO 5-6 - 7 PROJET : IMPLEMENTATION D UN MODEM ADSL SOUS MATLAB LABO 5-6 - 7 PROJET : IMPLEMENTATION D UN MODEM ADSL SOUS MATLAB 5.1 Introduction Au cours de séances précédentes, nous avons appris à utiliser un certain nombre d'outils fondamentaux en traitement du

Plus en détail

TD 1 - Transmission en bande de passe

TD 1 - Transmission en bande de passe Claude Duvallet Université du Havre UFR Sciences et Techniques 25 rue Philippe Lebon - BP 540 76058 LE HAVRE CEDEX Claude.Duvallet@gmail.com Claude Duvallet 1/10 Transmission en bande de passe (1/2) Description

Plus en détail

Echantillonnage Non uniforme

Echantillonnage Non uniforme Echantillonnage Non uniforme Marie CHABERT IRIT/INP-ENSEEIHT/ ENSEEIHT/TéSASA Patrice MICHEL et Bernard LACAZE TéSA 1 Plan Introduction Echantillonnage uniforme Echantillonnage irrégulier Comparaison Cas

Plus en détail

Fonctions de la couche physique

Fonctions de la couche physique La Couche physique 01010110 01010110 Couche physique Signal Médium Alain AUBERT alain.aubert@telecom-st-etienne.r 0 Fonctions de la couche physique 1 1 Services assurés par la couche physique Transmettre

Plus en détail

Systèmes de transmission

Systèmes de transmission Systèmes de transmission Conception d une transmission série FABRE Maxime 2012 Introduction La transmission de données désigne le transport de quelque sorte d'information que ce soit, d'un endroit à un

Plus en détail

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Détection et reconnaissance des sons pour la surveillance médicale Dan Istrate le 16 décembre 2003 Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Thèse mené dans le cadre d une collaboration

Plus en détail

La couche physique de l ADSL (voie descendante)

La couche physique de l ADSL (voie descendante) La couche physique de l ADSL (voie descendante) Philippe Ciblat École Nationale Supérieure des Télécommunications, Paris, France Problématique qq kilomètres CENTRAL câble de 0,4mm Objectifs initiaux :

Plus en détail

Intérêt du découpage en sous-bandes pour l analyse spectrale

Intérêt du découpage en sous-bandes pour l analyse spectrale Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,

Plus en détail

Chapitre 2 : Systèmes radio mobiles et concepts cellulaires

Chapitre 2 : Systèmes radio mobiles et concepts cellulaires Chapitre 2 : Systèmes radio mobiles et concepts cellulaires Systèmes cellulaires Réseaux cellulaires analogiques de 1ère génération : AMPS (USA), NMT(Scandinavie), TACS (RU)... Réseaux numériques de 2ème

Plus en détail

Année 2010-2011. Transmission des données. Nicolas Baudru mél : nicolas.baudru@esil.univmed.fr page web : nicolas.baudru.perso.esil.univmed.

Année 2010-2011. Transmission des données. Nicolas Baudru mél : nicolas.baudru@esil.univmed.fr page web : nicolas.baudru.perso.esil.univmed. Année 2010-2011 Réseaux I Transmission des données Nicolas Baudru mél : nicolas.baudru@esil.univmed.fr page web : nicolas.baudru.perso.esil.univmed.fr 1 Plan 1 Notions de signaux 2 Caractéristiques communes

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Cours d Électronique du Tronc Commun S3. Le filtrage optimisé du signal numérique en bande de base. Notion de BRUIT en télécommunication.

Cours d Électronique du Tronc Commun S3. Le filtrage optimisé du signal numérique en bande de base. Notion de BRUIT en télécommunication. IUT MARSEILLE DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE INDUSTRIELLE Diplôme Universitaire de Technologie. Cours d Électronique du Tronc Commun S3. Chapitre 8 : Le filtrage optimisé du signal numérique

Plus en détail

Formats d images. 1 Introduction

Formats d images. 1 Introduction Formats d images 1 Introduction Lorsque nous utilisons un ordinateur ou un smartphone l écran constitue un élément principal de l interaction avec la machine. Les images sont donc au cœur de l utilisation

Plus en détail

Projet de Traitement du Signal Segmentation d images SAR

Projet de Traitement du Signal Segmentation d images SAR Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,

Plus en détail

Codage hiérarchique et multirésolution (JPEG 2000) Codage Vidéo. Représentation de la couleur. Codage canal et codes correcteurs d erreur

Codage hiérarchique et multirésolution (JPEG 2000) Codage Vidéo. Représentation de la couleur. Codage canal et codes correcteurs d erreur Codage hiérarchique et multirésolution (JPEG 000) Codage Vidéo Représentation de la couleur Codage canal et codes correcteurs d erreur Format vectoriel (SVG - Scalable Vector Graphics) Organisation de

Plus en détail

Le concept cellulaire

Le concept cellulaire Le concept cellulaire X. Lagrange Télécom Bretagne 21 Mars 2014 X. Lagrange (Télécom Bretagne) Le concept cellulaire 21/03/14 1 / 57 Introduction : Objectif du cours Soit un opérateur qui dispose d une

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Chapitre 13 Numérisation de l information

Chapitre 13 Numérisation de l information DERNIÈRE IMPRESSION LE 2 septembre 2013 à 17:33 Chapitre 13 Numérisation de l information Table des matières 1 Transmission des informations 2 2 La numérisation 2 2.1 L échantillonage..............................

Plus en détail

LÕenregistrement. 10.1 Enregistrement analogique et enregistrement numžrique

LÕenregistrement. 10.1 Enregistrement analogique et enregistrement numžrique 10 LÕenregistrement numžrique 10.1 Enregistrement analogique et enregistrement numžrique Tout processus d enregistrement, comme nous l avons vu dans les chapitres précédents, débute par la conversion des

Plus en détail

Chap17 - CORRECTİON DES EXERCİCES

Chap17 - CORRECTİON DES EXERCİCES Chap17 - CORRECTİON DES EXERCİCES n 3 p528 Le signal a est numérique : il n y a que deux valeurs possibles pour la tension. Le signal b n est pas numérique : il y a alternance entre des signaux divers

Plus en détail

Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test

Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test 11 juillet 2003 Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test Mariane Comte Plan 2 Introduction et objectif

Plus en détail

Signalisation, codage, contrôle d'erreurs

Signalisation, codage, contrôle d'erreurs Signalisation, codage, contrôle d'erreurs Objectifs: Plan Comprendre les mécanismes utilisés pour transmettre des informations sur un support physique Comprendre la nécessité de regrouper les informations

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

xdsl Digital Suscriber Line «Utiliser la totalité de la bande passante du cuivre»

xdsl Digital Suscriber Line «Utiliser la totalité de la bande passante du cuivre» xdsl Digital Suscriber Line «Utiliser la totalité de la bande passante du cuivre» Le marché en France ~ 9 millions d abonnés fin 2005 ~ 6 millions fin 2004 dont la moitié chez l opérateur historique et

Plus en détail

TELEVISION NUMERIQUE

TELEVISION NUMERIQUE REPUBLIQUE DU CAMEROUN Paix - Travail Patrie --------------------- UNIVERSITE DE YAOUNDE I ---------------------- ECOLE NATIONALE SUPERIEURE POLYTECHNIQUE ---------------------- REPUBLIC OF CAMEROUN Peace

Plus en détail

La structure du mobile GSM

La structure du mobile GSM La structure du mobile GSM Jean-Philippe MULLER Décembre 2000 Sommaire : 1- Le schéma fonctionnel d un mobile GSM 2- Le traitement numérique du signal à l émission 3- Le principe de base du vocodeur 4-

Plus en détail

Telecommunication modulation numérique

Telecommunication modulation numérique Telecommunication modulation numérique Travaux Pratiques (MatLab & Simulink) EOAA Salon de Provence Stéphane BRASSET, Françoise BRIOLLE Édition 2012 Table des matières 1 Modulation/démodulation en bande

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Fonctions de plusieurs variables. Sébastien Tordeux

Fonctions de plusieurs variables. Sébastien Tordeux Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................

Plus en détail

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories : La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.

Plus en détail

Télécommunications. Plan

Télécommunications. Plan Télécommunications A.Maizate - EHTP 2010/2011 Plan Concepts généraux: Téléinformatique Liaison de Téléinformatique Sens de transmission Types de transmission Parallèle Série Techniques de Transmission

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

EMETTEUR ULB. Architectures & circuits. Ecole ULB GDRO ESISAR - Valence 23-27/10/2006. David MARCHALAND STMicroelectronics 26/10/2006

EMETTEUR ULB. Architectures & circuits. Ecole ULB GDRO ESISAR - Valence 23-27/10/2006. David MARCHALAND STMicroelectronics 26/10/2006 EMETTEUR ULB Architectures & circuits David MARCHALAND STMicroelectronics 26/10/2006 Ecole ULB GDRO ESISAR - Valence 23-27/10/2006 Introduction Emergence des applications de type LR-WPAN : Dispositif communicant

Plus en détail

F411 - Courbes Paramétrées, Polaires

F411 - Courbes Paramétrées, Polaires 1/43 Courbes Paramétrées Courbes polaires Longueur d un arc, Courbure F411 - Courbes Paramétrées, Polaires Michel Fournié michel.fournie@iut-tlse3.fr http://www.math.univ-toulouse.fr/ fournie/ Année 2012/2013

Plus en détail

choisir H 1 quand H 0 est vraie - fausse alarme

choisir H 1 quand H 0 est vraie - fausse alarme étection et Estimation GEL-64943 Hiver 5 Tests Neyman-Pearson Règles de Bayes: coûts connus min π R ( ) + ( π ) R ( ) { } Règles Minimax: coûts connus min max R ( ), R ( ) Règles Neyman Pearson: coûts

Plus en détail

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES Compétences mises en jeu durant l'activité : Compétences générales : S'impliquer, être autonome. Compétence(s) spécifique(s) : Reconnaître des signaux de nature

Plus en détail

Telecommunication modulation numérique

Telecommunication modulation numérique Telecommunication modulation numérique Travaux Pratiques (MatLab & Simulink) EOAA Salon de Provence Françoise BRIOLLE c Édition 2013 Table des matières 1 Modulation/démodulation en bande de base 6 1.1

Plus en détail

Interception des signaux issus de communications MIMO

Interception des signaux issus de communications MIMO Interception des signaux issus de communications MIMO par Vincent Choqueuse Laboratoire E 3 I 2, EA 3876, ENSIETA Laboratoire LabSTICC, UMR CNRS 3192, UBO 26 novembre 2008 Interception des signaux issus

Plus en détail

1 Introduction au codage

1 Introduction au codage CélestineOscarDésiréAnatoleGastonEugène 1 Introduction au codage 1.1 Les ensembles L ensemble de tout les ensembles est Dieu lui-même. Kantor Ensemble des parties d un ensemble désigne l ensemble des sous-ensembles

Plus en détail

Représentation des Nombres

Représentation des Nombres Chapitre 5 Représentation des Nombres 5. Representation des entiers 5.. Principe des représentations en base b Base L entier écrit 344 correspond a 3 mille + 4 cent + dix + 4. Plus généralement a n a n...

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

M1107 : Initiation à la mesure du signal. T_MesSig

M1107 : Initiation à la mesure du signal. T_MesSig 1/81 M1107 : Initiation à la mesure du signal T_MesSig Frédéric PAYAN IUT Nice Côte d Azur - Département R&T Université de Nice Sophia Antipolis frederic.payan@unice.fr 15 octobre 2014 2/81 Curriculum

Plus en détail

LABO 5 ET 6 TRAITEMENT DE SIGNAL SOUS SIMULINK

LABO 5 ET 6 TRAITEMENT DE SIGNAL SOUS SIMULINK LABO 5 ET 6 TRAITEMENT DE SIGNAL SOUS SIMULINK 5.1 Introduction Simulink est l'extension graphique de MATLAB permettant, d une part de représenter les fonctions mathématiques et les systèmes sous forme

Plus en détail

Incertitudes expérimentales

Incertitudes expérimentales Incertitudes expérimentales F.-X. Bally et J.-M. Berroir Février 2013 Table des matières Introduction 4 1 Erreur et incertitude 4 1.1 Erreurs............................................. 4 1.1.1 Définition

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

EP 2 339 758 A1 (19) (11) EP 2 339 758 A1 (12) DEMANDE DE BREVET EUROPEEN. (43) Date de publication: 29.06.2011 Bulletin 2011/26

EP 2 339 758 A1 (19) (11) EP 2 339 758 A1 (12) DEMANDE DE BREVET EUROPEEN. (43) Date de publication: 29.06.2011 Bulletin 2011/26 (19) (12) DEMANDE DE BREVET EUROPEEN (11) EP 2 339 758 A1 (43) Date de publication: 29.06.2011 Bulletin 2011/26 (21) Numéro de dépôt: 09179459.4 (51) Int Cl.: H04B 1/69 (2011.01) H03K 5/08 (2006.01) H03K

Plus en détail

(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01)

(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01) (19) TEPZZ 8 8 4_A_T (11) EP 2 838 241 A1 (12) DEMANDE DE BREVET EUROPEEN (43) Date de publication: 18.02.1 Bulletin 1/08 (1) Int Cl.: H04L 29/06 (06.01) G06F 21/ (13.01) (21) Numéro de dépôt: 141781.4

Plus en détail

Multimedia. Systèmes, Communications et Applications. Ahmed MEHAOUA

Multimedia. Systèmes, Communications et Applications. Ahmed MEHAOUA Multimedia Systèmes, Communications et Applications Ahmed MEHAOUA Professeur - Laboratoire CRIP5 Ahmed.mehaoua@math-info.univ-paris5.fr Plan 1. Multimedia : principes et définitions 2. Algorithmes et normes

Plus en détail

Chapitre 2 Les ondes progressives périodiques

Chapitre 2 Les ondes progressives périodiques DERNIÈRE IMPRESSION LE er août 203 à 7:04 Chapitre 2 Les ondes progressives périodiques Table des matières Onde périodique 2 2 Les ondes sinusoïdales 3 3 Les ondes acoustiques 4 3. Les sons audibles.............................

Plus en détail

Conversion d un entier. Méthode par soustraction

Conversion d un entier. Méthode par soustraction Conversion entre bases Pour passer d un nombre en base b à un nombre en base 10, on utilise l écriture polynomiale décrite précédemment. Pour passer d un nombre en base 10 à un nombre en base b, on peut

Plus en détail

- Instrumentation numérique -

- Instrumentation numérique - - Instrumentation numérique - I.Présentation du signal numérique. I.1. Définition des différents types de signaux. Signal analogique: Un signal analogique a son amplitude qui varie de façon continue au

Plus en détail

2. Couche physique (Couche 1 OSI et TCP/IP)

2. Couche physique (Couche 1 OSI et TCP/IP) 2. Couche physique (Couche 1 OSI et TCP/IP) 2.1 Introduction 2.2 Signal 2.3 Support de transmission 2.4 Adaptation du signal aux supports de transmission 2.5 Accès WAN 2.1 Introduction Introduction Rôle

Plus en détail

Compression Compression par dictionnaires

Compression Compression par dictionnaires Compression Compression par dictionnaires E. Jeandel Emmanuel.Jeandel at lif.univ-mrs.fr E. Jeandel, Lif CompressionCompression par dictionnaires 1/25 Compression par dictionnaire Principe : Avoir une

Plus en détail

Travaux pratiques. Compression en codage de Huffman. 1.3. Organisation d un projet de programmation

Travaux pratiques. Compression en codage de Huffman. 1.3. Organisation d un projet de programmation Université de Savoie Module ETRS711 Travaux pratiques Compression en codage de Huffman 1. Organisation du projet 1.1. Objectifs Le but de ce projet est d'écrire un programme permettant de compresser des

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux hétérogènes Laurent Déjean Thales Airborne Systems/ENST-Bretagne Le 20 novembre 2006 Laurent Déjean Détection en

Plus en détail

Automatique Linéaire 1 Travaux Dirigés 1A ISMIN

Automatique Linéaire 1 Travaux Dirigés 1A ISMIN Automatique Linéaire 1 Travaux Dirigés Travaux dirigés, Automatique linéaire 1 J.M. Dutertre 2014 TD 1 Introduction, modélisation, outils. Exercice 1.1 : Calcul de la réponse d un 2 nd ordre à une rampe

Plus en détail

Circuits RL et RC. Chapitre 5. 5.1 Inductance

Circuits RL et RC. Chapitre 5. 5.1 Inductance Chapitre 5 Circuits RL et RC Ce chapitre présente les deux autres éléments linéaires des circuits électriques : l inductance et la capacitance. On verra le comportement de ces deux éléments, et ensuite

Plus en détail