Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information
|
|
|
- Arsène Beauchamp
- il y a 10 ans
- Total affichages :
Transcription
1 Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information Florent Dupont Université Claude Bernard Lyon1 / Laboratoire LIRIS [email protected]
2 Objectifs du cours Théorie des codes liée aux transmissions numériques compression des signaux transmis (son, image, vidéo, 3D ) protection contre les erreurs de transmission cryptage, authentification des messages Florent Dupont 2
3 Objectifs du cours Rappeler quelques notions de base en transmission de données : Bande passante, capacité d'un canal ; Modulation ; Codage en bande de base ; Multiplexage. Avoir un avis éclairé pour répondre, par exemple aux questions suivantes : La transmission sans erreur sur un canal bruité est-elle possible? Est-ce que transmettre sans erreur, c'est avoir un rendement tendant vers 0 ou bien existe-t-il un rendement optimal, pour un niveau de bruit donné? Florent Dupont 3
4 Plan du cours 1. Notions de base en transmission de données 2. Théorie de l'information 3. Source discrète / Codage source 4. Canal discret / Codage canal 5. Codes détecteurs et codes correcteurs 9h de Cours Magistral 6h de Travaux Dirigés Florent Dupont 4
5 Pour en savoir plus Théorie des codes Compression, cryptage, correction (Ed. Dunod) Jean-Guillaume Dumas, Jean-Louis Roch, Eric Tannier, Sébastien Varrette Florent Dupont 5
6 1. Notions de base en transmission de données Canal = dispositif permettant d'acheminer un message entre deux points distants Sur de courtes distances : Ordinateur ou Terminal = ETTD Ordinateur ou Terminal = ETTD Canal de transmission Canal de transmission = support physique (câble coaxial, fibre optique, air ) ETTD : Équipement Terminal de Transmission de Données Florent Dupont 6
7 Canal discret Sur de plus longues distances Ordinateur ou Terminal = ETTD Circuit de données Ordinateur ou Terminal = ETTD Modem ETCD Canal de transmission Modem ETCD Ex : canal de transmission = Ligne téléphonique Modem : Modulateur / démodulateur ETCD: Équipement Terminal de Circuit de Données Les informations sont transmises sur des supports de transmission en faisant varier un ou plusieurs paramètres physiques des signaux. Florent Dupont 7
8 Parenthèse Traitement du signal fréquence / discret Florent Dupont 8
9 Fréquences : Fourier Toute fonction périodique g(t) ayant pour période T=1/f peut se décomposer en une somme de fonctions périodiques sinusoïdales et cosinusoïdales : g(t) c n 1 a n sin(2 nft) bn cos(2 nft ) n 1 Les coefficients a n et b n sont les amplitudes respectives des sinus et cosinus (harmoniques) et c est égal à la valeur moyenne du signal : a n 2 T T 0 g(t)sin(2 nft)dt, b n 2 T T 0 g(t)cos(2 nft)dt, c 1 T T 0 g(t) dt Cette décomposition est appelée série de Fourier. Exemples : fréquences dans un signal, une image Florent Dupont 9
10 Fréquences : Fourier Transformée de Fourier Représentation d'un signal sur une base de fonctions exponentielles complexes Cas mono-dimensionnel f(x) F(u).e 2 jux du F F 1 F(u) f(x).e 2 jux dx Florent Dupont 10
11 Exemple : réponse en fréquence de l'oeil Florent Dupont 11
12 Numérisation / discrétisation Temps Amplitude Continue Signal «analogique» Quantification Discrète Signal quantifié Continu Monde réel macros. Filtre analogique / ampli Signal échantillonné Signal logique idéalisé Signal numérique Discret Échantillonnage capa commutées / CCD Calculateur Il n y a que dans ce cas que l on peut associer un nombre entier au signal Florent Dupont 12
13 Échantillonnage : Théorème de Shannon Théorème De Shannon: Fe > 2 x Fmax(Signal) Exemple : Échantillons Signal reconstitué? Un signal incorrectement échantillonné ne pourra pas être reconstitué Florent Dupont 13
14 Fin de la parenthèse Florent Dupont 14
15 Bande passante La bande passante caractérise tout support de transmission, c'est la bande de fréquences dans laquelle les signaux sont correctement reçus : W = Fmax Fmin (en Hz) Le spectre du signal à transmettre (éventuellement modulé) doit être compris dans la bande passante du support physique. Florent Dupont 15
16 Bande passante Exemples: l'atmosphère élimine les U.V. l'oreille humaine est sensible dans la bande 20 Hz-20 KHz Réseau téléphonique commuté (RTC) Amplitude A max A max-3db Hz Fréquence Hz Florent Dupont 16
17 Utilisation des bandes de fréquences Florent Dupont 17
18 Utilisation des bandes de fréquences Florent Dupont 18
19 Agence nationale des fréquences ( Bandes de fréquences : attribuées aux différents services de radiocommunication par le Règlement des radiocommunications de l'union internationale des télécommunications, élaboré par les conférences mondiales des radiocommunications. En France, les bandes ainsi attribuées sont réparties entre 9 affectataires (7 administrations et 2 autorités indépendantes) AC Administration de l aviation civile DEF Ministère de la défense ESP Espace INT Ministère de l intérieur MTO Administration de la météorologie PNM Administration des ports et de la navigation maritime (ex phares et balises) RST Ministère de l éducation nationale, de la recherche et de la technologie CSA Conseil supérieur de l'audiovisuel ART Autorité de régulation des Télécommunications Florent Dupont 19
20 Agence nationale des fréquences ( + des fréquences utilisables pour certains matériels de faible puissance et de faible portée Exemple : Bande des fréquences Puissance max. Largeur canal Références 2400 à 2454 MHz 100 mw non imposée Décisions ART N xxx Florent Dupont 20
21 Florent Dupont 21
22 Débit maximum d'un canal de transmission Si un signal quelconque est appliqué à l'entrée d'un filtre passe-bas ayant une bande passante W, le signal ainsi filtré peut être reconstitué avec un échantillonnage à 2W/s (Nyquist, Shannon) D max = 2 W log 2 V en bit/s si le signal comporte V niveaux significatifs (Valence). La bande passante limite la rapidité de modulation. Exemple: Pour un canal sans bruit dont la bande passante est de 3000 Hz qui ne peut transmettre qu'un signal binaire, D max = 6000 bit/s. Florent Dupont 22
23 Bruit, capacité Bruits aléatoires dégradation de la transmission Quantité de bruit = rapport de la puissance du signal transmis à la puissance du bruit = rapport signal sur bruit, (SNR en anglais signal to noise ratio ou S/N). Pour un canal de transmission de bande passante W perturbé par du bruit dont le rapport signal sur bruit est S/N, la capacité de transmission maximale C en bit/s vaut : C = W log 2 (1+P S /P N ) en bit/s S/N est exprimé en db en général, mais pas dans la formule! (S/N) db = 10 log 10 (P S /P N ) P S /P N =10 (S/N) db/10 Exemple: Pour un canal dont la bande passante est de 3000 Hz et un rapport S/N=30dB, (valeur typique du réseau téléphonique analogique), P S /P N =1000 => C = bit/s. Florent Dupont 23
24 Perturbations Perturbations l'information extraite du signal reçu peut conduire à des erreurs. Causes multiples, principale préoccupation dans les systèmes de télécommunication. Affaiblissement ou atténuation = perte d'énergie du signal pendant sa propagation Atténuation (db) = 10 log 10 (P 1 /P 2 ) (-3 db correspond à une perte de la moitié de la puissance) Affaiblissements différents suivant les harmoniques distorsions En pratique affaiblissements d amplitude négligeable jusqu à f c appelée fréquence de coupure. Pour compenser cet affaiblissement et pour permettre des transmissions sur de longues distances amplificateurs ou répéteurs L'atténuation augmente avec la fréquence (passe-bas). Florent Dupont 24
25 Perturbations La distorsion temporelle = toutes les composantes harmoniques d un signal ne se propagent pas à la même vitesse. Un déphasage du signal (distorsion de phase) constitue une perturbation. = (f). Le déphasage dépend de la fréquence. Le temps de groupe est donné par : T(f) 1 2 d( (f)) df Florent Dupont 25
26 Bruit Tout signal indésirable interprété par le récepteur et délivrant une information incohérente. Sources de bruit : émetteur du signal ; media de transmission ; perturbation atmosphérique. Bruit thermique = agitation thermique des électrons (source de bruit la plus courante) Diaphonie = influence mutuelle entre deux signaux utiles mais sur des conducteurs voisins. Florent Dupont 26
27 Modulation / Démodulation Transmission d un signal à spectre étroit sur un support à large bande passante mauvaise utilisation du support techniques de modulation et de multiplexage Soit un signal périodique : y(t) = A sin (2 ft + ) Signal transporté sous forme d'une onde faisant varier une des caractéristiques physiques du support: différence de potentiel électrique; onde radioélectrique intensité lumineuse Porteuse: p(t) = A p cos (2 f p t + p ) On fait ensuite subir des déformations ou modulations à cette porteuse pour distinguer les éléments du message. Florent Dupont 27
28 Modulation La modulation est la transformation d'un message à transmettre en un signal adapté à la transmission sur un support physique. Les objectifs de la modulation sont: une transposition dans un domaine de fréquences adapté au support de transmission; une meilleure protection du signal contre le bruit; une transmission simultanée de messages dans les bandes de fréquences adjacentes, pour une meilleure utilisation du support. Trois types de modulation de base existent, en faisant varier les trois paramètres de l'onde porteuse: A p, f p, p. Florent Dupont 28
29 Modulation de fréquence (FSK: Frequency Shift Keying) une valeur de fréquence une valeur du signal Florent Dupont 29
30 Modulation de fréquence Porteuse sinusoïdale de fréquence F 0 modulée par deux fréquences opposées +f 0 et -f 0 une fréquence est associée à chaque niveau logique Hz +600 Hz 1200 Hz 1800 Hz 2400 Hz Florent Dupont 30
31 Modulation de fréquence Liaison "full-duplex": Émission / Réception simultanée on partage la bande passante du canal une voie à l'émission F 1 +/- f 1 + une voie à la réception F 2 +/- f 2 Bande passante du canal 980 Hz 1180 Hz 1650 Hz 1850 Hz 1080 Hz 1750 Hz Florent Dupont 31
32 Modulation d'amplitude (ASK: Amplitude Shift Keying) une valeur d'amplitude une valeur du signal Florent Dupont 32
33 Modulation de phase (PSK: Phase Shift Keying) un déphasage une valeur du signal Avec des codes à plusieurs bits, on peut augmenter le débit sans changer la fréquence de modulation. Les vitesses de transmission sont plus élevées qu'en modulation FSK pour la même bande passante Florent Dupont 33
34 Modulation de phase Exemple : avis V22 du CCITT (1200 bauds) - phase codée sur 2 bits Constellation V22 00 (90 ) 10 (180 ) 01 (0 ) 11 (270 ) Nombre de déphasages limité par le bruit pour retrouver le bon signal Florent Dupont 34
35 Modulation combinée Combiner plusieurs types de modulation parmi les trois types de modulation décrits auparavant. Les normes actuelles utilisent des combinaisons des modulations de phase et d'amplitude. Exemple : Modulation V29 à 7200 bits/s 8 états de phase et 2 valeurs d'amplitude Constellation V Florent Dupont 35
36 Modulation combinée en quadrature Porteuses en quadrature : addition de deux porteuses de fréquence f 0 en quadrature, on obtient une seule porteuse, toujours de fréquence f 0 Florent Dupont 36
37 Modulation combinée en quadrature Modulation de phase 4 états (2 bits) Quadrature Amplitude Modulation QAM états (4 bits) Quadrant Quadrant Quadrant Quadrant 01 Modulation des 2 porteuses Florent Dupont 37
38 Modulation combinée en quadrature Quadrature Amplitude Modulation QAM états (6 bits) Quadrature Amplitude Modulation QAM états (7 bits) Florent Dupont 38
39 Transmission en bande de base La transmission directe de la suite des symboles binaires n'est pas possible le codage permet d'adapter le signal au support de transmission. Un signal en bande de base ne subit pas de transposition en fréquence : ETCD = simple codeur Le signal occupe alors toute la bande passante disponible. Les principaux avantages sont la simplicité et le coût (pas de phase de modulation/démodulation). La suite des symboles transformés appartient à un alphabet fini = n x T, (n N, n>0). Suite de symboles binaires de durée T Codeur en bande de base Suite de symboles transformés de durée Florent Dupont 39
40 Code NRZ et NRZI Pour le codage NRZ (No Return to Zero), le signal binaire est transposé en tension pour éviter les valeurs nulles: 0 -a et 1 +a 1 0 NRZ NRZI +a -a +a -a Répartition de la puissance en fonction de la fréquence Le spectre de puissance du signal NRZ est concentré au voisinage des basses fréquences mauvaise transmission par le support Utilisé dans les normes V24, RS232, RS421, RS422, RS485 Florent Dupont 40
41 Code NRZI avec bit stuffing (NRZ Inverted with bit stuffing) Code du bus USB. Le bus commence en idle state (état haut à +A). Chaque fois qu un bit est "1", il n'y a pas de changement de l'état de la ligne. Chaque fois qu'un bit est "0", la ligne change d'état (toggle). Lorsque six "1" consécutifs sont transmis, un "0" artificiel est inséré afin de garantir la récupération d'horloge. Florent Dupont 41
42 Code biphasé (Manchester) Introduction de transition au milieu de chaque intervalle, par exemple: 0 front montant et 1 front descendant Signal transmis = signal binaire horloge a -a Rappel : = XOR = OU Exclusif Une transition à chaque bit transposition hautes fréquences, transmission de l'horloge (embrouillage), synchronisation. Spectre de puissance étalé sur la bande de fréquence [0;2/T m ]. Ethernet sur câble coaxial, signal RDS (Radio Data System) a b a b Florent Dupont 42
43 Code biphasé différentiel On applique une transition systématique au milieu de chaque bit, pas de transition pour "1", une transition pour "0". + a 1 0 -a Une transition à chaque bit transposition hautes fréquences, transmission de l'horloge (embrouillage), synchronisation. Florent Dupont 43
44 Code Miller On applique une transition au milieu du bit "1", pas de transition au milieu du bit "0", une transition en fin de bit "0" si celui-ci est suivi d'un autre "0" a -a Jamais 2 bits sans une transition transposition hautes fréquences mais moins que code biphasé (Manchester ou différentiel) Florent Dupont 44
45 Code 4B/5B Chaque groupe de 4 bits est transformé en un groupe de 5 bits avec pas plus de deux 0 de suite Florent Dupont 45
46 Autres codes Il existe bien d'autres variantes de codage en bande de base notamment avec des codages en symboles ternaires ou quaternaires Propriétés des codes en bande de base : Évitent les fréquences nulles (séquences de valeur constante) Ajoutent des transitions (embrouillage de l'horloge) S'adaptent au support de transmission Florent Dupont 46
47 Multiplexage Objectif : optimiser l'usage des canaux de transmission pour un transit simultané du maximum d'informations partage (multiplexage) du support physique de transmission entre plusieurs signaux. Ces techniques peuvent se classer en deux grandes catégories: multiplexage fréquentiel : MRF (Multiplexage par Répartition de Fréquence) ou FDM (Frequency Division Multiplexing) multiplexage temporel : MRT (Multiplexage à Répartition dans le Temps) ou TDM (Time Division Multiplexing) Florent Dupont 47
48 Multiplexage en fréquences Partage de la bande de fréquences disponible en plusieurs canaux (ou sous-bandes) plus étroits : en permanence chacun de ces canaux est affecté à un "utilisateur" exclusif Ligne de transmission à large bande Canal 1 Modulation Filtrage Filtrage Démodulation Canal 1 Canal 2 Modulation Filtrage Filtrage Démodulation Canal 2 Canal n Modulation Filtrage Filtrage Démodulation Canal n Ligne large bande n Canaux Fréquence Florent Dupont 48
49 Multiplexage fréquentiel de trois canaux téléphoniques 3 liaisons téléphoniques multiplexées avec technique FDM. Des filtres appropriés limitent la bande passante à 3100 Hz par canal téléphonique. Pour assurer un multiplexage correct, une bande de fréquences de 4000 Hz est attribuée à chaque canal afin de bien les séparer les uns des autres. Affaiblissement Hz KHz KHz Bandes de fréquences originales Bandes après transposition en fréquence Bandes regroupées sur le canal multiplexé Florent Dupont 49
50 Multiplexage temporel chaque "utilisateur" a pendant un court instant et à tour de rôle, la totalité de la bande passante disponible (généralement réservé aux signaux numériques). Canal 1 Tampon Tampon Canal 1 Voie composite Canal 2 Tampon Tampon Canal 2 MUX MUX Canal n Tampon Tampon Canal n Canal1 Canal 2 Canal 3 Canal n A1 A2 A3 An B1 B2 B3 Bn C1 T T IT Temps Trame A Trame B Florent Dupont 50
51 Multiplexage temporel La vitesse de transmission des voies bas débit (d) est fonction de la vitesse de transmission de la ligne (D) et du nombre de voies n d=d/n La période T des trames est fonction du nombre de voies et de l'intervalle de temps élémentaire IT. T= n x IT Florent Dupont 51
52 Modulation par impulsions codées (MIC) Multiplexage temporel pour les transmissions téléphoniques. échantillonnage des signaux analogiques de chacune des voies; quantification et codage des échantillons multiplexés pour obtenir un signal numérique. multiplexage temporel des échantillons des différentes voies; Amplitude Échantillonnage Te: période d'échantillonnage t Codage du signal analogique Quantification t 5 = %101 6 = %110 5 = %101 3 = %011 Florent Dupont 52
53 Modulation par impulsions codées (MIC) Les échantillons sont ensuite multiplexés pour former un ensemble de trames. Multiplexage temporel des échantillons de trois voies Trame 1 Trame 2 Florent Dupont 53
54 Multiplexage temporel statistique Multiplexage temporel simple : tranches de temps pas toujours utilisées des bits ou des caractères de remplissage sont insérés. Multiplexage temporel statistique ou asynchrone (ATDM: Asynchronous Time Division Multiplexing) Allocation dynamique des tranches de temps aux seules voies qui ont des données à transmettre à un instant donné. permet de raccorder plusieurs équipements sur une seule ligne, même si le débit cumulé de chaque voie est supérieur au débit maximum de la ligne. Le multiplexeur intègre un microprocesseur et des mémoires tampon: il permet des débits et des paramètres de transmission différents sur chaque voie ou sous-canal et à chaque extrémité. Florent Dupont 54
55 Multiplexage temporel statistique Le multiplexeur : détecte les tampons non vides, prélève les données mémorisées, supprime les bits non significatifs dans le cas d'une transmission asynchrone (start, stop, parité), comprime éventuellement les données et les insère dans les trames de la voie composite. Voie 1 d1 d1 Voie 1 Voie 2 d2 d2 Voie 2 Voie 3 Voie 4 MUX d1 d2 d5 MUX Trame Voie 3 Voie 4 Voie 5 d5 d5 Voie 5 Tampons à l'instant t Tampons à l'instant t + t Florent Dupont 55
56 Multiplexage en longueur d'onde WDM (Wavelength Division Multiplexing) proche du multiplexage fréquentiel Fibre n 1 Prismes (ou systèmes à diffraction) Fibre n 3 Fibre n 2 Fibre n 4 Entrée : 2 fibres : flux lumineux d'énergie et de bande de fréquences différentes Multiplexage WDM complètement passif très haute fiabilité. Fibre W GHZ un signal: qq GHz (limite = pb de conversion lumière/électricité) Florent Dupont 56
57 2. Théorie de l'information Premières tentatives de définition de mesure de l'information 1920 Théorie de l'information : à partir de 1948, travaux de Shannon Théorie de l'information : discipline fondamentale qui s'applique dans le domaine des communications. déterminer les limites imposées par les lois de la nature lorsqu'on doit stocker ou transmettre le contenu d'une source (d'information), proposer des dispositifs permettant d'atteindre ou d'approcher ces limites. La théorie de l'information ne cesse de se développer car les exigences actuelles s'orientent vers une augmentation constante de l'information à stocker ou à transmettre. Florent Dupont 57
58 Théorie de l'information Compression du contenu de la source d'information nécessaire. Peut s'envisager sous deux formes : sans perte d'information; avec perte d'information. Florent Dupont 58
59 Représentation du schéma d'une communication Source Codage source Codage canal C A N A L Mots source restitués Décodage source Décodage canal Le codage de source consiste à éliminer les redondances de la source afin d'en réduire le débit binaire. Le codage de canal a un rôle de protection contre les erreurs (dues à la transmission sur le canal) qui est assuré en ajoutant de la redondance (codes correcteurs d'erreurs). Les points de vue codage de source et codage de canal sont donc fondamentalement différents. Florent Dupont 59
60 Définition de l'«information» Incertitude d un événement ou self-information ou quantité d information. Une information est un élément de connaissance qui peut être conservé (mis en mémoire), traité (traitement de l information) ou transmis. La difficulté rencontrée pour définir la quantité d information relative à un événement est liée au caractère subjectif de l'information effectivement apportée par la réalisation de cet événement. La quantité d information est relative à un contenu statistique, plus grande si on ne s'attend pas à ce que l'évènement se réalise. Florent Dupont 60
61 Définition Soit un événement E, une probabilité d apparition p(e), la quantité d information I(E) liée à l apparition de E s exprime : I(E) = -log [P(E)] Propriétés : I(E) est d autant plus grande que P(E) est petite ; Si E est toujours réalisé I(E)=0 ; Si E est très rare, P(E) est proche de 0, I(E) tend vers l infini ; P(E) 1 donc I(E) 0. Logarithme népérien pour les signaux continus : à base 2 pour les signaux discrets (l unité est le bit, abréviation de binary unit). Florent Dupont 61
62 Exemples Un événement qui a une chance sur 2 de se produire conduit à une quantité d information de -log 2 (1/2) = 1 bit Une source peut délivrer 8 événements équiprobables : I total = -8*log 2 (1/8) = 24 bits I(E) peut être interprétée : - a priori, par l'incertitude qui règne sur la réalisation de E; - a posteriori, par l'information apportée par la réalisation de E. Florent Dupont 62
63 Information mutuelle de 2 évènements L'information apportée par F sur E est la diminution de l'incertitude sur E lorsque F est réalisé. Information mutuelle I(E;F) = I F E = I(E) - I(E / F) = I E F car E et F jouent le même rôle. Démonstration : I F E = -log[p(e)]+log[p(e/f)] = -log[p(e)]+log[p(e F)/P(F)] = -log[p(e F)/ P(E)P(F)]= I E F Florent Dupont 63
64 Information mutuelle de 2 évènements Si E et F sont indépendants, alors P (F/E) = P(F) et I(E;F)= 0. On obtient alors : I(E F)= I(E )+ I(F)- I(E;F) On peut résumer les relations précédentes sur un diagramme de Venn : I(E) I(F) I(E;F) Florent Dupont 64
65 Entropie Entropie d'une variable aléatoire discrète Soit X une variable aléatoire à valeurs dans {x 1, x 2,..., x n } telle que p i = P(X = x i ) pour i de 1 à n. L'entropie de X notée H(X) est la moyenne des incertitudes calculée sur les événements {X = xi} H(X) - i n i 1 p i log p L entropie d une source discrète est donc la quantité moyenne d information par symbole et est exprimée en bits par symbole. i Florent Dupont 65
66 Entropie, Débit Remarques : H(X) dépend de la loi de probabilité de X mais n'est pas fonction des valeurs prises par X; H(X) correspond à l'espérance mathématique de la variable aléatoire incertitude I(X) définie par I(X) = -log P(X); Exprimée en Shannons, H(X) représente le nombre moyen de bits nécessaires à la codification binaire des différentes réalisations de X. Le taux (débit) d information est le nombre de symboles par unité de temps : T = n H(X) en bits par seconde. Florent Dupont 66
67 Exemple On extrait au hasard une carte d'un jeu de 32 cartes. On a H(X) = -32 x 1/32 x log 2 1/32 = log 2 32 = 5 Sh. Pour savoir quelle carte a été extraite, on peut demander si sa couleur est rouge ou noire, s'il s'agit d'un cœur ou d'un carreau, etc. Les réponses à cinq questions peuvent être résumées par cinq bits ('1' pour oui et '0' pour non). Une autre façon de modéliser le problème consiste à attribuer un numéro (de 0 à 31) à chaque carte. L'écriture de ces numéros en base deux requiert log 2 32 = log = 5 bits. Florent Dupont 67
68 Propriétés de l'entropie L'entropie d'une variable aléatoire X à n valeurs possibles est maximum et vaut log(n) lorsque la loi de X est uniforme. En effet, l'incertitude sur X est la plus grande si toutes les valeurs possibles ont la même probabilité de se réaliser; L'entropie augmente lorsque le nombre de valeurs possibles augmente. Florent Dupont 68
69 Exemple Soit une source binaire à 2 symboles : H(X)= -p log[p] (1-p) log(1-p) X x1 x2 P p 1 p p=0 (x 2 toujours réalisé) H(x)=0 p=1 (x 1 toujours réalisé) H(x)=0 p=0,5 (x 1 et x 2 équiprobables) H(x)=1 H(X) 1 bit 0 0,5 1 p Florent Dupont 69
70 Entropie et information liées à un couple de variables Soient X et Y deux variables aléatoires discrètes à valeurs dans {x 1, x 2,..., x n } et {y 1, y 2,...,y m }. Si on désigne par p ij = P (X = x i Y = y j ) la loi du couple (X, Y), on peut définir les entropies conditionnelles et l'information mutuelle : H(X/Y) représente l'incertitude sur X lorsqu'on connaît Y. De même l'information mutuelle moyenne entre X et Y peut s'écrire : I(X;Y) = H(X) - H(X / Y) = H(Y) - H(Y/X) I(X;Y) correspond à la diminution de l'incertitude sur X (resp. Y) lorsqu'on connaît Y (resp. X). Florent Dupont 70
71 Propriétés L'information mutuelle moyenne de X et de Y est toujours positive (ce n'est pas le cas pour l'information mutuelle entre deux événements qui prend des valeurs négatives lorsque la réalisation de l'un des événements rend l'autre moins probable); Le conditionnement diminue l'incertitude. En d'autres termes cela signifie que H(X) H( X / Y) H(X) + H(Y) = H(X,Y) + I(X;Y) H(X,Y) = H(X) + H(Y/X) = H(Y) + H(X/Y) Diagramme de Venn : H(X) H(X/Y) I(X;Y) H(Y/X) H(Y) Florent Dupont 71
72 Propriétés Dans le cas particulier où X et Y sont indépendantes, on obtient : H(X/(Y = y)) = H(X) H(X/Y) = H(X) I(X;Y) = 0 H(X) + H(Y) = H(X,Y) Florent Dupont 72
73 3. Source discrète Source discrète Symbole Lettre Alphabet Mot Vocabulaire Codage Suite de variables aléatoires, ayant chacune un nombre fini de réalisations. Le plus petit élément irréductible contenant une information Ensemble de lettres que peut délivrer la source Suite finie de lettres Ensemble des mots possibles avec l'alphabet de la source Correspondance entre deux vocabulaires Source stationnaire (ou sans mémoire) Source dans laquelle la probabilité d'apparition d'un caractère ne dépend pas de ce qui est apparu auparavant. La loi de probabilité ne dépend pas de l instant considéré Florent Dupont 73
74 Entropie d une source discrète Comme pour une variable aléatoire, on souhaite caractériser une source discrète par son entropie. Si S est une source sans mémoire (les valeurs S i émises par la source sont indépendantes), alors on appelle H(S i ) l entropie par lettre source S i H(S i ) = -p(s i ) log (p(s i )). Florent Dupont 74
75 Codage de source Soit S une source discrète à N valeurs possibles et d'entropie H (S)< log 2 N. L'entropie relative H r (S) =H(S)/log 2 N étant < 1, la redondance r = 1 - H r (S) est différente de zéro. Codage source = élimination de la partie redondante de l'information délivrée par la source = réduction du débit binaire de la source tout en conservant l'information (compression sans perte d'information) Deux types de codes peuvent être utilisés : Codes à longueur fixe. Tous les mots ont même longueur (même nombre de symboles) Codes à longueur variable. La longueur des mots varie en fonction de leur fréquence d'apparition. Un mot sera d'autant plus long que sa probabilité d'apparition sera petite. Florent Dupont 75
76 Généralités sur les codes Soit B un alphabet de référence (un ensemble de lettres), en général B est l'alphabet binaire B = {0,1}. En concaténant des lettres de l'alphabet B, on forme des mots dont la longueur correspond au nombre de lettres utilisées. Un code C est un ensemble de mots. Exemples : B = {0,1} est un code de longueur fixe =1 C = {00,01,10,11} est un code de longueur fixe =2 Florent Dupont 76
77 Généralités sur les codes On dira qu'un code est uniquement déchiffrable (ou à décodage unique) si toute suite de mots code ne peut être interprétée (décodée) que d'une seule manière. Exemples : {0,11,010} est uniquement déchiffrable. {0,1,101} n'est pas uniquement déchiffrable car 101 peut être interprété comme ou 101. Florent Dupont 77
78 Généralités sur les codes Un code préfixe est un code pour lequel aucun mot n'est le début d'un autre mot. Ce code est uniquement déchiffrable et est dit à décodage instantané. Construction d'un code préfixe : utiliser un arbre dont chaque branche représente une lettre de l'alphabet élémentaire (alphabet de référence). Il faut alors choisir les mots de telle sorte que pour tout couple de mots, le chemin permettant de conduire à l'un des mots ne soit pas inclus dans le chemin menant à l'autre mot. Exemples : {0,10,110,111} est un code préfixe. {0,11,110,111} n'est pas un code préfixe car le chemin menant à 11 est inclus dans les chemins menant à 110 et 111. Florent Dupont 78
79 Codage d'une variable aléatoire discrète Longueur moyenne des mots code : avec : n M i 1 p n(i) i M = nombre de mots code; pi = fréquence relative d' apparition du mot code n i; n(i) = longueur du mot code n i. Florent Dupont 79
80 Codage d'une variable aléatoire discrète Théorème 1 Pour tout codage d'une variable aléatoire X par un code uniquement déchiffrable (sur un alphabet de référence à b lettres), la longueur moyenne des mots code vérifie: H(X) nlog(b) où la base du logarithme coïncide avec celle utilisée pour la mesure de H(X) (entropie de X). Théorème 2 Pour toute variable aléatoire X, il existe un code préfixe tel que : nlog(b) H(X) log(b) Florent Dupont 80
81 Codage d'une variable aléatoire discrète Finalement, on déduit que pour tout codage d'une variable aléatoire X, il existe un code uniquement déchiffrable qui vérifie: H(X) log(b) n H(X) log(b) 1 La limite inférieure ne peut être dépassée par aucun code. Florent Dupont 81
82 Exemples de codes à longueur variable utilisés pour compacter une source Code Morse = code ternaire : point, trait et pause A chaque lettre une succession d'émissions de courants brefs (points) et longs (traits) séparés par des pauses courtes. Entre chaque lettre est insérée une pause plus longue Les mots sont séparés par une pause deux fois plus longue que celle disposée entre les lettres. Aux lettres les plus fréquentes sont affectées les mots code les plus courts Florent Dupont 82
83 Code Morse Lettre Fréq. Code Durée Lettre Fréq. Code Durée A 0,0642. _ 9 N 0,0574 _. 9 B 0,0127 _ O 0,0632 _ 15 C 0,0218 _. _. 15 P 0, D 0,0317 _.. 11 Q 0,0008. _ 17 E 0, R 0,0484. _. 11 F 0, _. 13 S 0, G 0, T 0,0796 _ 7 H 0, U 0, _ 11 I 0, V 0, _ 13 J 0,0008. _ 17 W 0, K 0,0049 _. _ 13 X 0,0013 _.. _ 15 L 0,0321. _.. 13 Y 0,0164 _. 17 M 0, Z 0, ESP 0, Durée du point avec pause courte = 2, durée du trait avec pause courte = 4, durée de la pause longue = 3. Florent Dupont 83
84 Code de Shannon-Fano 1 er code utilisé pour exploiter la redondance d'une source (années 50) Algorithme 1. Classer les différents symboles à coder suivant l'ordre décroissant de leur probabilité 2. Diviser ces symboles en deux sous-groupes de telle sorte que les probabilités cumulées de ces deux sous-groupes soient aussi proches que possible l'une de l'autre. 3. Affecter le chiffre binaire "0" au 1 er sous-groupe et "1" au 2 ème sous groupe. Les mots code du premier sous-groupe commenceront tous par "0" tandis que ceux du second commenceront par "1". 4. Recommencer à 1 jusqu'à ce que les sous-groupes ne contiennent qu'un élément. Tous les symboles source ont alors un mot code. Florent Dupont 84
85 Code de Shannon-Fano - Exemple Exemple : Soit une source avec cinq symboles A, B, C, D, E Symbole Fréquence d'apparition Première division Deuxième division Troisième division La longueur moyenne d'un mot code est : Quatrième division 2x15/39 2x7/39 2x6/39 3x6/39 3x5/39 2,28 bits Code binaire A 15/ B 7/ C 6/ D 6/ E 5/ Meilleur qu'un code binaire simple à longueur fixe: 3 bits i n Entropie de la source (limite) H(X) - pi log 2 pi 2 18 Sh i 1 Florent Dupont 85
86 Code de Huffman La construction de l'arbre permettant d'affecter aux n lettres source un mot code s'effectue de façon ascendante (contrairement au code de Shannon-Fano). Algorithme 1. Classer les lettres source suivant l'ordre décroissant de leur probabilité. 2. Créer un nouveau symbole à partir des deux lettres source de probabilités les plus faibles. On lui affecte une probabilité égale à la somme des probabilités des deux lettres source. 3. Considérant les n-1 lettres source restantes, revenir à la première étape jusqu'à ce qu'il ne reste plus que 2 lettres source. 4. Affecter "0" au 1 er sous-groupe et "1" au 2 ème sous groupe à chaque étape. Florent Dupont 86
87 Code de Huffman- Exemple Même source que l'exemple précédent La longueur moyenne d'un mot code est : 1x15/39 +3x (1-15/39) = 2,23 bits Toujours meilleur que Shannon-Fano (2,28 bits) Entropie de la source (2,18 Sh) = limite 7 A 15/39 1 A 15/39 1 A 15/39 1 BCDE 24/39 0 B 7/ D E 3 11/39 01 BC 13/39 00 A 15/39 1 C 6/ B 7/ DE 11/39 01 D 6/ C 6/ E 5/ Florent Dupont 87
88 Codage source - remarques Le codage de Huffman (comme celui de Shannon-Fano) nécessite la connaissance des probabilités a priori des lettres source. Sinon estimation en mesurant les fréquences d'apparition dans le message à transmettre --> transmettre l'arbre des codes pour que le décodage soit possible. Pour améliorer les performances, élever l'ordre d'extension de la source (ordre n = prendre n symboles à la fois pour les coder). Inconvénient : l'arbre des codes à transmettre plus long. Exemple : si la source émet des symboles du code ASCII étendu, il y a 256 caractères. extension d'ordre 2 = d'une table de probabilités de = nombres! gain obtenu par la compression inutile pour des messages courts. Pour pallier cet inconvénient, on a introduit le code de Huffman adaptatif dont le principe repose sur la mise à jour des statistiques sur les symboles au fur et à mesure de la lecture du message. Florent Dupont 88
89 Codage arithmétique Principe : affecter à l'ensemble du message un seul nombre en virgule flottante Exemple : BALLE 1. Probabilités 2. Intervalles 3. B --> [0,2;0,4[ Symbole A B E L P i 1/5 1/5 1/5 2/5 Intervalle [0;0,2[ [0,2;0,4[ [0,4;0,6[ [0,6;1[ 4. BA --> [0,2+0,2*0; 0,2+0,2*0,2[ = [0,2; 0,24[ 5. BAL --> [0,2+0,04*0,6; 0,2+0,04*1[ = [0,224; 0,24[ 6. (valeur soulignée = longueur de l'intervalle précédent) La borne inférieure code le message : 0,23616 Florent Dupont 89
90 Décodage arithmétique Symbole A B E L P i 1/5 1/5 1/5 2/5 Intervalle [0;0,2[ [0,2;0,4[ [0,4;0,6[ [0,6;1[ 1. 0, > B (0, ,2)/0,2 = 0, , > A (0,1808-0)/0,2 = 0, ,904 --> L (0,904 0,6)/0,4 = 0, ,76 --> L (0,76 0,6)/0,4 = 0,4 5. 0,4 --> E Le décodeur doit connaître les intervalles associés aux lettres Florent Dupont 90
91 Code de Lempel-Ziv-Welch (LZW) LZW amélioration de LZ77 et LZ78, utilisé dans le format GIF, dans les fichiers.z (commande Compress) et.gzip sous Unix et sur PC dans les fichiers.zip Principe : fabriquer un dictionnaire au fur et à mesure de la lecture du message à coder L'algorithme LZ78 En 1978, Jacob Ziv et Abraham Lempel (IEEE Transactions on Information Theory, "Compression of Individual Sequences via Variable- Rate Coding". Algorithme : Dictionnaire initialisé avec la chaîne vide placée à l'adresse 0. Lire caractère par caractère le texte à compresser et vérifier si la chaîne ainsi construite se trouve bien dans un dictionnaire. Si la concaténation ( ) de la chaîne précédente (P) avec le dernier caractère lu (c) se trouve dans le dictionnaire, alors la lecture continue avec le caractère suivant. Sinon le couple (adresse de P, caractère c) est émis en sortie, puis la chaîne P c est ajoutée au dictionnaire. Florent Dupont 91
92 Exemple de compression LZ78 Texte à compresser: "si_six_scies_scient_six" adresse dans le dictionnaire chaîne dans le dictionnaire caractère lu signes émis 0 S 0S 1 S I 0I 2 I 0 3 S,I 1I 4 SI X 0X 5 X,S 3S 6 S C 0C 7 C I,E 2E 8 IE S, 1 9 S S,C 1C 10 SC I,E,N 8N 11 IEN T 0T 12 T,S,I 6I 13 SI X, 5 14 X C,Y 7Y Florent Dupont 92
93 Exemple de compression LZ78 L'ensemble des couples (indice,caractère) émis est donc le suivant: 0S, 0I, 0_, 1I, 0X, 3S, 0C, 2E, 1_, 1C, 8N, 0T, 6I, 5_, 7Y Il y a 15 couples. Dans un couple, le caractère est codé sur 1 octet. Si l'indice de chaîne est codé sur 1 octet, on ne pourra "adresser" que 256 chaînes, ce qui est insuffisant. Si cet indice de chaîne est codé sur 2 octets, c'est chaînes qui seront accessibles. Le message ci dessus utiliserait alors (2+1)x15 = 45 octets L'efficacité de la compression est liée à la longueur des fichiers. Florent Dupont 93
94 L'algorithme LZW Terry Welch à publié (1984) une variante de l'algorithme LZ78 dans IEEE Computer "A technique for High-performance Data Compression" : l'amélioration consiste à ne plus émettre un couple (adresse, caractère), mais seulement une adresse. Algorithme : Dictionnaire initialisé avec l'ensemble des caractères de l'alphabet. Lire caractère par caractère le texte à compresser et vérifier si la chaîne ainsi construite se trouve bien dans un dictionnaire. Si la concaténation ( ) de la chaîne précédente (P) avec le dernier caractère lu (c) se trouve dans le dictionnaire, alors la lecture continue avec le caractère suivant. Sinon, l'adresse de P est émise en sortie, puis la chaîne P c est ajoutée au dictionnaire et le caractère c est utilisé pour initialiser la chaîne P suivante. Florent Dupont 94
95 LZW LZW15VC : amélioration de LZW capable de coder les adresses jusqu'à 15 bits. Il commence à coder sur 9 bits et utilise un bit supplémentaire après avoir codé 256 valeurs supplémentaires. Le dictionnaire est vidé lorsqu'il est complètement rempli. Ceci permet de le rendre aussi performant que d'autres codes pour les messages courts. Florent Dupont 95
96 Codes bloc Soit une source, avec un alphabet de taille K. Considérons la n ième extension de la source (concaténation de n lettres source). Soit un alphabet de référence comportant D lettres code. Code bloc formé en concaténant r lettres code. Pour ne pas perdre d'information, il faudra que le nombre de mots code soit au moins égal au nombre de mots source : D r K n Le taux du code ainsi constitué est le rapport R = r/n qui représente le nombre de lettres code nécessaires pour représenter une lettre source. Florent Dupont 96
97 Codes bloc 1 er THÉORÈME DE SHANNON Soit X une source discrète sans mémoire, d'entropie H(X). Alors il est possible de trouver un code bloc pour encoder les mots source de longueur n avec un taux R = r/n tel que la probabilité de ne pouvoir associer avec certitude un mot source à un mot code soit aussi petite que l'on veut. Il suffit pour cela que, d'une part n soit suffisamment grand et d'autre part que R vérifie: R r n H(X) logd Florent Dupont 97
98 4. Canal discret Modèle = mise en cascade du canal de transmission et du récepteur Exemple d'une chaîne de transmission numérique en bande de base : Source g(t) g(-t) a k Mise en forme source binaire S, symboles a k "mis en forme" par un filtre de réponse impulsionnelle g(t) de telle sorte que le signal à la sortie de ce filtre a pour expression a g(t kt) où 1/T représente le débit binaire de la source. À l'extrémité du canal de transmission sont disposés: un filtre adapté de réponse impulsionnelle g(-t) (sa présence contribue à minimiser la probabilité d'erreur) ; un échantillonneur ; un comparateur à seuil. Canal de transmission k k Filtre réception Échantillonneur Comparateur à seuil Florent Dupont 98
99 Modèle 1 Plusieurs modèles peuvent être élaborés à partir de la chaîne de transmission : 1 er modèle obtenu en englobant le formant, le canal de transmission, le filtre réception et l'échantillonneur. On obtient un canal à deux entrées ("0" et "1"), la variable de sortie est continue. Mise en Source forme 0 g(t) ou g(-t) 1 Canal de transmission Filtre réception Échantillonneur Comparateur à seuil Florent Dupont 99
100 Modèle 2 Si on connecte un comparateur à seuil après l'échantillonneur de telle sorte que la valeur échantillonnée est interprétée en "0" ou "1"), on obtient un canal à deux entrées (les éléments binaires) et deux sorties (les éléments binaires estimés); Mise en Filtre forme réception 0 Source g(t) g(-t) ou 1 Canal de transmission Échantillonneur Comparateur à seuil Cette structure de récepteur est justifiée lorsque les éléments binaires sont codés en des valeurs symétriques -V et +V, et lorsque le canal de transmission est assimilé à un canal à bruit additif gaussien. Florent Dupont 100
101 Caractérisation du canal Le canal est caractérisé par les probabilités de transition entre les symboles d'entrée et les symboles de sortie. Entrée 0 1 Sortie 0 1 Une matrice de transition décrira ces probabilités Florent Dupont 101
102 Caractérisation du canal Rappel : codage de source = comment utiliser les redondances d'une source pour diminuer son débit binaire tout en conservant sa quantité d'information Ici, la variable Y reçue à la sortie du récepteur comportera des différences avec la variable X initialement émise dues aux perturbations (le bruit) agissant sur le support de transmission. Perturbations X Y Canal de transmission et récepteur Florent Dupont 102
103 Caractérisation du canal Du point de vue de la théorie de l'information, les imperfections du canal peuvent être traduites en termes d'information qu'apporte la variable de sortie Y sur la variable d'entrée X I(X;Y) = H(X) - H(X/Y) H(X/Y) = ambiguïté = incertitude qui reste sur X lorsque Y est connue (d'autant plus grande que le canal sera perturbé) On modélisera un canal par 2 alphabets pour X et pour Y et une matrice de transition Q q ij, ligne i colonne j = probabilité pour que la i ème valeur de l'alphabet d'entrée soit transformée en la j ème valeur de l'alphabet de sortie. La quantité I(X;Y) = H(X) - H(X/Y) ne permet pas de caractériser un canal de façon intrinsèque car elle est fonction de la loi de probabilité de X. Florent Dupont 103
104 Capacité d'un canal C'est pourquoi on définit la capacité d'un canal par le maximum de I(X;Y) en prenant en compte toutes les lois de probabilité possibles sur X. C Max les lois de X I(X;Y) avec C exprimée en bits. C correspond au maximum d'information que peut apporter le canal de transmission. Florent Dupont 104
105 Caractérisation du canal Un canal sans mémoire est un canal pour lequel la sortie à un instant donné ne dépend statistiquement que de l'entrée correspondante. Un canal est symétrique si l'ensemble des valeurs constituant l'alphabet de sortie peut être partitionné en sous-ensembles de telle sorte que pour chacun de ces sous-ensembles, la sous-matrice de transition possède les propriétés suivantes : toutes les lignes sont identiques (à des permutations près) ; toutes les colonnes (s'il y en a au moins deux) sont identiques (à des permutations près). Théorème Pour un canal symétrique, la capacité est atteinte pour une loi uniforme sur l'alphabet d'entrée. Florent Dupont 105
106 Exemple de canal symétrique Soient {0,1} (resp. {0,1,2}) l'alphabet d'entrée (resp. de sortie) et Q la matrice de transition. X\Y ,7 0,2 0,1 1 0,1 0,2 0,7 On peut partitionner l'alphabet de sortie en {0,2}et {1}. Les deux sous-matrices de transition sont alors respectivement X\Y 0 2 X\Y 1 0 0,7 0,1 0 0,2 1 0,1 0,7 1 0,2 Ces deux matrices possèdent bien les propriétés requises, donc le canal est symétrique. Florent Dupont 106
107 Caractérisation du canal Remarques Si la capacité C a été calculée en considérant des mots de n symboles, on exprimera la capacité par symbole par le rapport C/n. La capacité d'un canal correspondant à l'aptitude du dispositif à transmettre de l'information, on sera amené à utiliser la capacité par unité de temps (en général la seconde). Cette grandeur, exprimée en bits par seconde, est obtenue en divisant la capacité par symbole par l'inverse du débit symbole. Généralement cette quantité est notée C'. La remarque précédente conduit naturellement à définir l'entropie d'une source par unité de temps, notée H', correspondant au rapport de l'entropie par symbole par l'inverse du débit symbole. Lorsque se posera le problème de la connexion d'une source à un canal, on aura à comparer H' et C' (on cherchera H' < C' ) Florent Dupont 107
108 Exemples de calculs de capacités Entrée Sortie 0 1 La capacité de ce canal est de 1 bit. En effet: I(X;Y) = H(X)-H(X/Y) = H(X). La capacité est atteinte pour une loi uniforme sur l'entrée. La connaissance de Y entraîne la connaissance de X. L'information de Y sur X valant H(X), elle permet de lever l'incertitude sur X. Cas idéal : transmission sans défaut, canal parfait Florent Dupont 108
109 Exemples de calculs de capacités Entrée Sortie 0 1 Dans ce cas, la capacité est nulle et est atteinte quelle que soit la loi de probabilité à l'entrée. I(X;Y)=H(Y)-H(Y/X)=0. Pire cas. Florent Dupont 109
110 Exemples de calculs de capacités Canal symétrique, cas général Entrée 0 1 p p 1-p 1-p Sortie 0 1 Matrice de transition p p 1 p 1-p La capacité est atteinte pour une loi uniforme sur l'alphabet d'entrée. On a donc P{X=0}=P{X=1}=1/2. Florent Dupont 110
111 Exemples de calculs de capacités Pour calculer la capacité C, on va utiliser la relation I(X;Y)=H(Y)-H(Y/X) car on connaît la loi de Y sachant X. Calculons la loi de Y. P(Y=0) = 0,5*(1-p)+0,5*p=0,5 P(Y=1)=0,5 H(Y) = -2*0,5log 2 (0,5)=1 H(Y/X) = 0,5*(H(Y/X=0)+H(Y/X=1)) H(Y/X=0) = - (1-p) log 2 (1-p) - p log 2 p H(Y/X=1) = - (1-p) log 2 (1-p) - p log 2 p H(Y/X) = - (1-p) log 2 (1-p) - p log 2 p D'où C = 1+ (1-p) log 2 (1-p) + p log 2 p Florent Dupont 111
112 Exemples de calculs de capacités C = 1+ (1-p) log 2 (1-p) + p log 2 p C 1 Entropie Commentaires : 0 Capacité 0 0,5 1 p L'entropie est maximum et vaut 1 bit pour p = 1/2, donc la capacité est nulle. C'est le cas le plus défavorable car X et Y sont indépendantes. La sortie n'apporte aucune information sur l'entrée. Lorsque p = 0, il n'y a jamais d'erreur de transmission : Y coïncide avec X et la capacité est maximum. Pour p = 1, il y a erreur systématique. On sait qu'à Y = 0 (resp. Y =1) correspond X = 1 (resp. X = 0). La connaissance de Y permet de déterminer X. La capacité est maximum. Florent Dupont 112
113 Exemples de calculs de capacités Canal binaire à effacement Entrée 0 1 q q 1-q 1-q Sortie 0 є 1 l'alphabet d'entrée est binaire {0,1} l'alphabet de sortie est ternaire {0,є,1}. Le symbole є est appelé symbole d'effacement Si on suppose que les deux symboles 0 et 1 sont codés respectivement en -V et +V avant d'être transmis, les perturbations agissant sur le canal de transmission vont modifier ces valeurs --> seuil de décision Florent Dupont 113
114 Canal binaire à effacement densité de probabilité de l'échantillon si "0" émis densité de probabilité de l'échantillon si "1" émis on décide "0" émis zone de non décision on décide "1" émis 2 façons de gérer cette situation : utiliser une voie de retour pour demander la réémission du symbole, utiliser un code correcteur d'erreurs pour "remplir" les effacements, c'est-à-dire remplacer le symbole d'effacement par l'élément binaire effectivement émis. Florent Dupont 114
115 Canal binaire à effacement Matrice de transition 2 sous-matrices de transition 0 1 e 0 1-q 0 q q q 1-q 0 et q 0 1-q q Le canal est symétrique, la capacité est atteinte pour une loi uniforme sur l'entrée. P{Y=0} = 0,5 (1-q) P{Y=1} = 0,5 (1-q) P{Y=e} = q On a donc : H(Y) = - ((1-q) log2 (1-q) + q log2 q - (1-q) log2 2) H(Y/X=0) = - ((1-q) log2 (1-q) + q log2 q) H(Y/X=1) = - ((1-q) log2 (1-q) + q log2 q) H(Y/X) = - ((1-q) log2 (1-q) + q log2 q) soit C = 1-q. Tout se passe comme si la fraction q de l'information correspondant aux symboles effacés était perdue. Florent Dupont 115
116 Codage de canal Après avoir caractérisé un canal du point de vue de la théorie de l'information en introduisant sa capacité, nous allons maintenant nous intéresser à la qualité de la transmission en termes de probabilité d'erreur. 2 théorèmes fondamentaux: Le 2 ème théorème de Shannon qui énonce une condition d'adéquation entre la source et le canal pour obtenir un taux d'erreur aussi faible que souhaité. Le théorème réciproque du deuxième théorème de Shannon qui fournira un minorant de la probabilité d'erreur lorsque la condition d'adéquation source canal n'est pas satisfaite. Florent Dupont 116
117 Codage de canal L'incertitude qui subsiste sur X lorsque Y est connue peut être divisée en deux termes : un premier terme qui correspond à l'incertitude liée à la question de savoir si oui ou non une erreur a été commise ; un second terme relatif à l'incertitude sur le symbole qui a été effectivement émis lorsque l'on commet une erreur (cette incertitude concerne les m-1 symboles autres que celui reçu et ceci avec la probabilité p e ). On obtient donc l'inégalité de Fano : H(X/Y) H 2 (p e )+ p e log 2 (m-1) Florent Dupont 117
118 Codage de canal 2 ème théorème de Shannon Soient un canal discret sans mémoire de capacité C et une source discrète stationnaire d'entropie R. Alors si R < C, є > 0 il existe un code de longueur n tel que la probabilité d'erreur p e après le décodeur soit inférieure à є si le code est utilisé sur le canal. Florent Dupont 118
119 Codage de canal Ce théorème donne tout son sens à la notion de capacité que l'on peut interpréter comme la quantité maximum d'information qui peut être transmise sans erreur. Le résultat énoncé par ce théorème est surprenant, en ce sens qu'a priori, on ne pouvait envisager d'effectuer une transmission sur un canal bruité, avec un taux d'erreur aussi faible que souhaité. Contrairement au théorème de codage de source, le 2 ème théorème de Shannon n'indique pas comment construire le code bloc optimum. Les codes correcteurs d'erreurs permettent de réduire la probabilité d'erreur sur un canal. Cette réduction sera obtenue en ajoutant de la redondance aux messages à transmettre. En pratique, il faut que la condition Entropie < Capacité soit vérifiée sur un même laps de temps. Si le débit source D s = 1/T s (resp. le débit canal D c = 1/T c ), on devra vérifier : entropie unité de temps capacité unité de temps H(X) T C s T c Florent Dupont 119
120 5. Codes détecteurs et codes correcteurs Le nombre d erreurs de transmission est très variable : Probabilité d erreur de 10-3 (RTC de mauvaise qualité) à / opérations peuvent être mises en place : la détection d une erreur, sa localisation et sa correction. La protection peut s appliquer à deux niveaux : au niveau bit ou caractère (bit de parité) ; au niveau de la trame (CRC) ou du paquet réseau. Florent Dupont 120
121 Protection Un codeur est introduit avant la transmission sur le canal et un décodeur est placé en sortie du canal. Perturbations X Codeur Décodeur Y Canal de transmission et récepteur Florent Dupont 121
122 Protection Codeur : introduit de la redondance : C(n,k) = r n : bits à transmettre, k : redondance Il existe différentes classes de codes : En bloc : les r bits rajoutés ne dépendent que des k bits d information. Détection d erreur : parité, codes polynomiaux, codes cycliques. Correction d erreur : codes de Hamming, codes BCH). Conventionnels (ou récurrents). Turbo-codes Florent Dupont 122
123 Codes détecteurs d erreur Parité simple : à chaque caractère, un bit est ajouté. Exemple : parité impaire parité paire Dans ce cas, on est capable de détecter une erreur de parité, mais pas de la localiser. Parité double : à chaque bloc de caractère, on ajoute un champ de contrôle supplémentaire (LRC : Longitudinal Redondancy Check, VRC : Vertical Redondancy Check) Exemple : pour les données parité LRC et VRC paire La suite est émise. La combinaison de LRC et VRC permet de détecter 2 erreurs dans un seul mot ou de corriger 1 erreur. Florent Dupont 123
124 Codes détecteurs d erreur Détection d erreur par code cyclique Un mot de code est représenté sous forme polynomiale dans laquelle la suite de bits à transmettre M=m 1 m 2 m n est représentée par M(x) = u 1 +u 2 x+ +u n x n-1 Par exemple est représenté par 1x 6 +1x 5 +0x 4 +0x 3 +1x 2 +0x+1 c est à dire x 6 +x 5 +x 2 +1 Florent Dupont 124
125 Codes détecteurs d erreur Principe de détection : On utilise le reste R(x) de la division polynomiale M(x) par un polynôme diviseur G(x) qui donne un quotient Q(x). R(x) est calculé par l émetteur puis transmis au récepteur. Le récepteur fait le même calcul R (x) en divisant M(x)+R(x) (message + contrôle). Si R =0 alors pas d erreur, si R 0 alors erreur. M(x) R(x) est divisible par G(x) et est équivalent à M(x) + R(x) modulo 2. Cette méthode fonctionne bien car la table de vérité de l addition (en modulo 2) équivaut au ou exclusif (XOR). Florent Dupont 125
126 Codes détecteurs d erreur Exemple de polynôme générateur : Suivant l avis V41 du CCITT : G(x) = x 16 +x 12 +x 5 +1 Autre exemple : calcul de LRC en série Transmission de 2 octets = LRC LRC sur 1 octet est un code cyclique de polynôme générateur x Florent Dupont 126
127 Codes détecteurs d erreur 2 octets précédents : M(x) = x 14 +x 11 +x 10 +x 8 +x 6 +x 5 +x 3 +x 2 +x+1 x 8 M(x ) = x 22 +x 19 +x 18 +x 16 +x 14 +x 13 +x 11 +x 10 +x 9 + x 8 (on multiplie par x 8 pour faciliter la division) x 8 M(x ) / (x 8 +1) = x 22 +x 19 +x 18 +x 16 +x 14 +x 13 +x 11 +x 10 +x 9 + x 8 x x 5 -x x 14 +x 11 +x 10 +x 8 +x 5 +x ou +x 5 +x R(x)=x 5 +x on trouve comme précédemment!! On transmet donc : Le récepteur divise le message reçu par x 8 +1 pour vérifier qu il n y a pas d erreur. Pour fabriquer ces codes à la volée, on utilise un registre à décalage ainsi que un ou plusieurs ou exclusif. Florent Dupont 127
128 Codes correcteurs d erreur La capacité de correction est d'autant meilleure que les "mots" du code diffèrent beaucoup entre eux. "distance" minimale entre deux mots, la distance étant le nombre de symboles qui diffèrent ; Exemple, la distance dite "de Hamming" «nombre de différences» entre et vaut 2, tandis que celle entre et vaut 4. Plus la distance minimale est élevée, plus le code peut corriger d'erreurs. On peut augmenter la distance minimale entre mots en rajoutant des bits. Mais rallonger le message accroît la durée et le coût des communications. Objectif : trouver des algorithmes de codage performants, qui permettent de détecter et de corriger le maximum d'erreurs, tout en allongeant le moins possible les mots. De plus, les procédures de codage et de décodage doivent être suffisamment simples. Florent Dupont 128
129 Codes correcteurs d erreur Un code de Hamming (R. W. Hamming, années 1950) Dans le code correcteur ci-dessus, les mots de départ a 1 a 2 a 3 a 4 ont quatre bits (il y a donc 2 4 = 16 mots distincts). On rajoute à chaque mot trois bits de contrôle a 5, a 6, a 7 dont la valeur est déterminée par les quatre premiers bits : a 5 = a 1 + a 2 + a 3, a 6 = a 2 + a 3 + a 4, a 7 = a 1 + a 2 + a 4 Ces relations étant calculées "modulo 2", c'est-à-dire en ne retenant que le reste dans la division par 2 (par exemple, = 1, = 0). La distance minimale entre deux mots de ce code vaut 3, ce qui permet de détecter et corriger une erreur sur l'un des sept bits d'un mot. Florent Dupont 129
130 Codes correcteurs d erreur Code correcteur à vérification de synchronisation BCH : Bose Chandhuri Hocquengheim + traitement simple après codage Complémenter à 1 le i ème bit ou bien permutation du i ème bit et du j ème bit. A la réception, on effectue l opération inverse. Si la division ne donne pas le bon résultat : erreur. Florent Dupont 130
131 Codes correcteurs d erreur Exemple de correction d erreur Tout mot de code X = (x 1,, x 15 ) où x 1 x 7 sont des données et x 8 x 15 sont des bits de redondance on doit vérifier H X t = 0 (X t : transposé de X) où H est la matrice de contrôle de parité Florent Dupont 131
132 Codes correcteurs d erreur H Si les bits de données valent , X=( x 8 x 9 x 10 x 11 x 12 x 13 x 14 x 15 ) H X t = 0 s écrit : 1+x 8 +x 9 +x 11 +x 13 +x 14 +x 15 = 0 x 8 +x 10 +x 11 +x 12 +x 13 = 0 x 9 +x 11 +x 12 +x 13 +x 14 = 0 1+x 8 +x x 12 +x 13 +x 14 +x 15 = 0 1 +x 10 +x 11 +x 15 = 0 x 9 +x 10 +x 14 +x 15 = 0 1+x 8 +x 10 +x 13 +x 15 = 0 1+x 8 +x 9 +x 10 +x 12 +x 13 +x 14 +x 15 = 0 Florent Dupont 132
133 Codes correcteurs d erreur Détail du calcul de la 1 ère ligne : ( ) XOR ( x 8 x 9 x 10 x 11 x 12 x 13 x 14 x 15 ) t Après résolution du système d équations (ex : Ligne 4 + ligne 8 x 9 =0), la valeur du mot code est : er cas : détection d erreur si erreur sur le 9 ème bit Y= on calcule Y.H t on trouve ( ) t correspond à la 9 ème colonne de la matrice, on corrige donc le 9 ème bit. 2ème cas : détection d erreur de synchronisation On décide de complémenter à 1 le 9 ème bit pour détecter les erreurs de synchronisation. On reçoit , le récepteur complémente à 1 le 9 ème bit. Z = H.Z t ( ) t somme de la 8 ème et de la 9 ème colonne, on corrige donc les 2 bits concernés. Florent Dupont 133
134 Turbo-codes C. Berrou, A. Glavieux and P. Thitimajshima, "Near Shannon limit error-correcting coding and decoding: turbo codes", in Proc. of ICC '93, Geneva, pp , May 1993 (ENST / France Télécom) Adoptés par : CCSDS (Consultative Committee for Space Data Systems), comité de normalisation pour les agences spatiales mondiales (ESA, NASA, NASDA,...). la première mission européenne avec turbocode est la sonde SMART-1 qui tournera autour de la lune au courant de l année standards de 3ème génération de systèmes de communication : l'umts, en Europe, ou le CDMA2000, aux États-unis et en Asie, sont les applications commerciales les plus connues. D'autres systèmes avec turbocode (INMARSAT, EUTELSAT, DVB-RCS, DVB-RCT, BRAN, IEEE , enregistrement magnétique...) sont d'ores et déjà normalisés ou en cours de spécification. Florent Dupont 134
135 Turbo-codes : principe X t Sortie Message d'origine d t Entrée a t-1 a t-2 a t-3 2 codes convolutifs en parallèle Entrelacement Permutation temporelle Y t Sortie Redondance b t-1 b t-2 b t-3 Z t Sortie Analogie avec les mots croisés : décodage itératif utilisant les lignes et les colonnes Florent Dupont 135
Transmission de données. A) Principaux éléments intervenant dans la transmission
Page 1 / 7 A) Principaux éléments intervenant dans la transmission A.1 Equipement voisins Ordinateur ou terminal Ordinateur ou terminal Canal de transmission ETTD ETTD ETTD : Equipement Terminal de Traitement
Chapitre 2 : communications numériques.
Chapitre 2 : communications numériques. 1) généralités sur les communications numériques. A) production d'un signal numérique : transformation d'un signal analogique en une suite d'éléments binaires notés
I. TRANSMISSION DE DONNEES
TD I. TRANSMISSION DE DONNEES 1. QU'EST-CE QU'UN CANAL DE TRANSMISSION? 1.1 Rappels Une ligne de transmission est une liaison entre les deux machines. On désigne généralement par le terme émetteur la machine
Télécommunications. Plan
Télécommunications A.Maizate - EHTP 2010/2011 Plan Concepts généraux: Téléinformatique Liaison de Téléinformatique Sens de transmission Types de transmission Parallèle Série Techniques de Transmission
UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd
UE 503 L3 MIAGE Initiation Réseau et Programmation Web La couche physique A. Belaïd [email protected] http://www.loria.fr/~abelaid/ Année Universitaire 2011/2012 2 Le Modèle OSI La couche physique ou le
LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION
LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION ) Caractéristiques techniques des supports. L infrastructure d un réseau, la qualité de service offerte,
Les techniques de multiplexage
Les techniques de multiplexage 1 Le multiplexage et démultiplexage En effet, à partir du moment où plusieurs utilisateurs se partagent un seul support de transmission, il est nécessaire de définir le principe
2. Couche physique (Couche 1 OSI et TCP/IP)
2. Couche physique (Couche 1 OSI et TCP/IP) 2.1 Introduction 2.2 Signal 2.3 Support de transmission 2.4 Adaptation du signal aux supports de transmission 2.5 Accès WAN 2.1 Introduction Introduction Rôle
Université de La Rochelle. Réseaux TD n 6
Réseaux TD n 6 Rappels : Théorème de Nyquist (ligne non bruitée) : Dmax = 2H log 2 V Théorème de Shannon (ligne bruitée) : C = H log 2 (1+ S/B) Relation entre débit binaire et rapidité de modulation :
Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE
RANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE Un message numérique est une suite de nombres que l on considérera dans un premier temps comme indépendants.ils sont codés le plus souvent
Signalisation, codage, contrôle d'erreurs
Signalisation, codage, contrôle d'erreurs Objectifs: Plan Comprendre les mécanismes utilisés pour transmettre des informations sur un support physique Comprendre la nécessité de regrouper les informations
Chaine de transmission
Chaine de transmission Chaine de transmission 1. analogiques à l origine 2. convertis en signaux binaires Échantillonnage + quantification + codage 3. brassage des signaux binaires Multiplexage 4. séparation
Chapitre 2 : Techniques de transmission
Chapitre 2 : Techniques de transmission /home/kouna/d01/adp/bcousin/repr/cours/2.fm - 14 Janvier 1998 20:09 Plan. Introduction. Phénomènes caractéristiques. Les éléments de la transmission. La modulation.
Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette
Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où
Fonctions de la couche physique
La Couche physique 01010110 01010110 Couche physique Signal Médium Alain AUBERT [email protected] 0 Fonctions de la couche physique 1 1 Services assurés par la couche physique Transmettre
Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Systèmes de communications numériques 2
Systèmes de Communications Numériques Philippe Ciuciu, Christophe Vignat Laboratoire des Signaux et Systèmes CNRS SUPÉLEC UPS SUPÉLEC, Plateau de Moulon, 91192 Gif-sur-Yvette [email protected] Université
Chapitre I La fonction transmission
Chapitre I La fonction transmission 1. Terminologies 1.1 Mode guidé / non guidé Le signal est le vecteur de l information à transmettre. La transmission s effectue entre un émetteur et un récepteur reliés
Transmission d informations sur le réseau électrique
Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en
TD 1 - Transmission en bande de passe
Claude Duvallet Université du Havre UFR Sciences et Techniques 25 rue Philippe Lebon - BP 540 76058 LE HAVRE CEDEX [email protected] Claude Duvallet 1/10 Transmission en bande de passe (1/2) Description
LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise.
M Informatique Réseaux Cours bis Couche Physique Notes de Cours LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise. Les technologies utilisées sont celles du traitement
La conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA)
La conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA) I. L'intérêt de la conversion de données, problèmes et définitions associés. I.1. Définitions:
Transmission des signaux numériques
Transmission des signaux numériques par Hikmet SARI Chef de Département d Études à la Société Anonyme de Télécommunications (SAT) Professeur Associé à Télécom Paris. Transmission en bande de base... E
ISO/CEI 11172-3 NORME INTERNATIONALE
NORME INTERNATIONALE ISO/CEI 11172-3 Première édition 1993-08-01 Technologies de l information - Codage de l image animée et du son associé pour les supports de stockage numérique jusqu à environ Ii5 Mbit/s
Systèmes de transmission
Systèmes de transmission Conception d une transmission série FABRE Maxime 2012 Introduction La transmission de données désigne le transport de quelque sorte d'information que ce soit, d'un endroit à un
Année 2010-2011. Transmission des données. Nicolas Baudru mél : [email protected] page web : nicolas.baudru.perso.esil.univmed.
Année 2010-2011 Réseaux I Transmission des données Nicolas Baudru mél : [email protected] page web : nicolas.baudru.perso.esil.univmed.fr 1 Plan 1 Notions de signaux 2 Caractéristiques communes
Master d'informatique 1ère année Réseaux et protocoles. Couche physique
Master d'informatique 1ère année Réseaux et protocoles Couche physique Bureau S3-354 Mailto:[email protected] http://saquet.users.greyc.fr/m1/rezopro Supports de communication Quelques exemples :
INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE
INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE Le schéma synoptique ci-dessous décrit les différentes étapes du traitement numérique
Transmissions série et parallèle
1. Introduction : Un signal numérique transmet généralement plusieurs digits binaires. Exemple : 01000001 ( huit bits). Dans une transmission numérique on peut envisager deux modes : les envoyer tous en
Chapitre 18 : Transmettre et stocker de l information
Chapitre 18 : Transmettre et stocker de l information Connaissances et compétences : - Identifier les éléments d une chaîne de transmission d informations. - Recueillir et exploiter des informations concernant
Le concept cellulaire
Le concept cellulaire X. Lagrange Télécom Bretagne 21 Mars 2014 X. Lagrange (Télécom Bretagne) Le concept cellulaire 21/03/14 1 / 57 Introduction : Objectif du cours Soit un opérateur qui dispose d une
TRANSMISSION NUMERIQUE
TRANSMISSION NUMERIQUE 1. SYSTEMES ET CANAUX DE TRANSMISSIONS 1.1. Un système complet pour la transmission numérique 1.2. Intérêts de la transmission numérique 1.3. Définitions 2. CODAGE DE VOIE - CODAGE
LABO 5-6 - 7 PROJET : IMPLEMENTATION D UN MODEM ADSL SOUS MATLAB
LABO 5-6 - 7 PROJET : IMPLEMENTATION D UN MODEM ADSL SOUS MATLAB 5.1 Introduction Au cours de séances précédentes, nous avons appris à utiliser un certain nombre d'outils fondamentaux en traitement du
Chapitre 13 Numérisation de l information
DERNIÈRE IMPRESSION LE 2 septembre 2013 à 17:33 Chapitre 13 Numérisation de l information Table des matières 1 Transmission des informations 2 2 La numérisation 2 2.1 L échantillonage..............................
TD1 Signaux, énergie et puissance, signaux aléatoires
TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver
Systèmes de communications numériques 2
Systèmes de Communications Numériques Philippe Ciuciu, Christophe Vignat Laboratoire des Signaux et Systèmes cnrs supélec ups supélec, Plateau de Moulon, 9119 Gif-sur-Yvette [email protected] Université
xdsl Digital Suscriber Line «Utiliser la totalité de la bande passante du cuivre»
xdsl Digital Suscriber Line «Utiliser la totalité de la bande passante du cuivre» Le marché en France ~ 9 millions d abonnés fin 2005 ~ 6 millions fin 2004 dont la moitié chez l opérateur historique et
TP Modulation Démodulation BPSK
I- INTRODUCTION : TP Modulation Démodulation BPSK La modulation BPSK est une modulation de phase (Phase Shift Keying = saut discret de phase) par signal numérique binaire (Binary). La phase d une porteuse
La couche physique de l ADSL (voie descendante)
La couche physique de l ADSL (voie descendante) Philippe Ciblat École Nationale Supérieure des Télécommunications, Paris, France Problématique qq kilomètres CENTRAL câble de 0,4mm Objectifs initiaux :
Les Réseaux sans fils : IEEE 802.11. F. Nolot
Les Réseaux sans fils : IEEE 802.11 F. Nolot 1 Les Réseaux sans fils : IEEE 802.11 Historique F. Nolot 2 Historique 1er norme publiée en 1997 Débit jusque 2 Mb/s En 1998, norme 802.11b, commercialement
Communications numériques
Communications numériques 1. Modulation numérique (a) message numérique/signal numérique (b) transmission binaire/m-aire en bande de base (c) modulation sur fréquence porteuse (d) paramètres, limite fondamentale
1. Présentation général de l architecture XDSL :
1. Présentation général de l architecture XDSL : Boucle locale : xdsl (Data Subscriber Line). Modem à grande vitesse adapté aux paires de fils métalliques. La lettre x différencie différents types, comme
Expérience 3 Formats de signalisation binaire
Expérience 3 Formats de signalisation binaire Introduction Procédures Effectuez les commandes suivantes: >> xhost nat >> rlogin nat >> setenv DISPLAY machine:0 >> setenv MATLABPATH /gel/usr/telecom/comm_tbx
Technique de codage des formes d'ondes
Technique de codage des formes d'ondes Contenu Introduction Conditions préalables Conditions requises Composants utilisés Conventions Modulation par impulsions et codage Filtrage Échantillon Numérisez
M1107 : Initiation à la mesure du signal. T_MesSig
1/81 M1107 : Initiation à la mesure du signal T_MesSig Frédéric PAYAN IUT Nice Côte d Azur - Département R&T Université de Nice Sophia Antipolis [email protected] 15 octobre 2014 2/81 Curriculum
Numérisation du signal
Chapitre 12 Sciences Physiques - BTS Numérisation du signal 1 Analogique - Numérique. 1.1 Définitions. Signal analogique : un signal analogique s a (t)est un signal continu dont la valeur varie en fonction
UEO11 COURS/TD 1. nombres entiers et réels codés en mémoire centrale. Caractères alphabétiques et caractères spéciaux.
UEO11 COURS/TD 1 Contenu du semestre Cours et TDs sont intégrés L objectif de ce cours équivalent a 6h de cours, 10h de TD et 8h de TP est le suivant : - initiation à l algorithmique - notions de bases
Quantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Introduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Technologies xdsl. 1 Introduction 2 1.1 Une courte histoire d Internet... 2 1.2 La connexion à Internet... 3 1.3 L évolution... 3
Technologies xdsl Table des matières 1 Introduction 2 1.1 Une courte histoire d Internet.......................................... 2 1.2 La connexion à Internet..............................................
G.P. DNS02 Septembre 2012. Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3. Réfraction
DNS Sujet Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3 Réfraction I. Préliminaires 1. Rappeler la valeur et l'unité de la perméabilité magnétique du vide µ 0. Donner
Comme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est:
Travaux Pratiques 3. IFT 1002/IFT 1005. Structure Interne des Ordinateurs. Département d'informatique et de génie logiciel. Université Laval. Hiver 2012. Prof : Bui Minh Duc. Tous les exercices sont indépendants.
Les transmissions et les supports
Chapitre chapitre 1 Les transmissions et les supports Un réseau suppose plusieurs équipements informatiques (ordinateurs fixes ou portables, divers équipements électroniques, téléphones, assistants numériques
TELEVISION NUMERIQUE
REPUBLIQUE DU CAMEROUN Paix - Travail Patrie --------------------- UNIVERSITE DE YAOUNDE I ---------------------- ECOLE NATIONALE SUPERIEURE POLYTECHNIQUE ---------------------- REPUBLIC OF CAMEROUN Peace
LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES
LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES Compétences mises en jeu durant l'activité : Compétences générales : S'impliquer, être autonome. Compétence(s) spécifique(s) : Reconnaître des signaux de nature
Architectures et Protocoles des Réseaux
Chapitre 5 - Les réseaux xdsl Claude Duvallet Université du Havre UFR Sciences et Techniques 25 rue Philippe Lebon - BP 540 76058 LE HAVRE CEDEX [email protected] Claude Duvallet 1/32 Plan de la
Le multiplexage. Sommaire
Sommaire Table des matières 1- GENERALITES... 2 1-1 Introduction... 2 1-2 Multiplexage... 4 1-3 Transmission numérique... 5 2- LA NUMERATION HEXADECIMALE Base 16... 8 3- ARCHITECTURE ET PROTOCOLE DES RESEAUX...
Chap17 - CORRECTİON DES EXERCİCES
Chap17 - CORRECTİON DES EXERCİCES n 3 p528 Le signal a est numérique : il n y a que deux valeurs possibles pour la tension. Le signal b n est pas numérique : il y a alternance entre des signaux divers
CLIP. (Calling Line Identification Presentation) Appareil autonome affichant le numéro appelant
1. Besoin CLIP (Calling Line Identification Presentation) Appareil autonome affichant le numéro appelant ETUDE FONCTIONNELLE De très nombreux abonnés du réseau téléphonique commuté ont exprimé le besoin
PRODUIRE DES SIGNAUX 1 : LES ONDES ELECTROMAGNETIQUES, SUPPORT DE CHOIX POUR TRANSMETTRE DES INFORMATIONS
PRODUIRE DES SIGNAUX 1 : LES ONDES ELECTROMAGNETIQUES, SUPPORT DE CHOIX POUR TRANSMETTRE DES INFORMATIONS Matériel : Un GBF Un haut-parleur Un microphone avec adaptateur fiche banane Une DEL Une résistance
Architecture des ordinateurs TD1 - Portes logiques et premiers circuits
Architecture des ordinateurs TD1 - Portes logiques et premiers circuits 1 Rappel : un peu de logique Exercice 1.1 Remplir la table de vérité suivante : a b a + b ab a + b ab a b 0 0 0 1 1 0 1 1 Exercice
Formats d images. 1 Introduction
Formats d images 1 Introduction Lorsque nous utilisons un ordinateur ou un smartphone l écran constitue un élément principal de l interaction avec la machine. Les images sont donc au cœur de l utilisation
CHAPITRE V. Théorie de l échantillonnage et de la quantification
CHAPITRE V Théorie de l échantillonnage et de la quantification Olivier FRANÇAIS, SOMMAIRE I INTRODUCTION... 3 II THÉORIE DE L ÉCHANTILLONNAGE... 3 II. ACQUISITION DES SIGNAUX... 3 II. MODÉLISATION DE
Telecommunication modulation numérique
Telecommunication modulation numérique Travaux Pratiques (MatLab & Simulink) EOAA Salon de Provence Stéphane BRASSET, Françoise BRIOLLE Édition 2012 Table des matières 1 Modulation/démodulation en bande
TP: Représentation des signaux binaires. 1 Simulation d un message binaire - Codage en ligne
Objectifs : Ce TP est relatif aux différentes méthodes de codage d une information binaire, et à la transmission en bande de base de cette information. Les grandes lignes de ce TP sont l étude des méthodes
Chapitre 22 : (Cours) Numérisation, transmission, et stockage de l information
Chapitre 22 : (Cours) Numérisation, transmission, et stockage de l information I. Nature du signal I.1. Définition Un signal est la représentation physique d une information (température, pression, absorbance,
Structures algébriques
Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe
Cours d Électronique du Tronc Commun S3. Le filtrage optimisé du signal numérique en bande de base. Notion de BRUIT en télécommunication.
IUT MARSEILLE DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE INDUSTRIELLE Diplôme Universitaire de Technologie. Cours d Électronique du Tronc Commun S3. Chapitre 8 : Le filtrage optimisé du signal numérique
Telecommunication modulation numérique
Telecommunication modulation numérique Travaux Pratiques (MatLab & Simulink) EOAA Salon de Provence Françoise BRIOLLE c Édition 2013 Table des matières 1 Modulation/démodulation en bande de base 6 1.1
Codage hiérarchique et multirésolution (JPEG 2000) Codage Vidéo. Représentation de la couleur. Codage canal et codes correcteurs d erreur
Codage hiérarchique et multirésolution (JPEG 000) Codage Vidéo Représentation de la couleur Codage canal et codes correcteurs d erreur Format vectoriel (SVG - Scalable Vector Graphics) Organisation de
CAPTEURS - CHAINES DE MESURES
CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,
Mesures en réception télévision
1. Télévision terrestre analogique Rappels En bande terrestre analogique pour une prise utilisateur le niveau doit être compris entre 57 et 74 dbµv Ces niveaux sont donnés pour un signal de grande qualité.
Echantillonnage Non uniforme
Echantillonnage Non uniforme Marie CHABERT IRIT/INP-ENSEEIHT/ ENSEEIHT/TéSASA Patrice MICHEL et Bernard LACAZE TéSA 1 Plan Introduction Echantillonnage uniforme Echantillonnage irrégulier Comparaison Cas
ADSL. C est comme son nom l indique une liaison asymétrique fort bien adaptée à l Internet et au streaming radio et vidéo.
A Principes de fonctionnement La technologie de l Asymetric Digital Subscriber Line utilisant à travers un modem spécial votre ligne de téléphone permet une connexion permanente à l Internet atteignant
Etudier l influence de différents paramètres sur un phénomène physique Communiquer et argumenter en utilisant un vocabulaire scientifique adapté
Compétences travaillées : Mettre en œuvre un protocole expérimental Etudier l influence de différents paramètres sur un phénomène physique Communiquer et argumenter en utilisant un vocabulaire scientifique
CHAPITRE VIII : Les circuits avec résistances ohmiques
CHAPITRE VIII : Les circuits avec résistances ohmiques VIII. 1 Ce chapitre porte sur les courants et les différences de potentiel dans les circuits. VIII.1 : Les résistances en série et en parallèle On
Chapitre 2 : Systèmes radio mobiles et concepts cellulaires
Chapitre 2 : Systèmes radio mobiles et concepts cellulaires Systèmes cellulaires Réseaux cellulaires analogiques de 1ère génération : AMPS (USA), NMT(Scandinavie), TACS (RU)... Réseaux numériques de 2ème
2. DIFFÉRENTS TYPES DE RÉSEAUX
TABLE DES MATIÈRES 1. INTRODUCTION 1 2. GÉNÉRALITÉS 5 1. RÔLES DES RÉSEAUX 5 1.1. Objectifs techniques 5 1.2. Objectifs utilisateurs 6 2. DIFFÉRENTS TYPES DE RÉSEAUX 7 2.1. Les réseaux locaux 7 2.2. Les
Probabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Digital Subscriber Line
Digital Subscriber Line Bernard Cousin Présentation d'adsl But : Offrir l'accès à l'internet à partir d'un domicile personnel Le cout des réseaux d'accès est très important par rapport à celui du réseau
Traitement du signal avec Scilab : transmission numérique en bande de base
Traitement du signal avec Scilab : transmission numérique en bande de base La transmission d informations numériques en bande de base, même si elle peut paraître simple au premier abord, nécessite un certain
SUJET ZÉRO Epreuve d'informatique et modélisation de systèmes physiques
SUJET ZÉRO Epreuve d'informatique et modélisation de systèmes physiques Durée 4 h Si, au cours de l épreuve, un candidat repère ce qui lui semble être une erreur d énoncé, d une part il le signale au chef
TD : Codage des images
TD : Codage des images Les navigateurs Web (Netscape, IE, Mozilla ) prennent en charge les contenus textuels (au format HTML) ainsi que les images fixes (GIF, JPG, PNG) ou animée (GIF animée). Comment
Dossier technique. Présentation du bus DMX et Utilisation des options EL13 / EL14 ERM AUTOMATISMES INDUSTRIELS 1 LE PROTOCOLE DMX 2
ERM AUTOMATISMES INDUSTRIELS 280 Rue Edouard Daladier 84973 CARPENTRAS Cedex Tél : 04 90 60 05 68 - Fax : 04 90 60 66 26 Site : http://www.erm-automatismes.com/ E-Mail : [email protected] 1
Réseaux grande distance
Chapitre 5 Réseaux grande distance 5.1 Définition Les réseaux à grande distance (WAN) reposent sur une infrastructure très étendue, nécessitant des investissements très lourds. Contrairement aux réseaux
Chapitre 2 Les ondes progressives périodiques
DERNIÈRE IMPRESSION LE er août 203 à 7:04 Chapitre 2 Les ondes progressives périodiques Table des matières Onde périodique 2 2 Les ondes sinusoïdales 3 3 Les ondes acoustiques 4 3. Les sons audibles.............................
Electron S.R.L. - MERLINO - MILAN ITALIE Tel (++ 39 02) 90659200 Fax 90659180 Web www.electron.it, e-mail [email protected]
Electron S.R.L. Design Production & Trading of Educational Equipment B3510--II APPLIICATIIONS DE TRANSDUCTEURS A ULTRASONS MANUEL D IINSTRUCTIIONS POUR L ETUDIIANT Electron S.R.L. - MERLINO - MILAN ITALIE
DOSSIER ADSL. DEMARCHE DE TRAVAIL : Consultez rapidement le dossier avant de commencer Complétez le dossier en suivant les indications du document
DOSSIER ADSL OBJECTIFS DU DOSSIER : Dans le dossier suivant, nous vous proposons de découvrir les spécificités des lignes à haut débit. Nous verrons notamment deux dossiers : L ADSL (Asymmetric Digital
SYSTEME DE PALPAGE A TRANSMISSION RADIO ETUDE DU RECEPTEUR (MI16) DOSSIER DE PRESENTATION. Contenu du dossier :
SYSTEME DE PALPAGE A TRANSMISSION RADIO ETUDE DU RECEPTEUR (MI16) DOSSIER DE PRESENTATION Contenu du dossier : 1. PRESENTATION DU SYSTEME DE PALPAGE A TRANSMISSION RADIO....1 1.1. DESCRIPTION DU FABRICANT....1
Réseaux : Wi-Fi Sommaire. 1. Introduction. 2. Modes de fonctionnement. 3. Le médium. 4. La loi. 5. Sécurité
Réseau Wi-Fi Sommaire 1. Introduction 2. Modes de fonctionnement 3. Le médium 4. La loi 5. Sécurité 2 Introduction Le terme Wi-Fi suggère la contraction de Wireless Fidelity, par analogie au terme Hi-Fi.
TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S
FICHE Fiche à destination des enseignants TS 35 Numériser Type d'activité Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S Compétences
1 Introduction au codage
CélestineOscarDésiréAnatoleGastonEugène 1 Introduction au codage 1.1 Les ensembles L ensemble de tout les ensembles est Dieu lui-même. Kantor Ensemble des parties d un ensemble désigne l ensemble des sous-ensembles
Licence Sciences et Technologies Examen janvier 2010
Université de Provence Introduction à l Informatique Licence Sciences et Technologies Examen janvier 2010 Année 2009-10 Aucun document n est autorisé Les exercices peuvent être traités dans le désordre.
Les portes logiques. Voici les symboles des trois fonctions de base. Portes AND. Portes OR. Porte NOT
Les portes logiques Nous avons jusqu ici utilisé des boutons poussoirs et une lampe pour illustrer le fonctionnement des opérateurs logiques. En électronique digitale, les opérations logiques sont effectuées
Travaux pratiques. Compression en codage de Huffman. 1.3. Organisation d un projet de programmation
Université de Savoie Module ETRS711 Travaux pratiques Compression en codage de Huffman 1. Organisation du projet 1.1. Objectifs Le but de ce projet est d'écrire un programme permettant de compresser des
Ecole Centrale d Electronique VA «Réseaux haut débit et multimédia» Novembre 2009
Ecole Centrale d Electronique VA «Réseaux haut débit et multimédia» Novembre 2009 1 Les fibres optiques : caractéristiques et fabrication 2 Les composants optoélectroniques 3 Les amplificateurs optiques
Cryptographie et fonctions à sens unique
Cryptographie et fonctions à sens unique Pierre Rouchon Centre Automatique et Systèmes Mines ParisTech [email protected] Octobre 2012 P.Rouchon (Mines ParisTech) Cryptographie et fonctions
