Chapitre 6. Canaux et signaux continus

Documents pareils
Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Communications numériques

Transmission d informations sur le réseau électrique

Systèmes de communications numériques 2

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Systèmes de communications numériques 2

Transmission des signaux numériques

Transmission de données. A) Principaux éléments intervenant dans la transmission

Fonctions de plusieurs variables

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

Chaine de transmission

Les techniques de multiplexage

Université de La Rochelle. Réseaux TD n 6

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE

Expérience 3 Formats de signalisation binaire

Chapitre I La fonction transmission

LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise.

Numérisation du signal

M1107 : Initiation à la mesure du signal. T_MesSig

Intérêt du découpage en sous-bandes pour l analyse spectrale

Probabilités sur un univers fini

Systèmes de transmission

TP Modulation Démodulation BPSK

Bandes Critiques et Masquage

Traitement du signal avec Scilab : transmission numérique en bande de base

LABO PROJET : IMPLEMENTATION D UN MODEM ADSL SOUS MATLAB

TD1 Signaux, énergie et puissance, signaux aléatoires

Chapitre 2 Les ondes progressives périodiques

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Le concept cellulaire

I. TRANSMISSION DE DONNEES

Travaux dirigés d introduction aux Probabilités

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

1.1 Codage de source et test d hypothèse

Texte Agrégation limitée par diffusion interne

Chapitre 2 : communications numériques.

Cours Fonctions de deux variables

Etudier l influence de différents paramètres sur un phénomène physique Communiquer et argumenter en utilisant un vocabulaire scientifique adapté

G.P. DNS02 Septembre Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3. Réfraction

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Quantification Scalaire et Prédictive

Le modèle de Black et Scholes

Les réseaux cellulaires

Chapitre 2 : Systèmes radio mobiles et concepts cellulaires

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Principe de symétrisation pour la construction d un test adaptatif

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S

Comparaison de fonctions Développements limités. Chapitre 10

Cours d Électronique du Tronc Commun S3. Le filtrage optimisé du signal numérique en bande de base. Notion de BRUIT en télécommunication.

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Limites finies en un point

Cryptographie Quantique

Chapitre 13 Numérisation de l information

Probabilités III Introduction à l évaluation d options

TD1 PROPAGATION DANS UN MILIEU PRESENTANT UN GRADIENT D'INDICE

PROBABILITES ET STATISTIQUE I&II

Programmation linéaire

TP: Représentation des signaux binaires. 1 Simulation d un message binaire - Codage en ligne

1. Présentation général de l architecture XDSL :

La couche physique de l ADSL (voie descendante)

TD : Codage des images

Année Transmission des données. Nicolas Baudru mél : nicolas.baudru@esil.univmed.fr page web : nicolas.baudru.perso.esil.univmed.

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

P1PY7204 Acquisition de données Cours

CHAPITRE V. Théorie de l échantillonnage et de la quantification

Cours 9. Régimes du transistor MOS

Formats d images. 1 Introduction

Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test

TELEVISION NUMERIQUE

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Filtres passe-bas. On utilise les filtres passe-bas pour réduire l amplitude des composantes de fréquences supérieures à la celle de la coupure.

ISO/CEI NORME INTERNATIONALE

Conversion d un entier. Méthode par soustraction

Telecommunication modulation numérique

OM 1 Outils mathématiques : fonction de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

PEUT-ON «VOIR» DANS L ESPACE À N DIMENSIONS?

Moments des variables aléatoires réelles

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

La classification automatique de données quantitatives

Continuité et dérivabilité d une fonction

BTS Groupement A. Mathématiques Session Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

Suites numériques 3. 1 Convergence et limite d une suite

Projet de Traitement du Signal Segmentation d images SAR

Image d un intervalle par une fonction continue

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Précision d un résultat et calculs d incertitudes

Température corporelle d un castor (une petite introduction aux séries temporelles)

Signalisation, codage, contrôle d'erreurs

Finance, Navier-Stokes, et la calibration

Suites numériques 4. 1 Autres recettes pour calculer les limites

Fonctions de la couche physique

Chapitre 2 : Techniques de transmission

Transcription:

Chapitre 6. Canaux et signaux continus 1. Notions de base (survol rapide voir notes àtête reposée) (a) Processus aléatoires en temps continu (b) Théorème d échantillonnage (c) Entropies différentielles et théorème AEP. Canaux continus (a) Canal Gaussien (modèle abstrait, en temps discret) (b) Canaux à bande passante limitée (en temps continu) (c) Canaux parallèles et bruit coloré (d) Espaces de signaux (introduction au traitement du signal) 1

Processus aléatoires en temps continu 1. Fonction aléatoire (très général) Espace probabilisé:! Ensemble d indices (fini, infini, continu ) Fonction aléatoire : une fonction de deux arguments :! (1). Spécialisation (dans ce chapitre) et : valeurs et temps continu.! : peut être discret ou continu (p.ex. : source discrète, canal continu) Ressemble à un vecteur aléatoire de dimension infinie... Si on fixe : devient une v.a. classique (on la note ) Si on fixe : devient une fonction classique

Modélisation probabiliste de processus aléatoires NB. En principe une conséquence de la définition et de la loi!. définie sur Point de vue descriptif : Loi de probabilité fini-dimensionnelle du processus à l ordre = la loi du vecteur aléatoire 1 ; donnée pour toute suite d instants 1. Loi temporelle d un processus aléatoire = l ensemble de toutes les lois finidimensionnelles du processus à tout ordre. Processus Gaussien = processus dont toutes les lois fini-dimensionnelles sont Gaussiennes. Processus blanc = processus dont toutes les lois fini-dimensionnelles se factorisent (indépendance). Processus Gaussien blanc = processus Gaussien avec matrices de variancecovariance diagonales. 3

Notions élémentaires Moyenne du processus aléatoire (fonction du temps) : Processus centré si moyenne identiquement nulle. Sinon, version centrée = 3 Fonction d autocovariance (parfois d autocorrélation) (deux arguments) On a 1 1 4 1. 0,. 1 1, 3. 1 1 1 (inégalité de Schwarz). 4

Stationnarité/ergodicité Voir notes pour les détails et précautions... Stationnarité au sens large 1. constante.. 1 ne dépend que de la différence 1 (on note ) Densité spectrale de puissance (processus stationnaire) (Ici définition mathématique, interprétations : voir cours sur les proc.al.) 5 (transformée de Fourier de.) Interprétation : moyenne). spectre de la répartition de puissance dans le signal (en Autres définition : espérance mathématique du carré du spectre des réalisations 5

Théorème d échantillonnage (Shannon et Nyquist) Trajectoire d un processus (aléatoire ou non) limitée en fréquence : transformée de Fourier de 6 existe et soit telle que où 0 désigne la largeur de bande du signal (en Hz). 0 0 7 Le théorème d échantillonnage dit que la fonction complètement déterminée par des échantillons est dans ces conditions 0 1 0 1 Considérons la fonction sinc sinc définie par sin 8 6

Cette fonction vaut 1 en 0 et sinc 0 0. A partir de cette fonction on peut construire une base orthonormée de signaux limités en fréquence dans la bande 0 0 comme suit : 0 sinc 0 0 1 0 1 9 Cette base est orthonormée car 10 Donc la fonction 0 0 11 est évidemment identique à aux instants d échantillonnage. Comme cette fonction et une superposition de fonctions à spectre limité dans une même bande, elle est aussi à spectre limité dans cette bande. Le théorème d échantillonnage garantit donc qu elle doit être identique à. 7

Entropies différentielles (Rappels) log [ ] 1 (extension au cas de vecteurs aléatoires : intégrale multiple) Invariante par translation de la v.a. Produit par une matrice (non-singulière) : il faut ajouter log Exemples : Loi uniforme log Vol 13 Plus généralement, soit une v.a. Gaussienne dans, alors 1 log 14 où désigne le déterminant de (nécessairement non-négatif). 8

Propriétés de la loi Gaussienne La loi Gaussienne est la loi qui maximise l entropie différentielle sous les contraintes et Var. Comme Var, on en déduit immédiatement que la loi qui maximise l entropie sous la seule contrainte d égalité est la loi Gaussienne 0. Donc, finalement : la loi qui maximise l entropie sous la contrainte d inégalité 0 est la loi Gaussienne 0 0. Propriétés de la loi uniforme La loi uniforme sur un ensemble contrainte 1. est la loi qui maximise l entropie sous la Autres remarques L entropie différentielle de lois multidimensionnelles dégénérées (la probabilité étant concentrée sur un ensemble de volume nul) n est pas définie. 9

Théorème AEP pour des v.a. continues Le théorème AEP reste valable à condition d effectuer les changements suivants : (remplacement des probabilités par des densités), (remplacement de l entropie par l entropie différentielle), Vol (remplacement des cardinalités par des volumes). Il se formule donc de la manière suivante : Soit 1 une suite de v.a. i.i.d. selon. Alors 1 log 1 log 15 10

Ensembles typiques Pour 0 et, ensemble typique par rapport à la densité : 1 : où 1 1. 1 log 1 16 L ensemble typique a les propriétés fondamentales suivantes : 1. 1, pour suffisamment grand.. Vol, pour tout. 3. Vol 1, pour suffisamment grand. De plus, on montre que le volume minimal de tout sous-ensemble de de probabilité supérieure à1 est essentiellement le volume de l ensemble typique. 11

Canaux continus (alphabet d entrée et de sortie continu ) Un canal continu peut être continu ou discret en temps. Un canal continu peut être utilisé avec des entrées discrètes (cf. modulation) Modèle simple = bruit additif Gaussien : 0 NB. Capacité infinie si 0, ou si est illimité (puissance du signal illimitée). Puissance moyenne (par symbole transmis) limitée : toute suite de symboles 1 transmise sur le canal vérifie 1 1 17 Si les signaux d entrée sont ergodiques (ce que nous supposerons être le cas dans ce qui suit), cette contrainte devient lorsque équivalente à la contrainte 18 1

Capacité du canal Gaussien Deux approches : 1. Alphabet d entrée discret (p.ex. binaire) : 1 1.. Alphabet d entrée sans contrainte : 1 log 1. Explications: 1. Alphabet binaire discret : Sous la contrainte de puissance : et. : canal binaire symétrique avec.. Capacité sans restrictions supplémentaires : Comme le canal est sans mémoire (bruit i.i.d.), on peut supposer que les entrées sont également indépendantes : on raisonne symbole par symbole (on suppose que les entrées sont i.i.d. selon une loi.) 13

Définition : capacité en information = max : ;. On montre (cf. notes) : Capacité est réalisée pour 0 et vaut 1 log 1. N.B : 1. Dans ce cas, la sortie est distribuée en loi 0.. Résultat conceptuellement analogue au cas du canal symétrique binaire. Discussion (intuitivement évident) : L utilisation d un alphabet continu permet en principe d augmenter la capacité. D autant plus que le rapport signal/bruit est élevé. Montrons que la capacité en information est égale au débit maximum atteignable... 14

Code Un code pour le canal Gaussien avec limitation de puissance consiste en : 1. Un ensemble d indices 1.. Une fonction d encodage : 1, produisant les mots de code 1 qui vérifient la contrainte de puissance moyenne pour chaque mot de code, i.e. 1 1 19 3. Une fonction de décodage : 1. Débit réalisable Un débit est dit réalisable pour le canal Gaussien avec limitation de puissance s il existe une suite de codes (respectant la limitation de puissance) telle que la probabilité d erreur maximale tende vers zéro. 15

Empilement de sphères (argument de plausibilité) On se pace dans la situation qui réalise la capacité en information. Si on émet un vecteur donné de dimension, le signal reçu est confiné (avec probabilité proche de 1) dans une boule centrée en de rayon. En fait, le signal tend à se concentrer à la surface de la sphère, car 1 1. Plaçons les signaux d entrée de manière à ce que les sphères ne se recouvrent pas : combien de sphères peut on ainsi empiler? Comme signaux limités en puissance : ils doivent se trouver à l intérieur d une sphère de rayon. On montre que les vecteurs reçus sont alors confinés (quel que soit le code utilisé) dans une sphère de rayon. Rapport des volumes : sphère de réception/sphères de bruit = log 1 fixe une borne à. qui 16

17

couronne en sortie couronnes de bruit couronne à l entrée 18

Démonstrations réelles voir notes Applications : canaux à bande passante limitée Modèle : où est le signal temporel d entrée, une réalisation de bruit blanc Gaussien et est la réponse impulsionnelle d un filtre passe bande idéal qui coupe toutes les composantes fréquentielles au-delà d un seuil 0 (le symbole désigne le produit de convolution). 0 NB: un bruit blanc 0, et tel que est un processus aléatoire stationnaire tel que 0 1 0 où représente l impulsion de Dirac (idéalisation mathématique) et la variance du bruit. Le bruit blanc est dit Gaussien si de plus, les suivent une loi Gaussienne. 19

Comme le signal en sortie est limité en fréquence, on peut considérer que les entrées et les sorties sont définies par les échantillons aux instants 0. On montre que, pour un bruit blanc ces échantillons sont i.i.d. 0 0 0. Supposons que nous disposions d une puissance d émission : on peut générer un signal aléatoire Gaussien limité en fréquence en choisissant les échantillons distribués selon une loi 0. On a donc une capacité (par utilisation du canal, i.e. par échantillon) qui vaut : 1 log 1 0 0 et comme il y a 0 échantillons par seconde, on obtient bits par échantillon 0 log 1 0 0 bits par seconde 3 En pratique, 0 est une donnée physique. et 0 sont des grandeurs sur lesquelles l ingénieur peut agir. 0

NB: la capacité croît avec la largeur de bande lim 0 0 log 1 0 0 0 log bits par seconde 4 Si la largeur de bande est très large, on peut utiliser des schémas de modulation discrets (p.ex. binaire) : la capacité exploitable, à la limite vaut environ 63% de la capacité théoriquement atteignable (cela est lié à la décision brute à la sortie du démodulateur ). Exemple La largeur de bande d une ligne téléphonique est limitée à 3300Hz (ce qui convient parfaitement à la parole). En supposant que le rapport signal bruit soit de 0dB ( 10 log 10 0 0 ) on a et on calcule que 0 0 100 1 97 bits par seconde. 1

Conclusions générales Si bande étroite et rapport signal bruit élevé : le codage de canal est peu utile. Si rapport signal bruit faible, mais bande de fréquence large : codage de canal nécessaire. Si bande de fréquence plus large, la plage de puissance ou la croissance de la capacité est plus large. Si rapport signal bruit élevé: modulations discrètes pénalisées. Autres résultats (voir notes) Décodage : reconnaître le signal envoyé sur le canal. Approximation : codage discret de signaux continus. Canaux parallèles et canaux avec spectre de bruit quelconque :

3 0 1 4 3 1 4 3

Moralité Théorie de l information dit : il faut exploiter un canal en maximisant la discernabilité des signaux envoyés, compte tenu des déformations introduites par le canal, et des limitations techniques imposées au concepteur. On peut augmenter la dimensionnalité des espaces de signaux pour atteindre la capacité. Dans certains cas, il faut augmenter l alphabet de source (nombre de niveaux possibles pour chaque symbole). Dans d autres cas il faut coder des messages plus longs (réseaux de points dans un espace multidimensionnel). 4

Ce que ne nous n avons pas pu voir: Codes sur un espace euclidien (Signaux et canaux continus) Cryptographie (Rendre le décodage difficile) Théorie de la distorsion (Compression irréversible) Théorie de l information de réseaux de communication Relation entre théorie de l information et physique statistique (Thermodynamique) Applications de la théorie de l information (statistiques et apprentissage automatique) Complexité de Kolmogorov (relations avec l informatique théorique : décidabilité, complexité ) 5