Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34



Documents pareils
Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Transmission d informations sur le réseau électrique

Théorie et codage de l information

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

1.1 Codage de source et test d hypothèse

Systèmes de communications numériques 2

Texte Agrégation limitée par diffusion interne

Travaux dirigés d introduction aux Probabilités

Une introduction aux codes correcteurs quantiques

Communications numériques

Quantification Scalaire et Prédictive

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses

Codage hiérarchique et multirésolution (JPEG 2000) Codage Vidéo. Représentation de la couleur. Codage canal et codes correcteurs d erreur

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

ÉPREUVE COMMUNE DE TIPE Partie D

Amphi 3: Espaces complets - Applications linéaires continues

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Simulation de variables aléatoires

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Résolution d équations non linéaires

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Probabilités sur un univers fini

Optimisation Discrète

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

3. Conditionnement P (B)

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Probabilités. C. Charignon. I Cours 3

4 Distributions particulières de probabilités

Loi d une variable discrète

Programmes des classes préparatoires aux Grandes Ecoles

Plus courts chemins, programmation dynamique

ISO/CEI NORME INTERNATIONALE

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Transmission de données. A) Principaux éléments intervenant dans la transmission

Cours d Analyse. Fonctions de plusieurs variables

Loi binomiale Lois normales

Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Espérance conditionnelle

Corrigé du baccalauréat S Pondichéry 12 avril 2007

Qu est-ce qu une probabilité?

Exercices sur le chapitre «Probabilités»

Probabilités sur un univers fini

Université de La Rochelle. Réseaux TD n 6

Moments des variables aléatoires réelles

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies

Cryptographie et fonctions à sens unique

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Coefficients binomiaux

Architecture des ordinateurs TD1 - Portes logiques et premiers circuits

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

I. TRANSMISSION DE DONNEES

Correction du baccalauréat ES/L Métropole 20 juin 2014

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

P1 : Corrigés des exercices

Groupe symétrique. Chapitre II. 1 Définitions et généralités

Projet d informatique M1BI : Compression et décompression de texte. 1 Généralités sur la compression/décompression de texte

Couples de variables aléatoires discrètes

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

TSTI 2D CH X : Exemples de lois à densité 1

Simulation centrée individus

Calculs de probabilités avec la loi normale

Correction du Baccalauréat S Amérique du Nord mai 2007

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

Intégration et probabilités TD1 Espaces mesurés Corrigé

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

PROBABILITES ET STATISTIQUE I&II

3 Approximation de solutions d équations

Exemples de problèmes et d applications. INF6953 Exemples de problèmes 1

Chaînes de Markov au lycée


Introduction à la statistique non paramétrique

Cryptographie Quantique

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Chapitre 2 Le problème de l unicité des solutions

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Université Paris-Dauphine DUMI2E 1ère année, Applications

Algorithmique et Programmation, IMA

Probabilités conditionnelles Loi binomiale

Lois de probabilité. Anita Burgun

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Intégration et probabilités TD1 Espaces mesurés

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Cours de Probabilités et de Statistique

CRYPTOGRAPHIE. Signature électronique. E. Bresson. SGDN/DCSSI Laboratoire de cryptographie

Cours d analyse numérique SMI-S4

Chapitre 2 : communications numériques.

Transcription:

Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34

Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second théorème de Shannon ; esquisse de preuves. Théorie de l information 2/34

1. Canal discret sans mémoire Définition Un canal discret est défini par la donnée de un alphabet d entrée X = {a 1,..., a K } un alphabet de sortie Y = {b 1,..., b J } une loi de transition P Y X, i.e. une matrice stochastique Π = P(b 1 a 1 )... P(b J a 1 )..... P(b 1 a K )... P(b J a K ) Le canal est sans mémoire si pour tout (x 1,..., x n ) transmis et (y 1,..., y n ) reçu, on a P(y 1,..., y n x 1,..., x n ) = P(y 1 x 1 )... P(y n x n ). Nous étudierons principalement les canaux sans mémoire. Théorie de l information 3/34

Exemple Canal binaire symétrique 1 p 0 0 p p 1 1 1 p La matrice stochastique est ( 1 p p p 1 p ). p est appelé probabilité de transition ou probabilité d erreur du canal. Théorie de l information 4/34

Canal à effacement 1 p 0 0 p ε 1 p 1 p 1 Π = ( 1 p p 0 0 p 1 p ). Théorie de l information 5/34

2. Capacité La capacité d un canal est définie par l information mutuelle maximale entre une variable aléatoire X à valeurs sur l alphabet d entrée du canal et sa sortie correspondante Y par le canal : C X def = sup I(X; Y ) avec X canal Y Théorie de l information 6/34

Capacité On remarquera que I(X; Y ) peut s écrire en fonction des seules lois de transition et d émission : I(X; Y ) = x,y P(y x)p(x) log 2 P(y x) P(y) P(y) = x P(y x)p(x). Théorie de l information 7/34

Capacité du canal binaire à effacement 1 p 0 0 p ε 1 p 1 p 1 C = max p(x) I(X; Y ) = max(h(y ) H(Y X)) p(x) Noter que H(Y X) = P(X = 0)h(p) + P(X = 1)h(p) = h(p) avec h(p) def = p log 2 p (1 p) log 2 (1 p). Théorie de l information 8/34

Capacité du canal binaire à effacement (II) Posons a def = P(X = 1), on a : P(Y = 1) = a(1 p) P(Y = 0) = (1 a)(1 p) P(Y = ɛ) = ap + (1 a)p = p H(Y ) = a(1 p) log a(1 p) (1 a)(1 p) log(1 a)(1 p) p log p = (1 p)h(a) + h(p) Donc C = max(1 p)h(a) = 1 p a Théorie de l information 9/34

Canal en Z 1 0 0 p 1 1 1 p La matrice stochastique est ( 1 0 p 1 p ). Pour une distribution x def = P(X = 1), on a I(X; Y ) = h(x(1 p)) xh(p) Maximum atteint en x = ( ( )) 1 (1 p) 1 + 2 h(p) 1 p Théorie de l information 10/34

Canaux symétriques Définition Un canal discret est dit symétrique si les lignes et les colonnes de sa matrice stochastique sont égales à une permutation près. Proposition 1. X. Dans un canal symétrique H(Y X) ne dépend pas de H(Y X) = y P (y x) log 2 P (y x). Théorie de l information 11/34

Preuve H(Y X) = x,y P (x, y) log 2 P (y x) = x P (x) y P (y x) log 2 P (y x) = x P (x)h(π) = H(Π) où H(Π) = y P (y x) log 2 P (y x) est indépendent de x. Théorie de l information 12/34

Capacité d un canal symétrique donc C = sup X I(X; Y ) = sup(h(y ) H(Y X)) = sup(h(y )) H(Π) log 2 Y H(Π). L entropie est maximisée quand la distribution de Y est uniforme. On a que Y est uniforme quand X est uniforme pour un canal symétrique. Théorie de l information 13/34

Capacité d un canal symétrique (II) Proposition 2. La capacité d un canal fortement symétrique est atteinte pour une loi d émission uniforme et vaut C = log 2 Y H(Π) Théorie de l information 14/34

Exemple Capacité du canal binaire symétrique : C = 1 h(p) A comparer avec la capacité du canal binaire à effacement : C = 1 p Théorie de l information 15/34

3. Codage de canal Théorie de l information 16/34

Codage de canal Nous considérons un canal discret T = (X, Y, Π) Définition Un code en bloc de longueur n et de cardinal M est M séquences de n lettres de X. Nous parlerons de code (M, n). Le taux de transmission d un code est égal à R = log 2 M n Un code va permettre de coder une quantité d information égale à log 2 M bits, par unité de temps. R est aussi le nombre de bits transmis par usage du canal. Un codeur est une procédure qui associe à toute séquence binaire finie une séquence finie de lettres de X. Théorie de l information 17/34

Performance d un code Décodage Soit C un code en bloc (M, n) utilisé dans un canal discret (X, Y, Π) Définition Un algorithme de décodage de C est une procédure qui a tout bloc de n lettres de Y associe un mot de code de C. L événement mauvais décodage pour un algorithme de décodage et un canal donné est défini par : Un mot de code x C X n est transmis à travers le canal, le mot y Y n est reçu et est décodé en x x. Définition Le taux d erreur de C (dans le canal considéré) noté P e (C, x) est la probabilité de mauvais décodage quand x est transmis Théorie de l information 18/34

Exemples pour le canal binaire symétrique Code à répétition de longueur 3 C = {000, 111} Code de parité de longueur 4 C = {0000, 0011, 0101, 0110, 1001, 1010, 1100, 1111} Théorie de l information 19/34

Code de Hamming de longueur 7 C = {0000000, 1101000, 0110100, 0011010, 0001101, 1000110, 0100011, 1010001, 1111111, 0010111, 1001011, 1100101, 1110010, 0111001, 1011100, 0101110} Théorie de l information 20/34

Décodage du code de Hamming La distance de Hamming d(x, y) est d(x, y) = {i; x i y i } On vérifie que tous les mots du code de Hamming sont au moins à distance trois les uns des autres. Donc les boules de rayon 1 centrées sur les mots de code ne s intersectent pas. On vérifie aussi que tout mot de l espace ambiant {0, 1} 7 est à distance au plus 1 d un mot de code : 16(1 + 7) = 2 4 2 3 = 2 7. Algorithme de décodage : pour y reçu, retourner le mot de code x à distance au plus 1 de y. Théorie de l information 21/34

Second théorème de Shannon Théorème 1. Soit un canal discret sans mémoire de capacité C. Pour tout R < C, il existe une suite de codes en bloc avec un algorithme de décodage associé (C n (M, n)) n>0 de taux de transmission R n telle que lim R n = R et lim sup P e (C n, x) = 0 n n x C n Théorème 2. Soit un canal discret sans mémoire de capacité C. Tout code C de taux de transmission R > C vérifie 1 M x C P e(c, x) > K(C, R), où K(C, R) > 0 dépend du canal et du taux de transmission mais est indépendant de la longueur du code. Théorie de l information 22/34

Exposant d erreur On peut même montrer une version plus forte du théorème de Shannon : lorsque n croit, pour la plupart des codes en bloc de longueur n et de taux de transmission R, le taux d erreur dans un canal de capacité C s écrit sup x P e (C, x) e ne(r) où E(R) est appelé l exposant d erreur. Il dépend du canal et du taux de transmission, mais pas de n et vérifie E(R) > 0 si R < C Théorie de l information 23/34

Les séquences simultanément typiques Définition [Ensemble simultanément typique] Soient (X (n), Y (n) ) un couple de v.a. prenant ses valeurs dans un ensemble discret A n B n, p(x, y) la loi conjointe de (X (n), Y (n) ), p(x) et p(y) les lois de X (n) et Y (n) respectivement. L ensemble des séquences simultanément typiques T (n) ɛ est donné par T (n) ɛ = {(x, y) A n B n : 1 n 1 n 1 n ( log 2 p(x) H(X (n) )) < ɛ (1) ( log 2 p(y) H(Y (n) )) < ɛ (2) ( log 2 p(x, y) H(X (n), Y )) } (n) < ɛ Théorie de l information 24/34 (3)

Théorème 3. Soient (X i, Y i ) une suite de couples de v.a. i.i.d à valeurs dans A B de même loi que (X, Y ). On définit T ɛ (n) à partir de (X (n), Y (n) ) avec X (n)def = (X 1, X 2,..., X n ) et Y (n)def = (Y 1, Y 2,..., Y n ). Alors 1. Prob(T ɛ (n) ) > 1 ɛ pour n suffisamment grand. 2. T ɛ (n) 2 n(h(x,y )+ɛ). ( ) 3. Soient X(n), Ỹ (n) un couple de variables aléatoires vectorielles indépendantes avec X (n) X (n) et Ỹ (n) Y (n). Alors, {( Prob X(n), Ỹ (n)) } T ɛ (n) 2 n(i(x;y ) 3ɛ). Par ailleurs, pour n suffisamment grand {( Prob X(n), Ỹ (n)) } T ɛ (n) (1 ɛ)2 n(i(x;y )+3ɛ). Théorie de l information 25/34

Preuve du point 3. p {( X(n), Ỹ (n)) } T ɛ (n) = (x,y) T (n) ɛ p(x)p(y) T ɛ (n) 2 n(h(x) ɛ) n(h(y ) ɛ) 2 2 (nh(x,y )+ɛ) 2 n(h(x) ɛ) n(h(y ) ɛ) 2 = 2 n(i(x;y ) 3ɛ). Théorie de l information 26/34

Preuve du point 3. (II) p {( X(n), Ỹ (n)) } T ɛ (n) = (x,y) T (n) ɛ p(x)p(y) T ɛ (n) 2 n(h(x)+ɛ) n(h(y )+ɛ) 2 (1 ɛ)2 n(h(x,y ) ɛ) 2 n(h(x)+ɛ) n(h(y )+ɛ) 2 = (1 ɛ)2 n(i(x;y )+3ɛ). Théorie de l information 27/34

La partie directe du théorème de Shannon Argument essentiel : choix aléatoire du code! On commence par choisir une probabilité P sur l alphabet d entrée A du canal. On choisit ensuite un code de longueur n de rendement R (on suppose ici que Rn est entier) en choisissant aléatoirement (sans remise) 2 nr mots de A n au hasard suivant la distribution P (n) sur A n donnée par P (n) (x 1, x 2,..., x n ) = Π n i=1p(x i ). Théorie de l information 28/34

Décodage par ensemble typique x mot transmis et y le mot reçu. On désigne par x 1, x 2,..., x 2nR 2 nr mots de code. 1. calculer les 2 nr probabilités P(mot reçu = y, mot émis = x s ) pour s {1,..., 2 nr }. 2. si plus d un couple ou moins d un (x i, y) est ɛ-simultanément typique échec au décodage. 3. Sinon sortir le seul x s t.q. (x s, y) soit simultanément typique. les Théorie de l information 29/34

Analyse du décodeur Ce décodeur peut donc échouer pour deux raisons : - le vrai couple (x, y) n est pas simultanément typique (évènement E 0 ), - il existe au moins un des 2 nr 1 couples (x s, y) qui soit simultanément typique pour x s x, (évènement E 1 ). Prob(erreur au décodage) = Prob(E 0 E 1 ) Prob(E 0 ) + Prob(E 1 ) Théorie de l information 30/34

La probabilité d une erreur de type 1 Prob(E 0 ) = Prob = 1 Prob(T (n) ɛ ) ( ) (X (n), Y (n) ) n est pas typique En utilisant le point 1. du théorème 3, nous avons que 1 Prob(T ɛ (n) ) ɛ. Théorie de l information 31/34

La probabilité d une erreur de type 2 Prob(E 1 ) = Prob ( s:xs x {(x s, y) est typique}) Prob ((x s, y) est typique) s:x s x ( X (n), Ỹ (n) ) où X (n) X (n) Ỹ (n) X (n) et ( X (n), Ỹ (n) ) indépendants Prob ((x s, y) est typique) = Prob ( ( X ) (n), Ỹ (n) ) est typique Théorie de l information 32/34

La probabilité d une erreur de type 2 (II) Par conséquent {( Prob X(n), Ỹ (n)) } est typique 2 n(i(x;y ) 3ɛ). Prob(E 1 ) (2 nr n(i(x;y ) 3ɛ) 1)2 2 n(i(x;y ) R 3ɛ). Théorie de l information 33/34

Fin de la preuve Prob(erreur au décodage) ɛ + 2 n(i(x;y ) R 3ɛ). Fin : choisir X t.q. C = I(X; Y ). Théorie de l information 34/34