Introduction à la théorie des codes. Codes correcteurs d erreurs

Documents pareils
UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Transmission de données. A) Principaux éléments intervenant dans la transmission

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Logique binaire. Aujourd'hui, l'algèbre de Boole trouve de nombreuses applications en informatique et dans la conception des circuits électroniques.

Informatique Générale

Architecture matérielle des systèmes informatiques

Système binaire. Algèbre booléenne

Chapitre 13 Numérisation de l information

1 Introduction au codage

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES

Transmission d informations sur le réseau électrique

Chaine de transmission

TD 1 - Transmission en bande de passe

UEO11 COURS/TD 1. nombres entiers et réels codés en mémoire centrale. Caractères alphabétiques et caractères spéciaux.

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Cisco Certified Network Associate

Codage d information. Codage d information : -Définition-

Systèmes de communications numériques 2

L information sera transmise selon des signaux de nature et de fréquences différentes (sons, ultrasons, électromagnétiques, électriques).

Travaux dirigés d introduction aux Probabilités

Le multiplexage. Sommaire

LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION

COMMUNICATION ENTRE DEUX ORDINATEURS PAR LASER MODULE EN CODE MORSE OU BINAIRE.

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Conversion d un entier. Méthode par soustraction

Dossier 03 Périphériques d acquisition

Qu est-ce qu un ordinateur quantique et à quoi pourrait-il servir?

Cryptographie et fonctions à sens unique

Chapitre 2 : communications numériques.

I.1- DÉFINITIONS ET NOTIONS DE BASE

Acquisition et conditionnement de l information Les capteurs

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies

Cours de Probabilités et de Statistique

LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise.

Une introduction aux codes correcteurs quantiques

I. TRANSMISSION DE DONNEES

Table des matières. I Mise à niveau 11. Préface

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Comment les systèmes de communication à distance évoluent-ils?

Université de La Rochelle. Réseaux TD n 6

1.1 Codage de source et test d hypothèse

EP A1 (19) (11) EP A1 (12) DEMANDE DE BREVET EUROPEEN. (43) Date de publication: Bulletin 2011/26

Communications numériques

TABLE DES MATIÈRES CHAPITRE I. Les quanta s invitent

Théorie et codage de l information

Cryptologie. Algorithmes à clé publique. Jean-Marc Robert. Génie logiciel et des TI

Organisation des Ordinateurs

Chapitre I La fonction transmission

Numérisation du signal

ELP 304 : Électronique Numérique. Cours 1 Introduction

Machines virtuelles Cours 1 : Introduction

Les techniques de multiplexage

Algèbre binaire et Circuits logiques ( )

Expérience 3 Formats de signalisation binaire

Objets Combinatoires élementaires

Glossaire des nombres

Compte rendu sur la communication et la téléphonie

La transmission des informations LE PETIT JOURNAL

Chapitre 18 : Transmettre et stocker de l information

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE

CRYPTOGRAPHIE. Signature électronique. E. Bresson. SGDN/DCSSI Laboratoire de cryptographie

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

Calculateur quantique: factorisation des entiers

Introduction à l étude des Corps Finis

1 Introduction et installation

Section «Maturité fédérale» EXAMENS D'ADMISSION Session de février 2014 RÉCAPITULATIFS DES MATIÈRES EXAMINÉES. Formation visée

MPI Activité.10 : Logique binaire Portes logiques

Logiciel de Base. I. Représentation des nombres

Travail d intérêt personnel encadré : La cryptographie

IUT de Laval Année Universitaire 2008/2009. Fiche 1. - Logique -

PRODUIRE DES SIGNAUX 1 : LES ONDES ELECTROMAGNETIQUES, SUPPORT DE CHOIX POUR TRANSMETTRE DES INFORMATIONS

Conception des bases de données : Modèle Entité-Association

Travaux pratiques. Compression en codage de Huffman Organisation d un projet de programmation

Systèmes de communications numériques 2

IV- Comment fonctionne un ordinateur?

Le signal GPS. Les horloges atomiques à bord des satellites GPS produisent une fréquence fondamentale f o = Mhz

Technique de codage des formes d'ondes

HISTOIRE DE LA RADIO ET DE LA

DOSSIER ADSL. DEMARCHE DE TRAVAIL : Consultez rapidement le dossier avant de commencer Complétez le dossier en suivant les indications du document

Objectifs pédagogiques : spectrophotomètre Décrire les procédures d entretien d un spectrophotomètre Savoir changer l ampoule d un

Une version javascript sera disponible directement dans le cours prochainement.

2. Couche physique (Couche 1 OSI et TCP/IP)

CODAGE DES SMS. 2 Commandes «AT» 25 3 Matériels utilisés 55 4 Interfacer un téléphone GSM 73 5 Réalisations électroniques 101

ISO/CEI NORME INTERNATIONALE

ÉPREUVE COMMUNE DE TIPE Partie D

Fonctions de la couche physique

Version MOVITRANS 04/2004. Description / FR

Fonctions de plusieurs variables

Électricité. 1 Interaction électrique et modèle de l atome

Téléinformatique et télématique. Revenons aux définitions

TP Codage numérique des caractères. Un ordinateur ne manipule que des 0 et des 1 : Comment alors code-t-il du texte?

Etudier l influence de différents paramètres sur un phénomène physique Communiquer et argumenter en utilisant un vocabulaire scientifique adapté

Semi-conducteurs. 1 Montage expérimental. Expérience n 29

- MANIP 2 - APPLICATION À LA MESURE DE LA VITESSE DE LA LUMIÈRE

Qu est-ce qu une probabilité?

16H Cours / 18H TD / 20H TP

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

Transcription:

Introduction à la théorie des codes correcteurs d erreurs Cours 1 : Généralités POLYTECH Université d Aix-Marseille odile.papini@univ-amu.fr http://odile.papini.perso.esil.univmed.fr/sources/codage.html

Plan du cours 1 Introduction problématique théorie de l information 2 évolution des techniques de transport des messages codage de l information 3 problématique distance de Hamming codes correcteurs condition de décodage

Bibliographie I F. J. Mac Willians & N. J. A. Sloane The Theory of Error Correcting codes. North Holland Publising, ed. 1978. O. Papini & J. Wolfmann Algèbre discrète et codes correcteurs d erreurs. Springer Verlag ed. 1995. Support de cours Claude Carlet Université Paris 13 http://www.math.univparis13.fr/ schartz/mali/mali07/ccc.pdf

problématique théorie de l information Problématique Transmission d information évolution : analogique numérique apparition d erreurs de transmission : télécommunication à grande distance perturbations métérologiques dépôt de poussière Objet de la théorie des codes correcteurs d erreurs Protéger les transmissions des erreurs, de façon efficace

Notion d information problématique théorie de l information théorie des codes correcteurs d erreurs théorie de l information notion moderne d information distinction entre : sens d un message forme d un message émergence d une théorie de l information C. Shannon (1948) traitement automatique de l information sur lequel s appuie la plupart des moyens modernes de communication

problématique théorie de l information Définition mathématique de l information support de l information numérique : système à 2 états d équilibre 0 et 1 information élémentaires : bits ( binary digit) toute information est représentée par une combinaison d informations élémentaires quantité d information : logarithme du nombre de choix possibles unité de quantité d information : shannon (sh) (normes CCITT) quantité d information apportée par la connaissance d un état parmi 2 états possibles : log 2 (2) information I : combinaison de m bits quantité d information I : log 2 (2 m )

Un exemple introductif problématique théorie de l information Codage d un itinéraire selon les directions cardinales

Théorie de l information problématique théorie de l information Description et étude des systèmes de communication : Claude Shannon 1948

Canal de transmission problématique théorie de l information canal binaire symétrique p : probabilité qu un 1 soit reçu lorsqu un 0 est transmis ou probabilité qu un 0 soit reçu lorsqu un 1 est transmis

Canal de transmission problématique théorie de l information canal binaire symétrique p : probabilité qu un 1 soit reçu lorsqu un 0 est transmis ou probabilité qu un 0 soit reçu lorsqu un 1 est transmis p 1 p p 1 p 0 1 0 0 1 0 1 1 quantité d information transmise par le canal : capacité C(p) = 1 (p log 2 ( 1 p )+(1 p) log 1 2( 1 p )) C(p) = 1+p log 2 (p)+(1 p) log 2 (1 p)

problématique théorie de l information Théorème de Shannon théorème Soient C(p) la capacité d un canal de transmission 2 valeurs arbitraires δ > 0 et R < C(p) k le nombre de symboles du message à transmettre P la probabilité de décoder incorrectement un mot reçu Il existe un code de longueur n suffisamment grande tel que k n R et P < δ

Problématique problématique théorie de l information 2-ième théorème de Shannon : Le codage est une opération efficace au prix d une certaine redondance Trouver de bons codes Trouver des méthodes de décodage efficaces

technologie mécanique évolution des techniques de transport des messages codage de l information communication à distance préoccupation tardive dans l histoire de l humanité fin du XVIIIième siècle : réseau de communication à distance systématique technologie mécanique 1794 : premier télégraphe aérien de Claude Chappe

technologie électrique évolution des techniques de transport des messages codage de l information 1832 : télégraphe électrique de Samuel F.B Morse 1866 : premier câble transatlantique 1874 : Thomas Edison perfectionne le télégraphe télégraphe de E. Baudot avec un code binaire, le code à cinq moments code RTTY pour les transmissions par telex)

technologie électromagnétique évolution des techniques de transport des messages codage de l information 1875 : téléphone Alexandre Graham Bell premier système de transmission sans fil, TSF, par A. Popov 1896 : première installation, G. Marconi : début de la radiocommunication

évolution des techniques de transport des messages codage de l information technologie électronique mise en évidence l émission thermo-ionique (T. Edison) passage des électrons d une électrode négative à une électrode positive 1902 : diode A. Fleming 1906 : triode L. De Forest conception de tubes électroniques : début de l ère électronique 1917 : premiers postes émetteurs-récepteurs portatifs à lampes

évolution des techniques de transport des messages codage de l information matrise des procédés de modulation des ondes naissance de la radiodiffusion 1920 : premiers essais aux Etats Unis 1921 : émissions régulières en France à partir de la tour Eiffel 1930 : développement de la modulation de fréquence (bande FM)

évolution des techniques de transport des messages codage de l information technologie électronique L effet photo-électrique éjection d électrons hors des atomes au moyen de photons de lumière 1905 : cellule photoélectrique Elster et Geitel. tube cathodique rend possible la transmission d images 1923 : premiers essais de télévision en Angleterre 1938 : diffusion d émissions en France à partir de la tour Eiffel recherches sur les matériaux semi-conducteurs 1947 : premier transistor W. Shockley, W. H. Brattain et J. Barden (laboratoires de la Bell Telephone)

télécommunications et réseaux évolution des télécommunications évolution des techniques de transport des messages codage de l information contexte de guerre froide : course à l espace 1960 : satellites comme relais pour les télécommunications Echo 1960, Telstar 1962 aujourd hui : satellites géostationnaires évolution et le développement de l informatique réseaux d ordinateurs réseau de télécommunication : RNIS 1987 : NUMERIS de France-Télécom. évolution de la transmission de l information analogique numérique

codage de l information évolution des techniques de transport des messages codage de l information code binaire : Francis Bacon (1561 1628) système de codage : 2 opérations codage de chaque lettre de l alphabet par une combinaison de 2 symboles pour chaque symbole une typographie différente. G. W. von Liebniz (1643 1716) : notation binaire pour les nombres. J. M. Jacquard (1752 1834) : codage binaire (cartes perforées)

évolution des techniques de transport des messages codage de l information Exemple du codage de F. Bacon (cryptographie) codage de la lettre a : aaaaa codage de la lettre b : aaaba..., codage de la lettre z : babbb symbole a : typographie minuscule symbole b : une typographie majuscule message à transmettre : non codé par : [abbaa][abbab][abbaa] vous pouvez venir

code Morse Introduction évolution des techniques de transport des messages codage de l information Morse 1838 : codage de chaque lettre de l alphabet par une combinaison de 3 symboles (code ternaire) Lettres Morse Lettres Morse A. N. B... O C.. P.. D.. Q. E. R.. F... S... G. T H... U.. I.. V... J. W. K. X.. L... Y. M Z..

codage de l information évolution des techniques de transport des messages codage de l information pour les codes présentés : représentation de l information sous forme symbolique pas de protection contre une éventuelle perte d information nécessité d introduction de symboles supplémentaires, ou redondants, C : CHARLIE P : PAPA T : TANGO exemple : langage des aviateurs

Un exemple introductif évolution des techniques de transport des messages codage de l information Codage d un itinéraire selon les directions cardinales

évolution des techniques de transport des messages codage de l information Préhistoire des codes correcteurs d erreurs laboratoires de la Bell Telephone 1937 1939 : premières recherches sur l utilisation des codes détecteurs et correcteurs d erreurs seconde guerre mondiale : recherches activement développées but : concevoir un calculateur adapté aux problèmes de commandes de tirs pour le National Defense Research Council l interpolateur à relais 1943 : utilisation de codes détecteurs d erreurs 1947 W. Hamming : premier code corrigeant une seule erreur

Code Introduction distance de Hamming codes correcteurs condition de décodage A : Alphabet (x 1,,x n ) : un n-uplet avec x i A mot : un n-uplet (x 1,,x n ) longueur du mot : l entier n code l ensemble des mots fabriqués sur A L alphabet le plus utilisé : {0,1}

Problématique distance de Hamming codes correcteurs condition de décodage A partir d une telle représentation : décrire les propriétés de transmission en vue de détecter et de corriger des erreurs apparues au cours de la transmission des messages inversement choisir convenablement l alphabet et le code pour tenter d améliorer la transmission en particulier, choisir un alphabet et un code dotés de structures algébriques et combinatoires particulières

Distance de Hamming distance de Hamming codes correcteurs condition de décodage A : ensemble fini, non vide et n un entier naturel A n : l ensemble des x = (x 1,,x n ) avec x i A distance de Hamming entre x et y : nombre de composantes pour lesquelles x et y diffèrent. si x = (x 1,x 2,...x n ) et y = (y 1,y 2,...y n ), alors : d(x,y) = { i {1,2,...,n}, tq x i y i } exemple A = {+,?, }, n = 5, x = (?,?,+,?, ) et y = (?,,,+, ) d(x,y)?

Distance de Hamming distance de Hamming codes correcteurs condition de décodage La distance de Hamming est bien une distance x,y,z A n on a : i) d(x,y) IR + ; ii) d(x,y) = 0 x = y; iii) d(x,y) = d(y,x); iv) d(x,y) d(x,z)+d(z,y). (démonstration laissée en exercice).

Code Introduction distance de Hamming codes correcteurs condition de décodage définition d un code Soit A un alphabet. Un code sur A de longueur n est un sous-ensemble C de A n. les éléments de C sont appelés les mots du code. exemple C = {(0,1,1,0,1,0),(1,1,1,0,1,1),(1,1,1,1,1,1), (1,1,0,0,0,0),(0,1,1,1,0,0)} est un code de longueur 6 sur l alphabet A = {0,1}.

Codes correcteurs distance de Hamming codes correcteurs condition de décodage Lorsqu on utilise un code pour transmettre des messages x = (x 1,x 2,...x n ) est un mot envoyé x = (x 1,x 2,...x n) le mot reçu éventuellement entaché d erreurs d(x,x ) : nombre d erreurs commises Lorsqu on suppose qu il n y a pas plus de e erreurs commises on pourra corriger ces erreurs corriger ces erreurs : d(x,x ) e retrouver x, à partir de x à condition que chaque mot erroné reçu ne puisse provenir que d un seul mot du code.

Condition de décodage d ordre e distance de Hamming codes correcteurs condition de décodage condition de décodage d ordre e Un code C de longueur n sur un alphabet A vérifie la condition de décodage d ordre e si pour tout x de A n, il existe au plus un mot x de C tel que d(x,x ) e Cette condition est équivalente à : les boules fermées de rayon e, centrées sur les mots de C, sont deux à deux disjointes.

Exemples Introduction distance de Hamming codes correcteurs condition de décodage Ces codes vérifient-t-ils la condition de décodage d ordre e? exemple 1 : A = {0,1}, n = 5, e = 1, C = {x = (0,1,1,1,0),y = (1,0,1,0,1),z = (1,1,0,1,1)} exemple 2 : A = {0,1}, n = 3, e = 1, C = {x = (0,0,0),y = (1,0,1)}

Distance minimale d un code distance de Hamming codes correcteurs condition de décodage définition La distance minimale d un code C est la plus petite des distances non nulles entre les mots du code d min = inf{d(x,y), (x,y) C C, x y} théorème Soit d la distance minimale d un code C si d 2e+1 alors C vérifie la condition de décodage d ordre e

Distance minimale d un code distance de Hamming codes correcteurs condition de décodage si d est pair, d = 2r alors le meilleur e pour vérifier la condition de décodage est e = r 1 si d est impair, d = 2r +1 alors le meilleur e pour vérifier la condition de décodage est e = r définition capacité de correction : e IN un code de distance minimale d est dit e-correcteur si d 1 = e 2

Code parfait Introduction distance de Hamming codes correcteurs condition de décodage Un code C de longueur n sur un alphabet A définition :rayon de recouvrement Le rayon de recouvrement ρ(c) de C est le plus petit rayon r tel que l ensemble des boules de rayon r centrées sur chaque mot du code C forme un recouvrement de A n définition: code parfait Un code C est parfait si e = ρ(c)

Questions Introduction distance de Hamming codes correcteurs condition de décodage Un code C de longueur n sur un alphabet A Quel est le nombre maximum de mots que peut contenir un code C de capacité de correction e? Quel est le nombre minimum de mots que doit contenir un code C pour avoir un rayon de recouvrement ρ(c) fixé?

distance de Hamming codes correcteurs condition de décodage Réponses: Borne d empilement de sphères Proposition 1 Soit C un code de longueur n sur un alphabet A, pour tout entier r n on a: x A n, B(x,r) = Σ r i=0 ( A 1)i C i n Proposition 2 : borne d empilement de sphères Soit C un code de longueur n sur un alphabet A, de capacité de correction e on a: C Σ e r=0 ( A 1)r C r n An

Codes équivalents distance de Hamming codes correcteurs condition de décodage codes équivalents deux codes sont équivalents si l un d eux est obtenu à partir de l autre en appliquant à chaque mot une même permutation des composantes définition Soit C et C des codes de longueur n sur un alphabet A soit σ une application de {1,2,,n} et soit l application σ : A n A n (x 1,,x n ) (x σ(1),,x σ(n) ) C et C sont équivalents si il existe σ telle que σ(c)