ENSEIRB. Théorie de l Information. Philippe Duchon. Plan. Introduction. Entropie

Documents pareils
Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

1.1 Codage de source et test d hypothèse

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Chaine de transmission

Introduction à l étude des Corps Finis

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

Cryptologie. Algorithmes à clé publique. Jean-Marc Robert. Génie logiciel et des TI

ÉPREUVE COMMUNE DE TIPE Partie D

Systèmes de communications numériques 2

Cryptographie. Cours 3/8 - Chiffrement asymétrique

Cryptographie Quantique

CRYPTOGRAPHIE. Signature électronique. E. Bresson. SGDN/DCSSI Laboratoire de cryptographie

Des codes secrets dans la carte bleue. François Dubois 1

Les fonctions de hachage, un domaine à la mode

Compression Compression par dictionnaires

Technique de codage des formes d'ondes

Cryptographie et fonctions à sens unique

Transmission d informations sur le réseau électrique

UEO11 COURS/TD 1. nombres entiers et réels codés en mémoire centrale. Caractères alphabétiques et caractères spéciaux.

Université de La Rochelle. Réseaux TD n 6

LES TYPES DE DONNÉES DU LANGAGE PASCAL

Numérisation du signal

Rappels Entrées -Sorties

Algèbre binaire et Circuits logiques ( )

I. TRANSMISSION DE DONNEES

Quelques tests de primalité

Chapitre 13 Numérisation de l information

Dunod, Paris, 2014 ISBN

Equipement. électronique

Modélisation aléatoire en fiabilité des logiciels

Représentation des Nombres

Formats d images. 1 Introduction

Programmes des classes préparatoires aux Grandes Ecoles

Le modèle de Black et Scholes

Communications numériques

Exercices sur le chapitre «Probabilités»

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

ISO/CEI NORME INTERNATIONALE

Section «Maturité fédérale» EXAMENS D'ADMISSION Session de février 2014 RÉCAPITULATIFS DES MATIÈRES EXAMINÉES. Formation visée

1. Présentation général de l architecture XDSL :

Programmation linéaire

PROBABILITES ET STATISTIQUE I&II

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

Travaux dirigés d introduction aux Probabilités

Probabilités sur un univers fini

Modes opératoires pour le chiffrement symétrique

Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information

Travail d intérêt personnel encadré : La cryptographie

Cours d Électronique du Tronc Commun S3. Le filtrage optimisé du signal numérique en bande de base. Notion de BRUIT en télécommunication.

Algorithmes d'apprentissage

Couples de variables aléatoires discrètes

Le concept cellulaire

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x =

Table des matières. I Mise à niveau 11. Préface

LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise.

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S

Quantification Scalaire et Prédictive

Théorie des probabilités

L E C O U T E P r i n c i p e s, t e c h n i q u e s e t a t t i t u d e s

Calculs de probabilités

Transmission des signaux numériques

Transmission de données. A) Principaux éléments intervenant dans la transmission

Architecture matérielle des systèmes informatiques

TSTI 2D CH X : Exemples de lois à densité 1

Sécurité de l'information

1 Introduction au codage

Data Mining. Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Traitement du signal avec Scilab : transmission numérique en bande de base

données en connaissance et en actions?

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES

La simulation probabiliste avec Excel

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Probabilités conditionnelles Exercices corrigés

UNE EXPERIENCE, EN COURS PREPARATOIRE, POUR FAIRE ORGANISER DE L INFORMATION EN TABLEAU

Une introduction aux codes correcteurs quantiques

Fonction de hachage et signatures électroniques

LABO PROJET : IMPLEMENTATION D UN MODEM ADSL SOUS MATLAB

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

8 Ensemble grand-canonique

Sur certaines séries entières particulières

Probabilités. C. Charignon. I Cours 3

TD 1 - Transmission en bande de passe

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Travaux pratiques. Compression en codage de Huffman Organisation d un projet de programmation

Machines virtuelles Cours 1 : Introduction

Qu est-ce qu une probabilité?

Connaissances VDI 1 : Chapitres annexe

Chapitre 2 Les ondes progressives périodiques

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Calculabilité Cours 3 : Problèmes non-calculables.

Manuel d utilisation 26 juin Tâche à effectuer : écrire un algorithme 2

En mars 2001, à l occasion d une journée

Logiciel de Base. I. Représentation des nombres

3. Caractéristiques et fonctions d une v.a.

Transcription:

ENSEIRB 2008-09

1 2

l information... Définir proprement la quantité apportée par la connaissance d un fait Idée (très) informelle : c est le nombre de questions à réponse oui/non que cette connaissance nous évite d avoir à poser

Ce dont on va parler... Notions mathématiques : entropie, information mutuelle Codage et décodage : codes, déchiffrabilité, efficacité d un code Transmission de l information : comment transmettre correctement une information en présence d erreurs de transmission Compression des données : essentiellement, compression sans pertes ( conservative ) Le langage mathématique est celui de la théorie des probabilités : variables aléatoires et processus discrets (élémentaires)

Ce dont on ne va pas parler... Cryptographie : cours en deuxième année On s intéresse à transmettre de l information, pas à la cacher ou à la protéger Les erreurs sont le fait d imperfections du système de transmission, pas d interférences malveillantes d un adversaire

Historiquement Rudolf Clausius (1822-1888) : définit comme une mesure du désordre d un système Ludwig Boltzmann (1844-1906) : d un état macroscopique est proportionnelle au logarithme du nombre d états microscopiques correspondants Ronald Fisher (1890-1962) : utilise le mot information dans un contexte mathématique Harry Nyquist (1889-1976) (bruit, fréquence d échantillonnage), Ralph Hartley (1888-1970) Claude Shannon (1916-2001), premiers théorèmes sur l information en théorie de la communication

(Ω, A, P) un espace probabilisé, A A un événement (de probabilité non nulle) On définit la quantité apportée par la réalisation de A (self-information), la quantité I (A) = log P(A). On utilise quasi systématiquement le logarithme à base 2, l unité est alors le bit.

Événements indépendants Si (et seulement si) les événements A et B sont indépendants, I (A B) = I (A) + I (B). La quantité apportée par la réalisation conjointe de deux événements indépendants, est égale à la somme de celles apportées séparément par chacun d eux.

Retour sur la définition La propriété d additivité en cas d indépendance implique l usage de la fonction logarithme : Proposition Si on souhaite définir la quantité par une fonction positive de la probabilité : I (A) = f (P(A)), avec f : [0, 1] R +, avec f continue I (A B) = I (A) + I (B) dès que A et B sont indépendants alors I est forcément de la forme I (A) = C log(p(a)) avec C > 0 une constante arbitraire (choix de l unité de mesure).

Système simple Définition (Système simple) On appelle, soit une variable aléatoire discrète X, soit la donnée d une partition Ω = A 1 + A 2 + + A n d un espace probabilisé (Ω, A, P). Les deux définitions sont fonctionnellement équivalentes (on ne s intéresse pas aux valeurs de la variable aléatoire). Notation : X = {A i } 1 i n, p i = P(A i )

: un exemple L enseignant choisit aléatoirement un élève parmi les présents, et on considère la variable aléatoire X qui désigne le rang où se trouve assis l élève choisi. Que vaut l information l élève choisi est au premier rang? Que vaut l information l élève choisi est au rang x? (ça dépend de x, sauf si tous les rangs comptent le même nombre d élèves) Que vaut en moyenne l information du rang auquel se trouve l élève choisi? (notion d entropie)

Définition ( ) On appelle entropie du système X, l espérance de la quantité apportée par la réalisation d un événement du système. H(X ) = E(I (X )) = A X P(A)I (A) = i p i log(p i ). (convention : pour x = 0, x log(x) = 0)

système de deux événements 1 0.9 0.8 0.7 0.6 0.5 (-x*log(x)-(1-x)*log(1-x))/log(2) 0.4 0.3 0.2 0.1 0 0 0.2 0.4 0.6 0.8 1

des lettres du français On considère un alphabet de 29 symboles : 26 lettres, l espace, le point et les autres signes de ponctuation. Si on accorde la même probabilité 1/29 à chaque symbole : H(U 29 ) = log 2 (29) 4.848 bits. Si on prend des probabilités plus proches de la fréquence empirique des lettres dans la langue française : E, espace 0.14 I, N, T 0.08 A, R, S 0.06 D, L, O, U 0.04 C, M, P 0.02 ponctuation 0.018 point 0.014 12 autres lettres 0.004 on obtient H(X ) 4.05 bits, soit un peu plus de 80% de du système uniforme ( est peu sensible à des variations autour de l équiprobabilité)

Lemme de Gibbs Le lemme de Gibbs permet, entre autres, de prouver que est maximale pour une répartition uniforme des probabilités. Lemme (Gibbs) Soient p = (p 1,..., p n ) et q = (q 1,..., q n ) deux vecteurs de probabilités (p i 0, q i 0, i p i = i q i = 1). Alors n n p i log(p i ) p i log(q i ), i=1 i=1 avec égalité si et seulement si p i = q i pour tout i.

maximale d un système à n symboles Proposition Si X est un à n symboles, alors H(X ) log 2 (n), avec égalité si et seulement si p i = 1/n pour tout i, 1 i n. (Preuve par le lemme de Gibbs)