Majeure d informatique



Documents pareils
Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

1.1 Codage de source et test d hypothèse

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Sujet 4: Programmation stochastique propriétés de fonction de recours

Université Paris-Dauphine DUMI2E 1ère année, Applications

PROBABILITES ET STATISTIQUE I&II

Théorie des probabilités

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Systèmes de communications numériques 2

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Chapitre 2 Le problème de l unicité des solutions

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Introduction à l étude des Corps Finis

Travaux dirigés d introduction aux Probabilités

I. Polynômes de Tchebychev

3. Conditionnement P (B)

Développement décimal d un réel

Théorie de la Mesure et Intégration

Table des matières. I Mise à niveau 11. Préface

14. Introduction aux files d attente

Module 7: Chaînes de Markov à temps continu

3. Caractéristiques et fonctions d une v.a.

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

ÉPREUVE COMMUNE DE TIPE Partie D

Optimisation des fonctions de plusieurs variables

Loi binomiale Lois normales

Simulation de variables aléatoires

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Qu est-ce qu une probabilité?

Espérance conditionnelle

Programmes des classes préparatoires aux Grandes Ecoles

Cours d Analyse. Fonctions de plusieurs variables

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Probabilités sur un univers fini

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Corrigé du baccalauréat S Asie 21 juin 2010

Une introduction aux codes correcteurs quantiques

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

M2 IAD UE MODE Notes de cours (3)

CCP PSI Mathématiques 1 : un corrigé

FIMA, 7 juillet 2005

Développements limités. Notion de développement limité

Le modèle de Black et Scholes

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

DOCM Solutions officielles = n 2 10.

GPA770 Microélectronique appliquée Exercices série A

NOTIONS DE PROBABILITÉS

3 Approximation de solutions d équations

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Introduction au Calcul des Probabilités

Communications numériques

Intégration et probabilités TD1 Espaces mesurés

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Loi d une variable discrète

Image d un intervalle par une fonction continue

Couples de variables aléatoires discrètes

La demande Du consommateur. Contrainte budgétaire Préférences Choix optimal

Algorithmes d'apprentissage

Etude de fonctions: procédure et exemple

Suites numériques 3. 1 Convergence et limite d une suite

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Commun à tous les candidats

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel

Température corporelle d un castor (une petite introduction aux séries temporelles)

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

I. Ensemble de définition d'une fonction

Représentation des Nombres

Finance, Navier-Stokes, et la calibration

Variables Aléatoires. Chapitre 2

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun

Probabilités III Introduction à l évaluation d options

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Continuité en un point

4. Martingales à temps discret

4 Distributions particulières de probabilités

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

Dunod, Paris, 2014 ISBN

Intégration et probabilités TD1 Espaces mesurés Corrigé

TARIFICATION EN ASSURANCE COMPLEMENTAIRE SANTE: il était une fois, un statisticien, un actuaire, un économiste de la santé

La mesure de Lebesgue sur la droite réelle

Rappels sur les suites - Algorithme

Transmission d informations sur le réseau électrique

RO04/TI07 - Optimisation non-linéaire

Transmission de données. A) Principaux éléments intervenant dans la transmission

Correction du baccalauréat ES/L Métropole 20 juin 2014

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Intégrale de Lebesgue

Introduction à la statistique non paramétrique

Sur certaines séries entières particulières

Transcription:

Nicolas Sendrier Majeure d informatique Introduction la théorie de l information Cours n 1 Une mesure de l information

Espace probabilisé discret L alphabet est X (fini en pratique) Variable aléatoire X à valeurs dans X Loi de probabilité P X (x), x X Moyenne d une variable aléatoire réelle V = x X P X (x)v (x) = x P (x)v (x) cours n 1: Une mesure de l information 1

Espace probabilisé joint Espace des épreuves X Y Variables aléatoires X et Y à valeurs dans X et Y respectivement. Loi produit P XY (x, y), (x, y) X Y Lois marginales P X (x) = P XY (x, y) y P Y (y) = P XY (x, y) x X et Y sont indépendantes si Probabilité conditionnelle P X Y (x y) = P XY (x, y) P Y (y) P Y X (y x) = P XY (x, y) P X (x) (x, y) X Y, P XY (x, y) = P X (x)p Y (y) cours n 1: Une mesure de l information 2

Incertitude et information La quantité d information obtenue lorsque l évènement X = x se réalise est liée à l incertitude sur cet évènement. Nous cherchons fonction positive et décroissante de la probabilité : I(x) = f(p (x)) l évènement certain ne produit aucune information : f(1) = 0 un évènement impossible fournit une quantité infinie d information : f(0) = fonction additive : l information de deux évènements indépendants s additionne : f(p (x)p (y)) = f(p (x)) + f(p (y)) cours n 1: Une mesure de l information 3

Information propre Nous utiliserons comme mesure de l incertitude la quantité suivante : I(x) = log b 1 P (x) qui sera appelée information propre de x. La base du logarithme est arbitraire. L unité d information que nous utiliserons est le bit, défini par Un bit est égal à la quantité d information fournie par le choix d une alternative parmi deux équiprobables. Autrement dit nous utiliserons le logarithme en base 2. cours n 1: Une mesure de l information 4

Information mutuelle Si nous voulons quantifier la corrélation entre deux évènements, il faut se demander comment la réalisation de l un d entre eux «Y = y» va modifier l incertitude sur l autre «X = x». La probabilité a priori P X (x) va devenir la probabilité a posteriori P X Y (x y). La différence entre les deux «quantités d incertitude» correspondantes sera l information mutuelle entre x et y : I(x; y) = I(x) I(x y) = log 2 P (x y) P (x) cours n 1: Une mesure de l information 5

Exemple Soit le canal binaire symétrique de probabilité de transition p 1 2. Les symboles 0 et 1 sont émis selon une loi uniforme. x P Y X (y x) y P X (0) = 1 2 P X (1) = 1 2 0 1 1 p p p 1 p 0 1 I(0; 0) = I(1; 1) = log 2 (2 2p) 0 I(0; 1) = I(1; 0) = log 2 (2p) 0. cours n 1: Une mesure de l information 6

Interprétation de l information mutuelle L information mutuelle est symétrique I(x; y) = I(y; x) = log 2 P (x, y) P (x)p (y) I(x; y) 0 ssi P (x y) P (x) ; la réalisation de y augmente la probabilité d occurence de x, I(x; y) 0 ssi P (x y) P (x) ; la réalisation de y diminue la probabilité d occurence de x, I(x; y) = 0 ssi P (x y) = P (x) ; les évènements sont indépendants. cours n 1: Une mesure de l information 7

Information mutuelle moyenne Soient X et Y deux variables aléatoires discrètes Définition (information mutuelle moyenne) Théorème I(X; Y ) = x,y P (x, y)i(x; y) = x,y P (x, y) log 2 P (x, y) P (x)p (y) I(X; Y ) 0 avec égalité si et seulement si X et Y sont indépendantes cours n 1: Une mesure de l information 8

Fonctions convexes Définition f est convexe sur l intervalle (a, b) si pour tous x, y (a, b) λ, 0 < λ < 1, f(λx + (1 λ)y) λf(x) + (1 λ)f(y). f est strictement convexe si l égalité n est vraie que lorsque x = y. Lemme (inégalité de Jensen) f une fonction strictement convexe sur (a, b). p 1,..., p n > 0, i p i = 1, x 1,..., x n (a, b) f i p i x i i p i f(x i ) Avec égalité si et seulement si les x i sont tous égaux. cours n 1: Une mesure de l information 9

Entropie Propriétés Définition (Entropie) H(X) = x P (x) log 2 P (x) Proposition Pour une source de cardinal K 0 H(X) log 2 K Définition (Entropie conditionnelle) H(X Y ) = x,y P (x, y) log 2 P (x y) Theorème (le conditionnement réduit l entropie) H(X Y ) H(X) Preuve : I(X; Y ) = H(X) H(X Y ) 0. cours n 1: Une mesure de l information 10

Processus stochastiques Une source produit une suite de lettres dans l alphabet X Pour décrire cette suite de lettres nous utiliserons une suite de variables aléatoires X 1, X 2,... à valeurs dans X. Ces variables ne sont pas nécessairement indépendantes. On parlera de processus stochastique pour décrire cette suite de v.a. H(X 1,..., X L ) = P (x 1,..., x L ) log 2 P (x 1,..., x L ) x 1,...,x L H(X L X L 1,..., X 1 ) = P (x 1,..., x L ) log 2 P (x L x 1,..., x L 1 ) x 1,...,x L H(X 1,..., X L ) = H(X 1 ) + H(X 2 X 1 ) +... + H(X L X 1,..., X L 1 ) L = H(X i X 1,..., X i 1 ) i=1 cours n 1: Une mesure de l information 11

Entropie par lettre Définition Un processus stochastique est stationnaire si son comportement ne varie pas lorsque l on décale l observation dans le temps. Pour tous entiers positifs L et j, et tout (x 1,..., x L ) X L P X1...X L (x 1,..., x L ) = P X1+j...X L+j (x 1,..., x L ) Théorème Pour tout processus stochastique stationnaire, les limites ci-dessous existent et sont égales H(X ) = lim L 1 L H(X 1,..., X L ) = lim L H(X L X 1,..., X L 1 ). La quantité H(X ) est appelée entropie par lettre. cours n 1: Une mesure de l information 12

Processus markovien stationnaire Définition Un processus stochastique est dit markovien si pour tout entier positif L et tout (x 1,..., x L ) X L P XL X 1,...,X L 1 (x L x 1,..., x L 1 ) = P XL X L 1 (x L x L 1 ). Le processus est dit invariant dans le temps si ces probabilités ne dépendent pas de L. Un tel processus est décrit par sa matrice de transition Π = ( π x1,x 2 )(x 1,x 2 ) X 2, où π x1,x 2 = P X2 X 1 (x 2 x 1 ). Théorème L entropie par lettre d un processus markovien stationnaire (irréductible) est égal à H(X ) = H(X 2 X 1 ) = x 1,x 2 λ x1 π x1,x 2 log 2 π x1,x 2 où Λ = (λ x ) x X est la distribution stationnaire (i.e. ΛΠ = Λ). cours n 1: Une mesure de l information 13