Théorie de l information : historique

Dimension: px
Commencer à balayer dès la page:

Download "Théorie de l information : historique"

Transcription

1 Théorie de l information : historique Développée dans les années quarante par Claude Shannon. Objectif : maximiser la quantité d information pouvant être transmise par un canal de communication imparfait. Shannon voulait déterminer les maxima théoriques de : la compression de données (l entropie) le taux de transmission du canal (la capacité du canal) Shannon a montré que l on pouvait transmettre de l information à travers un canal bruité avec une probabilité d erreur nulle tant que l on ne dépasse pas la capacité du canal. Méthodes probabilistes - Théorie de l information p./42

2 Liens avec le TAL La théorie de l information a servi de cadre théorique aux premiers travaux de TAL probabiliste dans les années 70. Plusieurs applications de TAL peuvent être modélisées à l aide des outils de la théorie de l information en particulier la reconnaissance de la parole et la traduction automatique. Les mesures développées dans le cadre de la théorie de l information (entropie et information mutuelle) sont utiles pour de nombreux aspects du TAL. Méthodes probabilistes - Théorie de l information p.2/42

3 Plan Entropie Le théorème du canal sans bruit. Information mutuelle Le théorème du canal bruité Application du modèle du canal bruité au TAL Méthodes probabilistes - Théorie de l information p.3/42

4 Surprise Soit E, l un des événements pouvant survenir à la suite d une expérience. A quel point serions-nous surpris d apprendre que E a effectivement eu lieu? La surprise liée à E est liée à la probabilité de E. Elle est d autant plus élevée que la probabilité est faible. Méthodes probabilistes - Théorie de l information p.4/42

5 Suprise La surprise est formalisée sous la forme d une fonction S(p), où p est une probabilité différente de 0. On désire que cette fonction réponde aux conditions suivantes :. S() = 0 il n y a pas de surprise à apprendre qu un événement certain est effectivement arrivé. 2. S est une fonction strictement décroissante de p. (si p < q alors S(p) > S(q)). Plus un événement est improbable plus grande sera notre surprise. 3. S(pq) = S(p) + S(q) Méthodes probabilistes - Théorie de l information p.5/42

6 Suprise S(pq) = S(p) + S(q) Soient deux événement indépendants E et F de probabilités respectives p et q. Comme P(EF) = pq, la surprise correspondant à l apparition simultanée de E et F est S(pq). On apprend que E est survenu, puis, plus tard, que F est survenu lui aussi. La surprise additionnelle créée par le fait que F survienne vaut : S(pq) S(p) F étant indépendant de E, l information sur E ne change pas la probabilité de F, la surprise conditionnelle doit donc être S(q), d où la condition : S(pq) = S(p) + S(q) Méthodes probabilistes - Théorie de l information p.6/42

7 Suprise Une fonction vérifiant les conditions précédentes est la fonction suivante : S(p) = log 2 (p) La surprise est mesurée en bits binary digits. Un bit est la quantité d information correspondant à une probabilité de /2. Exemple : on tire une carte d un jeu de 52 cartes. Soit E l événement la carte tirée est l as de pique. P(E) = 52 S( 52 ) = log 2( 52 ) = log 2(52) = 5.7bits 6 bits : 2 pour la couleur et 4 pour la valeur. Méthodes probabilistes - Théorie de l information p.7/42

8 Entropie d une variable aléatoire Soit X une variable aléatoire qui prend ses valeurs dans l ensemble {x,x 2,...x n } avec les probabilités correspondantes p,p 2,...p n (P(X = x i ) = p i ). La grandeur log 2 (p i ) représentant la mesure de la surprise associée à l événement X = x i, la surprise moyenne créée lorsqu on apprend quelle valeur X a prise est : H(X) = n p i log 2 (p i ) i= Cette quantité est appelée entropie de la variable aléatoire X (par convention, si l un des p i vaut 0, on déclare que 0 log 2 (0) vaut 0). Méthodes probabilistes - Théorie de l information p.8/42

9 Entropie d une variable aléatoire On peut montrer que H(X) est maximale lorsque tous les p i sont égaux. Méthodes probabilistes - Théorie de l information p.9/42

10 Exemple de la pièce P(X = pile) = p P(X = face) = p H(X) p Méthodes probabilistes - Théorie de l information p.0/42

11 Entropie d une variable aléatoire H(X) représente la surprise moyenne associée à la découverte de la valeur de X. On peut aussi l assimiler à la quantité d incertitude relative à cette variable aléatoire. La théorie de l information considère H(X) comme l information liée à l observation de X. On peut donc dire que : la surprise moyenne causée par X, l incertitude liée à X l information moyenne recelée par X, représentent en fait le même concept abordé par des points de vue un peu différents. Méthodes probabilistes - Théorie de l information p./42

12 Théorie du codage et entropie On désire transmettre la valeur prise par une variable aléatoire discrète X d un point A où on l observe, jusqu à un point B, ceci grâce à un système de communication ne véhiculant que des 0 ou des. On code les diverses valeurs que X peut prendre pour les transformer en chaînes de 0 et de. Pour éviter toute ambiguïté, on exige normalement qu il soit impossible de former un code simplement en ajoutant une séquence de 0 et de à un code existant. Méthodes probabilistes - Théorie de l information p.2/42

13 Théorie du codage et entropie Supposons que X puisse prendre l une des quatre valeurs x,x 2,x 3,x 4. Un code possible est : x 00 x 2 0 x 3 0 x 4 Méthodes probabilistes - Théorie de l information p.3/42

14 Théorie du codage et entropie On peut aussi utiliser le code suivant : x 0 x 2 0 x 3 0 x 4 Ce dernier code a ceci de particulier que tous les codes n ont pas la même longueur. L un des objectifs ordinairement assignés au codage est de minimiser la longueur moyenne des messages à transmettre de A à B, la longueur d un message étant le nombre de bits qui le compose. Méthodes probabilistes - Théorie de l information p.4/42

15 Théorie du codage et entropie Si l on suppose que la loi de probabilité de la variable X est la suivante : P(X = x ) = 2 P(X = x 2 ) = 4 P(X = x 3 ) = 8 P(X = x 4 ) = 8 Le second code utilisera en moyenne : =, 75 bits pour transmettre une des 4 valeurs x,x 2,x 3,x 4. Alors que le premier code nécessite 2 bits en moyenne. Méthodes probabilistes - Théorie de l information p.5/42

16 Théorie du codage et entropie Etant donné une variable aléatoire X, quel est l efficacité maximale que puisse atteindre un codage? La réponse à cette question est donnée par le théorème du codage sans bruit qui dit que pour tout codage, il faudra transmettre un nombre de bits moyen au moins égal à l entropie de X. Méthodes probabilistes - Théorie de l information p.6/42

17 Théorème du codage sans bruit Soit X une variable aléatoire pouvant prendre les valeurs x,...x N avec pour probabilités respectives p(x )...p(x N ). Tout codage de X traduisant x i grâce à n i bits utilisera un nombre moyen de bits supérieur ou égal à l entropie de X. N n i p(x i ) H(X) = N p(x i ) log 2 (p(x i )) i= i= Méthodes probabilistes - Théorie de l information p.7/42

18 Entropie conjointe L entropie conjointe d une paire de variables aléatoires discretes X,Y de loi de probabilité conjointe p(x,y) est la quantité d information nécessaire en moyenne pour spécifier leurs deux valeurs. Soient deux variables aléatoires X et Y prenant leurs valeurs respectivement dans {x,x 2,...x n } et {y,y 2,...y n }, leur loi de probabilité conjointe étant : p(x i,y j ) = P(X = x i,y = y j ) On calcule grâce à cette loi conjointe l entropie H(X,Y ) attachée au vecteur aléatoire (X,Y ) : H(X,Y ) = i,j p(x i,y j ) log 2 p(x i,y j ) Méthodes probabilistes - Théorie de l information p.8/42

19 Entropie conditionnelle Admettons maintenant que l on ait observé que Y = y j. La quantité restante d incertitude sur X est : H(X Y = y j ) = i p(x i y j ) log 2 (p(x i y j )) où : p(x i y j ) = P(X = x i Y = y j ) Aussi écrira-t-on comme suit l incertitude moyenne associée à X après observation de Y : H(X Y ) = j H(X Y = y j )P(Y = y j ) Méthodes probabilistes - Théorie de l information p.9/42

20 Calcul de l entropie conditionnelle H(X Y ) = j p(y j )H(X Y = y j ) = j p(y j ) i p(x i y j ) log 2 p(x i y j ) = i,j p(y j,x i ) log 2 p(x i y j ) Méthodes probabilistes - Théorie de l information p.20/42

21 Entropie conjointe et entropie conditionnelle Relation entre l entropie conjointe et l entropie conditionnelle : H(Y,X) = H(Y X) + H(X) H(X,Y ) = i,j p(x i,y j ) log 2 p(x i,y j ) = i,j p(x i,y j ) log 2 p(y j x i )p(x i ) = i,j p(x i,y j ) log 2 p(y j x i ) i,j p(x i,y j ) log 2 p(x i ) = i,j p(x i,y j ) log 2 p(y j x i ) i p(x i ) log 2 p(x i ) = H(Y X) + H(X) Méthodes probabilistes - Théorie de l information p.2/42

22 Information mutuelle On appelle information mutuelle entre deux variables aléatoires X et Y la diminution de l incertitude associée à une variable aléatoire due à notre connaissance (observation) de l autre variable aléatoire : I(X;Y ) = H(X) H(X Y ) = H(Y ) H(Y X) L information mutuelle est une mesure symétrique de l information commune de deux variables. I(X;Y ) 0 I(X;Y ) = 0 si X et Y sont indépendantes Elle croît en fonction de la dépendance de deux variables ainsi que de leur entropie. I(X;X) = H(X) Méthodes probabilistes - Théorie de l information p.22/42

23 Calcul de l information mutuelle I(X; Y ) = H(X) H(X Y ) = H(X) + H(Y ) H(X, Y ) = X i p(x i )log 2 p(x i ) X j p(y j )log 2 p(y j ) + X i,j p(x i, y j )log 2 p(x i, y j ) = X i p(x i )log 2 p(x i ) + X j p(y j )log 2 p(y j ) + X i,j p(x i, y j ) log 2 p(x i, y j ) = X i,j p(x i, y j ) log 2 p(x i ) + X i,j p(x i, y j )log 2 p(y j ) X i,j p(x i, y j ) log 2 p(x i, y j ) = X i,j p(x i, y j ) log 2 p(x i, y j ) p(x i )p(y j ) Méthodes probabilistes - Théorie de l information p.23/42

24 Exemple On dispose d objets caractérisés par leur forme et leur couleur. trois formes (carré (C), triangle(t), rectangle (R)) trois couleurs (vert (V), noir (N), bleu (B)) on définit deux variables aléatoires : C pour la couleur F pour la forme on dispose de la loi de probabilité conjointe p(c, F) Méthodes probabilistes - Théorie de l information p.24/42

25 Exemple V N B C T R I(C; F) = 3 3 log 2 = log 2 3 =.58 bits 3 9 H(C) = H(F) = 3 ( 3 log 2 3) =.58 bits! Méthodes probabilistes - Théorie de l information p.25/42

26 Exemple 2 C 3 8 T 8 R V N B I(C; F) = 3 ( 3 8 log log 2 = 3 ( ) 8 = 0.25 bits log 2 ) Méthodes probabilistes - Théorie de l information p.26/42

27 Exemple 3 C 9 T 9 R 9 3 V N B I(C; F) = 9 ( 9 log 2 = 0 bits 9 9 ) C et F sont indépendantes. Méthodes probabilistes - Théorie de l information p.27/42

28 Relations entre l information mutuelle et l entropie H(X,Y) H(X Y) H(Y X) I(X;Y) H(X) H(Y) Méthodes probabilistes - Théorie de l information p.28/42

29 Modèle du canal bruité W X n canal encodeur message p(y x) Y n decodeur Ŵ estimation du message Les symboles d une source sont traduits en symboles du canal (encodeur) Le canal produit une séquence de symboles en sortie Le canal est bruité : pour un symbole en entrée, il produit une distribution de probabilités sur les symboles possibles en sortie. La séquence de symboles en sortie est utilisée pour reconstruire le message (décodeur) Méthodes probabilistes - Théorie de l information p.29/42

30 Modèle du canal bruité Toute séquence d entrée définit une distribution de probabilité sur les séquences de sortie. Deux séquences d entrée différentes peuvent produire la même séquence de sortie, deux entrées peuvent donc être confondues. Méthodes probabilistes - Théorie de l information p.30/42

31 Canal discret Un canal discret est un système composé d un alphabet d entrée X, d un alphabet de sortie Y et d une matrice de probabilité de transition p(y x) qui exprime la probabilité d observer le symbole y en sortie si l on a le symbole x en entrée. Un canal est dit sans mémoire si la distribution de probabilité en sortie ne dépend que de l entrée au même instant, et qu elle est indépendante des entrées et sorties du canal précédentes. Méthodes probabilistes - Théorie de l information p.3/42

32 Exemple : le canal binaire symetrique p 0 0 p p p La probabilité d erreur est égale à p pour chacun des deux symboles. Méthodes probabilistes - Théorie de l information p.32/42

33 Qualité d un canal Soit X une variable aléatoire définie sur X décrivant le symbole en entrée du canal Soit Y une variable aléatoire définie sur Y décrivant le symbole en sortie du canal. Quelle information Y nous donne-t-elle sur X? On calcule I(X;Y ) Pour cela il faut fixer une distribution p(x) Méthodes probabilistes - Théorie de l information p.33/42

34 Evolution de l information mutuelle p=0.0 p=0. p=0.2 p=0.3 p=0.4 p=0.5 I(X;Y) P(X=) Méthodes probabilistes - Théorie de l information p.34/42

35 Interprétation pour p = 0 et pour p X uniforme, I(X;Y ) vaut bit. cela veut dire que l observation de Y nous permet de déterminer avec certitude la valeur de X. lorsque I(X;Y ) <, l observation de Y ne nous permet plus de déterminer avec certitude la valeur de X, une partie de l information a été perdue dans le canal. Méthodes probabilistes - Théorie de l information p.35/42

36 Capacité d un canal On appelle capacité d un canal discret sans mémoire l information mutuelle maximale entre la sortie et l entrée qu il permet d atteindre : C = max p(x) I(X;Y ) Méthodes probabilistes - Théorie de l information p.36/42

37 Interprétation de la notion de capacité Supposons que le canal permette de transmettre bit/sec et que la capacité du canal soit de 0.5 bit. Bien que la vitesse de transmission soit de bit/sec. la vitesse de transmission d information est inférieure à cette valeur. Pour réaliser une transmission fiable, il faut ajouter de la redondance et, par conséquent, diminuer la vitesse de transmission d information. Le canal ne pourra transmettre de l information à une vitesse supérieure à 0.5 bit/sec sans commettre d erreurs. Méthodes probabilistes - Théorie de l information p.37/42

38 Le théorème du canal bruité Etant donné un canal de capacité C, il est possible de transmettre de l information à une vitesse V < C avec un taux d erreur arbitrairement faible. En d autres termes, il existe un encodage qui permet de réaliser une vitesse de transmission de l information égale à la capacité. Le théorème du canal bruité n est pas constructif, il ne dit pas comment réaliser un tel encodage. Méthodes probabilistes - Théorie de l information p.38/42

39 Relation avec le TAL Le modèle du canal bruité (MCB) a servi de modèle aux premiers travaux de TAL probabiliste dans les années 70 Des chercheurs du centre de recherche Watson de IBM ont modélisé la reconnaissance de la parole et la traduction automatique à l aide du canal bruité. Dans l application du MCB au TAL, on ne contrôle pas la phase d encodage, on cherche à décoder la sortie pour retrouver l entrée la plus probable. Méthodes probabilistes - Théorie de l information p.39/42

40 Relation avec le TAL De nombreuses applications de TAL peuvent être vues comme une tentative de construire l entrée la plus probable étant donné une sortie. Ê = arg max E P(E S) = arg max E = arg max E = arg max E P(ES) P(S) P(E)P(S E) P(S) P(E)P(S E) Méthodes probabilistes - Théorie de l information p.40/42

41 Relation avec le TAL Deux probabilités doivent être calculées : P(E) probabilité d une séquence d entrée, elle est calculée à l aide d un modèle de langage P(S E) probabilité d une sortie étant donné une entrée, elle est calculée à l aide d un modèle du canal. Méthodes probabilistes - Théorie de l information p.4/42

42 Application du MCB au TAL Application Entrée Sortie P(E) P(S E) Traduction séquence de séquence de proba. de seq. modèle Automatique mots de L mots de L 2 de mots de L traducti Correction séquence séquence proba. de seq. modèle Automatique de mots de mots de mots erreurs Etiquetage morpho séquence de séqence de proba. de seq. p(m c) syntaxique catégories mots de catégories Reconnaissance de séquence signal proba. de seq. modèle la parole de mots acoustique de mots acousti Méthodes probabilistes - Théorie de l information p.42/42

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Théorie et codage de l information

Théorie et codage de l information Théorie et codage de l information Mesure quantitative de l information - Chapitre 2 - Information propre et mutuelle Quantité d information propre d un événement Soit A un événement de probabilité P (A)

Plus en détail

D.I.I.C. 3 - INC Module COMV - Contrôle 1

D.I.I.C. 3 - INC Module COMV - Contrôle 1 Université de Rennes 1 année 2009-2010 I.F.S.I.C. 11 Décembre 2009 D.I.I.C. 3 - INC Module COMV - Contrôle 1 cours d Olivier LE MEUR Durée : 2 heures Documents autorisés : documents des cours, TD et TP,

Plus en détail

Références. Compter les mots. Le langage comme donnée. Communication Langagière Ingénierie des langues et de la parole

Références. Compter les mots. Le langage comme donnée. Communication Langagière Ingénierie des langues et de la parole Communication Langagière Ingénierie des langues et de la parole 1. Introduction générale 2. Ingénierie des langues 2.1 Représentation et codage des textes 2.2 Théorie de l information et probabilités 2.3

Plus en détail

Majeure d informatique

Majeure d informatique Nicolas Sendrier Majeure d informatique Introduction la théorie de l information Cours n 1 Une mesure de l information Espace probabilisé discret L alphabet est X (fini en pratique) Variable aléatoire

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

S. Zozor Information, inégalités et relations d incertitude

S. Zozor Information, inégalités et relations d incertitude Information, inégalités et relations d incertitude Steeve Zozor GIPSA-Lab CNRS Grenoble INP, Grenoble, France 17-21 Mai 2010 Plan du cours 1 Entropie mesure d incertitude Axiomes, entropie de Shannon et

Plus en détail

INF4420: Sécurité Informatique Cryptographie I

INF4420: Sécurité Informatique Cryptographie I INF4420: Cryptographie I José M. Fernandez M-3109 340-4711 poste 5433 Aperçu du module Cryptographie (3 sem.) Définitions et histoire Notions de base (théorie de l'information) Chiffrement Méthodes "classiques"

Plus en détail

TELEVISION NUMERIQUE

TELEVISION NUMERIQUE REPUBLIQUE DU CAMEROUN Paix - Travail Patrie --------------------- UNIVERSITE DE YAOUNDE I ---------------------- ECOLE NATIONALE SUPERIEURE POLYTECHNIQUE ---------------------- REPUBLIC OF CAMEROUN Peace

Plus en détail

Initiation à la théorie de l information (Claude Shannon 1948)

Initiation à la théorie de l information (Claude Shannon 1948) Initiation à la théorie de l information (Claude Shannon 1948) Emergence Paris - Santacafé Philippe Picard, le 26/04/2006 Page 1 Avant propos La théorie de l information, sans faire appel - du moins dans

Plus en détail

Principes généraux de codage entropique d'une source. Cours : Compression d'images Master II: IASIG Dr. Mvogo Ngono Joseph

Principes généraux de codage entropique d'une source. Cours : Compression d'images Master II: IASIG Dr. Mvogo Ngono Joseph Principes généraux de codage entropique d'une source Cours : Compression d'images Master II: IASIG Dr. Mvogo Ngono Joseph Table des matières Objectifs 5 Introduction 7 I - Entropie d'une source 9 II -

Plus en détail

Quelques clés pour approcher la théorie de l information selon Claude Shannon. Philippe Picard, le 26/04/2010 Page 1

Quelques clés pour approcher la théorie de l information selon Claude Shannon. Philippe Picard, le 26/04/2010 Page 1 Quelques clés pour approcher la théorie de l information selon Claude Shannon Philippe Picard, le 26/04/2010 Page 1 Avant propos La théorie de l information, sans faire appel - du moins dans ses théorèmes

Plus en détail

THÉORIE DE L'INFORMATION : RAPPELS

THÉORIE DE L'INFORMATION : RAPPELS THÉORIE DE L'INFORMATION : RAPPELS 1920 : premières tentatives de définition de mesure de l'information à partir de 1948 : travaux de Shannon Théorie de l'information discipline fondamentale qui s'applique

Plus en détail

TD Réseau Les codes correcteurs et les codes détecteurs. Claude Duvallet

TD Réseau Les codes correcteurs et les codes détecteurs. Claude Duvallet TD Réseau Les codes correcteurs et les codes détecteurs Claude Duvallet Matrise Informatique Année 2003-2004 Année 2003-2004 p.1/22 Présentation (1) Pourquoi? Des canaux de transmission imparfait entraînant

Plus en détail

Théorie de l information

Théorie de l information Théorie de l information Exercices Dpt. Génie Electrique Théorie de l information T. Grenier Exercices A Exercice n A. Dans un processus d'automatisation, une source génère de façon indépendante quatre

Plus en détail

Théorie de l information et codage (Notes de cours)

Théorie de l information et codage (Notes de cours) Théorie de l information et codage (Notes de cours) Marie-Pierre Béal Nicolas Sendrier 2 novembre 202 Institut Gaspard Monge, Université de Marne-la-Vallée, 77454 Marne-la-Vallée Cedex 2, France. beal@univ-mlv.fr.

Plus en détail

UV Théorie de l Information. Codes à longueur variable

UV Théorie de l Information. Codes à longueur variable Cours n 5 : UV Théorie de l Information Compression de l information : Codage de source sans distorsion Ex 1 : Code de Shannon Fano Ex 2 : Code de Huffman Ex 3 : Codage par plage Ex 4 : Codage de Lempel

Plus en détail

Mth2302B - Intra Été 2011

Mth2302B - Intra Été 2011 École Polytechnique de Montréal page 1 Contrôle périodique Été 2011--------------------------------Corrigé--------------------------------------T.Hammouche Question 1 (12 points) Mth2302B - Intra Été 2011

Plus en détail

Chapitre 2 : communications numériques.

Chapitre 2 : communications numériques. Chapitre 2 : communications numériques. 1) généralités sur les communications numériques. A) production d'un signal numérique : transformation d'un signal analogique en une suite d'éléments binaires notés

Plus en détail

TD 2 - Les codes correcteurset les codes détecteurs d erreurs

TD 2 - Les codes correcteurset les codes détecteurs d erreurs TD 2 - Les codes correcteurs et les codes détecteurs d erreurs Claude Duvallet Université du Havre UFR Sciences et Techniques 25 rue Philippe Lebon - BP 540 76058 LE HAVRE CEDEX Claude.Duvallet@gmail.com

Plus en détail

Théorie et codage de l information

Théorie et codage de l information Théorie et codage de l information Canaux discrets - Chapitre 4 - Codage de canal Motivations Dans un système réel, le message reçu par le destinataire peut différer de celui qui rag replacements a été

Plus en détail

2 Probabilités conditionnelles. Événements indépendants

2 Probabilités conditionnelles. Événements indépendants 2 Probabilités conditionnelles. Événements indépendants 2.1 Probabilité conditionnelle Soient A et B deux événements tels que P(B) > 0. Soit alors P(A B), la probabilité que A se réalise, B étant réalisé.

Plus en détail

INTRODUCTION À LA THÉORIE DE L INFORMATION POUR LE CODAGE

INTRODUCTION À LA THÉORIE DE L INFORMATION POUR LE CODAGE INTRODUCTION À LA THÉORIE DE L INFORMATION POUR LE CODAGE Master Systèmes de Radiocommunications, année 2007. Version : 2.1. Samson LASAULCE lasaulce@lss.supelec.fr 2 Table des matières 1 Introduction.

Plus en détail

Théorie des graphes. Introduction. Programme de Terminale ES Spécialité. Résolution de problèmes à l aide de graphes. Préparation CAPES UCBL

Théorie des graphes. Introduction. Programme de Terminale ES Spécialité. Résolution de problèmes à l aide de graphes. Préparation CAPES UCBL Introduction Ces quelques pages ont pour objectif de vous initier aux notions de théorie des graphes enseignées en Terminale ES. Le programme de Terminale (voir ci-après) est construit sur la résolution

Plus en détail

Techniques de Codage pour la Sécurité Couche Physique

Techniques de Codage pour la Sécurité Couche Physique Techniques de Codage pour la Sécurité Couche Physique LAURA LUZZI SÉMINAIRE ETIS 4 FÉVRIER 2014 Laura Luzzi Codage pour la Sécurité Couche Physique 1 Plan 1 Introduction : sécurité couche physique 2 Canaux

Plus en détail

Théorie de l Information Notes de Cours 2006-2007

Théorie de l Information Notes de Cours 2006-2007 Théorie de l Information Notes de Cours 26-27 SIC-SICOM Maria-João Rendas October, 26 2 Chapter Mesures d Information et leurs propriétés Nous pésentons dans ce Chapitre les mesures fondamentales de la

Plus en détail

Codes correcteurs d erreurs

Codes correcteurs d erreurs Codes correcteurs d erreurs 1 Partie théorique 1.1 Définition Un code correcteur est une technique de codage de l information basée sur la redondance, qui vise à détecter et corriger des éventuelles erreurs

Plus en détail

Les différents codes utilisés en électronique

Les différents codes utilisés en électronique Section : Technicien Supérieur Electronique Discipline : Génie Electronique Les différents codes utilisés en électronique Domaine d application : Traitement des signaux numériques Type de document : Cours

Plus en détail

ENSEIRB. Théorie de l Information (4) Philippe Duchon. Transmission de. Codage de Huffman

ENSEIRB. Théorie de l Information (4) Philippe Duchon. Transmission de. Codage de Huffman Théorie Codage Huffman Capacité d un Théorie ENSEIRB 2008-09 Codage Huffman (1) Théorie Codage Huffman Capacité d un Lemme (Huffman) Pour toute source S, émettant les symboles s 1,..., s N avec les probabilités

Plus en détail

Les ordinateurs dispositifs électroniques fonctionnant sur la principe de création, transmission et conversion d impulses électriques

Les ordinateurs dispositifs électroniques fonctionnant sur la principe de création, transmission et conversion d impulses électriques Les ordinateurs dispositifs électroniques fonctionnant sur la principe de création, transmission et conversion d impulses électriques Les informations traitées par l ordinateur (nombres, instructions,

Plus en détail

ÉCOLE CENTRALE DE PÉKIN SCIENCES INDUSTRIELLES POUR L INGÉNIEUR

ÉCOLE CENTRALE DE PÉKIN SCIENCES INDUSTRIELLES POUR L INGÉNIEUR DM4 Page 北 航 中 法 工 程 师 学 院 ÉCOLE CENTRALE DE PÉKIN SCIENCES INDUSTRIELLES POUR L INGÉNIEUR Année académique 24-25 Devoir à la maison n 4 À rendre le vendredi 2 juin 25 Numéro d étudiant à 8 chiffres :

Plus en détail

TS214 - Compression/Décompression d une image binaire

TS214 - Compression/Décompression d une image binaire Filière Télécommunications, 2 ème année TS214 - Compression/Décompression d une image binaire De nombreux télécopieurs utilisent la recommandation T.4 Groupe 3 de l International Telecommunications Union

Plus en détail

Master IAD Module PS. Reconnaissance de la parole (suite) Modèles de Markov et bases de données. Gaël RICHARD Février 2008

Master IAD Module PS. Reconnaissance de la parole (suite) Modèles de Markov et bases de données. Gaël RICHARD Février 2008 Master IAD Module PS Reconnaissance de la parole (suite) Modèles de Markov et bases de données Gaël RICHARD Février 2008 1 Reconnaissance de la parole Introduction Approches pour la reconnaissance vocale

Plus en détail

Concours 2015 Épreuve d Informatique Filière : MP Durée de l épreuve : 3 heures. L utilisation d une calculatrice est autorisée.

Concours 2015 Épreuve d Informatique Filière : MP Durée de l épreuve : 3 heures. L utilisation d une calculatrice est autorisée. A 2015 INFO. MP École des Ponts ParisTech, SUPAERO (ISAE), ENSTA ParisTech, Télécom ParisTech, Mines ParisTech, Mines de Saint-étienne, Mines Nancy, Télécom Bretagne, ENSAE ParisTech (filière MP), École

Plus en détail

Introduction générale au codage de canal

Introduction générale au codage de canal Codage de canal et turbo-codes 15/9/2 1/7 Introduction générale au codage de canal Table des matières Table des matières... 1 Table des figures... 1 1. Introduction... 2 2. Notion de message numérique...

Plus en détail

Théorie de l Information

Théorie de l Information Massih-Reza Amini Université Joseph Fourier Laboratoire d Informatique de Grenoble 2/31 Rappel Canal de communication Codage par répétition Table des matières 1 Rappel 2 Canal de communication 3 Codage

Plus en détail

Chapitre I. Probabilités. Bcpst 1 2 novembre 2015. I Exemples d expériences aléatoires

Chapitre I. Probabilités. Bcpst 1 2 novembre 2015. I Exemples d expériences aléatoires Chapitre I Probabilités Bcpst 1 2 novembre 2015 I Exemples d expériences aléatoires Une expérience aléatoire est une expérience dont on ne peut pas prédire le résultat avant de l avoir réalisée... ce qui

Plus en détail

M2 Informatique/Réseaux Université Pierre et Marie Curie UE APMM

M2 Informatique/Réseaux Université Pierre et Marie Curie UE APMM TD TECHNIQUES DE CODAGE ET DE COMPRESSION. LANGAGE / CODAGE / VALENCE.. Rappels Toute fraction intelligible d un message est constituée de symboles. Le langage est l ensemble de ces symboles. Un codage

Plus en détail

Chapitre 1. L algorithme génétique

Chapitre 1. L algorithme génétique Chapitre 1 L algorithme génétique L algorithme génétique (AG) est un algorithme de recherche basé sur les mécanismes de la sélection naturelle et de la génétique. Il combine une stratégie de survie des

Plus en détail

Compression numérique. Image fixe (et vidéo)

Compression numérique. Image fixe (et vidéo) Compression numérique Image fixe (et vidéo) 1 Contexte Codage ou compression des images numériques Réduc:on de la quan:té d éléments binaires représentant l informa:on (image, vidéo) Taux de comp. = Qté

Plus en détail

Probabilités. Chapitre 2 : Le modèle probabiliste - Indépendance d évènements. Julian Tugaut. 15 janvier 2015

Probabilités. Chapitre 2 : Le modèle probabiliste - Indépendance d évènements. Julian Tugaut. 15 janvier 2015 Indépendance de deux évènements Chapitre 2 : Le modèle probabiliste - Indépendance d évènements 15 janvier 2015 Sommaire 1 Indépendance de deux évènements 2 Indépendance de deux évènements Approche intuitive

Plus en détail

Théorie de l information et codage pour les canaux de Rayleigh MIMO

Théorie de l information et codage pour les canaux de Rayleigh MIMO Théorie de l information et codage pour les canaux de Rayleigh MIMO Philippe Ciblat École Nationale Supérieure des Télécommunications, Paris, France Plan 1 Canal de Rayleigh Modèle Diversité Système MIMO

Plus en détail

Transmission d informations sur le réseau électrique

Transmission d informations sur le réseau électrique Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en

Plus en détail

Transmission de données. A) Principaux éléments intervenant dans la transmission

Transmission de données. A) Principaux éléments intervenant dans la transmission Page 1 / 7 A) Principaux éléments intervenant dans la transmission A.1 Equipement voisins Ordinateur ou terminal Ordinateur ou terminal Canal de transmission ETTD ETTD ETTD : Equipement Terminal de Traitement

Plus en détail

Codage canal. Décodage canal

Codage canal. Décodage canal Système de communications (TNT, 3G, WIFI, ) source Codage source Codage canal Emetteur Modulateur Canal bruit utilisateur Décodage Source Décodage canal Récepteur Démodulateur Source : parole, musique,

Plus en détail

Université de La Rochelle. Réseaux TD n 6

Université de La Rochelle. Réseaux TD n 6 Réseaux TD n 6 Rappels : Théorème de Nyquist (ligne non bruitée) : Dmax = 2H log 2 V Théorème de Shannon (ligne bruitée) : C = H log 2 (1+ S/B) Relation entre débit binaire et rapidité de modulation :

Plus en détail

Chapitre 10 Algorithmes probabilistes

Chapitre 10 Algorithmes probabilistes Chapitre 10 Algorithmes probabilistes Jouent à pile ou face Se comportent différemment lorsque exécutés deux fois sur un même exemplaire Défient parfois l intuition 1 Première surprise: le hasard peut

Plus en détail

Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples

Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples 36 Probabilité conditionnelle et indépendance. Couples de variables aléatoires. Exemples (Ω, B, P est un espace probabilisé. 36.1 Définition et propriétés des probabilités conditionnelles Définition 36.1

Plus en détail

Laboratoire Codage de Canal

Laboratoire Codage de Canal 1 BUT D U LAB OR ATO IRE Le but de ce laboratoire est d étudier la notion de codage de canal. Le codage de canal consiste en une signature que l on ajoute sur tout paquet d information à transmettre. Cela

Plus en détail

Ch. 2 : Emetteur en Bande de Base

Ch. 2 : Emetteur en Bande de Base Ch. 2 : Emetteur en Bande de Base 1 1) Les codes en ligne 1-1) Principe des codes en ligne Codes en ligne binaire On suppose que le message numérique est constitué d une suite d éléments binaires α k,

Plus en détail

Communications Numériques et Théorie de l Information Contrôle de Connaissances avec documents Mardi 24 juin - 13h30 à 15h00

Communications Numériques et Théorie de l Information Contrôle de Connaissances avec documents Mardi 24 juin - 13h30 à 15h00 Communications Numériques et Théorie de l Information Contrôle de Connaissances avec documents Mardi 4 juin - 13h30 à 15h00 Système de télérelevage par satellite On se propose d étudier le fonctionnement

Plus en détail

Actuariat I ACT2121. huitième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Actuariat I ACT2121. huitième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free. Actuariat I ACT2121 huitième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 Soit X une variable aléatoire continue de fonction de densité

Plus en détail

CODES CORRECTEURS D'ERREURS

CODES CORRECTEURS D'ERREURS CODES CORRECTEURS D'ERREURS Marc URO TABLE DES MATIÈRES DÉTECTION ET CORRECTION D'ERREURS... 6 CAS D'UN CANAL SANS SYMBOLE D'EFFACEMENT...6 CAS D'UN CANAL AVEC SYMBOLE D'EFFACEMENT...7 GÉNÉRATION ET DÉTECTION

Plus en détail

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry Outils mathématiques pour le datamining http://wwwelsewarefr/univevry Géométrie Distance Distance entre parties Matrice de variance/covariance Inertie Minimisation Probabilités Définition Théorème de Bayes

Plus en détail

GPA770 Microélectronique appliquée Exercices série A

GPA770 Microélectronique appliquée Exercices série A GPA770 Microélectronique appliquée Exercices série A 1. Effectuez les calculs suivants sur des nombres binaires en complément à avec une représentation de 8 bits. Est-ce qu il y a débordement en complément

Plus en détail

1.1 Codage de source et test d hypothèse

1.1 Codage de source et test d hypothèse Théorie de l information et codage 200/20 Cours 8février20 Enseignant: Marc Lelarge Scribe: Marc Lelarge Pour information Page webdu cours http://www.di.ens.fr/~lelarge/info.html Notations Pour des variables

Plus en détail

UV Théorie de l Information. Introduction

UV Théorie de l Information. Introduction Cours n 1 2 UV Théorie de l Information Introduction à la théorie de l information Caractérisation des sources d information Notions de probabilité (Rappel) Entropie et Information Entropie des sources

Plus en détail

Information mutuelle et capacité

Information mutuelle et capacité Université d Aix-Marseille Cryptographie Semestre 2 Exercices et corrections pour le TP 2 2014 2015 Pour les fonctions pour ce cours, on lit Crypto.sage du site du cours. crypto = "http://iml.univ-mrs.fr/~kohel/crypto/"

Plus en détail

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques

Plus en détail

Mathématiques discrètes Probabilités discrètes Cours 30, MATH/COSC 1056F

Mathématiques discrètes Probabilités discrètes Cours 30, MATH/COSC 1056F Mathématiques discrètes Probabilités discrètes Cours 30, MATH/COSC 1056F Julien Dompierre Département de mathématiques et d informatique Université Laurentienne 27 novembre 2008, Sudbury Julien Dompierre

Plus en détail

Compression d images et de vidéo: pourquoi, comment? Aline ROUMY Chercheur, INRIA Rennes

Compression d images et de vidéo: pourquoi, comment? Aline ROUMY Chercheur, INRIA Rennes Compression d images et de vidéo: pourquoi, comment? Aline ROUMY Chercheur, INRIA Rennes Octobre 2014 SOMMAIRE 1. Pourquoi compresser une vidéo? 2. Comment compresser? 3. Compression avec pertes 4. Compression

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

Feuille d exercices 1

Feuille d exercices 1 Université Paris 7 - Denis Diderot L2 - Probabilités PS4 Année 2014-2015 Feuille d exercices 1 Exercice 1 Combien y a-t-il de paires d entiers non consécutifs compris entre 1 et n (n 1)? Exercice 2 1.

Plus en détail

Problème de contrôle optimal pour une chaîne de Markov

Problème de contrôle optimal pour une chaîne de Markov Problème de contrôle optimal pour une chaîne de Markov cours ENSTA MA206 Il s agit de résoudre un problème d arrêt optimal pour une chaîne de Markov à temps discret. Soit X n une chaîne de Markov à valeurs

Plus en détail

Chapitre 1: Introduction au calcul des probabilités, cas d un univers fini.

Chapitre 1: Introduction au calcul des probabilités, cas d un univers fini. Chapitre 1: Introduction au calcul des probabilités, cas d un univers fini. 1 Introduction Des actions comme lancer un dé, tirer une carte d un jeu, observer la durée de vie d une ampoule électrique, etc...sont

Plus en détail

Fabien DONIUS, Nicolas GRILL, Chérine KAMEL, Selim MILED - Ing1 Gr4 ANALYSE MATHEMATIQUE GOLAY (24,12,8) Les codes correcteurs d erreur

Fabien DONIUS, Nicolas GRILL, Chérine KAMEL, Selim MILED - Ing1 Gr4 ANALYSE MATHEMATIQUE GOLAY (24,12,8) Les codes correcteurs d erreur Fabien DONIUS, Nicolas GRILL, Chérine KAMEL, Selim MILED - Ing1 Gr4 ANALYSE MATHEMATIQUE GOLAY (24,12,8) Les codes correcteurs d erreur 2 I. Génération des matrices : Le code de Golay, comme le code de

Plus en détail

Plan. Codes Correcteurs d Erreurs Les codes cycliques. Division Euclidienne. Définition. Exercice. Marc Chaumont. Exercice.

Plan. Codes Correcteurs d Erreurs Les codes cycliques. Division Euclidienne. Définition. Exercice. Marc Chaumont. Exercice. Plan Codes Correcteurs d Erreurs Les codes cycliques November 12, 2008 1 2 Définition Division Euclidienne Un polynôme à coefficients dans F 2 est une fonction de la forme P(X ) = a 0 + a 1 X + a 2 X 2

Plus en détail

Langage C et aléa, séance 4

Langage C et aléa, séance 4 Langage C et aléa, séance 4 École des Mines de Nancy, séminaire d option Ingénierie Mathématique Frédéric Sur http://www.loria.fr/ sur/enseignement/courscalea/ 1 La bibliothèque GMP Nous allons utiliser

Plus en détail

Réseaux Multimédia 2002 Damien Magoni

Réseaux Multimédia 2002 Damien Magoni Réseaux Multimédia 2002 Damien Magoni Toutes les illustrations 2001 Pearson Education Limited Fred Halsall Contenu Représentation des informations multimédia Numérisation Structure d un encodeur Structure

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

Modélisation des transports

Modélisation des transports Modélisation des transports Cinzia Cirillo, Eric Cornelis & Philippe TOINT D.E.S. interuniversitaire en gestion des transports Les Modèles de choix discrets Dr. CINZIA CIRILLO Facultés Universitaires Notre-Dame

Plus en détail

Fonctions de la couche physique

Fonctions de la couche physique La Couche physique 01010110 01010110 Couche physique Signal Médium Alain AUBERT alain.aubert@telecom-st-etienne.r 0 Fonctions de la couche physique 1 1 Services assurés par la couche physique Transmettre

Plus en détail

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd UE 503 L3 MIAGE Initiation Réseau et Programmation Web La couche physique A. Belaïd abelaid@loria.fr http://www.loria.fr/~abelaid/ Année Universitaire 2011/2012 2 Le Modèle OSI La couche physique ou le

Plus en détail

Espace de probabilité, indépendance et probabilité conditionnelle

Espace de probabilité, indépendance et probabilité conditionnelle Chapter 2 Espace de probabilité, indépendance et probabilité conditionnelle Sommaire 2.1 Tribu et événements........................................... 15 2.2 Probabilité................................................

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

Machines composées de (depuis 1940 env.) : http://cui.unige.ch/isi/cours/std/

Machines composées de (depuis 1940 env.) : http://cui.unige.ch/isi/cours/std/ données pr ogramme 11111101 11001101 01000101 b us disque ma gnétique processeur écran Structures de données et algorithmes Ordinateurs Gilles Falquet, printemps-été 2002 Machines composées de (depuis

Plus en détail

Support du cours de Probabilités IUT d Orléans, Département d informatique

Support du cours de Probabilités IUT d Orléans, Département d informatique Support du cours de Probabilités IUT d Orléans, Département d informatique Pierre Andreoletti IUT d Orléans Laboratoire MAPMO (Bât. de Mathématiques UFR Sciences) - Bureau 126 email: pierre.andreoletti@univ-orleans.fr

Plus en détail

Numérisation de l information

Numérisation de l information Numérisation de l Une est un élément de connaissance codé à l aide de règles communes à un ensemble d utilisateurs. Le langage, l écriture sont des exemples de ces règles. 1 Comment les s sont-elles transmises?

Plus en détail

Systèmes de communications numériques 2

Systèmes de communications numériques 2 Systèmes de Communications Numériques Philippe Ciuciu, Christophe Vignat Laboratoire des Signaux et Systèmes CNRS SUPÉLEC UPS SUPÉLEC, Plateau de Moulon, 91192 Gif-sur-Yvette ciuciu@lss.supelec.fr Université

Plus en détail

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où

Plus en détail

Information et Codage

Information et Codage Information et Codage Chaps. 1 5 Olivier RIOUL TELECOM ParisTech olivier.rioul@telecom-paristech.fr Chaps. 6 7 Benoît GELLER ENSTA ParisTech benoit.geller@ensta-paristech.fr Avant-propos Ce cours vise

Plus en détail

Exercices théoriques

Exercices théoriques École normale supérieure 2008-2009 Département d informatique Algorithmique et Programmation TD n 9 : Programmation Linéaire Avec Solutions Exercices théoriques Rappel : Dual d un programme linéaire cf.

Plus en détail

Exemple. Il ne faudra pas confondre (101) 2 et (101) 10 Si a 0,a 1, a 2,, a n sont n+1 chiffres de 0 à 1, le

Exemple. Il ne faudra pas confondre (101) 2 et (101) 10 Si a 0,a 1, a 2,, a n sont n+1 chiffres de 0 à 1, le Chapitre I - arithmé La base décimale Quand on représente un nombre entier, positif, on utilise généralement la base 10. Cela signifie que, de la droite vers la gauche, chaque nombre indiqué compte 10

Plus en détail

COUPLES DE VARIABLES ALÉATOIRES

COUPLES DE VARIABLES ALÉATOIRES CHAPITRE 13 COUPLES DE VARIABLES ALÉATOIRES Dans tout le chapitre, (Ω, P) désignera un espace probabilisé fini. 1 Couple de variables aléatoires Définition 13.1 On appelle couple de variables aléatoires

Plus en détail

LE CONTROLE D ERREURS LES CODES AUTOVERIFICATEURS OU AUTOCORRECTEURS. Les codes de blocs

LE CONTROLE D ERREURS LES CODES AUTOVERIFICATEURS OU AUTOCORRECTEURS. Les codes de blocs LE CONTROLE D ERREURS LES CODES AUTOVERIFICATEURS OU AUTOCORRECTEURS Les codes de blocs Le principe employé dans les codes de blocs consiste à construire le mot de code en «sectionnant» l information utile

Plus en détail

3 Exercices. 3.1 Probabilités simples. 3.2 Probabilités avec dénombrement. Probabilités 3. Exercice 1 On tire au hasard une carte parmi un jeu de 52.

3 Exercices. 3.1 Probabilités simples. 3.2 Probabilités avec dénombrement. Probabilités 3. Exercice 1 On tire au hasard une carte parmi un jeu de 52. Probabilités 3 3 Exercices 3.1 Probabilités simples Exercice 1 On tire au hasard une carte parmi un jeu de 52. Calculer la probabilité d obtenir : 1. un roi 2. le valet de trèfle 3. l as de coeur ou la

Plus en détail

Cours de spécialité mathématiques en Terminale ES

Cours de spécialité mathématiques en Terminale ES Cours de spécialité mathématiques en Terminale ES O. Lader 2014/2015 Lycée Jean Vilar Spé math terminale ES 2014/2015 1 / 51 Systèmes linéaires Deux exemples de systèmes linéaires à deux équations et deux

Plus en détail

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Ludovic Denoyer 21 septembre 2015 Ludovic Denoyer () FDMS 21 septembre 2015 1 / 1 Contexte Observation La plupart des bonnes

Plus en détail

Architecture des ordinateurs TD1 - Portes logiques et premiers circuits

Architecture des ordinateurs TD1 - Portes logiques et premiers circuits Architecture des ordinateurs TD1 - Portes logiques et premiers circuits 1 Rappel : un peu de logique Exercice 1.1 Remplir la table de vérité suivante : a b a + b ab a + b ab a b 0 0 0 1 1 0 1 1 Exercice

Plus en détail

Chapitre VI Échantillonages et simulations

Chapitre VI Échantillonages et simulations Chapitre VI Commentaires : Récursivement, les commentaires ne sont pas à l attention des élèves.. Fluctuation d échantillonnage Définition : En statistiques, un échantillon de taille n est la liste des

Plus en détail

Hélène Desmier ab, Pascale Kuntz a & Ivan Kojadinovic a. Pauc, 44306 Nantes. {prenom.nom}@polytech.univ-nantes.fr

Hélène Desmier ab, Pascale Kuntz a & Ivan Kojadinovic a. Pauc, 44306 Nantes. {prenom.nom}@polytech.univ-nantes.fr Une classification hiérarchique de variables discrètes basée sur l information mutuelle en pré-traitement d un algorithme de sélection de variables pertinentes. Hélène Desmier ab, Pascale Kuntz a & Ivan

Plus en détail

Épreuve d informatique 2011

Épreuve d informatique 2011 A 2011 INFO. MP ÉCOLE NATIONALE DES PONTS ET CHAUSSÉES, ÉCOLES NATIONALES SUPÉRIEURES DE L AÉRONAUTIQUE ET DE L ESPACE, DE TECHNIQUES AVANCÉES, DES TÉLÉCOMMUNICATIONS, DES MINES DE PARIS, DES MINES DE

Plus en détail

Codage des sources discrètes sans mémoire 1/34

Codage des sources discrètes sans mémoire 1/34 Codage des sources discrètes sans mémoire 1/34 Plan du cours 1. Historique : codage de Morse ; 2. Définitions : codage ; efficacité d un codage ; 3. codes de longueur fixe, codage des chiffres ; 4. condition

Plus en détail

PROBABILITES. Chaque élève lance 100 fois un dé à six faces et note les effectifs d apparition de chaque face dans le tableau :

PROBABILITES. Chaque élève lance 100 fois un dé à six faces et note les effectifs d apparition de chaque face dans le tableau : PROBABILITES 1 I. Expérience aléatoire 1) Exemples : - On lance une pièce de monnaie et on regarde la face supérieure. - On lance un dé à six faces et on regarde le nombre de points inscrits sur la face

Plus en détail

Représentation des nombres entiers et réels. en binaire en mémoire

Représentation des nombres entiers et réels. en binaire en mémoire L3 Mag1 Phys. fond., cours C 15-16 Rep. des nbs. en binaire 25-09-05 23 :06 :02 page 1 1 Nombres entiers 1.1 Représentation binaire Représentation des nombres entiers et réels Tout entier positif n peut

Plus en détail

Détection et Correction d erreurs

Détection et Correction d erreurs Chapitre 4 Détection et Correction d erreurs 4.1 La couche liaison de données La couche 3 (couche réseau) a pour mission, entre autres, de trouver le meilleur chemin pour acheminer le message. Cette tâche

Plus en détail

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée PJE : Analyse de comportements avec Twitter Classification supervisée Arnaud Liefooghe arnaud.liefooghe@univ-lille1.fr Master 1 Informatique PJE2 2012-2013 B. Derbel L. Jourdan A. Liefooghe Contenu Classification

Plus en détail

LA COMMUNICATION. 10/03 Stage initial INITIATEUR - CTR74 - Lionel MOREL

LA COMMUNICATION. 10/03 Stage initial INITIATEUR - CTR74 - Lionel MOREL LA COMMUNICATION LA COMMUNICATION Introduction Schéma de la communication Communiquer = écouter Transmission d un message Capacité d attention Conclusion INTRODUCTION En tant que futur initiateur, vous

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail