La théorie de l information
|
|
- Isaac Pinard
- il y a 6 ans
- Total affichages :
Transcription
1 Cours n 6 Sources discrètes sans mémoire Information et entropie conjointes Entropie conditionnelle Loi de Bayes Exemple canal binaire Extensions à n sources Capacité d un canal 1
2 La théorie de l information Le théorème de la communication s intéresse aux moyens de transmettre une information depuis une source jusqu à un utilisateur à travers un canal Source Message Canal Destinataire Perturbations o La nature de la source peut être variée: une voix, un signal électromagnétique ou un système de symboles binaires, par exemple. 2
3 La théorie de l information o Le canal peut être une ligne téléphonique, une liaison radio etc o Ce canal va être examiné du point de vue de la quantité d information qu il peut transmettre et des perturbations aléatoires qu il subit o Le récepteur va reconstituer le message reçu. Le message étant caractérisé de manière probabiliste car un message certain est déjà connu par le destinataire ( n a pas besoin d être transmis) Caractérisation de ces trois éléments objectif de la théorie de l information A fin de réduire respectivement la redondance de la source (envoie des symboles n apportant aucune information) et les probabilités d erreurs de la transmission on emploie : Codage/décodage de source/canal 3
4 Objectif du codeur de la source est de représenter la sortie de la source en une séquence binaire, par exemple. Objectif du codeur du canal et de son décodeur, est de reproduire le plus fidèlement possible cette séquence binaire malgré le passage à travers un canal bruité Source Codage Source Codage Canal Canal Destinataire Décodage Source Décodage Canal 4
5 Modélisation d un source Il est possible de classer les sources en deux catégories selon les signaux ou messages qu elles émettent : o Les sources analogiques : domaine de la TV, la vidéo, la radio (l audio en général) o Les sources discrètes : disques optiques (Cd, DVD, ), les mémoires magnétiques (disques durs, bandes, ). Quelque soit le type de source, l information doit être transmise sous forme numérique L encodeur de source est l élément chargé de la transformation du format de l information. Le problème est différent selon que nous avons à faire à une source continue ou discrète. 5
6 Modèle mathématique d une source Une source transmet une information à un récepteur celui-ci ne connaissant pas l information qui va lui être transmise. Une source d'information émet en général un message non déterministe. D'un point de vue signal ce ne peut être qu'un signal aléatoire et la modélisation mathématique associée doit être stochastique une information est un processus stochastique. Ce qui rend une information intéressante est son caractère imprédictible. Une information est ainsi d'autant plus riche qu'elle est peu probable! Source discrète sans mémoire Source que dispose d un "alphabet" constitué d'éléments ou symboles ou caractères x 1, x 2, x 3,, x K où K est la longueur de l'alphabet 6
7 Source discrète sans mémoire o Les symboles de l alphabet de la source sont associés pour constituer un message. o Emettre un message revient à émettre une succession de symboles appartenant à une source. o Chaque symbole x k de l'alphabet a une probabilité d'utilisation p k. o Pour simplifier le problème, une catégorie de sources est plus simple à modéliser : celle des sources pour lesquelles la probabilité d'émission d'un caractère est indépendante de ce qui a été émis avant ou sera émis après. o C'est ce qui défini une source sans mémoire ( markovienne) 7
8 Quantité d information émisse par la source La quantité d'information d'un symbole x k de probabilité p k a été définie par Shannon comme : I x k = log p k = log 1 p k Unités: Dans la définition de la quantité d'information il n'a pas été précisé la base du logarithme utilisée et c'est cette base qui définit l'unité. o Base 2 : c'est celle historiquement choisie par Shannon qui est à l'origine de cette définition. L'unité ainsi obtenue est le bit (ou Shannon). o Base e : utilisation du logarithme épérien (ou naturel). L'unité devient alors le nats (ou logon) 1 nats = 0,69315 bits (ln a = ln 2. log2 a = 0, log 2 (a)) o Base 10 : En conformité avec le système décimal, la base 10 qui donne le dit (ou décit) comme unité 1 dit = 0,301 bits (log 10 (a) = ln (a) ln (10) = ln 2 log2 a ln (10) = 0,301. log 2 (a)) 8
9 Entropie d une Source Si on considère une source d information S qui sélectionne aléatoirement un symbole parmi éléments d un alphabet (s 1,, s ) de possibilités respectives P 1,, P, l entropie de la source est : H S = P k log 2 (P k ) k=1 Unités shannon/symbole La quantité d information d une source est liée au caractère nouveau et imprévu de chacun des symboles émis. C est-à-dire, à la difficulté de les déduire du contexte des symboles antérieures. Exemple : Source binaire 0,1. On a pour O P et pour 1 1 P H S = P log 2 P + 1 P log 2 (1 P) 9
10 Entropie d une Source Exemple : Source binaire 0,1. On a pour O P et pour 1 1 P On peut constater qu un élément binaire (bit) ne véhicule qu un Shannon que lorsque P = 0.5 (lorsque les états 0,1 sont équiprobables). H S 0 lorsque l un des symboles devient très probable (fréquent) 10
11 Entropie d une Source 1- Théorème de l Entropie Maximale : De façon plus générale, on peut démonter que H S est une grandeur positive ou nulle qui est maximale lorsque l incertitude globale est la plus grande, c est-à-dire lorsque P k = 1 0 < H S < H A () avec H A = 1 k=1 log 2 1 = log 2 Conséquences : (Source binaire) 0 < H S < log 2 H S < H A = log 2 = log 2 2 = 1 11
12 2- Inégalité de Gibbs: Considèrerons deux alphabets de éléments (a 1,, a ) et (b 1,, b ) de possibilités respectives p 1,, p et q 1,, q on peut déduire l inégalité suivante : k=1 Démonstration: p k log 2 q k p k 0 L égalité ayant lieu lorsque k p k = q k Graphiquement, on peut déduire l inégalité suivante ln x < x 1 12
13 Démonstration (suite): On effectue la démonstration utilisant que ln x x = 1. On pose x = q k > 0 p k < x 1, l'égalité étant obtenue pour ln q k p k q k p k 1 Multipliions par p k : p k ln q k p k p k q k p k 1 = q k p k Soit : k=1 p k ln q k p k q k k=1 k=1 p k k=1 p k ln q k p k 1 1 k=1 p k ln q k p k 0 13
14 3- Relation avec la thermodynamique L'entropie augmente lorsque le nombre d'états du système augmente Soit S une source composé d un alphabet de éléments (s 1,, s ) avec les probabilités p 1,, p. On suppose que l symbole s k est sectionné en deux sous-symboles s k1 et s k2, de probabilités respectives p k1 et p k2 non-nulles telles que p k = p k1 + p k2 L'entropie de la source aléatoire résultante S H S > H S En vertu du deuxième principe de la thermodynamique et comment le démon de Boltzmann nous l appris (plus le système possède des états, plus augmente l entropie de celui-ci ), donc on peut penser ainsi au nombre de symboles d un alphabet 14
15 Redondance d une Source Définition : L écart à l unité du rapport entre l entropie d une source et l entropie maximale (donnée par la taille de son alphabet) est appelé la redondance : R S H S = 1 H A () La redondance permet d apprécier l usage que fait la source de son alphabet, c est-àdire l adéquation de cet alphabet au message livré par la source 15
16 Information & entropie conjointe de deux sources Cette notion permet de mesurer le degré de similitude entre deux sources Il est très fréquent dans la pratique que deux sources d information diffusent des messages presque identiques. Il sera nécessaire alors d avoir un outil de mesure du dégrée de ressemblance Considérons deux sources discrètes d alphabets : (x 1,, x ) et (y 1,, y M ) D un point de vue globale le couple (X, Y) peut être assimilé à une source virtuelle émettant les symboles (x i, y j ). Si p(x i, y j )est la probabilité jointe entre deux caractères alors la quantité d'information conjointe est : I x i, y j = log p x i, y j 16
17 Entropie conjointe de deux sources L'entropie jointe des deux sources est alors la quantité d'information moyenne conjointe entre deux caractères de la source : Considérons deux sources discrètes d alphabets : (x 1,, x ) et y 1,, y M. Son entropie est appelée entropie conjointe de X et Y M H X, Y = P x i, y j log P x i, y j i=1 j=1 Cas où les deux sources sont indépendantes : P x i, y j = P x i. P y j H X, Y = H X + H Y 17
18 Entropie conjointe de deux sources Cas où les deux sources sont dépendantes : L existence d une compromis (ou relation) entre X et Y implique que l observation globale de X, Y apporte moins d information que la somme des informations apportées par les observations séparées de X et Y 0 H X, Y H X + H Y Démonstration: On utilise l inégalité de Gibbs où on définit : p k = P x i, y j et q k = P x i. P y j k=1 p k log q k p k 0 i=1 M j=1 P x i, y j log P x i. P y j P x i, y j 0 18
19 Démonstration: i=1 M j=1 P x i, y j log P x i. P y j P x i, y j 0,M i,j=1 P x i, y j log P x i. P y j log P x i, y j 0,M i,j=1 P x i, y j log P x i + log (P y i ) log P x i, y j 0 H X H Y +H X, Y 0 H X, Y H X + H Y 19
20 Quantité d'information mutuelle C est la quantité d information partagée par X et Y I X, Y = H X + H Y H X, Y M I X, Y = P x i, y j log P x i + log (P y i ) log P x i, y j i=1 j=1 M I X, Y = P x i, y j log P x i, y j i=1 j=1 P x i. P y j L'information mutuelle représente l'incertitude moyenne sur X diminuée de celle qui subsiste lorsque Y est connue. 20
21 Quantité d'information mutuelle Cas où les deux sources X et Y sont indépendantes : leur information mutuelle sera nulle, car elles ne partageant aucune information. I X, Y = 0 Cas où X = Y : P x i, y j = P x i = P y j I X, Y = H X = H Y Dans le cas général l information mutuelle vérifie deux inégalités : 0 I X, Y H X et 0 I X, Y H Y 21
22 Soient X et Y deux évènements Probabilité conditionnelle On suppose que Y s'est produit (P(Y) 0) S'il existe un lien entre X et Y, cette information va modifier la probabilité de X P(X) aussi appelée probabilité marginale Probabilité de X conditionnellement à Y Probabilité de X sachant Y (Probabilité de la indétermination) P X Y = P Y X P(X) P(Y) est une probabilité Théorème de Bayes P X Y P Y = P X Y = P Y X P(X) P X Y = la probabilité que les événements X et Y aient tous les deux lieu 22
23 Théorème de Bayes La probabilité conjointe (mutuelle) de deux sources peut être exprimé en fonction des probabilités conditionnelles : P X Y P Y = P X Y = P Y X P(X) probabilité mutuelle P x i, y j = P x i y j P y j = P y j x i P x i probabilités conditionnelles Probabilité marginale probabilité de X Probabilité que les événements X et Y aient tous les deux lieu Probabilité de X sachant Y (Y s'est produit (P(Y) 0) Probabilité de Y sachant X (X s'est produit (P(X) 0) 23
24 Entropie Conditionnelle L entropie conditionnelle, définie à partir des probabilités conditionnelles s exprime : M H X Y = P(y j ) H X y j j=1 L entropie conditionnelle aussi dénommée équivocation, représente la quantité d information de l indétermination (ou équivoque) sur l évènement X qui se maintient après la connaissance de l évènement Y Quantité d information qu il reste à acquérir pour connaitre X, lorsque Y est connu où H X y j = P x i y j i=1 I x i y j = P x i y j i=1 log 2 1 P x i y j 24
25 Entropie Conditionnelle Propriété : L entropie conditionnelle est inferieure ou égale à la quantité d information apportée par X, puisque la connaissance de Y réduit l incertitude sur X : I X, Y 0 H X Y < H X H X = H X Y + I(X, Y) L entropie conditionnelle permet alors d envisager des modes de calculs supplémentaires de l information mutuelle : I X, Y = H Y H Y X = H X H X Y = H X, Y H X Y H Y X 25
26 Démonstration : Entropie Conditionnelle En vertu du théorème de Bayes, P x i, y j = P x i y j P y j = P y j x i P x i P x i,y j P x i P y j = P x i y j P x i = P y j x i P(y j ) Avec la définition d information mutuelle : M I X, Y = P x i, y j log P x i, y j i=1 j=1 P x i. P y j I X, Y = i=1 M j=1 P x i, y j log P(x i y j ) P x i = H X H X Y M I X, Y = i=1 j=1 P x i, y j log P y j x i P(y j ) = H Y H Y X 26
27 Information & entropie mutuelles Diagrammes des Venn Le diagramme de Venn résume, pour le cas de 2 variables aléatoires (X, Y), la définition de l information mutuelle ainsi que les relations entre les différentes entropies H X H X Y H Y X H Y Information apportée par l observation de X Entropie conditionnelle : la connaissance de Y réduit l incertitude sur X : Entropie conditionnelle : la connaissance de X réduit l incertitude sur Y : Information apportée par l observation de Y H X, Y Entropie conjointe des deux sources quantité d'information moyenne conjointe entre deux évènements X, Y 27
28 Information & entropie mutuelles Diagrammes des Venn H X H Y H X Y I X, Y H Y X H X, Y I X, Y = H Y H Y X = H X H X Y = H X, Y H X Y H Y X 28
29 Exemple : Canal binaire symétrique : Information & entropie mutuelles Lors de la transmission par un canal, nous souhaitons récupérer l'information sans distorsion, autrement dit, l'alphabet de sortie du canal doit être le même que celui de l'entrée. Considérons deux source binaires S et R, correspondant à la source et au récepteur On dispose d un canal qui doit transmettre des messages. Si nous appelons p la probabilité d'erreur nous pouvons schématiser le fonctionnement du canal par le graphe suivant : 0 1 p 0 Source d'entrée S alphabet : { 0, 1 } p p Source de sortie R alphabet : { 0, 1 } 1 1 p 1 29
30 Canal binaire symétrique Ce modèle de canal binaire sans mémoire est le plus simple. Ses alphabets d'entrée et de sortie sont binaires. Ecrivons les données: 0 p 1 p 0 1 p 1 p 1 30
31 Canal binaire symétrique 31
32 Canal binaire symétrique 32
33 Canal binaire symétrique 33
34 Canal binaire symétrique 34
35 Conclusions : Canal binaire symétrique o Si P = 0 ce qui veut dire pas d'erreur de transmission alors I X, Y = 1 Similitude parfaite entre les deux sources, la transmission se passe bien : H( X, Y ) = 1 o si P = 1 trouble complète lors de la transmission. Dans ce cas 2 I X, Y = 0 Plus du tout de similitude entre les deux sources. H( X, Y ) = H( X ) + H( Y ) = 2 Tout se passe comme si les deux sources étaient indépendantes. o Si P = 1, à nouveau I( X, Y ) = 1 Les deux sources sont à nouveau tout à fait semblables. Le fait qu'il y a dans ce cas permutation du "0" et du "1" n'ayant pas d'importance. 35
36 Conclusions : -Sources aléatoires o Ces résultats s étendent à des n uplets de sources aléatoires S 1, S 2, S 3 S n o L entropie conjointe de n uplets est alors inferieure ou égale à la somme des entropies de chaque variable aléatoire H S 1, S 2, S 3 S n < H S 1 + H S H S n L égalité étant obtenue si les variables sont indépendantes o L entropie conditionnelle de S 1 H S 1 S 2, S 3 S n quantité moyenne d information apportée par S 1 lorsque S 2, S 3 S n sont déjà connus : H S 1 S 2 S n H S 1 S 2 S n 1 H S 1 S 2, S 3 H S 1 S 2 H S 1 Exprimant le fait que la connaissance d un nombre de plus en plus grande de sources d information S 2, S 3, S 4 S n diminue de plus en plus l intérêt de l information apportée par S 1 36
Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailUE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd
UE 503 L3 MIAGE Initiation Réseau et Programmation Web La couche physique A. Belaïd abelaid@loria.fr http://www.loria.fr/~abelaid/ Année Universitaire 2011/2012 2 Le Modèle OSI La couche physique ou le
Plus en détailI- Définitions des signaux.
101011011100 010110101010 101110101101 100101010101 Du compact-disc, au DVD, en passant par l appareil photo numérique, le scanner, et télévision numérique, le numérique a fait une entrée progressive mais
Plus en détailThéorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Plus en détailTS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S
FICHE Fiche à destination des enseignants TS 35 Numériser Type d'activité Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S Compétences
Plus en détailChapitre 13 Numérisation de l information
DERNIÈRE IMPRESSION LE 2 septembre 2013 à 17:33 Chapitre 13 Numérisation de l information Table des matières 1 Transmission des informations 2 2 La numérisation 2 2.1 L échantillonage..............................
Plus en détailTransmission de données. A) Principaux éléments intervenant dans la transmission
Page 1 / 7 A) Principaux éléments intervenant dans la transmission A.1 Equipement voisins Ordinateur ou terminal Ordinateur ou terminal Canal de transmission ETTD ETTD ETTD : Equipement Terminal de Traitement
Plus en détail1.1 Codage de source et test d hypothèse
Théorie de l information et codage 200/20 Cours 8février20 Enseignant: Marc Lelarge Scribe: Marc Lelarge Pour information Page webdu cours http://www.di.ens.fr/~lelarge/info.html Notations Pour des variables
Plus en détailLe codage informatique
Outils de Bureautique Le codage informatique (exemple : du binaire au traitement de texte) PLAN 3) Le codage binaire 4) Représentation physique des bits 5) Le bit est un peu court... 6) Codage de texte
Plus en détailTransmission d informations sur le réseau électrique
Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en
Plus en détailChapitre 2 : communications numériques.
Chapitre 2 : communications numériques. 1) généralités sur les communications numériques. A) production d'un signal numérique : transformation d'un signal analogique en une suite d'éléments binaires notés
Plus en détailISO/CEI 11172-3 NORME INTERNATIONALE
NORME INTERNATIONALE ISO/CEI 11172-3 Première édition 1993-08-01 Technologies de l information - Codage de l image animée et du son associé pour les supports de stockage numérique jusqu à environ Ii5 Mbit/s
Plus en détailLES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES
LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES Compétences mises en jeu durant l'activité : Compétences générales : S'impliquer, être autonome. Compétence(s) spécifique(s) : Reconnaître des signaux de nature
Plus en détailChapitre 18 : Transmettre et stocker de l information
Chapitre 18 : Transmettre et stocker de l information Connaissances et compétences : - Identifier les éléments d une chaîne de transmission d informations. - Recueillir et exploiter des informations concernant
Plus en détailEtudier l influence de différents paramètres sur un phénomène physique Communiquer et argumenter en utilisant un vocabulaire scientifique adapté
Compétences travaillées : Mettre en œuvre un protocole expérimental Etudier l influence de différents paramètres sur un phénomène physique Communiquer et argumenter en utilisant un vocabulaire scientifique
Plus en détailSystèmes de communications numériques 2
Systèmes de Communications Numériques Philippe Ciuciu, Christophe Vignat Laboratoire des Signaux et Systèmes CNRS SUPÉLEC UPS SUPÉLEC, Plateau de Moulon, 91192 Gif-sur-Yvette ciuciu@lss.supelec.fr Université
Plus en détailLe multiplexage. Sommaire
Sommaire Table des matières 1- GENERALITES... 2 1-1 Introduction... 2 1-2 Multiplexage... 4 1-3 Transmission numérique... 5 2- LA NUMERATION HEXADECIMALE Base 16... 8 3- ARCHITECTURE ET PROTOCOLE DES RESEAUX...
Plus en détailActivité 1. Compter les points Écriture binaire des nombres. Résumé. Liens pédagogiques. Compétences. Âge. Matériel
Activité 1 Compter les points Écriture binaire des nombres Résumé Les données de l ordinateur sont stockées et transmises sous la forme d une série de 0 et de 1. Comment peut-on représenter des mots et
Plus en détailCryptographie et fonctions à sens unique
Cryptographie et fonctions à sens unique Pierre Rouchon Centre Automatique et Systèmes Mines ParisTech pierre.rouchon@mines-paristech.fr Octobre 2012 P.Rouchon (Mines ParisTech) Cryptographie et fonctions
Plus en détailFONCTION COMPTAGE BINAIRE ET DIVISION DE FRÉQUENCE
I/ GÉNÉRALITÉS I.1/ Fonction Un compteur binaire est utilisé : -pour compter un certain nombre d'évènements binaires -pour diviser la fréquence d'un signal logique par 2 m Page 1 FONCTION COMPTAGE BINAIRE
Plus en détailChaine de transmission
Chaine de transmission Chaine de transmission 1. analogiques à l origine 2. convertis en signaux binaires Échantillonnage + quantification + codage 3. brassage des signaux binaires Multiplexage 4. séparation
Plus en détailAcquisition et conditionnement de l information Les capteurs
Acquisition et conditionnement de l information Les capteurs COURS 1. Exemple d une chaîne d acquisition d une information L'acquisition de la grandeur physique est réalisée par un capteur qui traduit
Plus en détailmission. Le premier poste du programme de travail du DREV vise la qualification, la quantification et le suivi
Dans le cadre de la mission le DREV est chargé de conduire des études et expérimentations permettant de mieux comprendre les usages en matière de consommation de produits culturels en ligne et de produire
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailModèles à Événements Discrets. Réseaux de Petri Stochastiques
Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés
Plus en détailCodage d information. Codage d information : -Définition-
Introduction Plan Systèmes de numération et Représentation des nombres Systèmes de numération Système de numération décimale Représentation dans une base b Représentation binaire, Octale et Hexadécimale
Plus en détailChapitre I La fonction transmission
Chapitre I La fonction transmission 1. Terminologies 1.1 Mode guidé / non guidé Le signal est le vecteur de l information à transmettre. La transmission s effectue entre un émetteur et un récepteur reliés
Plus en détailJ AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE
RANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE Un message numérique est une suite de nombres que l on considérera dans un premier temps comme indépendants.ils sont codés le plus souvent
Plus en détailSystèmes de transmission
Systèmes de transmission Conception d une transmission série FABRE Maxime 2012 Introduction La transmission de données désigne le transport de quelque sorte d'information que ce soit, d'un endroit à un
Plus en détailNumérisation du signal
Chapitre 12 Sciences Physiques - BTS Numérisation du signal 1 Analogique - Numérique. 1.1 Définitions. Signal analogique : un signal analogique s a (t)est un signal continu dont la valeur varie en fonction
Plus en détailI. TRANSMISSION DE DONNEES
TD I. TRANSMISSION DE DONNEES 1. QU'EST-CE QU'UN CANAL DE TRANSMISSION? 1.1 Rappels Une ligne de transmission est une liaison entre les deux machines. On désigne généralement par le terme émetteur la machine
Plus en détailChapitre 22 : (Cours) Numérisation, transmission, et stockage de l information
Chapitre 22 : (Cours) Numérisation, transmission, et stockage de l information I. Nature du signal I.1. Définition Un signal est la représentation physique d une information (température, pression, absorbance,
Plus en détailMaster 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information
Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information Florent Dupont Université Claude Bernard Lyon1 / Laboratoire LIRIS Florent.Dupont@liris.cnrs.fr http://liris.cnrs.fr/florent.dupont
Plus en détailLogique binaire. Aujourd'hui, l'algèbre de Boole trouve de nombreuses applications en informatique et dans la conception des circuits électroniques.
Logique binaire I. L'algèbre de Boole L'algèbre de Boole est la partie des mathématiques, de la logique et de l'électronique qui s'intéresse aux opérations et aux fonctions sur les variables logiques.
Plus en détail2. Couche physique (Couche 1 OSI et TCP/IP)
2. Couche physique (Couche 1 OSI et TCP/IP) 2.1 Introduction 2.2 Signal 2.3 Support de transmission 2.4 Adaptation du signal aux supports de transmission 2.5 Accès WAN 2.1 Introduction Introduction Rôle
Plus en détailINTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE
INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE Le schéma synoptique ci-dessous décrit les différentes étapes du traitement numérique
Plus en détailLA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise.
M Informatique Réseaux Cours bis Couche Physique Notes de Cours LA COUCHE PHYSIQUE EST LA COUCHE par laquelle l information est effectivemnt transmise. Les technologies utilisées sont celles du traitement
Plus en détail!-.!#- $'( 1&) &) (,' &*- %,!
0 $'( 1&) +&&/ ( &+&& &+&))&( -.#- 2& -.#- &) (,' %&,))& &)+&&) &- $ 3.#( %, (&&/ 0 ' Il existe plusieurs types de simulation de flux Statique ou dynamique Stochastique ou déterministe A événements discrets
Plus en détailG.P. DNS02 Septembre 2012. Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3. Réfraction
DNS Sujet Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3 Réfraction I. Préliminaires 1. Rappeler la valeur et l'unité de la perméabilité magnétique du vide µ 0. Donner
Plus en détailCryptographie Quantique
Cryptographie Quantique Jean-Marc Merolla Chargé de Recherche CNRS Email: jean-marc.merolla@univ-fcomte.fr Département d Optique P.-M. Duffieux/UMR FEMTO-ST 6174 2009 1 Plan de la Présentation Introduction
Plus en détailLes réseaux cellulaires
Les réseaux cellulaires Introduction Master 2 Professionnel STIC-Informatique Module RMHD 1 Introduction Les réseaux cellulaires sont les réseaux dont l'évolution a probablement été la plus spectaculaire
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailFonctions de la couche physique
La Couche physique 01010110 01010110 Couche physique Signal Médium Alain AUBERT alain.aubert@telecom-st-etienne.r 0 Fonctions de la couche physique 1 1 Services assurés par la couche physique Transmettre
Plus en détailCAPTEURS - CHAINES DE MESURES
CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,
Plus en détailUniversité de La Rochelle. Réseaux TD n 6
Réseaux TD n 6 Rappels : Théorème de Nyquist (ligne non bruitée) : Dmax = 2H log 2 V Théorème de Shannon (ligne bruitée) : C = H log 2 (1+ S/B) Relation entre débit binaire et rapidité de modulation :
Plus en détailSystème binaire. Algèbre booléenne
Algèbre booléenne Système binaire Système digital qui emploie des signaux à deux valeurs uniques En général, les digits employés sont 0 et 1, qu'on appelle bits (binary digits) Avantages: on peut utiliser
Plus en détailLES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION
LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION LES CARACTERISTIQUES DES SUPPORTS DE TRANSMISSION ) Caractéristiques techniques des supports. L infrastructure d un réseau, la qualité de service offerte,
Plus en détailComme chaque ligne de cache a 1024 bits. Le nombre de lignes de cache contenu dans chaque ensemble est:
Travaux Pratiques 3. IFT 1002/IFT 1005. Structure Interne des Ordinateurs. Département d'informatique et de génie logiciel. Université Laval. Hiver 2012. Prof : Bui Minh Duc. Tous les exercices sont indépendants.
Plus en détailLa conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA)
La conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA) I. L'intérêt de la conversion de données, problèmes et définitions associés. I.1. Définitions:
Plus en détailRaisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Plus en détailInformatique Générale
Informatique Générale Guillaume Hutzler Laboratoire IBISC (Informatique Biologie Intégrative et Systèmes Complexes) guillaume.hutzler@ibisc.univ-evry.fr Cours Dokeos 625 http://www.ens.univ-evry.fr/modx/dokeos.html
Plus en détailCompression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette
Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où
Plus en détailLe concept cellulaire
Le concept cellulaire X. Lagrange Télécom Bretagne 21 Mars 2014 X. Lagrange (Télécom Bretagne) Le concept cellulaire 21/03/14 1 / 57 Introduction : Objectif du cours Soit un opérateur qui dispose d une
Plus en détail1 Introduction au codage
CélestineOscarDésiréAnatoleGastonEugène 1 Introduction au codage 1.1 Les ensembles L ensemble de tout les ensembles est Dieu lui-même. Kantor Ensemble des parties d un ensemble désigne l ensemble des sous-ensembles
Plus en détailPRIME D UNE OPTION D ACHAT OU DE VENTE
Université Paris VII - Agrégation de Mathématiques François Delarue) PRIME D UNE OPTION D ACHAT OU DE VENTE Ce texte vise à modéliser de façon simple l évolution d un actif financier à risque, et à introduire,
Plus en détailVers l'ordinateur quantique
Cours A&G Vers l'ordinateur quantique Données innies On a vu dans les chapîtres précédents qu'un automate permet de représenter de manière nie (et même compacte) une innité de données. En eet, un automate
Plus en détailELP 304 : Électronique Numérique. Cours 1 Introduction
ELP 304 : Électronique Numérique Cours 1 Introduction Catherine Douillard Dépt Électronique Les systèmes numériques : généralités (I) En électronique numérique, le codage des informations utilise deux
Plus en détailUne introduction aux codes correcteurs quantiques
Une introduction aux codes correcteurs quantiques Jean-Pierre Tillich INRIA Rocquencourt, équipe-projet SECRET 20 mars 2008 1/38 De quoi est-il question ici? Code quantique : il est possible de corriger
Plus en détailL information sera transmise selon des signaux de nature et de fréquences différentes (sons, ultrasons, électromagnétiques, électriques).
CHAINE DE TRANSMISSION Nous avons une information que nous voulons transmettre (signal, images, sons ). Nous avons besoin d une chaîne de transmission comosée de trois éléments rinciaux : 1. L émetteur
Plus en détailCisco Certified Network Associate
Cisco Certified Network Associate Version 4 Notions de base sur les réseaux Chapitre 8 01 Quelle couche OSI est responsable de la transmission binaire, de la spécification du câblage et des aspects physiques
Plus en détailLes archives. On conserve ces documents pour faire des recherches historiques, administratives ou généalogiques.
Les archives Les Archives sont : les documents les administrations qui conservent ces documents les bâtiments dans lesquels sont conservés les documents. Tous les documents produits par les services municipaux
Plus en détailCharte de bon Usage des Ressources Informatiques, de la Messagerie et de l Internet
Page : 1/9 de bon Usage des Ressources Informatiques, de la Messagerie et de l Internet Note Importante : La charte de bon usage des ressources informatiques, de la messagerie et de l internet est une
Plus en détailOutils permettant la diffusion de l information. Un point sur le droit numérique
Technologies de l Information et de la Communication Introduction aux NTE/TICE Présentation des UNR UNT Outils permettant la diffusion de l information Conceptualisation d un module d apprentissage numérique
Plus en détailFICHE UE Licence/Master Sciences, Technologies, Santé Mention Informatique
NOM DE L'UE : Algorithmique et programmation C++ LICENCE INFORMATIQUE Non Alt Alt S1 S2 S3 S4 S5 S6 Parcours : IL (Ingénierie Logicielle) SRI (Systèmes et Réseaux Informatiques) MASTER INFORMATIQUE Non
Plus en détailOptimisation Combinatoire et Colonies de Fourmis Nicolas Monmarche April 21, 1999 Sommaire Inspiration biologiques Ant Colony Optimization Applications TSP QAP Flow Shop Problemes dynamiques 1 Historique
Plus en détailM1107 : Initiation à la mesure du signal. T_MesSig
1/81 M1107 : Initiation à la mesure du signal T_MesSig Frédéric PAYAN IUT Nice Côte d Azur - Département R&T Université de Nice Sophia Antipolis frederic.payan@unice.fr 15 octobre 2014 2/81 Curriculum
Plus en détailActivité 4. Tour de cartes Détection et correction des erreurs. Résumé. Liens pédagogiques. Compétences. Âge. Matériels
Activité 4 Tour de cartes Détection et correction des erreurs Résumé Lorsque les données sont stockées sur un disque ou transmises d un ordinateur à un autre, nous supposons généralement qu elles n ont
Plus en détailExpérience 3 Formats de signalisation binaire
Expérience 3 Formats de signalisation binaire Introduction Procédures Effectuez les commandes suivantes: >> xhost nat >> rlogin nat >> setenv DISPLAY machine:0 >> setenv MATLABPATH /gel/usr/telecom/comm_tbx
Plus en détailMatériel informatique (hardware)
Matériel informatique (hardware) Le matériel informatique (en anglais hardware) est l'ensemble des équipements en électronique numérique (aussi appelée électronique digitale) servant au traitement des
Plus en détailChapitre 6. Fonction réelle d une variable réelle
Chapitre 6 Fonction réelle d une variable réelle 6. Généralités et plan d étude Une application de I dans R est une correspondance entre les éléments de I et ceu de R telle que tout élément de I admette
Plus en détailLoi d une variable discrète
MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une
Plus en détailIFT1215 Introduction aux systèmes informatiques
Introduction aux circuits logiques de base IFT25 Architecture en couches Niveau 5 Niveau 4 Niveau 3 Niveau 2 Niveau Niveau Couche des langages d application Traduction (compilateur) Couche du langage d
Plus en détailADSL. Étude d une LiveBox. 1. Environnement de la LiveBox TMRIM 2 EME TRIMESTRE LP CHATEAU BLANC 45120 CHALETTE/LOING NIVEAU :
LP CHATEAU BLANC 45120 CHALETTE/LOING THEME : ADSL BAC PROFESSIONNEL MICRO- INFORMATIQUE ET RESEAUX : INSTALLATION ET MAINTENANCE ACADÉMIE D ORLÉANS-TOURS 2 EME TRIMESTRE NIVEAU : TMRIM Étude d une LiveBox
Plus en détailComment enregistrer simplement toute musique restituée par votre PC
Comment enregistrer simplement toute musique restituée par votre PC Il s'agit, vous l'avez compris d'enregistrer tout ce qui passe par la carte son de votre machine : musique ou paroles, chansons ou commentaires
Plus en détailOPTIMISATION À UNE VARIABLE
OPTIMISATION À UNE VARIABLE Sommaire 1. Optimum locaux d'une fonction... 1 1.1. Maximum local... 1 1.2. Minimum local... 1 1.3. Points stationnaires et points critiques... 2 1.4. Recherche d'un optimum
Plus en détailTD 1 - Transmission en bande de passe
Claude Duvallet Université du Havre UFR Sciences et Techniques 25 rue Philippe Lebon - BP 540 76058 LE HAVRE CEDEX Claude.Duvallet@gmail.com Claude Duvallet 1/10 Transmission en bande de passe (1/2) Description
Plus en détailOn distingue deux grandes catégories de mémoires : mémoire centrale (appelée également mémoire interne)
Mémoire - espace destiné a recevoir, conserver et restituer des informations à traiter - tout composant électronique capable de stocker temporairement des données On distingue deux grandes catégories de
Plus en détailTéléchargement du micrologiciel de téléviseur ACL AQUOS
Téléchargement du micrologiciel de téléviseur ACL AQUOS Directives de téléchargement : 1. Insérez une clé USB dans le port USB de votre ordinateur. (La clé USB doit être formatée en «FAT».) 2. Cliquez
Plus en détailRégler les paramètres de mesure en choisissant un intervalle de mesure 10µs et 200 mesures.
TP Conversion analogique numérique Les machines numériques qui nous entourent ne peuvent, du fait de leur structure, que gérer des objets s composés de 0 et de. Une des étapes fondamentale de l'interaction
Plus en détailBaccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01
Plus en détailCours Informatique 1. Monsieur SADOUNI Salheddine
Cours Informatique 1 Chapitre 2 les Systèmes Informatique Monsieur SADOUNI Salheddine Un Système Informatique lesystème Informatique est composé de deux parties : -le Matériel : constitué de l unité centrale
Plus en détailExo7. Probabilité conditionnelle. Exercices : Martine Quinio
Exercices : Martine Quinio Exo7 Probabilité conditionnelle Exercice 1 Dans la salle des profs 60% sont des femmes ; une femme sur trois porte des lunettes et un homme sur deux porte des lunettes : quelle
Plus en détailTechnique de codage des formes d'ondes
Technique de codage des formes d'ondes Contenu Introduction Conditions préalables Conditions requises Composants utilisés Conventions Modulation par impulsions et codage Filtrage Échantillon Numérisez
Plus en détailTARIFICATION EN ASSURANCE COMPLEMENTAIRE SANTE: il était une fois, un statisticien, un actuaire, un économiste de la santé
TARIFICATION EN ASSURANCE COMPLEMENTAIRE SANTE: il était une fois, un statisticien, un actuaire, un économiste de la santé Plan de l intervention 1 2 3 Généralités sur le fonctionnement de l assurance
Plus en détailBTS Groupement A. Mathématiques Session 2011. Spécialités CIRA, IRIS, Systèmes électroniques, TPIL
BTS Groupement A Mathématiques Session 11 Exercice 1 : 1 points Spécialités CIRA, IRIS, Systèmes électroniques, TPIL On considère un circuit composé d une résistance et d un condensateur représenté par
Plus en détail8 Ensemble grand-canonique
Physique Statistique I, 007-008 8 Ensemble grand-canonique 8.1 Calcul de la densité de probabilité On adopte la même approche par laquelle on a établi la densité de probabilité de l ensemble canonique,
Plus en détailInstructions et spécifications pour la transmission en format XML de déclarations par lots. 30 mai 2015 MODULE 1
Instructions et spécifications pour la transmission en format XML de déclarations par lots 30 mai 2015 MODULE 1 Table des matières Modifications apportées dans la présente... 3 1 Renseignements généraux...
Plus en détailConversion d un entier. Méthode par soustraction
Conversion entre bases Pour passer d un nombre en base b à un nombre en base 10, on utilise l écriture polynomiale décrite précédemment. Pour passer d un nombre en base 10 à un nombre en base b, on peut
Plus en détailBaccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé
Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé A. P. M. E. P. Exercice 1 5 points 1. Réponse d. : 1 e Le coefficient directeur de la tangente est négatif et n est manifestement pas 2e
Plus en détailModélisation aléatoire en fiabilité des logiciels
collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.
Plus en détailLes opérations binaires
Les opérations binaires Compétences associées A2 : Analyser et interpréter une information numérique Objectifs Etre capable: - De coder les nombres entiers en code complément à 2. - De résoudre les opérations
Plus en détailCommunications numériques
Communications numériques 1. Modulation numérique (a) message numérique/signal numérique (b) transmission binaire/m-aire en bande de base (c) modulation sur fréquence porteuse (d) paramètres, limite fondamentale
Plus en détailPuis le convertisseur bloque en mémoire cette valeur pendant une période d échantillonnage.
PATIE 7 CHAPITE (PHYSIQUE) NUMÉISATION, STOCKAGE ET TANSMISSION DE L INFOMATION TS I. LE SIGNAL NUMÉIQUE. Signal analogique ou numérique? Un signal est la représentation physique d une information qui
Plus en détailTableau de Bord. Clas 1.1 Conduite d'un projet de communication
Bande de Com! Tableau de Bord Julien Pansier PROJET Clas 1.1 Conduite d'un projet de communication 1.1.1 Prise en charge du dossier de l annonceur C11.1. S approprier la demande de l annonceur - Comprendre
Plus en détailPolitique de gestion documentaire
Politique de gestion documentaire Responsabilité de gestion : Secrétariat général Date d approbation : 24 avril 1979 C.A. C.E. Direction générale Direction Date d'entrée en vigueur : 24 avril 1995 Date
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailSécurité de l'information
Sécurité de l'information Sylvain Duquesne Université Rennes 1, laboratoire de Mathématiques 24 novembre 2010 Les Rendez-Vous Mathématiques de l'irem S. Duquesne (Université Rennes 1) Sécurité de l'information
Plus en détail