Théorie de l Information

Dimension: px
Commencer à balayer dès la page:

Download "Théorie de l Information"

Transcription

1 Massih-Reza Amini Université Joseph Fourier Laboratoire d Informatique de Grenoble

2 2/33 Introduction Mesure de l information Codage de source Table des matières 1 Introduction 2 Mesure de l information 3 Codage de source

3 3/33 Introduction Mesure de l information Codage de source Introduction aux systèmes de communication La théorie des communications s intéresse aux moyens de transmission d une information depuis une source jusqu à un récepteur à travers un canal. bruit source codeur canal décodeur récepteur La nature de la source peut être très variée: un signal électromagnétique, une séquence de symbole binaire ou une voix; Le canal peut être une ligne téléphonique, une liaison radio ou un support magnétique; La transmission peut se faire dans l espace ou dans le temps ; Le codeur représente l ensemble des opérations effectuées sur la sortie de la source avant la transmission: modulation, compression, le brouillage (rend compatible le signal au canal) ; Le décodeur restitue à partir de la sortie du canal, l information fournie par la source.

4 4/33 Introduction Mesure de l information Codage de source Introduction aux systèmes de communication La théorie de l information a été créée par Claude Shannon dans les années 40. Il s agit d une théorie mathématique qui décrit les plus fondamentaux des systèmes de communications Elle consiste en l élaboration et l étude de modèles pour la source et le canal qui utilisent différents outils comme les probabilités, les automates finis, etc. Dans ce cours, nous étudierons séparément les modèles de sources et les modèles de canaux ainsi que leurs codages respectifs.

5 5/33 Introduction Mesure de l information Codage de source Sources et codage et source Parmi les classes possibles de modèles de source, nous nous intéresserons plus particulièrement aux sources discrètes sans mémoire. La sortie d une telle source est une séquence de lettres tirées aléatoirement d après une loi de probabilité p indépendante du temps à partir d un alphabet fini A = {a 1,..., a n} Exemple : Soit une source d information S travaillant sur l alphabet suivant A = {a 1, a 2, a 3, a 4 }. Supposons qu il existe deux codages de source transformant cette information discrète en symboles binaires : Codage 1 Codage 2 a 1 00 a 1 0 a 2 01 a 2 10 a 3 10 a a 4 11 a Si S émet les caractères de l alphabet avec une distribution de probabilité uniforme, la longueur moyenne d un symbole codé par le codage 1 est inférieure à la longueur moyenne d un symbole codé par le codage 2. Si l on a une source qui émet les caractères avec la probabilité suivante; p(a 1 ) = 1 2, p(a 2) = 1 4, p(a 3) = p(a 4 ) = 1 8 Le deuxième codage réussit à coder quatre symboles avec moins de deux bits, par rapport au codage 1 (il réalise ainsi une compression).

6 6/33 Introduction Mesure de l information Codage de source Entropie d une source discrète Avec l outil des probabilités, on peut aussi établir un lien entre l information fournie par une source et la distribution de probabilité de la sortie de cette source. On part de l hypothèse que : l apparition d un événement peu probable apporte beaucoup d information tandis que l occurrence d un événement certain ne fournit au contraire aucune information. Si une lettre a, a une probabilité p(a) d être tirée, son information propre est définie par : I(a) = log 2 p(a) La valeur moyenne de l information propre calculée sur l ensemble de l alphabet, appelée entropie de la source, H(A) revêt une grande importance dans la théorie de l information H(A) = a A p(a) log 2 p(a) L entropie d une source est parfois donnée en bits/seconde, si l entropie d une source discrète est H et si les lettres sont émises toutes les τ s secondes, son entropie est H/τ s bits/s.

7 7/33 Introduction Mesure de l information Codage de source Entropie d une source discrète THÉORÈME. Soit (A, p) un espace probabilisé discret de cardinal n. Nous avons alors H(A) log 2 n avec l égalité ssi la loi de probabilité p est uniforme sur A.

8 8/33 Introduction Mesure de l information Codage de source Canaux et codage de canal Pour modéliser un canal de transmission, il est nécessaire de spécifier l ensemble des entrées et l ensemble des sorties possibles. le cas le plus simple est celui du canal discret sans mémoire. L entrée est une lettre prise dans un alphabet fini A = {a 1,..., a n} et la sortie est une lettre prise dans un autre ou même alphabet fini B = {b 1,..., b M }. Ces lettres sont émises en séquence, et, le canal est sans mémoire si chaque lettre de la séquence reçue ne dépend que de la lettre de même position. Un canal discret sans mémoire est entièrement décrit par la donnée des probabilités conditionnelles p(b a). Exemple : Le canal binaire symétrique: A = B = {0, 1} 1 p 0 0 p p p

9 9/33 Introduction Mesure de l information Codage de source Capacité du canal L un des paramètres les plus importants pour décrire un canal est sa capacité. On peut montrer que l on peut transmettre de l information à travers un canal à n importe quel taux de transmission inférieur à sa capacité avec une probabilité d erreur arbitrairement faible. Le taux de transmission est le nombre de symboles émis en entrée divisé par le nombre de symboles reçus en sortie.

10 10/33 Introduction Mesure de l information Codage de source Mesure de l information En suivant le modèle probabiliste, fournir une information à un utilisateur consiste à choisir un événement parmi plusieurs possibles. Qualitativement fournir une information consiste à lever une incertitude sur l issue d une expérience aléatoire. La notion d information est donc inhérente à celle de probabilité conditionnelle. Considérons les événements {A = a} et {B = b}, la probabilité p(a b) peut être interprétée comme la modification apportée à la probabilité p(a) de l événement {A = a} lorsque l on reçoit l information que l événement {B = b} s est réalisée. Ainsi si p(a b) p(a), l incertitude sur a augmente; si p(a b) p(a), l incertitude sur a diminue; Ainsi l information b est réalisée diminue l incertitude sur a de la quantité appelée information mutuelle : I(a; b) = I(a) I(a b) = log 2 p(a b) p(a)

11 11/33 Introduction Mesure de l information Codage de source Information mutuelle I(a; b) = I(b; a) = log 2 p(a, b) p(a)p(b) I(a; b) > 0 signifie que si l un des deux événements se réalise, alors la probabilité de l autre augmente ; I(a; b) < 0 signifie que si l un des deux événements se réalise, alors la probabilité de l autre diminue ; I(a; b) = 0 signifie que les deux événements sont statistiquement indépendants. Exemple : Considérons le canal binaire symétrique de probabilité de transition p avec des entrées notées a 1, a 2 équiprobables et des sorites b 1, b 2. 1 p a 1 b 1 p p a 2 b 2 1 p Pour quelles valeurs de p l observation de b 1 (b 2 ) à la sortie du canal augmente (diminue) la probabilité d émission du symbole a 1?

12 12/33 Introduction Mesure de l information Codage de source Gain d information L information mutuelle moyenne, ou le gain d information entre deux alphabets A et B est l information mutuelle moyenne définie par I(A; B) = a A,b B p(a, b)i(a; b) = a A,b B p(a, b) log 2 p(a, b) p(a)p(b) PROPOSITION. Soit AB un espace probabilisé joint. Le gain d information I(A; B) de A et B est toujours positive ou nulle. Elle est nulle ssi A et B sont statistiquement indépendants. Ce résultat signifie essentiellement que, en moyenne, le fait de connaître la valeur de b dans B diminue toujours l incertitude sur A, sauf si A et B sont indépendants auquel cas aucune information n est apportée.

13 13/33 Introduction Mesure de l information Codage de source Code et codage Lorsque l on code une source discrète sans mémoire en une séquence binaire, le décodage devra permettre de retrouver la séquence des lettres émises par la source, à partir de la séquence codée binaire. On peut démontrer que le nombre minimal moyen de symboles binaires par lettre est égal à l entropie de la source. Exemple : Code Morse. En Morse, la lettre e, très fréquente, est représentée par le mot., tandis que la lettre q, moins fréquente est représentée par un mot plus long.. De tels codes sont dits codes à longueur variable, ou tout simplement code. Si A est un alphabet fini, on note A est l ensemble des mots sur l alphabet A. On appellera codage d une source discrète une application injective qui associe à chaque séquence finie de lettres de la source une séquence binaire finie : c : A {0, 1} Le codage d un mot u = u 1... u n est alors le mot c(u 1 )... c(u n)

14 14/33 Introduction Mesure de l information Codage de source Code On note l ensemble des codes possibles des lettres L efficacité du code est définie par Où m = a A p(a) c(a) C = {c(a) a A} E = H(A) m Un ensemble de mots finis de C sur un alphabet A est appelé code. Un code est à déchiffrage unique ssi que pour tous mots u 1,..., u n, v 1,..., v m de C, u 1... u n = v 1... v m implique n = m et i {1,..., n}; u i = v i.

15 15/33 Introduction Mesure de l information Codage de source Codage avec un code de longueur fixe Si une source a pour cardinal n, il est alors possible de la coder avec un code de longueur fixe m tel que log 2 n m < log 2 n + 1 L efficacité E d un code de longueur m est égale à H(A), comme m H(A) log 2 n on a E 1 et E = 1 ssi H(A) = log 2 n, c est-à-dire les lettres de la source sont équiprobables m = log 2 n, c est-à-dire le cardinal de la source est une puissance de 2 Exemple : Soit une source dont l alphabet est A = {0, 1,..., 9} munie de la loi de probabilité uniforme. On code cette source par une code de longueur fixe de longueur Quelle est l efficacité de ce code? Peut-on l améliorer?

16 16/33 Introduction Mesure de l information Codage de source Codes non-ambigus On dit que le code d une source discrète est non-ambigu si et seulement si chaque séquence (de longueur finie) de mots de code ne correspond qu à un seul message de la source. Exemple de code ambigu Considérons la source avec l alphabet suivant A = {a, b, c}. Les messages de cette source peuvent être n importe quelle séquence de ces symboles ; par exemple aabca est un message de cette source. Le codage suivant de cette source: a 1, b 00, c 11 est ambigu. (il n y a par exemple pas de moyen de distinguer le message aaaa de cc). Le codage suivant de cette source : a 1, b 00, c 10 est non-ambigu. (Par exemple, la séquence se décode abb et la séquence 1000 se décode cb.)

17 17/33 Introduction Mesure de l information Codage de source Codes sans préfixe Parmi les codes non-ambigus, certains présentent un intérêt particulier. Ce sont les codes sans préfixe. On dit qu une séquence z de longueur n (n 1) est un préfixe d une autre séquence z si et seulement si les n premiers symboles de z forment exactement la séquence z. Par exemple, abba est un préfixe de abbabc. On dit que le code d une source discrète est sans préfixe lorsqu aucun mot de code n est le préfixe d un autre mot de code. Plus formellement, on dit qu un code Z dont l alphabet est Z et dont l ensemble de mots de ce code est V Z est sans préfixe si et seulement si z V Z, y Z (zy V Z y = ɛ) ɛ représentant la chaîne vide, c est à dire la chaîne de longueur 0.

18 18/33 Introduction Mesure de l information Codage de source Exemple de code sans préfixe Codes sans préfixe Considérons la source avec l alphabet suivant A = {a, b, c}. Le codage suivant de cette source: a 0, b 10, c 11 est sans préfixe. Le codage suivant de cette source : a 1, b 00, c 10 n est pas sans préfixe puisque 1 est un préfixe de 10 (alors qu il est non ambigu). Tout code sans préfixe est non-ambigu (alors que l inverse n est pas vraie). On dit qu un code est instantané si et seulement si chaque mot de code dans tout chaîne de mots de code peut être décodé dès que l on a atteint sa fin. Un code est instantané si et seulement si il est sans préfixe Cette définition garantit qu il n est ni nécessaire de mémoriser les mots de code reçus ni d attendre les suivants pour effectuer le décodage. Un tel code permet d économiser du temps et de l espace dans le processus de décodage d un message codé.

19 19/33 Introduction Mesure de l information Codage de source Exemple Codes sans préfixe Considérons la source avec l alphabet suivant A = {1, 2, 3, 4}, avec la distribution de probabilité suivante : e i P(X = e i ) Considérons donc le codage suivant de cette source, (ou z i est le mot de code pour e i ) : 1. Calcule l entropie de la source. z 1 z 2 z 3 z Le code proposé est-il non-ambigu? 3. Codez le message Décodez la séquence Quelle est l efficacité de ce code?

20 20/33 Introduction Mesure de l information Codage de source Exemple Codes sans préfixe Considérons la source avec l alphabet suivant A = {1, 2, 3, 4}, avec la distribution de probabilité suivante : e i P(X = e i ) Considérons donc le codage suivant de cette source, (ou z i est le mot de code pour e i ) : 1. Calcule l entropie de la source. z 1 z 2 z 3 z Le code proposé est-il non-ambigu? 3. Codez le message Décodez la séquence Quelle est l efficacité de ce code?

21 21/33 Introduction Mesure de l information Codage de source Arbres k-aires pour le codage L outil le plus utile à l étude des codes instantanés est sans doute les arbres k-aires. nœuds intérieurs racine profondeur, d = 3 feuilles Un arbre est un graphe (nœuds et arcs) qui commence par un nœud racine (ou racine). Chaque nœud du graphe est soit une feuille, soit un nœud intérieur. Un nœud intérieur a un ou plusieurs fils et est appelé le parent de ses fils. L arité est le nombre de fils d un nœud. Un nœud feuille est un nœud sans fils.

22 22/33 Introduction Mesure de l information Codage de source Arbres k-aires pour le codage Un arbre k-aire (k 1) est un arbre dans lequel chaque nœud intérieur a comme arité k, c est à dire qu il a exactement k fils. Un arbre k-aire complet est un arbre k-aire dans lequel toutes les feuilles ont la même profondeur. Arbre ternaire (k = 3) Arbre ternaire complet Propriété K. Dans l arbre k-aire complet de profondeur d 0, chaque nœud à la profondeur δ(δ 0 d) couvre exactement k d δ feuilles

23 23/33 Introduction Mesure de l information Codage de source Arbres de codage Un arbre de codage est un arbre k aire, dont les arcs sont étiquetés par des lettres d un alphabet donné de taille k, de façon à chaque lettre apparaisse tout au plus une fois à partir d un nœud donné. Les mots de code définis par un tel arbre correspondent à des séquences d étiquettes le long des chemins menant de la racine à une feuille. Exemple : Arbre binaire correspondant au Code Morse. -. E -. T - I A N M S U R W D K G H V F L P J B X C Y Z Q O

24 24/33 Introduction Mesure de l information Codage de source Arbres de codage Un code avec un alphabet de taille k est appelé un code k-aire. Propriété. Pour tout code instantané k-aire, il existe au moins un arbre de codage k-aire tel que chaque mot de code corresponde à la séquence d étiquettes d un chemin (unique) de la racine à une feuille. Inversement, chaque arbre de codage définit un code instantané. Les mots de code instantané sont définis comme les séquences d étiquettes de chaque chemin de la racine à chaque feuille de l arbre de codage. Exemple : L arbre de codage correspondant au code instantané {00, 01, 10, 111} est

25 25/33 Introduction Mesure de l information Codage de source Inégalité de Kraft THÉORÈME : Inégalité de Kraft Il existe un code instantané k-aire de N mots de code et dont les longueurs des mots de code sont les entiers positifs l 1, l 2,..., l N si et seulement si N k l i 1 (1) i=1 Lorsque l égalité se réalise, le code instantané correspondant est complet. Exemple 1. Calculer la somme intervenant dans la partie gauche de l inégalité de (Eq. 1); pour le code instantané binaire {00, 01, 10, 111}. 2. D après l inégalité de Kraft, existe-il un code instantané ternaire dont les longueurs de mots de code sont 1, 2, 2 et 4? 3. Un tel code est-il complet?

26 26/33 Introduction Mesure de l information Codage de source Inégalité de Kraft Piège à éviter Le piège à éviter avec le théorème précédent est que le théorème nous apprend uniquement quand un code instantané peut exister, mais il ne répond absolument pas à la question est-ce qu un code donné est instantané? Par exemple, le code {0, 00, 10} n est pas instantané mais on a bien = 1 Mais le théorème dit bien qu il existe un code instantané de longueur de codes respectifs 1,2 et 2 (par exemple {0, 10, 11}).

27 27/33 Introduction Mesure de l information Codage de source Inégalité de Kraft, démonstration : Supposons tout d abord qu il existe un code instantané k-aire dont les longueurs de mots de code sont l 1, l 2,..., l N. Soit L = max i l i + 1, considérons la construction de l arbre de codage correspondant de profondeur d qui consiste à élaguer l arbre k aire de profondeur L. On peut alors montrer facilement N i=1 k l i 1 en utilisant la propriété K (p. 22). L =

28 28/33 Introduction Mesure de l information Codage de source Inégalité de Kraft, démonstration : Supposons que l 1, l 2,..., l N soient des entiers positifs tel que l inéquation (Eq. 1) est vérifiée. Soit L = max i l i, et n j le nombre de ces l i qui sont égaux à j (1 j L). On peut alors montrer que pour 0 i L 1 L i 1 n L i k L i n j k L j i Ces inégalités constituent le point-clé de la construction d un code avec des longueurs de mots de code l 1,..., l N, l algorithme associé est simple : Pour i de 1 à L On assigne chaque mot de code à un nœud de profondeur courante i; On étend tous les nœuds restants de profondeur courante avec k fils; Fin Pour Ce faisant, le nombre de nœdus qui sont étendus est k i j i n jk i j, menant à k i+1 j i n jk i+1 j nouveaux nœdus pour l étape suivante. D après l inégalité précédente ce nombre est plus grand que n i+1 laissant ainsi suffisamment de nœds pour l étape suivante. j=1

29 29/33 Introduction Mesure de l information Codage de source Inégalité de Kraft Exemple 1. Existe-t-il un code binaire instantané avec des longueurs de mots de code l 1 = 2, l 2 = 2, l 3, l 4 = 3, et l 5 = 4? 2. Proposer un tel code. 3. Existe-t-il un code binaire instantané avec des longueurs de mots de code 1, deux fois 2, 3, et 4? 4. Existe-t-il un code ternaire instantané avec des longueurs de mots de code 1, deux fois 2, 3, et 4?

30 30/33 Introduction Mesure de l information Codage de source Code efficace Quand on code une source d information le but est de minimiser la longueur moyenne de codage; Généralement minimiser la longueur moyenne de code équivaut à minimiser l espérance de la longueur de code. Rappel : Si on suppose que le symbole-source a i (1 i n) a un probabilité p i d être émis, et si on dénote l i la longueur du mot de code correspondant, l espérance de la longueur de code E(L) est : E(L) = m = n p i l i Parmi tous les codes possibles, nous recherchons des codes instantanés tels que E(L) soit aussi petit que possible. Il est ainsi évident que nous devrions assigner les mots de code les plus courts aux symboles-source les plus probables... mais comment savoir quelles longueurs de mots de codes utiliser? Quel est le plus petit E(L) à pouvoir être atteint? i=1

31 31/33 Introduction Mesure de l information Codage de source Théorème de Shannon sur le codage THÉORÈME : Théorème de Shannon sur le codage Pour toute source d information discrète sans mémoire d entropie H(A), l espérance de la longueur de code E(L) de tout code k-aire instantané pour cette source satisfait : E(L) H(A) (2) log 2 k Exemple Considérons une source d information d alphabet A = {1, 2, 3, 4}, avec la distribution de probabilité suivante : e i P(X = e i ) Considérons le codage suivant de cette source z 1 z 2 z 3 z Quelle est l espérance de la longueur de ce code? 2. Ce code est-il efficace (optimal du point de vue de l espérance de la longueur de code)?

32 32/33 Introduction Mesure de l information Codage de source Codes instantanés de Shannon-Fano Le code de Shannon-Fano prend pour chaque symbole e i A, un code de longueur l i = log 2 p i log 2 k Exemple 1. Montre qu un tel code instantané existe toujours. 2. Montrer E(L) < H(A) + 1 (À quel point un tel code est-il bon)? log 2 k THÉORÈME : Théorème de Shannon sur le codage (2ème partie) Pour toute source d information discrète sans mémoire d entropie, il existe au moins un code instantané k-aire dont l espérance de la longueur de code satisfait : E(L) < H(A) log 2 k + 1

33 33/33 Introduction Mesure de l information Codage de source Théorème du codage sans bruit de Shannon Partie 1: Pour toute source d information sans mémoire discrète d entropie H(A), et pour tout code k-aire instantané de cette source, la longueur moyenne du code E(L) vérifie : E(L) H(A) log 2 k Partie 2: Pour toute source d information sans mémoire discrète d entropie H(A), il existe au moins un code k-aire instantané dont la longueur moyenne E(L) vérifie : E(L) < H(A) log 2 k + 1 Piège 1: La première partie du théorème vaut pour les codes sans préfixes, des codes ambigus peuvent descendre en-dessous de la limite. Par exemple e i P(X = e i ) z i Piège 2 : La seconde patrie donne une borne supérieure pour les codes optimaux, d autres codes sous optimaux peuvent être plus longs. e i P(X = e i ) z i

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies INF 232: Langages et Automates Travaux Dirigés Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies Année Académique 2013-2014 Année Académique 2013-2014 UNIVERSITÉ JOSEPH

Plus en détail

1.1 Codage de source et test d hypothèse

1.1 Codage de source et test d hypothèse Théorie de l information et codage 200/20 Cours 8février20 Enseignant: Marc Lelarge Scribe: Marc Lelarge Pour information Page webdu cours http://www.di.ens.fr/~lelarge/info.html Notations Pour des variables

Plus en détail

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Transmission d informations sur le réseau électrique

Transmission d informations sur le réseau électrique Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

ISO/CEI 11172-3 NORME INTERNATIONALE

ISO/CEI 11172-3 NORME INTERNATIONALE NORME INTERNATIONALE ISO/CEI 11172-3 Première édition 1993-08-01 Technologies de l information - Codage de l image animée et du son associé pour les supports de stockage numérique jusqu à environ Ii5 Mbit/s

Plus en détail

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd UE 503 L3 MIAGE Initiation Réseau et Programmation Web La couche physique A. Belaïd abelaid@loria.fr http://www.loria.fr/~abelaid/ Année Universitaire 2011/2012 2 Le Modèle OSI La couche physique ou le

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

1 Introduction au codage

1 Introduction au codage CélestineOscarDésiréAnatoleGastonEugène 1 Introduction au codage 1.1 Les ensembles L ensemble de tout les ensembles est Dieu lui-même. Kantor Ensemble des parties d un ensemble désigne l ensemble des sous-ensembles

Plus en détail

Formats d images. 1 Introduction

Formats d images. 1 Introduction Formats d images 1 Introduction Lorsque nous utilisons un ordinateur ou un smartphone l écran constitue un élément principal de l interaction avec la machine. Les images sont donc au cœur de l utilisation

Plus en détail

Travaux pratiques. Compression en codage de Huffman. 1.3. Organisation d un projet de programmation

Travaux pratiques. Compression en codage de Huffman. 1.3. Organisation d un projet de programmation Université de Savoie Module ETRS711 Travaux pratiques Compression en codage de Huffman 1. Organisation du projet 1.1. Objectifs Le but de ce projet est d'écrire un programme permettant de compresser des

Plus en détail

Algorithmes d'apprentissage

Algorithmes d'apprentissage Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt

Plus en détail

Raisonnement probabiliste

Raisonnement probabiliste Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte

Plus en détail

CH.6 Propriétés des langages non contextuels

CH.6 Propriétés des langages non contextuels CH.6 Propriétés des langages non contetuels 6.1 Le lemme de pompage 6.2 Les propriétés de fermeture 6.3 Les problèmes de décidabilité 6.4 Les langages non contetuels déterministes utomates ch6 1 6.1 Le

Plus en détail

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE

J AUVRAY Systèmes Electroniques TRANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE RANSMISSION DES SIGNAUX NUMERIQUES : SIGNAUX EN BANDE DE BASE Un message numérique est une suite de nombres que l on considérera dans un premier temps comme indépendants.ils sont codés le plus souvent

Plus en détail

Exercices sur le chapitre «Probabilités»

Exercices sur le chapitre «Probabilités» Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Pour démarrer Exercices sur le chapitre «Probabilités» Exercice 1 (Modélisation d un dé non cubique) On considère un parallélépipède rectangle de

Plus en détail

Chapitre 13 Numérisation de l information

Chapitre 13 Numérisation de l information DERNIÈRE IMPRESSION LE 2 septembre 2013 à 17:33 Chapitre 13 Numérisation de l information Table des matières 1 Transmission des informations 2 2 La numérisation 2 2.1 L échantillonage..............................

Plus en détail

aux différences est appelé équation aux différences d ordre n en forme normale.

aux différences est appelé équation aux différences d ordre n en forme normale. MODÉLISATION ET SIMULATION EQUATIONS AUX DIFFÉRENCES (I/II) 1. Rappels théoriques : résolution d équations aux différences 1.1. Équations aux différences. Définition. Soit x k = x(k) X l état scalaire

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01

Plus en détail

Numérisation du signal

Numérisation du signal Chapitre 12 Sciences Physiques - BTS Numérisation du signal 1 Analogique - Numérique. 1.1 Définitions. Signal analogique : un signal analogique s a (t)est un signal continu dont la valeur varie en fonction

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Communications numériques

Communications numériques Communications numériques 1. Modulation numérique (a) message numérique/signal numérique (b) transmission binaire/m-aire en bande de base (c) modulation sur fréquence porteuse (d) paramètres, limite fondamentale

Plus en détail

Optimisation Discrète

Optimisation Discrète Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et

Plus en détail

Resolution limit in community detection

Resolution limit in community detection Introduction Plan 2006 Introduction Plan Introduction Introduction Plan Introduction Point de départ : un graphe et des sous-graphes. But : quantifier le fait que les sous-graphes choisis sont des modules.

Plus en détail

Théorie et codage de l information

Théorie et codage de l information Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q

Plus en détail

Cryptographie Quantique

Cryptographie Quantique Cryptographie Quantique Jean-Marc Merolla Chargé de Recherche CNRS Email: jean-marc.merolla@univ-fcomte.fr Département d Optique P.-M. Duffieux/UMR FEMTO-ST 6174 2009 1 Plan de la Présentation Introduction

Plus en détail

Fondements de l informatique Logique, modèles, et calculs

Fondements de l informatique Logique, modèles, et calculs Fondements de l informatique Logique, modèles, et calculs Cours INF423 de l Ecole Polytechnique Olivier Bournez Version du 20 septembre 2013 2 Table des matières 1 Introduction 9 1.1 Concepts mathématiques........................

Plus en détail

Systèmes de transmission

Systèmes de transmission Systèmes de transmission Conception d une transmission série FABRE Maxime 2012 Introduction La transmission de données désigne le transport de quelque sorte d'information que ce soit, d'un endroit à un

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Plus courts chemins, programmation dynamique

Plus courts chemins, programmation dynamique 1 Plus courts chemins, programmation dynamique 1. Plus courts chemins à partir d un sommet 2. Plus courts chemins entre tous les sommets 3. Semi-anneau 4. Programmation dynamique 5. Applications à la bio-informatique

Plus en détail

LES TYPES DE DONNÉES DU LANGAGE PASCAL

LES TYPES DE DONNÉES DU LANGAGE PASCAL LES TYPES DE DONNÉES DU LANGAGE PASCAL 75 LES TYPES DE DONNÉES DU LANGAGE PASCAL CHAPITRE 4 OBJECTIFS PRÉSENTER LES NOTIONS D ÉTIQUETTE, DE CONS- TANTE ET DE IABLE DANS LE CONTEXTE DU LAN- GAGE PASCAL.

Plus en détail

Codage d information. Codage d information : -Définition-

Codage d information. Codage d information : -Définition- Introduction Plan Systèmes de numération et Représentation des nombres Systèmes de numération Système de numération décimale Représentation dans une base b Représentation binaire, Octale et Hexadécimale

Plus en détail

L information sera transmise selon des signaux de nature et de fréquences différentes (sons, ultrasons, électromagnétiques, électriques).

L information sera transmise selon des signaux de nature et de fréquences différentes (sons, ultrasons, électromagnétiques, électriques). CHAINE DE TRANSMISSION Nous avons une information que nous voulons transmettre (signal, images, sons ). Nous avons besoin d une chaîne de transmission comosée de trois éléments rinciaux : 1. L émetteur

Plus en détail

Transmission de données. A) Principaux éléments intervenant dans la transmission

Transmission de données. A) Principaux éléments intervenant dans la transmission Page 1 / 7 A) Principaux éléments intervenant dans la transmission A.1 Equipement voisins Ordinateur ou terminal Ordinateur ou terminal Canal de transmission ETTD ETTD ETTD : Equipement Terminal de Traitement

Plus en détail

Principe de symétrisation pour la construction d un test adaptatif

Principe de symétrisation pour la construction d un test adaptatif Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université

Plus en détail

M1107 : Initiation à la mesure du signal. T_MesSig

M1107 : Initiation à la mesure du signal. T_MesSig 1/81 M1107 : Initiation à la mesure du signal T_MesSig Frédéric PAYAN IUT Nice Côte d Azur - Département R&T Université de Nice Sophia Antipolis frederic.payan@unice.fr 15 octobre 2014 2/81 Curriculum

Plus en détail

LE PROBLEME DU PLUS COURT CHEMIN

LE PROBLEME DU PLUS COURT CHEMIN LE PROBLEME DU PLUS COURT CHEMIN Dans cette leçon nous définissons le modèle de plus court chemin, présentons des exemples d'application et proposons un algorithme de résolution dans le cas où les longueurs

Plus en détail

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée

Plus en détail

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES

LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES LES DIFFÉRENTS FORMATS AUDIO NUMÉRIQUES Compétences mises en jeu durant l'activité : Compétences générales : S'impliquer, être autonome. Compétence(s) spécifique(s) : Reconnaître des signaux de nature

Plus en détail

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé A. P. M. E. P. Exercice 1 5 points 1. Réponse d. : 1 e Le coefficient directeur de la tangente est négatif et n est manifestement pas 2e

Plus en détail

PRIME D UNE OPTION D ACHAT OU DE VENTE

PRIME D UNE OPTION D ACHAT OU DE VENTE Université Paris VII - Agrégation de Mathématiques François Delarue) PRIME D UNE OPTION D ACHAT OU DE VENTE Ce texte vise à modéliser de façon simple l évolution d un actif financier à risque, et à introduire,

Plus en détail

BTS Groupement A. Mathématiques Session 2011. Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

BTS Groupement A. Mathématiques Session 2011. Spécialités CIRA, IRIS, Systèmes électroniques, TPIL BTS Groupement A Mathématiques Session 11 Exercice 1 : 1 points Spécialités CIRA, IRIS, Systèmes électroniques, TPIL On considère un circuit composé d une résistance et d un condensateur représenté par

Plus en détail

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE Le schéma synoptique ci-dessous décrit les différentes étapes du traitement numérique

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Représentation des Nombres

Représentation des Nombres Chapitre 5 Représentation des Nombres 5. Representation des entiers 5.. Principe des représentations en base b Base L entier écrit 344 correspond a 3 mille + 4 cent + dix + 4. Plus généralement a n a n...

Plus en détail

Systèmes de communications numériques 2

Systèmes de communications numériques 2 Systèmes de Communications Numériques Philippe Ciuciu, Christophe Vignat Laboratoire des Signaux et Systèmes CNRS SUPÉLEC UPS SUPÉLEC, Plateau de Moulon, 91192 Gif-sur-Yvette ciuciu@lss.supelec.fr Université

Plus en détail

Définitions. Numéro à préciser. (Durée : )

Définitions. Numéro à préciser. (Durée : ) Numéro à préciser (Durée : ) On étudie dans ce problème l ordre lexicographique pour les mots sur un alphabet fini et plusieurs constructions des cycles de De Bruijn. Les trois parties sont largement indépendantes.

Plus en détail

données en connaissance et en actions?

données en connaissance et en actions? 1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)

Plus en détail

Arbres binaires de décision

Arbres binaires de décision 1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression

Plus en détail

INITIATION AU LANGAGE C SUR PIC DE MICROSHIP

INITIATION AU LANGAGE C SUR PIC DE MICROSHIP COURS PROGRAMMATION INITIATION AU LANGAGE C SUR MICROCONTROLEUR PIC page 1 / 7 INITIATION AU LANGAGE C SUR PIC DE MICROSHIP I. Historique du langage C 1972 : naissance du C dans les laboratoires BELL par

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S FICHE Fiche à destination des enseignants TS 35 Numériser Type d'activité Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S Compétences

Plus en détail

Propriétés des options sur actions

Propriétés des options sur actions Propriétés des options sur actions Bornes supérieure et inférieure du premium / Parité call put 1 / 1 Taux d intérêt, capitalisation, actualisation Taux d intéret composés Du point de vue de l investisseur,

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

IFT1215 Introduction aux systèmes informatiques

IFT1215 Introduction aux systèmes informatiques Introduction aux circuits logiques de base IFT25 Architecture en couches Niveau 5 Niveau 4 Niveau 3 Niveau 2 Niveau Niveau Couche des langages d application Traduction (compilateur) Couche du langage d

Plus en détail

Annexe 6. Notions d ordonnancement.

Annexe 6. Notions d ordonnancement. Annexe 6. Notions d ordonnancement. APP3 Optimisation Combinatoire: problèmes sur-contraints et ordonnancement. Mines-Nantes, option GIPAD, 2011-2012. Sophie.Demassey@mines-nantes.fr Résumé Ce document

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x =

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x = LE NOMBRE D OR Présentation et calcul du nombre d or Euclide avait trouvé un moyen de partager en deu un segment selon en «etrême et moyenne raison» Soit un segment [AB]. Le partage d Euclide consiste

Plus en détail

Calculs de probabilités conditionelles

Calculs de probabilités conditionelles Calculs de probabilités conditionelles Mathématiques Générales B Université de Genève Sylvain Sardy 20 mars 2008 1. Indépendance 1 Exemple : On lance deux pièces. Soit A l évènement la première est Pile

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie... 1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................

Plus en détail

Chapitre 2. Eléments pour comprendre un énoncé

Chapitre 2. Eléments pour comprendre un énoncé Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données

Plus en détail

Les structures de données. Rajae El Ouazzani

Les structures de données. Rajae El Ouazzani Les structures de données Rajae El Ouazzani Les arbres 2 1- Définition de l arborescence Une arborescence est une collection de nœuds reliés entre eux par des arcs. La collection peut être vide, cad l

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto. des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Algèbre binaire et Circuits logiques (2007-2008)

Algèbre binaire et Circuits logiques (2007-2008) Université Mohammed V Faculté des Sciences Département de Mathématiques et Informatique Filière : SMI Algèbre binaire et Circuits logiques (27-28) Prof. Abdelhakim El Imrani Plan. Algèbre de Boole 2. Circuits

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

LES OUTILS D ALIMENTATION DU REFERENTIEL DE DB-MAIN

LES OUTILS D ALIMENTATION DU REFERENTIEL DE DB-MAIN LES OUTILS D ALIMENTATION DU REFERENTIEL DE DB-MAIN Les contenues de ce document sont la propriété exclusive de la société REVER. Ils ne sont transmis qu à titre d information et ne peuvent en aucun cas

Plus en détail

Cryptographie et fonctions à sens unique

Cryptographie et fonctions à sens unique Cryptographie et fonctions à sens unique Pierre Rouchon Centre Automatique et Systèmes Mines ParisTech pierre.rouchon@mines-paristech.fr Octobre 2012 P.Rouchon (Mines ParisTech) Cryptographie et fonctions

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

Université de La Rochelle. Réseaux TD n 6

Université de La Rochelle. Réseaux TD n 6 Réseaux TD n 6 Rappels : Théorème de Nyquist (ligne non bruitée) : Dmax = 2H log 2 V Théorème de Shannon (ligne bruitée) : C = H log 2 (1+ S/B) Relation entre débit binaire et rapidité de modulation :

Plus en détail

FIMA, 7 juillet 2005

FIMA, 7 juillet 2005 F. Corset 1 S. 2 1 LabSAD Université Pierre Mendes France 2 Département de Mathématiques Université de Franche-Comté FIMA, 7 juillet 2005 Plan de l exposé plus court chemin Origine du problème Modélisation

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

UEO11 COURS/TD 1. nombres entiers et réels codés en mémoire centrale. Caractères alphabétiques et caractères spéciaux.

UEO11 COURS/TD 1. nombres entiers et réels codés en mémoire centrale. Caractères alphabétiques et caractères spéciaux. UEO11 COURS/TD 1 Contenu du semestre Cours et TDs sont intégrés L objectif de ce cours équivalent a 6h de cours, 10h de TD et 8h de TP est le suivant : - initiation à l algorithmique - notions de bases

Plus en détail

Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes

Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes Loris MARCHAL Laboratoire de l Informatique du Parallélisme Équipe Graal Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes Thèse réalisée sous la direction

Plus en détail

Architecture des ordinateurs TD1 - Portes logiques et premiers circuits

Architecture des ordinateurs TD1 - Portes logiques et premiers circuits Architecture des ordinateurs TD1 - Portes logiques et premiers circuits 1 Rappel : un peu de logique Exercice 1.1 Remplir la table de vérité suivante : a b a + b ab a + b ab a b 0 0 0 1 1 0 1 1 Exercice

Plus en détail

Informatique Générale

Informatique Générale Informatique Générale Guillaume Hutzler Laboratoire IBISC (Informatique Biologie Intégrative et Systèmes Complexes) guillaume.hutzler@ibisc.univ-evry.fr Cours Dokeos 625 http://www.ens.univ-evry.fr/modx/dokeos.html

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail

ARBRES BINAIRES DE RECHERCHE

ARBRES BINAIRES DE RECHERCHE ARBRES BINAIRES DE RECHERCHE Table de symboles Recherche : opération fondamentale données : éléments avec clés Type abstrait d une table de symboles (symbol table) ou dictionnaire Objets : ensembles d

Plus en détail

Logique binaire. Aujourd'hui, l'algèbre de Boole trouve de nombreuses applications en informatique et dans la conception des circuits électroniques.

Logique binaire. Aujourd'hui, l'algèbre de Boole trouve de nombreuses applications en informatique et dans la conception des circuits électroniques. Logique binaire I. L'algèbre de Boole L'algèbre de Boole est la partie des mathématiques, de la logique et de l'électronique qui s'intéresse aux opérations et aux fonctions sur les variables logiques.

Plus en détail

Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires

Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires Julien Jorge julien.jorge@univ-nantes.fr Laboratoire d Informatique de Nantes Atlantique,

Plus en détail

Qu est-ce qu une probabilité?

Qu est-ce qu une probabilité? Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont

Plus en détail

Cours d introduction à l informatique. Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions

Cours d introduction à l informatique. Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions Cours d introduction à l informatique Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions Qu est-ce qu un Une recette de cuisine algorithme? Protocole expérimental

Plus en détail

Le codage informatique

Le codage informatique Outils de Bureautique Le codage informatique (exemple : du binaire au traitement de texte) PLAN 3) Le codage binaire 4) Représentation physique des bits 5) Le bit est un peu court... 6) Codage de texte

Plus en détail

Manuel d utilisation 26 juin 2011. 1 Tâche à effectuer : écrire un algorithme 2

Manuel d utilisation 26 juin 2011. 1 Tâche à effectuer : écrire un algorithme 2 éducalgo Manuel d utilisation 26 juin 2011 Table des matières 1 Tâche à effectuer : écrire un algorithme 2 2 Comment écrire un algorithme? 3 2.1 Avec quoi écrit-on? Avec les boutons d écriture........

Plus en détail

Chap 4: Analyse syntaxique. Prof. M.D. RAHMANI Compilation SMI- S5 2013/14 1

Chap 4: Analyse syntaxique. Prof. M.D. RAHMANI Compilation SMI- S5 2013/14 1 Chap 4: Analyse syntaxique 1 III- L'analyse syntaxique: 1- Le rôle d'un analyseur syntaxique 2- Grammaires non contextuelles 3- Ecriture d'une grammaire 4- Les méthodes d'analyse 5- L'analyse LL(1) 6-

Plus en détail

Système à enseigner : Robot M.I.M.I. MultipodeIntelligent à Mobilité Interactive. Version 1.0

Système à enseigner : Robot M.I.M.I. MultipodeIntelligent à Mobilité Interactive. Version 1.0 Système à enseigner : Robot M.I.M.I. MultipodeIntelligent à Mobilité Interactive Sommaire - Le Robot M.I.M.I. (Multipode Intelligent à Mobilité Interactive) - Présentation du Système à Enseigner. - Composition

Plus en détail

Exemples de problèmes et d applications. INF6953 Exemples de problèmes 1

Exemples de problèmes et d applications. INF6953 Exemples de problèmes 1 Exemples de problèmes et d applications INF6953 Exemples de problèmes Sommaire Quelques domaines d application Quelques problèmes réels Allocation de fréquences dans les réseaux radio-mobiles Affectation

Plus en détail

La conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA)

La conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA) La conversion de données : Convertisseur Analogique Numérique (CAN) Convertisseur Numérique Analogique (CNA) I. L'intérêt de la conversion de données, problèmes et définitions associés. I.1. Définitions:

Plus en détail

Probabilités. C. Charignon. I Cours 3

Probabilités. C. Charignon. I Cours 3 Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3

Plus en détail

Chaine de transmission

Chaine de transmission Chaine de transmission Chaine de transmission 1. analogiques à l origine 2. convertis en signaux binaires Échantillonnage + quantification + codage 3. brassage des signaux binaires Multiplexage 4. séparation

Plus en détail

Pourquoi l apprentissage?

Pourquoi l apprentissage? Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage

Plus en détail