Théorie de l information

Dimension: px
Commencer à balayer dès la page:

Download "Théorie de l information"

Transcription

1 Théorie de l information Master 1 Cryptographie Université de Rennes 1 oumar.diao@univ-rennes1.fr Janvier 2012

2 Introduction Ethymologie : information vient du verbe latin informare qui signifie "donner forme à" (ou "se former une idée de"). Actuellement, le mot "information" est étroitement lié aux notions de donnée, de connaissance, de communication, de signification, de perception, de représentation, etc. La théorie de l information s occupe de la transformation, de la transmission et de la conservation de donnée (ou information). Dès lors, elle se préoccupe de l efficacité des systèmes d information et de communication. Pour traiter mathématiquement les problèmes soulevés par la théorie de l information, il faut d abord définir une mesure pour l information. Dès les années 20, citons les tentatives de définition de mesure pour l information par Nyquist (comm.), Fisher (stat.) et Hartley (élec.). En 1948, Shannon formalise la définition de la mesure pour l information et pose ainsi les bases de la théorie de l information.

3 Codage de l information : motivation L objectif originel de la théorie de l information est le transport et la conservation "sans perte" d information : elle doit pouvoir être restituer dans son intégralité. Les informations que nous recevons journalièrement, sous forme de messages (ou de nouvelles), sont stockées, transformées et traitées par le cerveau. La reproduction fidéle de ses informations est difficile et pose le problème de la quantification de l information contenue dans une nouvelle. Pour pouvoir messure la quantité d information contenue dans un message, nous devons faire abstraction de sa forme et de son contenue. Par exemple, l employé des Postes qui doit émettre un message est totalement indifférent à la signification du message, ce qui compte pour lui, c est de faire payer un service dépendant exclusivement du nombre de mots. Dès lors, un texte incohérent, i.e. une suite arbitraire de caractères est un message.

4 Codage de l information : introduction Pour pouvoir être mesurer, l information doit d abord être coder. Exemple : le langage écrit pour les informations du langage parlé, le langage parlé pour les informations du langage mimique, le code télégraphique (basé sur le code Morse) le code ASCII pour les informations écrites etc. Le codage de l information nécessite un alphabet. Exemple : le français écrit : {a,, z} alphabet Morse : 4 symboles notés : {,, α, β} Binaire : {0, 1} Hexadécimal : {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f }

5 Codage de l information : définition Un alphabet A est un ensemble fini ou "dénombrable" (de symboles), on note A = {a 1,, a q}. Un mot M est une suite finie d éléments de A. Un mot de longueur l est alors de la forme M = a i1 a il. On note par A l ensemble des mots défini sur A. Sur l ensemble A, la "concaténation" permet de définir une loi de composition interne et fait de A un monoïde. Une information peut être défini comme une jaxtoposition finie et aléatoire de mots. Si A contient la ponctuation, alors une information est un mot. Mésurer une information M = définir une "mesure mathématique" sur M. Donc une information M peut être considéré comme un événement formé d une répétitition d expériences aléatoires et "indépendantes". La quantité d information apportée par la réalisation d un événement est équivalente à l incertitude sur cet événement : un événement certain apporte une information nulle, plus un événement est "improbable", plus il apporte de l information.

6 Quantité d information : mesure de l incertitude Nous avons une bijection entre l information d un événement et l incertitude de sa réalisation. Appelons par f une telle bijection. Soit E un événement aléatoire, notons par Pr(E) la probabilité de réalisation de E et par h(e) la mesure d incertitude. Relation entre h, Pr et f? Propriété de la bijection f : Comme un événement certain apporte une information nulle, donc Pr(E) = 1 h(e) = 0, i.e. f (1) = 0. h(e) est d autant plus grande que Pr(E) est petite, i.e. on peut poser h(e) = f 1, avec f une fonction croissante. Pr(E) si E et F sont des évén. indépendants, alors h(e F) = h(e) + h(f), c-a-d 1 f = f 1 Pr(E F ) Pr(E) 1 = f 1 + f 1 Pr(F ) Pr(E) Pr(F)

7 Quantité d information : fonction adéquate La fonction f à cherchée vérifie les propriétés suivantes : (f : [1, + [ R +, f crois., f (1) = 0 et f (xy) = f (x) + f (y)) f = log a. Le réel positif a > 1 désigne l unité de mesure de l incertitude. On a alors h(e) = f (1/Pr(E)) = log a (Pr(E)). si a = e = exp(1), alors l unité d incertitude est le nat (natural unit) ; si a = 10, alors l unité d incertitude est le ban (ou dit : decimal unit) ; si a = 2, alors l unité d incertitude est le bit (binary unit) ou le Shannon. On peut interpréter h(e) = log a (Pr(E)) de deux façons : à priori, par l incertitude qui régne sur la réalisation de l évén. E à postériori, par l information apportée par la réalisation de l évén. E

8 Information comme probabilité conditionnelle L information dépend aussi du niveau de connaissances : si E est une information (événement aléatoire d un alphabet A), alors h(e) dépend aussi d une autre information F (appelée connaissance). Autrement dit, la théorie de l information peut être formaliser par une probabilité conditionnelle. On peut alors poser : h(e/f ) = log a (Pr(E/F)), E, F A. Comme Pr(E F ) = Pr(F ) Pr(E/F ) = Pr(E) Pr(F/E)), donc h(e F) = h(f) + h(e/f ) = h(e) + h(f/e) E, F A. Dans ce cas, si E et F sont des événements indépendants, on retrouve l axiome : h(e F ) = h(e) + h(f).

9 Information mutuelle de deux événements Soit E et F deux info. de l alphabet A, on appelle l information apportée par F sur E, la dimunition de l incertitude sur E lors que F est réalisée : ι F E := h(e) h(e/f). On montre facilement que ι F E := h(f) h(f/e) = ι E F, donc on appelle l information mutuelle entre E et F la quantité : ι(e; F ) = ι(f ; E) = ι E F = ι F E. On voit alors que h(e/f) = h(e) ι(e; F), donc on obtient h(e F) = h(e) + h(f) ι(e; F). Si Pr(E) = Pr(E F) = Pr(F) alors ι(e; F ) = h(a) = h(b).

10 Entropie d une variable aléatoire discrète Soit M := m 1,..., m l une information (une épreuve aléatoire) et p une loi de probabilité sur M := {m 1,.., m l }. L entropie de M (ou d une v.a. X défini sur M) est par définition l espérance mathématique : H( M) := n n Pr(m i )h(m i ) := Pr(m i ) log(p(m i )). i=1 i=1 L entropie donne une appréciation numérique globale, plus précisément elle donne une incertitude moyenne attachée à l expérience. Remarques : H( M) ne dépend que de la loi de probabilité de M Exprimé en Shannons, H( M) représente le nombre moyen de bits nécessaire à la codification des différents éléments de M; p 1 et p 2 deux lois de proba. sur M, l i=1 p 1(m i ). log ( p2 (m i ) p 1 (m i ) ) 0. H( M) log(l) et on a l égalité ssi p est la loi uniforme (i.e. p(a i ) = 1/l).

11 Entropie et information liées à un couple Soit S = x 1...x l et T = y 1...y k des informations d un alphabet A. Soient p et q deux loi de prob. sur S := {x 1,..., x l } et T := {y 1,..., y k } respectivement. Notons par p i,j := Pr(X = x i, Y = y j ) = Pr({X = x i } {Y = y j }) la loi de proba. du produit S T. Nous avons alors, les lois deux lois projetées et les deux lois conditionnelles suivantes : Pr(X = x i ) := p i = k p ij et Pr(Y = y i ) := q j = j=1 Pr(X = x i /Y = y j ) := P j (i) = p ij q j et Pr(Y = y j /X = x i ) := P i (j) = p ij p i L entropie du couple (X, Y ) est : H(X, Y ) = l i=1 k p ij log(p ij ). L entropie du couple est appelée aussi entropie composée ou conjointe. j=1 l i=1 p ij

12 Entropie conditionnelle L incertitude moyenne sur X sachant que Y = y j est H(X/y j ) = l P j (i) log(p j (i)) = i=1 l i=1 p ij q j log ( pij Cette incertitude (entropie) exprime partiellement l influence de Y sur X. Les entropies conditionnelles sont : H(X/Y ) := H Y (X) = H(Y /X) := H X (Y ) = k q j H(X/y j ) := j=1 l p i H(Y /x i ) := H Y (X) est l incertitude sur X lors qu on connait Y. i=1 l i=1 l i=1 q j k p ij log j=1 k p ij log j=1 ). ( pij q j ( pij p i ). ).

13 Information mutuelle moyenne L information mutuelle moyenne entre X et Y peut s écrire : I(X; Y ) = H(X) H(X/Y ) = H(Y ) H(Y /X) = I(Y ; X). cela correspond à la dimunition de l incertitude sur X lors qu on connait Y (ou resp. la dimunition de l incertitude de Y lors qu on connait X). On peut aisément montrer les relations suivantes : H(X, Y ) = H(X) + H(Y /X) = H(Y ) + H(X/Y ) I(X, Y ) = H(X) + H(Y ) H(X, Y ) L information mutuelle moyenne de X et de Y est toujours possitive alors l information mutuelle de deux événements peut être négative. Le conditionnement diminue l incertitude, i.e. H(X) H(X/Y ). On peut étendre le raisonnement dans le cas de n variables.

14 Transmission des données : communication

15 Modèle d un système de communication Un système de communication est composé de trois entités : Éméteur ou source Voix ou Canal Récepteur Le canal peut subir des perturbations comme les bruits, les erreurs d écriture/lecture, etc. L éméteur et le destinataire doivent se comprendre, ils doivent utiliser le même système de codeur/décodeur. Avant l envoie de l information (considérée comme un message), l éméteur doit la coder dans un alphabet A, on dit parfois alphabet de la source. Alors, émettre un message revient à faire un choix "aléatoire" d un élément de A. Pour le récepteur, deux conditions doivent être réalisée : a) une possibilité de lecture, donc le destinataire connait l alphabet A. b) une règle de décision permettant de désigner le message reçu. On distingue plusieurs types de sources, de canaux et de destinataires.

16 Types de sources Une source d information est un couple S = (A, p) où A est un alphabet et p une loi de probabilité défini sur A. Plus précisément, une source discrète est un dispositif susceptible de fournir un ensemble dénombrable fini (ou infini) de messages ("élémentaires") S = {s 1,..., s r } issus de A. Autrement dit, une source est une suite de variables aléatoires (X n) n N (finie ou infinie). S est une source est stationnaire si pour tout i, les X i ont même loi. La source S a une mémoire d ordre m si et seulement si, pour tout n ( ) ( ) Pr X n/ n 1 j=1 X j = Pr X n/ n 1 j=n m X j. Pr (X n/x n 1, X n 2,..., X 1 ) = Pr (X n/x n 1, X n 2,..., X n m). m = 0 S est sans mémoire et si m = 1 S est source de Markov.

17 Source discrète avec mémoire Soit (X n) n N la suite de v.a. d une source de mémoire m. Posons la v.a. Z n := (X n, X n 1,..., X n m+1 ). Donc (Z n) n N est une chaine de Markov. En effet, Pr(Z n/z n 1, Z n 2,..., Z n m) = Pr(X n, X n 1,..., X n m+1 /X n 1,..., X 2, X 1 ) = Pr(X n, X n 1,..., X n m+1 /X n 1,..., X n m+1, X n m) = Pr(Z n/z n 1 ). Toute S de mémoire m peut se ramener en une chaine de Markov. On n étudiera que les sources de mémoire 1, i.e. les chaines de Markov. La matrice de transition des proba est T = (Pr(X i /X i 1 )) 1 i n La source est dite homogène si T est indépendant de l entier n

18 Entropie d une source avec mémoire Soit S une source stationnaire de mémoire m = q 1 sur A = {a 1,..., a q} L entropie de la source S peut se calculer avec la limite suivante : H (S) := lim q H (X q/x q 1,.., X 1 ) 1 := lim q q H(X 1,..., X q). La limite existe car la suite (H(X q/x q 1,.., X 1 )) est décroissante et minorée. En effet, comme le conditionnement diminue l incertitude, alors pour tout q : H(X q/x 1, X 2,..., X q 1 ) H(X q/x 2,..., X q 1 ) := H(X q 1 /X 1,..., X q 2 ). si la mémoire m = 0, alors H (S) = H(X 1 ) log(q) si la mémoire m = 1, alors H (S) = H(X 2 /X 1 )

19 Exemple : Entropie d une source binaire Soit une source binaire S = {0, 1} où la proba. d avoir 1 est p. Alors l entropie de la source est : { p log(p) (1 p) log(1 p) si 0 < p < 1 H(S) = 0 si p = 0 ou 1 Soit une source S = {a 1, a 2, a 3, a 4 } avec Pr(a 1 ) = 1/2, Pr(a 2 ) = 1/4 et Pr(a 3 ) = Pr(a 4 ) = 1/8. Alors H(S) = 1, 75 En Shannons, l entropie d une source est le nombre moyen minimal de symboles binaires par lettre nécessaires pour représenter la source

20 Codage de source : motivation Soit S une source sur un alphabet A = {a 1,..., a q}. Si les éléments a i n ont pas la même proba. alors on peut dire que A est mal utilisé, car l information fournit par la source est inférieure au maximum possible (H(A) log a (q)). Codage de source = transformer l alphabet de la source en un alphabet où les symboles sont "presques" équiprobables et indépendants : A B := {b 1,..., b t} avec p(b i ) 1 t (loi uniforme). Le codage d une source joue un rôle : d intermédiaire qui permet le transport de S (le signal, le numérique) d économie : accélération du débit, utilisation maximale de la source de lutte contre le bruit avec la redondance.

21 Codage de source : définitions Soit S = {s 1,..., s n} une source sur A et soit B = {b 1,..., b t} un alphabet de référence (en général B = {0, 1} alphabet binaire). un codage de S par B = fonction c : S B tq c(s i s j ) = c(s i )c(s j ) un mot-code est l image c(s i ) B du mot s i de S. un code C sur l alphabet B est un sous-ensemble de B, C = c(s). C est dit régulier (ou non-singulier) si c est une application injective C est dit uniquement déchiffrable si et seulement si pour tout entier n, la fonction n k=1s k B est injective : si u 1,.., u l C et v 1,..., v k C, alors u 1 u 2 u l = v 1 v 2 v k = l = k et i, u i = v i. C est dit préfixe si aucun mot de C n est le début d un autre mot de C. C est dit de longueur fixe si tous ses mots ont la même longueur. C est un code de long. fixe = C est un code préfixe = C est déchiffrable.

22 Codage de source : exemple L alphabet de référence est l alphabet binaire B = {0, 1} : alors {00, 01, 10, 11} est un code de longueur 2, donc déchiffrable! {0, 11, 010} est uniquement déchiffrable {0, 1, 101} n est pas uniquement déchiffrable, car 101 = 1//0//1 {0, 10, 110, 111} est un code préfixe {0, 11, 110, 111} n est pas un code préfixe car 11 est le debut de 110. un code C est dit à décodage instantané s il est possibilité de décoder un mot dès que tous les symboles du mot ont été reçus. un code C est dit irréductible si C est un code préfixe et instantané.

23 Codage de source : caractéristiques Soit C un code sur B = {b 1,..., b t}, pout tout u C, on appelle longueur de u, et on note u le nombre symboles de B permettant d écrire u. Longueur moyenne de C : c est la longueur moyenne des mots de code n := Pr(u) u. u C H Efficacité : L efficacité de C, d entropie H est définie par E = n log a (t). débit littéral de la source D S = nombre de symboles émis par seconde débit d information est l information moy. par seconde D I = D S H/n. redondance (utile contre le bruit des canaux) est r = 1 E comme l entropie H log 2 (t) donc l efficacité E 1

24 Codage de source : exemple Soit A = {a 1, a 2, a 3, a 4 } et deux codes a i Pr(a i ) C 1 C 2 a 1 1/ a 2 1/ a 3 1/ a 4 1/ L entropie de la source est H(S) = 1, 75 bits. Pour le code C 1, on a : n 1 := 2, alors E 1 = 87, 5% et r 1 = 1 E 1 = 12, 5% Pour le code C 2, on a : n 2 := 1, 75 alors E 2 = 100% et r 2 = 1 E 2 = 0. le code C 2 est plus efficace que le code C 1, cela peut s expliquer par le fait que C 2 affecte les mots les plus courts aux message les plus fréquents. Plus n est petite, plus le code est efficace, mais on l appauvrie! Peut-on toujours atteindre une efficace de 100% sans appauvrir le code?

25 Source : code de longueur fixe Proposition : Soit S une source discrète sur A := {a 1,..., a q}. Alors, il est possible de coder S avec un code régulier de longueur fixe m tel que log 2 (q) m < 1 + log 2 (q), avec une efficacité E = H(A) m. Exemple soit une source d alpha. A = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} muni de la loi uniforme. Le codage peut se faire avec un code de longueur 4. Alors E := H(A) 4 = log 2 (10) 4 83%. Pour améliorer l efficacité, on peut coder avec les paires A 2 = {00,..., 99}. La source peut être coder avec un code de longueur 7 et d efficacité E 2 := H(A2 ) 7 = log 2 (100) 7 95%. Avec les l uplets A l, on a : H(A l ) = l H(A), long. m l = l log 2 (10) et E l = l H(A)/ l log 2 (10) avec lim l E l = 1

26 Source : code de longueur fixe - généralité Soit S = {s 1,..., s n} une source discrète et soit S l la source des l uplets. La source S k peut être coder avec un code régulier de longueur m k tel que log 2 (n) m k k < 1 k + log 2 (n). L efficacité d un tel code vaut E(k) = H(Sk ) m k = l H(S) m k = H(S), avec l k := m k l k k. Comme lim k l k = log 2 (n), alors lim k E(k) = H(S) log 2 (n). Impossible de s approcher d un codage optimal avec un code régulier. Pour une source munie d une loi uniforme, l efficacité est proche de 1. L efficacité croit mais le codage et le décodage se complexifient

27 Source : code de longueur variable Pour construire des codes déchiffrables et plus particulièrement des codes irréductibles aussi économiques que possible, nous avons : Théorème de Kraft : Il existe un code irréductible de l mots de longueurs respectives n 1,..., n l sur un alphabet B = {b 1,..., b q} est l q n i 1. i=1 Théorème de Mac Millan (généralisation du thm de Kraft) : Il existe un code déchiffrable de l mots de longueurs respectives n 1,..., n l sur B est l q n i 1. Les théorèmes de Kraft et de Mac Millan sont non constructifs. i=1

28 Source : premier théorème de Shannon Remarques : 1) Pour toute source S codée par un code déchiffrable sur B = {b 1,..., b q}, la longueur moyenne n des mots-code vérifie H(S) n log(q). 2) Il existe un codage irréductible dont la longueur moyenne n vérifie n log(q) < H(S) + log(q). Premier théorème de Shannon Pour toute source homogène, il existe un codage déchiffrable dont l efficacité est arbitrairement proche de 1. Ce théorème est encore appelé le théorème du codage sans bruit par opposition au second théorème de Shannon relatif au canal bruyant.

29 Codage de source : compression de données Optimisation de la taille d un message pour le stockage (ou la comm.) Compression des données : transformer un long texte T en un texte U plus court tel qu on retrouve T à partir de U. Si on retrouve exactement T, on parle de compression ou code réversible type de compression : compression sans perte (RLE, LZW, Huffman, etc.) ou compression avec perte (JPEG, fractal, etc.) Taux de compression : Pour Z {T, U}, notons par l(z ) la long. de Z sur l alphabet B Z de taille q Z, alors le taux de compression est l(u) log(q U ) l(t ) log(q T ). Vitesse de compression : le temps nécessaire à la compression de T Remarque : il n existe aucune méthode idéale (universelle et sans perte) de compression.

30 Compression : quelques méthodes RLE (Run Length Encoding) : remplacer les suites de caractères répétés par un caractère "spécial" et le nombre de caractère. Ex : AAAAARRRRRROLLLLBBBBBUUTTTTTT (29 lettres) sera codé (18 lettres) LZW (Lempel Ziv Welch) : utilise un dictionnaire (table) pour stocker la fréquence des symboles. Les symboles ayant des fréquences élevées sont remplacés par un "mot" ayant un nombre de caractères le plus petit possible. Huffman : trier la fréquence des symboles et construire un arbre binaire. Pour l arbre, on relie les 2 éléments ayant la plus petite fréquence par un seul nœud dont la valeur est la somme des deux fréquences et on réordonne la table des fréquences avec le nouveau nœud. Ex : AAAAARRRRRROLLLLBBBBBUUTTTTTT donne 0 U L A B R T

31 Canaux discrets sans mémoire

32 Canal : définition Canal : permet d acheminer un message entre deux points distants Un canal est la donnée d un triplet : un alphabet d entrée "fini" A = {a 1,.., a r } un alphabet de sortie "fini" B = {b 1,..., b q} une matrice de transition T := [Pr(a i /b j )] 1 i r,1 j q Ex 1 : pour A 1 = B 1 = {0, 1} avec p la proba pour qu un bit soit changé. Alors : [ ] q p T 1 =, avec q = 1 p p q Ex 2 : pour A 2 = B 2 = A 2 1 = {00, 01, 10, 11}, la matrice de transition est : q 2 qp pq p 2 T 2 = qp q 2 p 2 pq pq p 2 q 2 qp, avec q = 1 p p 2 pq qp q 2

33 Les canaux : propriétés L information transmise par le canal (A, B, T ) est I(A; B) = H(A) H(A/B) = H(B) H(B/A). H(A) : le nombre moyen de bits représentant A (canal sans bruit). H(A/B) : perte d information due au bruit lors de la transmission. Capacité d un canal : plus grande quantité d information moyenne (par symboles de A) qu il peut transmettre. C := max I(A; B), p A où p A : toutes les lois définies sur A. La capacité C existe car l ensemble des lois d emission peut être plonger dans un domaine convexe de R r Pour un canal symétrique, C est atteint pour une loi uniforme de A. Ex : pour un canal binaire symétrique, on a : C = 1 H(p)

34 Les canaux : second théorème de Shannon Rendement d un code : Soit un code C un code de longueur n et de cardinal N. Son rendement est : R := log(n). n Second théorème de Shannon Soit C la capacité du canal de transmission et soient 2 réels ε > 0 et δ < C. Il existe un code de rendement supérieur à δ tel que la probabilité d erreur en sortie soit inférieure à ε Réciproquement, pour tout code de rendement R > C, il existe une constante α telle que la probabilité d erreur en sortie soit supérieure à α. Conséquence : étude des codes correcteurs d erreurs

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

TD : Codage des images

TD : Codage des images TD : Codage des images Les navigateurs Web (Netscape, IE, Mozilla ) prennent en charge les contenus textuels (au format HTML) ainsi que les images fixes (GIF, JPG, PNG) ou animée (GIF animée). Comment

Plus en détail

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où

Plus en détail

1 Introduction au codage

1 Introduction au codage CélestineOscarDésiréAnatoleGastonEugène 1 Introduction au codage 1.1 Les ensembles L ensemble de tout les ensembles est Dieu lui-même. Kantor Ensemble des parties d un ensemble désigne l ensemble des sous-ensembles

Plus en détail

Formats d images. 1 Introduction

Formats d images. 1 Introduction Formats d images 1 Introduction Lorsque nous utilisons un ordinateur ou un smartphone l écran constitue un élément principal de l interaction avec la machine. Les images sont donc au cœur de l utilisation

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Définitions. Numéro à préciser. (Durée : )

Définitions. Numéro à préciser. (Durée : ) Numéro à préciser (Durée : ) On étudie dans ce problème l ordre lexicographique pour les mots sur un alphabet fini et plusieurs constructions des cycles de De Bruijn. Les trois parties sont largement indépendantes.

Plus en détail

1.1 Codage de source et test d hypothèse

1.1 Codage de source et test d hypothèse Théorie de l information et codage 200/20 Cours 8février20 Enseignant: Marc Lelarge Scribe: Marc Lelarge Pour information Page webdu cours http://www.di.ens.fr/~lelarge/info.html Notations Pour des variables

Plus en détail

Chapitre 13 Numérisation de l information

Chapitre 13 Numérisation de l information DERNIÈRE IMPRESSION LE 2 septembre 2013 à 17:33 Chapitre 13 Numérisation de l information Table des matières 1 Transmission des informations 2 2 La numérisation 2 2.1 L échantillonage..............................

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

UEO11 COURS/TD 1. nombres entiers et réels codés en mémoire centrale. Caractères alphabétiques et caractères spéciaux.

UEO11 COURS/TD 1. nombres entiers et réels codés en mémoire centrale. Caractères alphabétiques et caractères spéciaux. UEO11 COURS/TD 1 Contenu du semestre Cours et TDs sont intégrés L objectif de ce cours équivalent a 6h de cours, 10h de TD et 8h de TP est le suivant : - initiation à l algorithmique - notions de bases

Plus en détail

Transmission d informations sur le réseau électrique

Transmission d informations sur le réseau électrique Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en

Plus en détail

Compression Compression par dictionnaires

Compression Compression par dictionnaires Compression Compression par dictionnaires E. Jeandel Emmanuel.Jeandel at lif.univ-mrs.fr E. Jeandel, Lif CompressionCompression par dictionnaires 1/25 Compression par dictionnaire Principe : Avoir une

Plus en détail

Numérisation du signal

Numérisation du signal Chapitre 12 Sciences Physiques - BTS Numérisation du signal 1 Analogique - Numérique. 1.1 Définitions. Signal analogique : un signal analogique s a (t)est un signal continu dont la valeur varie en fonction

Plus en détail

Probabilités. C. Charignon. I Cours 3

Probabilités. C. Charignon. I Cours 3 Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

Projet d informatique M1BI : Compression et décompression de texte. 1 Généralités sur la compression/décompression de texte

Projet d informatique M1BI : Compression et décompression de texte. 1 Généralités sur la compression/décompression de texte Projet d informatique M1BI : Compression et décompression de texte Le but de ce projet est de coder un programme réalisant de la compression et décompression de texte. On se proposera de coder deux algorithmes

Plus en détail

Calculs de probabilités

Calculs de probabilités Calculs de probabilités Mathématiques Générales B Université de Genève Sylvain Sardy 13 mars 2008 1. Définitions et notations 1 L origine des probabilités est l analyse de jeux de hasard, tels que pile

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE LA PHYSIQUE DES MATERIAUX Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE Pr. A. Belayachi Université Mohammed V Agdal Faculté des Sciences Rabat Département de Physique - L.P.M belayach@fsr.ac.ma 1 1.Le réseau

Plus en détail

Suites numériques 3. 1 Convergence et limite d une suite

Suites numériques 3. 1 Convergence et limite d une suite Suites numériques 3 1 Convergence et limite d une suite Nous savons que les termes de certaines suites s approchent de plus en plus d une certaine valeur quand n augmente : par exemple, les nombres u n

Plus en détail

Qu est-ce qu une probabilité?

Qu est-ce qu une probabilité? Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont

Plus en détail

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd

UE 503 L3 MIAGE. Initiation Réseau et Programmation Web La couche physique. A. Belaïd UE 503 L3 MIAGE Initiation Réseau et Programmation Web La couche physique A. Belaïd abelaid@loria.fr http://www.loria.fr/~abelaid/ Année Universitaire 2011/2012 2 Le Modèle OSI La couche physique ou le

Plus en détail

Systèmes de communications numériques 2

Systèmes de communications numériques 2 Systèmes de Communications Numériques Philippe Ciuciu, Christophe Vignat Laboratoire des Signaux et Systèmes CNRS SUPÉLEC UPS SUPÉLEC, Plateau de Moulon, 91192 Gif-sur-Yvette ciuciu@lss.supelec.fr Université

Plus en détail

Algorithme. Table des matières

Algorithme. Table des matières 1 Algorithme Table des matières 1 Codage 2 1.1 Système binaire.............................. 2 1.2 La numérotation de position en base décimale............ 2 1.3 La numérotation de position en base binaire..............

Plus en détail

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S FICHE Fiche à destination des enseignants TS 35 Numériser Type d'activité Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S Compétences

Plus en détail

Cryptographie et fonctions à sens unique

Cryptographie et fonctions à sens unique Cryptographie et fonctions à sens unique Pierre Rouchon Centre Automatique et Systèmes Mines ParisTech pierre.rouchon@mines-paristech.fr Octobre 2012 P.Rouchon (Mines ParisTech) Cryptographie et fonctions

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

ÉPREUVE COMMUNE DE TIPE 2008 - Partie D

ÉPREUVE COMMUNE DE TIPE 2008 - Partie D ÉPREUVE COMMUNE DE TIPE 2008 - Partie D TITRE : Les Fonctions de Hachage Temps de préparation :.. 2 h 15 minutes Temps de présentation devant le jury :.10 minutes Entretien avec le jury :..10 minutes GUIDE

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Représentation d un entier en base b

Représentation d un entier en base b Représentation d un entier en base b 13 octobre 2012 1 Prérequis Les bases de la programmation en langage sont supposées avoir été travaillées L écriture en base b d un entier est ainsi défini à partir

Plus en détail

Cryptographie Quantique

Cryptographie Quantique Cryptographie Quantique Jean-Marc Merolla Chargé de Recherche CNRS Email: jean-marc.merolla@univ-fcomte.fr Département d Optique P.-M. Duffieux/UMR FEMTO-ST 6174 2009 1 Plan de la Présentation Introduction

Plus en détail

Codage d information. Codage d information : -Définition-

Codage d information. Codage d information : -Définition- Introduction Plan Systèmes de numération et Représentation des nombres Systèmes de numération Système de numération décimale Représentation dans une base b Représentation binaire, Octale et Hexadécimale

Plus en détail

Représentation des Nombres

Représentation des Nombres Chapitre 5 Représentation des Nombres 5. Representation des entiers 5.. Principe des représentations en base b Base L entier écrit 344 correspond a 3 mille + 4 cent + dix + 4. Plus généralement a n a n...

Plus en détail

Le produit semi-direct

Le produit semi-direct Le produit semi-direct Préparation à l agrégation de mathématiques Université de Nice - Sophia Antipolis Antoine Ducros Octobre 2007 Ce texte est consacré, comme son titre l indique, au produit semi-direct.

Plus en détail

Une introduction aux codes correcteurs quantiques

Une introduction aux codes correcteurs quantiques Une introduction aux codes correcteurs quantiques Jean-Pierre Tillich INRIA Rocquencourt, équipe-projet SECRET 20 mars 2008 1/38 De quoi est-il question ici? Code quantique : il est possible de corriger

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

Informatique Générale

Informatique Générale Informatique Générale Guillaume Hutzler Laboratoire IBISC (Informatique Biologie Intégrative et Systèmes Complexes) guillaume.hutzler@ibisc.univ-evry.fr Cours Dokeos 625 http://www.ens.univ-evry.fr/modx/dokeos.html

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Le multiplexage. Sommaire

Le multiplexage. Sommaire Sommaire Table des matières 1- GENERALITES... 2 1-1 Introduction... 2 1-2 Multiplexage... 4 1-3 Transmission numérique... 5 2- LA NUMERATION HEXADECIMALE Base 16... 8 3- ARCHITECTURE ET PROTOCOLE DES RESEAUX...

Plus en détail

Conversion d un entier. Méthode par soustraction

Conversion d un entier. Méthode par soustraction Conversion entre bases Pour passer d un nombre en base b à un nombre en base 10, on utilise l écriture polynomiale décrite précédemment. Pour passer d un nombre en base 10 à un nombre en base b, on peut

Plus en détail

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières

Plus en détail

Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information

Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information Master 1 Informatique MIF11 - Réseau Codage et éléments de théorie de l'information Florent Dupont Université Claude Bernard Lyon1 / Laboratoire LIRIS Florent.Dupont@liris.cnrs.fr http://liris.cnrs.fr/florent.dupont

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Cryptologie. Algorithmes à clé publique. Jean-Marc Robert. Génie logiciel et des TI

Cryptologie. Algorithmes à clé publique. Jean-Marc Robert. Génie logiciel et des TI Cryptologie Algorithmes à clé publique Jean-Marc Robert Génie logiciel et des TI Plan de la présentation Introduction Cryptographie à clé publique Les principes essentiels La signature électronique Infrastructures

Plus en détail

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses 6. Hachage Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses PLAN Définition Fonctions de Hachage Méthodes de résolution de collisions Estimation

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Chaine de transmission

Chaine de transmission Chaine de transmission Chaine de transmission 1. analogiques à l origine 2. convertis en signaux binaires Échantillonnage + quantification + codage 3. brassage des signaux binaires Multiplexage 4. séparation

Plus en détail

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement

Plus en détail

L information sera transmise selon des signaux de nature et de fréquences différentes (sons, ultrasons, électromagnétiques, électriques).

L information sera transmise selon des signaux de nature et de fréquences différentes (sons, ultrasons, électromagnétiques, électriques). CHAINE DE TRANSMISSION Nous avons une information que nous voulons transmettre (signal, images, sons ). Nous avons besoin d une chaîne de transmission comosée de trois éléments rinciaux : 1. L émetteur

Plus en détail

>> TECHNIQUES DE COMPTABILITÉ ET DE GESTION 410.B0

>> TECHNIQUES DE COMPTABILITÉ ET DE GESTION 410.B0 Pondération : le 1 er chiffre représente le nombre d heures de théorie, le 2 e chiffre représente le nombre d heures de laboratoire et le 3 e chiffre représente le nombre d heures de travail personnel.

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Objets Combinatoires élementaires

Objets Combinatoires élementaires Objets Combinatoires élementaires 0-0 Permutations Arrangements Permutations pour un multi-ensemble mots sous-ensemble à k éléments (Problème du choix) Compositions LE2I 04 1 Permutations Supposons que

Plus en détail

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies INF 232: Langages et Automates Travaux Dirigés Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies Année Académique 2013-2014 Année Académique 2013-2014 UNIVERSITÉ JOSEPH

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

Extrait du poly de Stage de Grésillon 1, août 2010

Extrait du poly de Stage de Grésillon 1, août 2010 MINI-COURS SUR LES POLYNÔMES À UNE VARIABLE Extrait du poly de Stage de Grésillon 1, août 2010 Table des matières I Opérations sur les polynômes 3 II Division euclidienne et racines 5 1 Division euclidienne

Plus en détail

Chapitre VI - Méthodes de factorisation

Chapitre VI - Méthodes de factorisation Université Pierre et Marie Curie Cours de cryptographie MM067-2012/13 Alain Kraus Chapitre VI - Méthodes de factorisation Le problème de la factorisation des grands entiers est a priori très difficile.

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Logiciel de Base. I. Représentation des nombres

Logiciel de Base. I. Représentation des nombres Logiciel de Base (A1-06/07) Léon Mugwaneza ESIL/Dépt. Informatique (bureau A118) mugwaneza@univmed.fr I. Représentation des nombres Codage et représentation de l'information Information externe formats

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

MATHÉMATIQUES DISCRÈTES (4) CRYPTOGRAPHIE CLASSIQUE

MATHÉMATIQUES DISCRÈTES (4) CRYPTOGRAPHIE CLASSIQUE MATHÉMATIQUES DISCRÈTES (4) CRYPTOGRAPHIE CLASSIQUE Michel Rigo http://www.discmath.ulg.ac.be/ Année 2007 2008 CRYPTOGRAPHIE. N. F. Art d écrire en chiffres ou d une façon secrète quelconque. Ensemble

Plus en détail

Gestion des Clés. Pr Belkhir Abdelkader. 10/04/2013 Pr BELKHIR Abdelkader

Gestion des Clés. Pr Belkhir Abdelkader. 10/04/2013 Pr BELKHIR Abdelkader Gestion des Clés Pr Belkhir Abdelkader Gestion des clés cryptographiques 1. La génération des clés: attention aux clés faibles,... et veiller à utiliser des générateurs fiables 2. Le transfert de la clé:

Plus en détail

Cours d introduction à l informatique. Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions

Cours d introduction à l informatique. Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions Cours d introduction à l informatique Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions Qu est-ce qu un Une recette de cuisine algorithme? Protocole expérimental

Plus en détail

Architecture des ordinateurs TD1 - Portes logiques et premiers circuits

Architecture des ordinateurs TD1 - Portes logiques et premiers circuits Architecture des ordinateurs TD1 - Portes logiques et premiers circuits 1 Rappel : un peu de logique Exercice 1.1 Remplir la table de vérité suivante : a b a + b ab a + b ab a b 0 0 0 1 1 0 1 1 Exercice

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

note technique 1RWLRQVVXUODFRPSUHVVLRQ GHVGRQQpHVGDQV OHVDSSOLFDWLRQVPXOWLPpGLDV Direction de l'ingénierie éducative

note technique 1RWLRQVVXUODFRPSUHVVLRQ GHVGRQQpHVGDQV OHVDSSOLFDWLRQVPXOWLPpGLDV Direction de l'ingénierie éducative CENTRE NATIONAL DE DOCUMENTATION PÉDAGOGIQUE 1RWLRQVVXUODFRPSUHVVLRQ GHVGRQQpHVGDQV OHVDSSOLFDWLRQVPXOWLPpGLDV Gérard PUIMATTO Service de l informatique éducative L'exploitation de technologies multimédias

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x =

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x = LE NOMBRE D OR Présentation et calcul du nombre d or Euclide avait trouvé un moyen de partager en deu un segment selon en «etrême et moyenne raison» Soit un segment [AB]. Le partage d Euclide consiste

Plus en détail

I- Définitions des signaux.

I- Définitions des signaux. 101011011100 010110101010 101110101101 100101010101 Du compact-disc, au DVD, en passant par l appareil photo numérique, le scanner, et télévision numérique, le numérique a fait une entrée progressive mais

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Arithmétique binaire. Chapitre. 5.1 Notions. 5.1.1 Bit. 5.1.2 Mot

Arithmétique binaire. Chapitre. 5.1 Notions. 5.1.1 Bit. 5.1.2 Mot Chapitre 5 Arithmétique binaire L es codes sont manipulés au quotidien sans qu on s en rende compte, et leur compréhension est quasi instinctive. Le seul fait de lire fait appel au codage alphabétique,

Plus en détail

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et

Plus en détail

Définition 0,752 = 0,7 + 0,05 + 0,002 SYSTÈMES DE NUMÉRATION POSITIONNELS = 7 10 1 + 5 10 2 + 2 10 3

Définition 0,752 = 0,7 + 0,05 + 0,002 SYSTÈMES DE NUMÉRATION POSITIONNELS = 7 10 1 + 5 10 2 + 2 10 3 8 Systèmes de numération INTRODUCTION SYSTÈMES DE NUMÉRATION POSITIONNELS Dans un système positionnel, le nombre de symboles est fixe On représente par un symbole chaque chiffre inférieur à la base, incluant

Plus en détail

Chapitre 2. Eléments pour comprendre un énoncé

Chapitre 2. Eléments pour comprendre un énoncé Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données

Plus en détail

Algorithmes d'apprentissage

Algorithmes d'apprentissage Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Travaux pratiques. Compression en codage de Huffman. 1.3. Organisation d un projet de programmation

Travaux pratiques. Compression en codage de Huffman. 1.3. Organisation d un projet de programmation Université de Savoie Module ETRS711 Travaux pratiques Compression en codage de Huffman 1. Organisation du projet 1.1. Objectifs Le but de ce projet est d'écrire un programme permettant de compresser des

Plus en détail

Transmission de données. A) Principaux éléments intervenant dans la transmission

Transmission de données. A) Principaux éléments intervenant dans la transmission Page 1 / 7 A) Principaux éléments intervenant dans la transmission A.1 Equipement voisins Ordinateur ou terminal Ordinateur ou terminal Canal de transmission ETTD ETTD ETTD : Equipement Terminal de Traitement

Plus en détail

Théorie des Graphes Cours 3: Forêts et Arbres II / Modélisation

Théorie des Graphes Cours 3: Forêts et Arbres II / Modélisation IFIPS S7 - informatique Université Paris-Sud 11 1er semestre 2009/2010 Théorie des Graphes Cours 3: Forêts et Arbres II / 1 Forêts et arbres II Théorème 1.1. Les assertions suivantes sont équivalentes

Plus en détail

Suites numériques 4. 1 Autres recettes pour calculer les limites

Suites numériques 4. 1 Autres recettes pour calculer les limites Suites numériques 4 1 Autres recettes pour calculer les limites La propriété suivante permet de calculer certaines limites comme on verra dans les exemples qui suivent. Propriété 1. Si u n l et fx) est

Plus en détail

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. david.madore@enst.fr. 29 mai 2015

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. david.madore@enst.fr. 29 mai 2015 et et Journées Télécom-UPS «Le numérique pour tous» David A. Madore Télécom ParisTech david.madore@enst.fr 29 mai 2015 1/31 et 2/31 : définition Un réseau de R m est un sous-groupe (additif) discret L

Plus en détail

CRYPTOGRAPHIE. Signature électronique. E. Bresson. Emmanuel.Bresson@sgdn.gouv.fr. SGDN/DCSSI Laboratoire de cryptographie

CRYPTOGRAPHIE. Signature électronique. E. Bresson. Emmanuel.Bresson@sgdn.gouv.fr. SGDN/DCSSI Laboratoire de cryptographie CRYPTOGRAPHIE Signature électronique E. Bresson SGDN/DCSSI Laboratoire de cryptographie Emmanuel.Bresson@sgdn.gouv.fr I. SIGNATURE ÉLECTRONIQUE I.1. GÉNÉRALITÉS Organisation de la section «GÉNÉRALITÉS»

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Rappel sur les bases de données

Rappel sur les bases de données Rappel sur les bases de données 1) Généralités 1.1 Base de données et système de gestion de base de donnés: définitions Une base de données est un ensemble de données stockées de manière structurée permettant

Plus en détail