Multimédia Rappels. François Cayre Grenoble-INP. F. Cayre (G-INP) Multimédia Rappels / 43
|
|
- Rémi Lavallée
- il y a 7 ans
- Total affichages :
Transcription
1 Multimédia Rappels François Cayre Grenoble-INP F. Cayre (G-INP) Multimédia Rappels / 43
2 Plan Rappels de probabilités Définitions 1 Rappels de probabilités Définitions Variables jointes et indépendance Variables conditionnelles 2 Rappels de statistiques 3 Eléments de théorie de l information F. Cayre (G-INP) Multimédia Rappels / 43
3 Rappels de probabilités Définitions Evénements et mesure de probabilité Définition (Ensemble des possibles) SoitA un ensemble de taille A. A est appelé l ensemble des événements possibles. Soit a i un singleton dea. SoitA i A un sous-ensemble dea. Définition (Mesure de probabilité) P est une mesure de probabilité sura ssi : a i A, 0 P(a i ) 1 ; P(A) = 1 ; Si (A n ) est une suite d événements t.q. i j,a i A j =, alors P ( n=1 A n) = n=1 P(A n). F. Cayre (G-INP) Multimédia Rappels / 43
4 Rappels de probabilités Définitions Variables aléatoires Définition (Variable aléatoire) Une variable aléatoire (v.a.) X est définie par un triplet X = (x,a X, p X ), avec : x : le résultat de l expérience aléatoire (un tirage) ; A X : les valeurs possibles pour x ; p X = { p 1,...,p AX } la loi de probabilité deax. On a alors : Pr[x = a i ] = p i = P(x), (1) et : P(A i ) = a j A i p j. (2) F. Cayre (G-INP) Multimédia Rappels / 43
5 Rappels de probabilités Probabilités (illustration) Définitions Probabilité d occurence des caractères Source : Biographical Essays de Thomas de Quincey Fréquence d'apparition des lettres Fréquence a b c d e f g h i j k l m n o p q r s t u v w x y z F. Cayre (G-INP) Multimédia Rappels / 43
6 Rappels de probabilités Probabilités (illustration) Définitions Probabilité d occurence des caractères Source : Candide de Voltaire Fréquence d'apparition des lettres Fréquence a b c d e f g h i j k l m n o p q r s t u v w x y z F. Cayre (G-INP) Multimédia Rappels / 43
7 Rappels de probabilités Définitions Espérance et variance Définition (Espérance) Soit X = (x,a X, p X ) une v.a. à valeurs réelles (v.a.r.), i.e.a X R. L espérance d une telle v.a. est : E[X] = a i A X a i p i. (3) Définition (Variance) La variance d une v.a.r. est : Var[X] = E [ (X E[X]) 2] = E [ X 2] E[X] 2 =σ 2 X. (4) F. Cayre (G-INP) Multimédia Rappels / 43
8 Plan Rappels de probabilités Variables jointes et indépendance 1 Rappels de probabilités Définitions Variables jointes et indépendance Variables conditionnelles 2 Rappels de statistiques 3 Eléments de théorie de l information F. Cayre (G-INP) Multimédia Rappels / 43
9 Rappels de probabilités Variables jointes et indépendance Variables jointes et indépendance Définition (Variables jointes et indépendance) Soient X = (x,a X, p X ) et Y = (y,b Y, p Y ) deux v.a. La variable jointe X, Y a pour loi de probabilité jointe : P(x, y) = Pr[x = a i et y = b j ]. (5) De plus, X et Y sont indépendantes ssi P(x, y) = P(x)P(y). Définition (Marginalisation) Connaissant P(x, y), on peut obtenir la loi marginale P(y) comme suit : P(y) = P(x, y). (6) x A X F. Cayre (G-INP) Multimédia Rappels / 43
10 Plan Rappels de probabilités Variables conditionnelles 1 Rappels de probabilités Définitions Variables jointes et indépendance Variables conditionnelles 2 Rappels de statistiques 3 Eléments de théorie de l information F. Cayre (G-INP) Multimédia Rappels / 43
11 Rappels de probabilités Variables conditionnelles Variables conditionnelles Définition (Probabilité conditionnelle) Si P(y = b i ) 0, alors la probabilité que x = a i sachant que y = b j s écrit : P(x = a i y = b i ) = P(x = a i, y = b j ). (7) P(y = b j ) Corollaire (Règle de chaînage ou règle du produit) Corollaire (Règle de Bayes) P(x, y) = P(x y)p(y) = P(y x)p(x). (8) P(y x) = P(x y)p(y). (9) P(x) F. Cayre (G-INP) Multimédia Rappels / 43
12 Rappels de probabilités Variables conditionnelles Probabilités conditionnelles (illustration) Probabilités conditionnelles d occurence des caractères Source : Biographical Essays de Thomas de Quincey. a b c d e f g h i j k l m n o p q r s t u v w x y z F. Cayre (G-INP) Fréquence d'apparition des digrammes a b c d e f g h i j k l m n o p q r s t u v w x y z Multimédia Rappels / 43
13 Rappels de probabilités Variables conditionnelles Probabilités conditionnelles (illustration) Probabilités conditionnelles d occurence des caractères Source : Candide de Voltaire. Fréquence d'apparition des digrammes a b c d e f g h i j k l m n o p q r s t u v w x y z a b c d e f g h i j k l m n o p q r s t u v w x y z F. Cayre (G-INP) Multimédia Rappels / 43
14 Plan Rappels de statistiques Test d hypothèse binaire de Neyman-Pearson 1 Rappels de probabilités 2 Rappels de statistiques Test d hypothèse binaire de Neyman-Pearson Estimation paramétrique (ML, MAP) 3 Eléments de théorie de l information F. Cayre (G-INP) Multimédia Rappels / 43
15 Rappels de statistiques Test d hypothèse binaire de Neyman-Pearson Hypothèses nulle et alternative Hypothèse nulleh 0 Hypothèse par défaut sur une expérience. Ne peut jamais être prouvée. Ne peut être qu éventuellement rejetée. Ex : un contenu multimédia n est pas tatoué. Hypothèse alternativeh 1 Hypothèse rivale de l hypothèse nulle, souvent sa négation. Ex : un contenu multimédia est tatoué. F. Cayre (G-INP) Multimédia Rappels / 43
16 Rappels de statistiques Test d hypothèse binaire de Neyman-Pearson Probabilités d erreur et de fausse alarme Définition (Erreur) AccepterH 0 alors queh 1 est vraie. La probabilité d erreur est notée Pe. Définition (Fausse alarme) AccepterH 1 alors queh 0 est vraie. La probabilité de fausse alarme est notée P fa. Définition (Courbe ROC Receiver Operating Characteristic) La courbe ROC est : 1 Pe = f(p fa ). F. Cayre (G-INP) Multimédia Rappels / 43
17 Rappels de statistiques Test d hypothèse binaire de Neyman-Pearson En pratique Nécessité de modéliserh 0 eth 1 On cherche à savoir si une valeur de test t provient du modèle de H 0 ou de celui deh 1. Choix d un seuilτ Pe = Pr[t<τ H 1 ] ; P fa = Pr[t>τ H 0 ]. Application en tatouage : minimiser P fa On préfère laisser passer quelques pirates plutôt qu accuser un innocent à tort. F. Cayre (G-INP) Multimédia Rappels / 43
18 Rappels de statistiques Test d hypothèse binaire de Neyman-Pearson Modélisation gaussienne deh 0 eth 1 Résultats Soit P(x H 0 ) N(µ 0,σ 2 0 ) et P(x H 1) N(µ 1,σ 2 1 ). Pe(τ) = P fa (τ) = τ + τ 1 (x µ 1)2 2σ e 1 2 dx (10) 2πσ1 2 1 (x µ 0)2 2σ e 0 2 dx (11) 2πσ0 2 (12) $ man 3 erfc F. Cayre (G-INP) Multimédia Rappels / 43
19 Rappels de statistiques Test d hypothèse binaire de Neyman-Pearson Modélisation gaussienne deh 0 eth Test d'hypothèse de Neyman-Pearson H 0 H P eτ P fa F. Cayre (G-INP) Multimédia Rappels / 43
20 Plan Rappels de statistiques Estimation paramétrique (ML, MAP) 1 Rappels de probabilités 2 Rappels de statistiques Test d hypothèse binaire de Neyman-Pearson Estimation paramétrique (ML, MAP) 3 Eléments de théorie de l information F. Cayre (G-INP) Multimédia Rappels / 43
21 Rappels de statistiques Estimation paramétrique (ML, MAP) Probabilité vs. vraisemblance Sachant... On peut aussi lire P(x y) comme : P(x, y) avec le paramètre y fixé. Définition (Vraisemblance des données) Soit P(x 0,..., x N 1 θ), avec des x i i.i.d. observés en fonction deθ. Si l on laisse libreθmais qu on fixe les x i, alors on note : L(θ x 0,..., x N 1 ) = P(x 0,...,x N 1 θ) = i P(x i θ) la vraisemblance des données par rapport au paramètreθ. Log-vraisemblance (on préfère les sommes...) logl(θ x 0,...,x N 1 ) = i log P(x i θ). (13) F. Cayre (G-INP) Multimédia Rappels / 43
22 Rappels de statistiques Estimation paramétrique (ML, MAP) Maximum de vraisemblance (ML) Hypothèse Les données observées sont issues d un modèle paramétré parθ. Définition (Estimateur du maximum de vraisemblance) Le paramètre ˆθ qui explique le mieux les données est t.q. : ˆθ ML = argmax θ logl(θ x 0,..., x N 1 ). (14) Lorsque c est possible, on procède par annulation de la dérivée : logl(θ x 0,...,x N 1 ) θ = 0. (15) Sinon, on doit procéder par optimisation numérique. F. Cayre (G-INP) Multimédia Rappels / 43
23 Rappels de statistiques Estimation paramétrique (ML, MAP) Maximum a posteriori (MAP) Observation sur le maximum de vraisemblance On ne sait rien, ou on ne veut rien savoir surθ... Définition (Estimateur du Maximum a posteriori (MAP)) Si l on suppose queθ g, alors on peut intégrer cette information pour obtenir l estimateur du maximum a posteriori : ˆθ MAP = argmax θ logl(θ x 0,...,x N 1 )g(θ). (16) MAP = régularisation du ML (qui est un MAP avec un g uniforme). Calcul De manière analytique si P et g sont de la même famille ; Sinon, par optimisation numérique. F. Cayre (G-INP) Multimédia Rappels / 43
24 Plan Eléments de théorie de l information Quantité d information 1 Rappels de probabilités 2 Rappels de statistiques 3 Eléments de théorie de l information Quantité d information Entropie Redondance Entropie jointe Divergence de Kullback-Leibler Entropie conditionnelle et information mutuelle F. Cayre (G-INP) Multimédia Rappels / 43
25 Eléments de théorie de l information Quantité d information Quantité d information Définition (Quantité d information) Soit X = (x,a X, p X ) une v.a. La quantité d information (de Hartley) associée à la réalisation x = a i est : Notes h i (x) = log 2 p i. (17) La quantité d information se mesure en bits (logarithme à base 2). Autres unités (moins usitées) : nats digits logarithme naturel logarithme à base dix F. Cayre (G-INP) Multimédia Rappels / 43
26 Eléments de théorie de l information Quantité d information Quantité d information (illustration) Quantité d information des caractères Source : Biographical Essays de Thomas de Quincey. 14 Quantité d'information des lettres Quantité d'information a b c d e f g h i j k l m n o p q r s t u v w x y z F. Cayre (G-INP) Multimédia Rappels / 43
27 Eléments de théorie de l information Quantité d information Quantité d information (illustration) Quantité d information des caractères Source : Candide de Voltaire. 14 Quantité d'information des lettres Quantité d'information a b c d e f g h i j k l m n o p q r s t u v w x y z F. Cayre (G-INP) Multimédia Rappels / 43
28 Eléments de théorie de l information Quantité d information Quantité d information vs. probabilités Quantités d information vs. probabilités d occurence des caractères Source : Biographical Essays de Thomas de Quincey. 11 Quantité d'information des lettres 10 9 Quantité d'information [bits] Probabilité F. Cayre (G-INP) Multimédia Rappels / 43
29 Plan Eléments de théorie de l information Entropie 1 Rappels de probabilités 2 Rappels de statistiques 3 Eléments de théorie de l information Quantité d information Entropie Redondance Entropie jointe Divergence de Kullback-Leibler Entropie conditionnelle et information mutuelle F. Cayre (G-INP) Multimédia Rappels / 43
30 Eléments de théorie de l information Entropie Entropie (définition) Définition (Entropie) L entropie H d une v.a. X est l espérance de la quantité d information : H(X) = E[h(X)] = p i p X p i log 2 p i. (18) H(X) est le nombre moyen de bits à dépenser pour coder une réalisation de x. Notes lim x 0 + x log x = 0 ; H(X) est aussi une mesure du degré de désordre ou d incertitude de la v.a. F. Cayre (G-INP) Multimédia Rappels / 43
31 Eléments de théorie de l information Entropie Entropie (propriétés) L entropie est positive H(X) 0 ; L entropie est nulle ssi un seul événement est certain. L entropie est bornée H(X) log 2 A X ; Si i, p i = 1 A X, alors H(X) = log 2 A X. C est la loi uniforme qui maximise l entropie. F. Cayre (G-INP) Multimédia Rappels / 43
32 Plan Eléments de théorie de l information Redondance 1 Rappels de probabilités 2 Rappels de statistiques 3 Eléments de théorie de l information Quantité d information Entropie Redondance Entropie jointe Divergence de Kullback-Leibler Entropie conditionnelle et information mutuelle F. Cayre (G-INP) Multimédia Rappels / 43
33 Eléments de théorie de l information Redondance Redondance Définition (Redondance) La redondance R d une v.a. X exprime le rapport entre l entropie et sa borne supérieure : R(X) = 1 H(X) log 2 A X. (19) Notes Un algorithme de compression veut éliminer la redondance. Un code correcteur d erreurs va artificiellement rajouter de la redondance. D abord on compresse, ensuite on s occupe des erreurs... F. Cayre (G-INP) Multimédia Rappels / 43
34 Eléments de théorie de l information Entropie et redondance Redondance Mesures Source : Biographical essays de Thomas de Quincey. Entropie Redondance bits bits F. Cayre (G-INP) Multimédia Rappels / 43
35 Plan Eléments de théorie de l information Entropie jointe 1 Rappels de probabilités 2 Rappels de statistiques 3 Eléments de théorie de l information Quantité d information Entropie Redondance Entropie jointe Divergence de Kullback-Leibler Entropie conditionnelle et information mutuelle F. Cayre (G-INP) Multimédia Rappels / 43
36 Eléments de théorie de l information Entropie jointe et indépendance Entropie jointe Définition (Entropie jointe) L entropie jointe de deux v.a. X = (x,a X, p X ) et Y = (y,b Y, p Y ) est : H(X, Y) = P(x, y)log P(x, y). (20) (x,y) A X B Y Corollaire (Cas de deux v.a. indépendantes) Si X et Y sont deux v.a. indépendantes, alors : H(X, Y) = H(X)+H(Y). (21) Propriété 0 H(X) H(X, Y) H(X)+H(Y). (22) F. Cayre (G-INP) Multimédia Rappels / 43
37 Plan Eléments de théorie de l information Divergence de Kullback-Leibler 1 Rappels de probabilités 2 Rappels de statistiques 3 Eléments de théorie de l information Quantité d information Entropie Redondance Entropie jointe Divergence de Kullback-Leibler Entropie conditionnelle et information mutuelle F. Cayre (G-INP) Multimédia Rappels / 43
38 Eléments de théorie de l information Divergence de Kullback-Leibler Divergence de Kullback-Leibler (définition) Définition (Divergence de Kullback-Leibler) Soient P et Q deux lois de probabilités définies sur le même ensemblea. La divergence de Kullback-Leibler s écrit : D KL (P Q) = x P(x)log 2 P(x) Q(x). (23) On peut, par exemple, utiliser la divergence de Kullback-Leibler comme une mesure de la perte induite, en espérance et en bits par symbole, lorsque l on emploie un modèle sous-optimal (Q) pour coder une v.a. connue (P). La divergence de Kullback-Leibler est aussi appelée entropie relative. F. Cayre (G-INP) Multimédia Rappels / 43
39 Eléments de théorie de l information Divergence de Kullback-Leibler Divergence de Kullback-Leibler (propriétés) Corollaire (Inégalité de Gibbs) D KL (P Q) 0. (24) Notes P = Q D KL (P Q) = 0 ; En général, D KL (P Q) D KL (Q P). La divergence de Kullback-Leibler n est donc pas une distance. F. Cayre (G-INP) Multimédia Rappels / 43
40 Plan Eléments de théorie de l information Entropie conditionnelle et information mutuelle 1 Rappels de probabilités 2 Rappels de statistiques 3 Eléments de théorie de l information Quantité d information Entropie Redondance Entropie jointe Divergence de Kullback-Leibler Entropie conditionnelle et information mutuelle F. Cayre (G-INP) Multimédia Rappels / 43
41 Eléments de théorie de l information Entropie conditionnelle et information mutuelle Entropie conditionnelle Définition (Entropie conditionnelle) H(Y X) = H(X, Y) H(X). (25) Interprétation Si l on connait X, alors on n a besoin que de H(Y X) bits pour coder H(X, Y). F. Cayre (G-INP) Multimédia Rappels / 43
42 Eléments de théorie de l information Entropie conditionnelle et information mutuelle Information mutuelle Définition (Information mutuelle) L information mutuelle I(X; Y) entre deux v.a. X et Y vaut : I(X;Y) = H(X)+H(Y) H(X, Y) = H(X) H(X Y) = H(Y) H(Y X). (26) Interprétation I(X; Y) capture l information que Y apporte au sujet de X. Propriétés 0 I(X;Y) = I(Y;X). (27) De plus : I(X;Y) = 0 X et Y sont indépendantes. (28) F. Cayre (G-INP) Multimédia Rappels / 43
43 Eléments de théorie de l information Entropie conditionnelle et information mutuelle Théorème du traitement de données Théorème (Traitement de données) Soit une chaîne X Y Z de traitement de l information. Alors : I(X;Z) I(X;Y). (29) Interprétation Aucun traitement de données seul ne peut faire surgir de l information. Vous pouvez arrêter de regarder Les Experts. Par contre, injecter de la connaissance a priori peut aider... F. Cayre (G-INP) Multimédia Rappels / 43
Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détail1.1 Codage de source et test d hypothèse
Théorie de l information et codage 200/20 Cours 8février20 Enseignant: Marc Lelarge Scribe: Marc Lelarge Pour information Page webdu cours http://www.di.ens.fr/~lelarge/info.html Notations Pour des variables
Plus en détailLa problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites
La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur
Plus en détailchoisir H 1 quand H 0 est vraie - fausse alarme
étection et Estimation GEL-64943 Hiver 5 Tests Neyman-Pearson Règles de Bayes: coûts connus min π R ( ) + ( π ) R ( ) { } Règles Minimax: coûts connus min max R ( ), R ( ) Règles Neyman Pearson: coûts
Plus en détailCours d introduction à la théorie de la détection
Olivier J.J. MICHEL Département EEA, UNSA v1.mars 06 olivier.michel@unice.fr Laboratoire LUAN UMR6525-CNRS Cours d introduction à la théorie de la détection L ensemble du document s appuie très largement
Plus en détailThéorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Plus en détailM2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailNotes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières
Plus en détailBaccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01
Plus en détail6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses
6. Hachage Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses PLAN Définition Fonctions de Hachage Méthodes de résolution de collisions Estimation
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailLEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,
Plus en détailMÉTHODE DE MONTE CARLO.
MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détail3. Caractéristiques et fonctions d une v.a.
3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions
Plus en détailLoi d une variable discrète
MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailI3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300
I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailSoutenance de stage Laboratoire des Signaux et Systèmes
Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud
Plus en détailModélisation et simulation
Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.
Plus en détailIntroduction à la Statistique Inférentielle
UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique
Plus en détailProbabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Plus en détailProbabilités. C. Charignon. I Cours 3
Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailSujet 4: Programmation stochastique propriétés de fonction de recours
Sujet 4: Programmation stochastique propriétés de fonction de recours MSE3313: Optimisation Stochastiqe Andrew J. Miller Dernière mise au jour: October 19, 2011 Dans ce sujet... 1 Propriétés de la fonction
Plus en détailBaccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Plus en détailProgrammation Linéaire - Cours 1
Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailCommun à tous les candidats
EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailThéorie de l estimation et de la décision statistique
Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory
Plus en détailChapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Plus en détail* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours
Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****
Plus en détailAmphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailRaisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailAlgorithmes d'apprentissage
Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt
Plus en détailExercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Plus en détailTD1 PROPAGATION DANS UN MILIEU PRESENTANT UN GRADIENT D'INDICE
TD1 PROPAGATION DANS UN MILIEU PRESENTANT UN GRADIENT D'INDICE Exercice en classe EXERCICE 1 : La fibre à gradient d indice On considère la propagation d une onde électromagnétique dans un milieu diélectrique
Plus en détailContinuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailLES GENERATEURS DE NOMBRES ALEATOIRES
LES GENERATEURS DE NOMBRES ALEATOIRES 1 Ce travail a deux objectifs : ====================================================================== 1. Comprendre ce que font les générateurs de nombres aléatoires
Plus en détailINF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies
INF 232: Langages et Automates Travaux Dirigés Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies Année Académique 2013-2014 Année Académique 2013-2014 UNIVERSITÉ JOSEPH
Plus en détailSéminaire TEST. 1 Présentation du sujet. October 18th, 2013
Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailOptimisation Discrète
Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et
Plus en détailOptimisation des fonctions de plusieurs variables
Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables
Plus en détailTESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION
TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun
Plus en détailDe même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailAttitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014
Attitude des ménages face au risque - M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014 Plan du cours 1. Introduction : demande de couverture et comportements induits pa 2. Représentations
Plus en détailChapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE
UE4 : Biostatistiques Chapitre 3 : Principe des tests statistiques d hypothèse José LABARERE Année universitaire 2010/2011 Université Joseph Fourier de Grenoble - Tous droits réservés. Plan I. Introduction
Plus en détailAnalyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Plus en détailCorrection du baccalauréat ES/L Métropole 20 juin 2014
Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)
Plus en détailContinuité d une fonction de plusieurs variables
Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs
Plus en détailCHAPITRE 5. Stratégies Mixtes
CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,
Plus en détailQuelques tests de primalité
Quelques tests de primalité J.-M. Couveignes (merci à T. Ezome et R. Lercier) Institut de Mathématiques de Bordeaux & INRIA Bordeaux Sud-Ouest Jean-Marc.Couveignes@u-bordeaux.fr École de printemps C2 Mars
Plus en détail«Cours Statistique et logiciel R»
«Cours Statistique et logiciel R» Rémy Drouilhet (1), Adeline Leclercq-Samson (1), Frédérique Letué (1), Laurence Viry (2) (1) Laboratoire Jean Kuntzmann, Dép. Probabilites et Statistique, (2) Laboratoire
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailCours Fonctions de deux variables
Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté
Plus en détailSystèmes de communications numériques 2
Systèmes de Communications Numériques Philippe Ciuciu, Christophe Vignat Laboratoire des Signaux et Systèmes CNRS SUPÉLEC UPS SUPÉLEC, Plateau de Moulon, 91192 Gif-sur-Yvette ciuciu@lss.supelec.fr Université
Plus en détailSimulation : application au système bonus-malus en responsabilité civile automobile
Simulation : application au système bonus-malus en responsabilité civile automobile Robert Langmeier Travail de séminaire réalisé sous la supervision du professeur François Dufresne Ecole des HEC Université
Plus en détailUne introduction aux codes correcteurs quantiques
Une introduction aux codes correcteurs quantiques Jean-Pierre Tillich INRIA Rocquencourt, équipe-projet SECRET 20 mars 2008 1/38 De quoi est-il question ici? Code quantique : il est possible de corriger
Plus en détailBac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)
Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre
Plus en détailBaccalauréat ES/L Amérique du Sud 21 novembre 2013
Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailEconomie de l Incertain et des Incitations
Economie de l Incertain et des Incitations CHAPITRE 2 Eléments de théorie des jeux en information symétrique et asymétrique Equilibres Bayesiens - Université de Tours - M1 AGE - Arnold Chassagnon - Automne
Plus en détailIntroduction à la statistique non paramétrique
Introduction à la statistique non paramétrique Catherine MATIAS CNRS, Laboratoire Statistique & Génome, Évry http://stat.genopole.cnrs.fr/ cmatias Atelier SFDS 27/28 septembre 2012 Partie 2 : Tests non
Plus en détailLe théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailSystèmes de transmission
Systèmes de transmission Conception d une transmission série FABRE Maxime 2012 Introduction La transmission de données désigne le transport de quelque sorte d'information que ce soit, d'un endroit à un
Plus en détailNotes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Fausto Errico Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2012 Table des matières
Plus en détail4 Distributions particulières de probabilités
4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailOUTILS STATISTIQUES ET NUMÉRIQUES
UNIVERSITÉ D ORLEANS Année universitaire 211-212 UFR Sciences Master FAC et SAE, 2ème année OUTILS STATISTIQUES ET NUMÉRIQUES POUR LA MESURE ET LA SIMULATION T. Dudok de Wit Université d Orléans 16 septembre
Plus en détailCalcul de développements de Puiseux et application au calcul du groupe de monodromie d'une courbe algébrique plane
Calcul de développements de Puiseux et application au calcul du groupe de monodromie d'une courbe algébrique plane Poteaux Adrien XLIM-DMI, UMR-CNRS 6172 Université de Limoges Soutenance de thèse 15 octobre
Plus en détailFonctions de deux variables. Mai 2011
Fonctions de deux variables Dédou Mai 2011 D une à deux variables Les fonctions modèlisent de l information dépendant d un paramètre. On a aussi besoin de modéliser de l information dépendant de plusieurs
Plus en détailCryptographie Quantique
Cryptographie Quantique Jean-Marc Merolla Chargé de Recherche CNRS Email: jean-marc.merolla@univ-fcomte.fr Département d Optique P.-M. Duffieux/UMR FEMTO-ST 6174 2009 1 Plan de la Présentation Introduction
Plus en détailModèles et Méthodes de Réservation
Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailTransmission d informations sur le réseau électrique
Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en
Plus en détailPrécision d un résultat et calculs d incertitudes
Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................
Plus en détailSystèmes d Exploitation - ENSIN6U3. Aix-Marseille Université
Systèmes d Exploitation - ENSIN6U3 Gestion de la mémoire Leonardo Brenner 1 Jean-Luc Massat 2 1 Leonardo.Brenner@univ-amu.fr 2 Jean-Luc.Massat@univ-amu.fr Aix-Marseille Université Faculté des Sciences
Plus en détailTests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision
Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous
Plus en détailCRYPTOGRAPHIE. Signature électronique. E. Bresson. Emmanuel.Bresson@sgdn.gouv.fr. SGDN/DCSSI Laboratoire de cryptographie
CRYPTOGRAPHIE Signature électronique E. Bresson SGDN/DCSSI Laboratoire de cryptographie Emmanuel.Bresson@sgdn.gouv.fr I. SIGNATURE ÉLECTRONIQUE I.1. GÉNÉRALITÉS Organisation de la section «GÉNÉRALITÉS»
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailLogique. Plan du chapitre
Logique Ce chapitre est assez abstrait en première lecture, mais est (avec le chapitre suivant «Ensembles») probablement le plus important de l année car il est à la base de tous les raisonnements usuels
Plus en détailSur certaines séries entières particulières
ACTA ARITHMETICA XCII. 2) Sur certaines séries entières particulières par Hubert Delange Orsay). Introduction. Dans un exposé à la Conférence Internationale de Théorie des Nombres organisée à Zakopane
Plus en détail