les méthodes de Monte Carlo : exposé introductif

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "les méthodes de Monte Carlo : exposé introductif"

Transcription

1 les méthodes de Monte Carlo : exposé introductif Fabien Campillo 1 Vivien Rossi 2 1 Projet ASPI IRISA-INRIA Rennes 2 IURC Université Montpellier I 11 octobre 2006

2 intro Monte Carlo MCMC plan 1 introduction 2 Monte Carlo Exemples de base Echantillonnage d'importance 3 MCMC Rappels sur les chaînes de Markov échantillonneur de Metropolis-Hastings échantillonneur de Gibbs Algorithme hybride

3 intro Monte Carlo MCMC plan 1 introduction 2 Monte Carlo Exemples de base Echantillonnage d'importance 3 MCMC Rappels sur les chaînes de Markov échantillonneur de Metropolis-Hastings échantillonneur de Gibbs Algorithme hybride

4 intro Monte Carlo MCMC Motivations : modélisation environementale objectif : évaluation et gestion de ressources renouvelable peu de données données trés bruitées modèles incertains (paramètres inconnus) période d'acquisition des données élevée cadre de travail bayésien bien adapté utiliser le savoir des experts beaucoup de temps pour faire des calculs

5 intro Monte Carlo MCMC principe bayésien estimer un paramètre θ avec les données x 1,..., x n loi a priori sur θ de densité de π 0 calcul de la loi a posteriori p(θ x 1,..., x n) = Z L(θ, x1,..., xn)π0(θ) L(θ, x 1,..., x n)π 0(θ)dθ en général on ne sait pas calcul analytiquement la loi a posteriori approximation numérique par les méthodes de Monte Carlo par chaînes de Markov

6 intro Monte Carlo MCMC Généralités sur les méthodes de Monte Carlo méthodes de Monte Carlo : techniques d'estimation s'appuyant sur la simulation d'un grand nombre de variables aléatoires avantages domaine d'application très vaste peu d'hypothèses de mise uvre facile à implémenter inconvéniants nécessite un bon générateur aléatoire grande variablilité ( mal adapté aux pb d'optimisation) pas concurrentiel

7 intro Monte Carlo MCMC Exemples Echantillonnage d'importance plan 1 introduction 2 Monte Carlo Exemples de base Echantillonnage d'importance 3 MCMC Rappels sur les chaînes de Markov échantillonneur de Metropolis-Hastings échantillonneur de Gibbs Algorithme hybride

8 intro Monte Carlo MCMC Exemples Echantillonnage d'importance estimation de l'espérance θ = E[f(X)] X est une v.a. que l'on sait simuler l'estimateur naturel de θ ˆθ = 1 N N f(x i ) avec X 1,..., X N i=1 i.i.d. de même loi que X propriétés théoriques (loi des grands nombres) E[ˆθ] = θ V [ˆθ] = 1 N V [f(x)] intervalle de conance par approximation gaussienne...

9 intro Monte Carlo MCMC Exemples Echantillonnage d'importance estimation d'un volume objectif : estimer le volume A inclus dans [0 1] 2 vol(a) = E[1 A (X)] avec X U([0 1] 2 ) méthode 1 tirer N points uniformément dans [0 1] 2 2 compter le nombre n de points dans A 3 ˆ vol(a) = n N

10 intro Monte Carlo MCMC Exemples Echantillonnage d'importance estimation d'une intégrale I = b a f(x)dx f(x) a b I = f(x)1 [a b] (x)dx = (b a)e[f(x)] avec X U[a b] méthode 1 Tirer x 1,..., x N uniformément dans [a b] P 2 Î = (b a) N N i=1 f(xi) comparaison avec les méthodes d'intégration par quadrature Vitesse Monte Carlo en N 1/2 Vitesse Quadrature en N s/d où d dimension de l'espace, s est tel que les dérivées d'ordre inférieur ou égal à s sont bornées.

11 intro Monte Carlo MCMC Exemples Echantillonnage d'importance importance sampling : estimation de θ = E[f(X)] X v.a de densité π que l'on ne sait pas forcément simuler choisir une loi instrumentale de densité π prop telle que π prop (x) > 0 si π(x) un estimateur de θ est ˆθ = 1 N N π(y i ) f(y i ) π prop (Y i ) avec Y 1,..., Y N π prop (y)dy i=1 permet de réduire la variance si π prop est bien choisie exemple type : estimer la probabilité d'un événement rare

12 intro Monte Carlo MCMC Exemples Echantillonnage d'importance retour au cadre bayésien estimer un paramètre θ avec les données x 1,..., x n tirer un échantillon suivant p(θ x 1,..., x n ) L(θ, x 1,..., x n )π 0 (θ) on ne peut pas utiliser la méthode Monte Carlo basique ni l'importance sampling Monte Carlo par Chaîne de Markov

13 plan 1 introduction 2 Monte Carlo Exemples de base Echantillonnage d'importance 3 MCMC Rappels sur les chaînes de Markov échantillonneur de Metropolis-Hastings échantillonneur de Gibbs Algorithme hybride

14 MCMC : principe but : échantillonner selon une loi cible de densité π(z) connue à une constante multiplicative près π déf = loi(z). où Z = Z 1:n est une variable réelle n-dimensionnelle principe on construit une chaîne de Markov (Z (k) ) k 0 sur R n dont la loi limite est π lorsque la chaîne devient stationnaire, on extrait un échantillon de la chaîne (Z (k 1),..., Z (k N ) ) pour estimer les quantités d'intérêt [théorème ergodique]

15 MCMC : cadre théorique Soit une mesure de probabilité π dénie sur un espace mesurable (E, E). le but des méthodes MCMC est de proposer une approximation de cette mesure cible : π(f) déf = f(z) π(dz) E où f est une fonction réelle mesurable et π-intégrable si l'on sait construire une chaîne de Markov {Z n } n N ergodique dont la mesure invariante est π alors : 1 K K Pz -p.s. f(z k ) π(f) K k=1 pour π-presque toute condition initiale z où P z est la probabilité pour laquelle Z 0 = z.

16 chaînes de Markov : réversibilité un noyau de transition P (z, d z) sur (E, E) est dit réversible par rapport à la mesure π(dz) lorsque : π(dz) P (z, B) = π(dz) P (z, A), A, B E (1) A B avec A = E : π(dz) P (z, B) = π(dz) = π(b) B B E i.e. πp = π, P préserve π ou π est invariant par P équation de bilan détaillé : (1) s'écrit, pour tout A, B E, 1A (z) 1 B ( z) π(dz) P (z, d z) = 1 A (z) 1 B ( z) π(d z) P ( z, dz) π(dz) P (z, d z) = π(d z) P ( z, dz) Cette égalité entre mesures est dénie sur (E E, E E)

17 chaînes de Markov : réversibilité (suite) une chaîne de Markov {Z n } n N dénie sur (E, E) de loi initiale π(dz) et de noyau de transition P (z, d z) est dite réversible si P est réversible par rappport à π : P(Z n A, Z n+1 B) = P(Z n+1 A, Z n B), A, B E. vérier la réversibilité (1) vérier l'équation de bilan détaillé. l'équation de bilan détaillé = π est invariante par P : A E, πp (A) = π(dz) P (z, A) = 1 A ( z) π(dz) P (z, d z) = 1 A ( z) π(d z) P ( z, dz) = 1 A ( z) π(d z) P ( z, dz) = π(a).

18 Chaine de Markov : irréductibilité et périodicité Soit une chaîne de Markov {Z n } n N de noyau de transition P (z, d z) une chaîne est π-irréductible, avec π mesure de probabilité, si z E, A E avec π(a) > 0, n N tel que P n (z, A) > 0 où P n (z, A) déf = P(X n A X 0 = z) si une chaîne est π-irréductible où π est une mesure de probabilité invariante, alors cette mesure est unique aux négligeables près. une chaîne π-irréductible est périodique s'il existe une partition disjointe E = A A n (avec n + 1 3) telle que π(a n ) = 0 et z A i 1 P (z, A i ) = 1, 1 i n 1, z A n 1 P (z, A 0 ) = 1. Dans le cas contraire elle est dite apériodique.

19 chaîne de Markov : comportement asymptotique Si une chaîne de Markov 1 admet π comme mesure de probabilité invariante π 2 est π-irréductible 3 est apériodique alors il existe C E tel que π(c) = 1 et pour tout z C et A E : P(Z n A Z 0 = z) n π(a) 4 Si de plus la chaîne est Harris récurrente alors C = E.

20 échantillonneur de Metropolis-Hastings (MH) objectif : construire un noyau de transition P (z, d z) réversible et régulier sur (E, E) dont π est la mesure invariante. ingrédients : 1 un noyau de transition Q(z, d z) sur (E, E), 2 une fonction mesurable α : E E [0, 1]. principe : 1 partant d'un état z E, le noyau Q(z, d z) permet de générer un candidat z E. 2 ce candidat est accepté avec probabilité α(z, z), sinon on conservera l'état z. mise en pratique le noyau de proposition Q doit être donné l'algorithme MH détermine l'expression de α

21 noyau de transition le noyau de transition de Metropolis-Hastings P (z, d z) est { } P (z, d z) déf = α(z, z) Q(z, d z) + (1 α(z, z )) Q(z, dz ) δ z (d z) } E {{ } r(z) (2) où δ z (d z) est la mesure de Dirac en z et r(z) est la probabilité de rejet..i.e. pour tout mesurable A P (z, A) déf = α(z, z) Q(z, d z) + r(z) 1 A (z), A E. A l'algorithme MH perturbe un noyau de proposition Q(z, d z) pour obtenir un noyau P (z, d z) laissant invariant la mesure cible π(dz).

22 rapport de Metropolis-Hastings comment déterminer la probabilité d'acceptation α(z, z) telle que le noyau associé (2) préserve la mesure cible π? condition susante : la réversibilité est vérie bilan détaillé suivante est satisfaite : l'équation de π(dz) P (z, d z) = π(d z) P ( z, dz). (3) Le noyau de transition de MH (2) vérie l'équation de bilan détaillé (3) si et seulement si : π(dz) Q(z, d z) α(z, z) = π(d z) Q( z, dz) α( z, z), (4) (la composante diagonale est négligeable dans cette équation)

23 cas mutuellement dominé il existe une mesure ν telle que π(dz) = p(z) ν(dz) et Q(z, d z) = q(z, z) ν(d z). soit R = {(z, z) E E : p(z) q(z, z) > 0 et p( z) q( z, z) > 0} et r(z, z) = p(z) q(z, z) p( z) q( z, z). l'équation de bilan détaillé est vériée 1 p(z) q(z, z) α(z, z) = 0 pour tout (z, z) R c ν ν-p.p. 2 α(z, z) r(z, z) = α( z, z) pour tout (z, z) R ν ν-p.p. la probabilité d'acceptation : α(z, z) déf = { 1 r( z, z), si (z, z) R, 0, si (z, z) R. la condition (1) est satisfaite par construction pour la condition (2) : pour tout (z, z) R, α(z, z) r(z, z) = min r(z, z), r( z, z) r(z, z) = min r(z, z), 1 = α( z, z)

24 algorithme Soit p la densité de la loi cible, q la densité de noyau markovien de proposition initialisation : choix arbitraire de z (0) itération t 1 Sachant z (t 1), on génère z q(z (t 1), z) 2 p( z)/q(z (t 1), z) α = min p(z)/q( z, z (t 1) ), 1 3 z (t) = z avec proba α z (t 1) avec proba 1 α

25 en pratique quelques défauts : le choix de la loi de proposition est critique (si supp(p) supp(q) = π-irréductibilité) l'initialisation est critique il est dicile de diagnostiquer la convergence le temps de chaue peut être très long

26 exemple soit la loi cible N (0, 1) soit la loi de proposition une marche aléatoire gaussienne : q(z (t 1), z) = 1 exp{ 1 2πσ 2 2σ 2 (z(t 1) z) 2 } la comportement de la chaîne varie beaucoup suivant le choix de σ 2

27 exemple : σ 2 = 10 4 MH chain Iterations Density Density MH chain x

28 exemple : σ 2 = 10 3 MH chain Iterations Density x

29 exemple : σ 2 = 1 MH chain Iterations Density x

30 échantillonneur de Gibbs soit la loi π(dz) d'une variable aléatoire Z = Z 1:d dénie sur l'espace mesurable produit (E, E) = (E 1 E d, E 1 E d ). soit les lois marginales conditionnelles : π l (dz l z l ) déf = P(Z l dz l Z l = z l ), l = 1 d où l déf = {1,..., d} \ {l}. principe de l'algorithme construire une chaîne de Markov Z (k) admettant π comme loi stationnaire mise à jour séquentielle des composantes de Z (k) l de la chaîne

31 algorithme on part de Z (0) et l'itération Z (k) Z (k+1) est : Z (k+1) 1 π 1 ( Z (k) 2:n ). π l ( Z (k+1). π n ( Z (k+1) Z (k+1) l Z (k+1) n 1:l 1, Z(k) l+1:n ) 1:n 1 ) il des variantes avec sélection aléatoire de l'ordre des composantes

32 noyau de transition et invariance le noyau de transition de Gibbs P (z, d z) est P (z, d z) déf = π 1 ( d z 1 z 2:d )... π l ( d z l z 1:l 1, z l+1:n )... π d ( d z d z 1:d 1 ) π est invariante par P : pour tout A = d l=1 A l Z Z Z πp (A) = π(dz) P (z, A) = 1 A( z) π(dz) P (z, d z) Z Z dy = 1 A( z) π(dz) π 1( d z 1 z 2:d ) π l ( d z l z 1:l 1, z l+1:n ) = =... = Z Z Z Z Z l=2 1 A( z) π(dz 2:d ) π 1( d z 1 z 2:d ) 1 A( z) π(d z 1dz 2:d ) 1 A( z) π(d z) = π(a). dy l=2 dy l=2 π l ( d z l z 1:l 1, z l+1:n ) π l ( d z l z 1:l 1, z l+1:n )

33 Gibbs est un cas particulier de MH ν : π(dz) = p(z) ν(dz) et π l ( d z l z 1:l 1, z l+1:n ) = p l (z l z 1:l 1, z l+1:n ) ν(d z) Soit q(z, z) = p 1 (z 1 z 2:d )... p l (z l z 1:l 1, z l+1:n )... p d (z d z 1:d 1 ) formalisation type MH du noyau de transition de Gibbs P (z, d z) : P (z, d z) = α(z, z)q(z, z)ν(d z) + r(z) δ z (d z) avec α(z, z) = min(1, r(z, z)) et r(z, z) = r(z, z) = p( z) p(z). p(z) q(z, z) p( z) q( z,z) p d (z d z 1:d 1 )... p l (z l z 1:l 1, z l+1:n )... p 1 (z 1 z 2:d ) p d ( z d z 1:d 1 )... p l ( z l z 1:l 1, z l+1:n )... p 1 ( z 1 z 2:d ) = 1 = r(z, z) = 1 r(z, z) = α(z, z) = 1 : on accepte toujours la proposition

34 en pratique les avantages pas de loi de proposition à choisir pas de rejet des propositions en général plus ecace que MH les inconvéniants nécessite de savoir simuler suivant les lois conditionnelles explore mal les diagonales

35 Metropolis-Hastings hybridé avec Gibbs (MHwG) soit la loi π(dz) d'une variable aléatoire Z = Z 1:d dénie sur l'espace mesurable produit (E, E) = (E 1 E d, E 1 E d ). les lois marginales conditionnelles : π l (dz l z l ) déf = P(Z l dz l Z l = z l ), l = 1 d sont connue à une constante de normalisation près principe de l'algorithme construire une chaîne de Markov Z (k) admettant π comme loi stationnaire choisir Q 1,..., Q d une loi de proposition pour chaque composante mise à jour séquentielle des composantes de Z (k) l de la chaîne

36 MHwG intro Monte Carlo MCMC chaînes Markov Metropolis-Hastings Gibbs hybride partant de Z (0) 1:n, la k-ième itération de l'échantillonneur Z(k) 1:n Z(k+1) 1:n est la suivante : on pose z 1:n Z (k) 1:n et pour tout l = 1 : n, on tire un candidat potentiel on pose avec z l z l q l ( z l ) { zl avec probabilité α l (z l, z l ) z l avec probabilité 1 α l (z l, z l ) α l (z l, z l ) déf = 1 π l( z l z l ) q l (z l ) π l (z l z l ) q l ( z l ) alors Z (k+1) 1:n z 1:n

37 algorithme choisir z 1:n R n for k = 1, 2,... do for l = 1 : n do z l q l ( z l ) {candidat potentiel} u U[0, 1] if u α(z l, z l ) then z l z l end if end for end for

38 noyau de transition le noyau de transition de MHwG K(z, d z) est K(z, d z) déf = K 1 ( d z 1 z 2:d )... K l ( d z l z 1:l 1, z l+1:n )... K d ( d z d z 1:d 1 ) avec K l ( d z l z 1:l 1, z l+1:n ) = α(z l, z l )q l (z l, z l )ν(d z l ) + r(z) δ z (d z l ) propriété d'invariance, irréductibilité...

39 en pratique même prol que MH le choix des lois de proposition est critique (si supp(p) supp(q) = π-irréductibilité) l'initialisation est critique il est dicile de diagnostiquer la convergence le temps de chaue peut être très long

40 conclusion MCMC domaine d'application très vaste simple à implémenter lent à converger diagnostique de la convergence dicile Modélisation environnementale cadre bayésien structure temporelle modèle de Markov cachés MHwG utilisé en pratique mais pas toujours satisfaisant passage aux ltres particulaires mais outil mal adapté besoin de développer des outils spéciques tirer parti des MCMC et des méthodes particulaires faire interagir des chaînes parallèles (population Monte Carlo)...

MÉTHODE DE MONTE CARLO PAR CHAÎNE DE MARKOV.

MÉTHODE DE MONTE CARLO PAR CHAÎNE DE MARKOV. MÉTHODE DE MONTE CARLO PAR CHAÎNE DE MARKOV. Alexandre Popier Université du Maine, Le Mans A. Popier (Université du Maine) MCMC. 1 / 31 PLAN DU COURS 1 RAPPELS SUR LES CHAÎNES DE MARKOV Théorème ergodique

Plus en détail

Estimation Bayésienne via une méthode de Monte Carlo par Chaine de. Foguen Tchuendom Rinel

Estimation Bayésienne via une méthode de Monte Carlo par Chaine de. Foguen Tchuendom Rinel Estimation Bayésienne via une méthode de Monte Carlo par Chaine de Markov(MCMC). Foguen Tchuendom Rinel Université de Nice-Sophia Antipolis MathMods Programme Inria-Grand Est Equipe TOSCA Juin 05, 2014

Plus en détail

Apprentissage automatique Méthodes d échantillonnage - motivation

Apprentissage automatique Méthodes d échantillonnage - motivation Apprentissage automatique Méthodes d échantillonnage - motivation ÉCHANTILLONNAGE échantillonnage La plupart des algorithmes d apprentissage vus sont basés sur un modèle probabiliste un modèle probabiliste

Plus en détail

Approche bayésienne pour la tomographie des temps de première arrivée. Jihane BELHADJ Thomas ROMARY Alexandrine GESRET Mark NOBLE

Approche bayésienne pour la tomographie des temps de première arrivée. Jihane BELHADJ Thomas ROMARY Alexandrine GESRET Mark NOBLE Approche bayésienne pour la tomographie des temps de première arrivée Jihane BELHADJ Thomas ROMARY Alexandrine GESRET Mark NOBLE Tomographie sismique La tomographie des temps de première arrivée a pour

Plus en détail

École Nationale Supérieure de Techniques Avancées Filière : Finance quantitative Module : Automatique avancée

École Nationale Supérieure de Techniques Avancées Filière : Finance quantitative Module : Automatique avancée École Nationale Supérieure de Techniques Avancées Filière : Finance quantitative Module : Automatique avancée Examen du cours B7 3 Filtrage bayésien optimal et approximation particulaire Jeudi 27 octobre

Plus en détail

Convergence de l échantillonneur de Gibbs pour les distributions uniformes. Jeffrey S. Rosenthal

Convergence de l échantillonneur de Gibbs pour les distributions uniformes. Jeffrey S. Rosenthal Convergence de l échantillonneur de Gibbs pour les distributions uniformes Jeffrey S. Rosenthal Department of Statistics University of Toronto http://markov.utstat.toronto.edu/jeff/ jeff@math.toronto.edu

Plus en détail

Cours 3 : L échantillonneur de Gibbs

Cours 3 : L échantillonneur de Gibbs Cours 3 : L échantillonneur de Gibbs 1) Principes généraux 2) Complétion 3) Convergence 4) Le théorème de Hammersley-Clifford 5) Modèles hiérarchiques 6) Augmentation de données 7) Algorithme MCMC hybride

Plus en détail

Alexandre Popier. ENSAI, Bruz. apopier. Janvier-Mars 2011

Alexandre Popier. ENSAI, Bruz.  apopier. Janvier-Mars 2011 CHAÎNES DE MARKOV. Alexandre Popier ENSAI, Bruz apopier@univ-lemans.fr http://www.univ-lemans.fr/ apopier Janvier-Mars 2011 A. Popier (ENSAI) Chaînes de Markov. Janvier-Mars 2011 1 / 51 PLAN 1 INTRODUCTION

Plus en détail

MTS445 : Modélisation et Simulation Stochastique

MTS445 : Modélisation et Simulation Stochastique MTS445 : Modélisation et Simulation Stochastique Sandrine VATON & Thierry CHONAVEL Télécom Bretagne, INFO & SC Mai 2014 S. Vaton, T.Chonavel (TB) MTS445 Mai 2014 1 / 114 Première partie I Introduction

Plus en détail

Statistique avec des petits échantillons

Statistique avec des petits échantillons Statistique avec des petits échantillons Gilles Celeux Select, Inria Saclay, Université Paris-Sud Gilles Celeux (Inria) Petits échantillons 1 / 40 Plan 1 Modélisation statistique Estimation du maximum

Plus en détail

Chaînes de Markov (et applications)

Chaînes de Markov (et applications) Chaînes de Markov (et applications) Raphael Lachieze-Rey 25 avril 2016 M1 Paris Descartes. Table des matières 1 Chaînes de Markov homogènes 2 1.1 Eemples et définitions....................... 2 1.2 Loi

Plus en détail

École Nationale Supérieure de Techniques Avancées module : Commande des Systèmes. examen du cours B7 1 Filtrage bayésien et approximation particulaire

École Nationale Supérieure de Techniques Avancées module : Commande des Systèmes. examen du cours B7 1 Filtrage bayésien et approximation particulaire École Nationale Supérieure de Techniques Avancées module : Commande des Systèmes examen du cours B7 1 Filtrage bayésien et approximation particulaire lundi 18 octobre 2010, 8:30 à 10:30 Exercice 1 : L

Plus en détail

TD7 Décembre I. Refroidissement trop rapide

TD7 Décembre I. Refroidissement trop rapide I. Refroidissement trop rapide TD7 Décembre 2016 1. Le potentiel V a un minimum local en 1 et son minimum global en 3. Le graphe de transition sur cet espace à 3 états est élémentaire. 2. On part du point

Plus en détail

Déconvolution d images, modèles markoviens, algorithmes stochastiques 112

Déconvolution d images, modèles markoviens, algorithmes stochastiques 112 V. Déconvolution d images, modèles markoviens, algorithmes stochastiques Déconvolution d images, modèles markoviens, algorithmes stochastiques 112 Modélisation markovienne en imagerie Résumé des épisodes

Plus en détail

Estimation de la probabilité de détection dans les mesures par contrôle non destructif

Estimation de la probabilité de détection dans les mesures par contrôle non destructif Estimation de la probabilité de détection dans les mesures par contrôle non destructif Merlin KELLER, Nicolas BOUSQUET Rochebrune 2012 1 / 38 Contexte But : Estimer la distribution de la taille des défauts

Plus en détail

Méthodes de réduction de variance pour Monte Carlo

Méthodes de réduction de variance pour Monte Carlo 1 Méthodes de réduction de variance pour Monte Carlo Josselin Garnier (Université Paris Diderot) Méthode de Monte Carlo : estimer par simulation une quantité qui peut s écrire sous la forme I = E[f(X)]

Plus en détail

TD 11 : Convergence de chaînes de Markov Corrigé

TD 11 : Convergence de chaînes de Markov Corrigé Processus aléatoires ENS Paris, 206-207 Thomas Budzinski Bureau V2 thomas.budzinski@ens.fr TD : Convergence de chaînes de Markov Corrigé Lundi 2 Décembre Exercice (Les parapluies) Michel possède k parapluies

Plus en détail

Simulation de variables aléatoires. Chaînes de Markov -

Simulation de variables aléatoires. Chaînes de Markov - Simulation de variables aléatoires Anne Philippe Méthodes de Monte Carlo par chaînes de Markov Laboratoire de Mathématiques Jean Leray Université de Nantes December 9, 203 Les logiciels Jags / Openbugs

Plus en détail

Statistique : Intervalles de confiance et tests

Statistique : Intervalles de confiance et tests Statistique : Intervalles de confiance et tests Joseph Salmon Septembre 2014 Intervalle de confiance Contexte : on a une estimation ĝ(y 1,..., y n ) d une grandeur g(θ). On veut un intervalle Î autour

Plus en détail

Chaîne de Markov - 2

Chaîne de Markov - 2 Chaîne de Markov - 2 LI323 Hugues Richard (notes de cours: Pierre-Henri Wuillemin) Université Pierre et Marie Curie (UPMC) Laboratoire génomique des microorganismes (LGM) Classements des états Définition

Plus en détail

Promenade aléatoire. Chaînes de Markov et simulations ; martingales et stratégies. Michel Benaïm et Nicole El Karoui. SUB Gôttingen

Promenade aléatoire. Chaînes de Markov et simulations ; martingales et stratégies. Michel Benaïm et Nicole El Karoui. SUB Gôttingen Promenade aléatoire Chaînes de Markov et simulations ; martingales et stratégies SUB Gôttingen 7 217 769 454 2005 A 1912 Michel Benaïm et Nicole El Karoui Table des matières I Modélisation markovienne

Plus en détail

Chaînes de Markov 1. Définition 1. Une matrice de transition (ou noyau) sur E est une application P : M M [0, 1] telle que P (x, y) = 1.

Chaînes de Markov 1. Définition 1. Une matrice de transition (ou noyau) sur E est une application P : M M [0, 1] telle que P (x, y) = 1. Page n 1. Chaînes de Markov 1 L essentiel de ces notes provient de [BEK04]. On pourra aussi consulter [BL98] ou [Nor97] qui bien qu en anglais, est très facile à lire et contient de nombreux exemples.

Plus en détail

Sur l équation vectorielle stochastique Y n+1 = A n Y n + B n à coefficients iid

Sur l équation vectorielle stochastique Y n+1 = A n Y n + B n à coefficients iid 1/35 Sur l équation vectorielle stochastique Y n+1 = A n Y n + B n à coefficients iid INRIA Sophia Antipolis Projet OMEGA Yves Guivarc h (Université de Rennes 1 Emile (Université de Bretagne Sud Séminaire

Plus en détail

Statistique (MATH-F-315, Cours #5)

Statistique (MATH-F-315, Cours #5) Statistique MATH-F-315, Cours #5) Thomas Verdebout Université Libre de Bruxelles 2015 Plan de la partie Statistique du cours 1 Introduction 2 Théorie de l estimation 3 Tests d hypothèses et intervalles

Plus en détail

Génération aléatoire. Origine de la génération aléatoire. Pourquoi générer des objets aléatoires. Nicolas Hanusse Chargé de Recherche CNRS - LaBRI

Génération aléatoire. Origine de la génération aléatoire. Pourquoi générer des objets aléatoires. Nicolas Hanusse Chargé de Recherche CNRS - LaBRI Génération aléatoire Nicolas Hanusse Chargé de Recherche CNRS - LaBRI Origine de la génération aléatoire Wilf (960-70): simulation des trajectoires de particules à l intérieur de réacteurs nucléaires;

Plus en détail

Chaînes de Markov et Génération Aléatoire

Chaînes de Markov et Génération Aléatoire Chaînes de Markov et Génération Aléatoire Aléa 2006 P. Duchon LaBRI Aléa 06 - Chaînes de Markov p. 1/3 Génération aléatoire C (C n ) classe (finie) d objets discrets Génération aléatoire uniforme: produire

Plus en détail

Réseaux de neurones : rappels de probabilités et statistiques

Réseaux de neurones : rappels de probabilités et statistiques Réseaux de neurones : rappels de probabilités et statistiques Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine Réseaux de neurones Rappels de probabilités et statistiques p.1/49

Plus en détail

M1-Mathématiques Appliquées 1ère partie: Modélisation statistique Cours 4: Compléments: tests, région de confiance. Christine Keribin

M1-Mathématiques Appliquées 1ère partie: Modélisation statistique Cours 4: Compléments: tests, région de confiance. Christine Keribin 1/37 M1-Mathématiques Appliquées 1ère partie: statistique Cours 4: Compléments: tests, région de 1 Laboratoire de Mathématiques Université Paris-Sud et région de 2016-2017 2/37 Outline et région de et

Plus en détail

[M. Gubinelli - Processus discrets - M1 MMD 2010/ poly 4 - v.2] 4 Chaînes de Markov

[M. Gubinelli - Processus discrets - M1 MMD 2010/ poly 4 - v.2] 4 Chaînes de Markov Définitions et premières propriétés 1 [M. Gubinelli - Processus discrets - M1 MMD 2010/2011-20110104 - poly 4 - v.2] 4 Chaînes de Markov 1 Définitions et premières propriétés On s intéresse ici à des processus

Plus en détail

Méthodes de Réduction de Variance : Stratification

Méthodes de Réduction de Variance : Stratification Méthodes de Réduction de Variance : Stratification Gersende FORT LTCI, CNRS / TELECOM ParisTech Introduction I. Introduction Introduction Exemple Exemple On souhaite simuler des réalisations de v.a. i.i.d.

Plus en détail

Méthodes d'intégrations Approches déterministes Quadratures

Méthodes d'intégrations Approches déterministes Quadratures Méthodes d'intégrations Approches déterministes Quadratures Approches déterministes Quadratures Qu'est ce qu'intégrer Intégration Mesurer l'aire sous une courbe. y b a f ( x)d x f(x) b I = a f ( x)d x

Plus en détail

Modèles Mathématiques pour l'image Méthodes de Classication (II)

Modèles Mathématiques pour l'image Méthodes de Classication (II) 1/1 Modèles Mathématiques pour l'image Méthodes de Classication (II) Julie Digne LIRIS - Équipe GeoMod - CNRS 10 Décembre 2015 2/1 Previously in Modèles Mathématiques pour l'image On a vu: Comment et pourquoi

Plus en détail

Filtre particulaire : brève présentation. filtrage particulaire - 1

Filtre particulaire : brève présentation. filtrage particulaire - 1 Filtre particulaire : brève présentation filtrage particulaire - 1 Modèle d observation équation d évolution: x t = f t (x t 1, w t ) ou p(x t x t 1 ) (1) équation de mesure: y t = h t (x t, v t ) ou p(y

Plus en détail

Chaînes de Markov. Samy Tindel. Master 1 - Nancy. Université de Lorraine. Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 1 / 78

Chaînes de Markov. Samy Tindel. Master 1 - Nancy. Université de Lorraine. Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 1 / 78 Chaînes de Markov Samy Tindel Université de Lorraine Master 1 - Nancy Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 1 / 78 Plan 1 Définition et exemples 2 Propriétés de Markov Temps d arrêt

Plus en détail

Statistique (MATH-F-315, Cours #2)

Statistique (MATH-F-315, Cours #2) Statistique (MATH-F-315, Cours #2) Thomas Verdebout Université Libre de Bruxelles 2015 Plan de la partie Statistique du cours 1. Introduction. 2. Théorie de l estimation. 3. Tests d hypothèses et intervalles

Plus en détail

La simulation parfaite

La simulation parfaite La simulation parfaite N.T.Viet M.Paul Encadrant : Christian Robert 29 juin 2007 Résumé La simulation parfaite est une technique permettant d obtenir des échantillons suivant une distribution (ou loi)

Plus en détail

Cours de Méthodes de Monte-Carlo Exercices : novembre 2005.

Cours de Méthodes de Monte-Carlo Exercices : novembre 2005. Cours de Méthodes de Monte-Carlo Exercices : novembre 2005. Exercice 1 Soit (X n, n 1) une suite de variables aléatoires à valeurs dans R indépendantes suivant toutes la même loi, telle que E(X 2 1)

Plus en détail

e t a s s i m i l a t i o n d e d o n n é e s s é q u e n t i e l l e Fabien Campillo

e t a s s i m i l a t i o n d e d o n n é e s s é q u e n t i e l l e Fabien Campillo filtrage particulaire e t a s s i m i l a t i o n d e d o n n é e s s é q u e n t i e l l e Fabien Campillo filtrage non linéaire [filtrage non linéaire [Kalman [particulaire [EnKF 2/28 le modèle l évolution

Plus en détail

1 DA et PX-DA pour l estimation bayésienne dans un modèle de régression probit

1 DA et PX-DA pour l estimation bayésienne dans un modèle de régression probit Méthodes de Monte Carlo par Chaînes de Markov et Applications M2 MVA 2012-2013 TD séance du 19 Novembre 2012 Rappel. Soit f : R d R une fonction mesurable telle que π(f 2

Plus en détail

INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV

INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV Séminaire MTDE 22 mai 23 INTRODUCTION AUX MÉTHODES DE MONTE CARLO PAR CHAÎNES DE MARKOV Vincent Mazet CRAN CNRS UMR 739, Université Henri Poincaré, 5456 Vandœuvre-lès-Nancy Cedex 1 juillet 23 Sommaire

Plus en détail

Modèles qualitatifs pour la décision dans l incertain. Patrice PERNY. Université Paris 6. Décision et IA

Modèles qualitatifs pour la décision dans l incertain. Patrice PERNY. Université Paris 6. Décision et IA Modèles qualitatifs pour la décision dans l incertain Patrice PERNY Université Paris 6 Patrice.Perny@lip6.fr Décision et IA Décision : multiples sources de difficultés Prise en compte de critères multiples

Plus en détail

Chapitre 5 ESTIMATION ET INTERVALLES DE CONFIANCE

Chapitre 5 ESTIMATION ET INTERVALLES DE CONFIANCE Thierry Foucart 1 http://foucart.thierry.free.fr Chapitre 5 ESTIMATION ET INTERVALLES DE CONFIANCE 1. DES PROBABILITÉS À LA STATISTIQUE. hypothèse intuitive élaborée à partir d expériences diverses : convergence

Plus en détail

Cours 5: Inférences: Estimation, Echantillonnage et Tests

Cours 5: Inférences: Estimation, Echantillonnage et Tests Cours 5: Inférences:, Echantillonnage et Laboratoire de Mathématiques de Toulouse Université Paul Sabatier-IUT GEA Ponsan Module: Stat inférentielles Cours 5: Inférences:, Echantillonnage et 1 Les divers

Plus en détail

Cours de Méthodes de Monte-Carlo Exercices : octobre 2011.

Cours de Méthodes de Monte-Carlo Exercices : octobre 2011. Cours de Méthodes de Monte-Carlo Exercices : octobre 2011. Exercice 1 Soit (X n, n 1) une suite de variables aléatoires à valeurs dans R indépendantes suivant toutes la même loi, telle que E(X 2 1) < +.

Plus en détail

Filtre de Kalman d ensemble vs. Filtres particulaires

Filtre de Kalman d ensemble vs. Filtres particulaires réunion de l ARC ADOQA Assimilation de Données pour la Qualité de l Air Grenoble, 17 et 18 octobre 26 Filtre de Kalman d ensemble vs. Filtres particulaires François Le Gland IRISA / INRIA Rennes legland@irisa.fr

Plus en détail

Introduction au Filtrage en Temps Discret. Filtrage de Kalman et Modèles de Markov Cachés

Introduction au Filtrage en Temps Discret. Filtrage de Kalman et Modèles de Markov Cachés Université de Rennes 1 Master Électronique et Télécommunications Spécialité SISEA (Signal, Image, Systèmes Embarqués, Automatique) Introduction au Filtrage en Temps Discret Filtrage de Kalman et Modèles

Plus en détail

TD 1. Première expérience

TD 1. Première expérience TD 1 1. Génotype Le groupe sanguin d'un individu se caractérise par son génotype, réunion de 2 gènes transmis par les parents. Il existe 4 génotyps : AB, AO, BO, OO. Sachant que chacun des parents peut

Plus en détail

Stéphane Messika. Séminaire, 22 Janvier 2007 Equipe TAO

Stéphane Messika. Séminaire, 22 Janvier 2007 Equipe TAO Utilisation des probabilités en informatique Stéphane Messika LRI Séminaire, 22 Janvier 2007 Equipe TAO Plan 1 Introduction 2 Le premier outil: La marche aléatoire Ruine du joueur: résultats Auto-stabilisation:

Plus en détail

Rappels de théorie des probabilités

Rappels de théorie des probabilités Rappels de théorie des probabilités 1. modèle probabiliste. 1.1. Univers, événements. Soit un ensemble non vide. Cet ensemble sera appelé l univers des possibles ou l ensemble des états du monde. Dans

Plus en détail

cours 1 2 septembre 2015 Rappels de statistiques mathématiques : : cours 1 Guillaume Lecué Agenda Echantillonnage et modélisation statistique

cours 1 2 septembre 2015 Rappels de statistiques mathématiques : : cours 1 Guillaume Lecué Agenda Echantillonnage et modélisation statistique /55 s s : cours 1 2 septembre 2015 2/55 Aujourd hui 1 2 Données d aujourd hui Expérience Modéle 3 Approche non-asymptotique s /55 Organisation Cours guillaume.lecue@cmap.polytechnique.fr Les lundis mercredis

Plus en détail

1 Tests d ajustement. 2 Tests d indépendance. 3 Application aux réseaux bayésiens. 4 Maximum de vraisemblance. d 2 valeur prise par D(n)

1 Tests d ajustement. 2 Tests d indépendance. 3 Application aux réseaux bayésiens. 4 Maximum de vraisemblance. d 2 valeur prise par D(n) Plan du cours n 4 RFIDEC cours 4 : Tests d ajustement, apprentissage de paramètres Christophe Gonzales LIP6 Université Paris 6, France 1 Tests d ajustement 2 Tests d indépendance 3 Application aux réseaux

Plus en détail

Probabilités. Pour une expérience aléatoire, la probabilité p de l événement A se défini comme f a p(a) = lim n n.

Probabilités. Pour une expérience aléatoire, la probabilité p de l événement A se défini comme f a p(a) = lim n n. Probabilités Pour une expérience aléatoire, la probabilité p de l événement A se défini comme f a p(a) = lim n n. Le nombre de permutations de n éléments distincts est p e = n! = n 1 i=0 (n i) = n (n 1)

Plus en détail

TP SdF N 15. Réduction de variance

TP SdF N 15. Réduction de variance TP SdF N 15 Réduction de variance Ce TP a pour objet d améliorer la précision des résultats de simulations de Monte-Carlo (resserrement des intervalles de confiance) ; cette amélioration permettant en

Plus en détail

MAP X2009. Fonction caractéristique, Vecteur gaussien, Convergence en loi, Théorème de la limite centrale 1. 1 MAP 311, Chapitre 6

MAP X2009. Fonction caractéristique, Vecteur gaussien, Convergence en loi, Théorème de la limite centrale 1. 1 MAP 311, Chapitre 6 MAP 311 - X2009 Leçon 6 Fonction caractéristique, Vecteur gaussien, Convergence en loi, Théorème de la limite centrale 1 1 MAP 311, Chapitre 6 ATTENTION! COURS 7: reporté au lundi 28 juin de 8h30 à 10h,

Plus en détail

Chapitre 2 : Méthodes de Monte Carlo et algorithme EM

Chapitre 2 : Méthodes de Monte Carlo et algorithme EM Chapitre 2 : Méthodes de Monte Carlo et algorithme EM Introduction Intégration par la méthode de Monte Carlo Fonctions d importance Méthodes d accéleration Algorithme EM Introduction Utilisations de la

Plus en détail

Statistiques mathématiques : cours 1

Statistiques mathématiques : cours 1 Statistiques mathématiques : cours 1 Guillaume Lecué 4 septembre 2017 1/54 1/54 Organisation 9 cours de 2h (18h) Guillaume Lecué guillaume.lecue@ensae.fr Les lundis de 17h à 19h et jeudis de septembre

Plus en détail

Estimation de la probabilité d événements rares par méthodes de krigeage pour des fonctions boîtes noires coûteuses

Estimation de la probabilité d événements rares par méthodes de krigeage pour des fonctions boîtes noires coûteuses Estimation de la probabilité d événements rares par méthodes de krigeage pour des fonctions boîtes noires coûteuses Yves AUFFRAY 1, Pierre BARBILLON 2, Jean-Michel MARIN 3 Université Paris-Sud 11 Projet

Plus en détail

Exercices sur les chaînes de Markov

Exercices sur les chaînes de Markov Préparation Agrégation 212-213 Exercices sur les chaînes de Markov 1. Exemples à espace d états finis Exercice 1. On dispose de deux pièces, une non pipée, et une qui est truquée et est Face des deux côtés.

Plus en détail

Définition, modélisation

Définition, modélisation Université Paris 3, Institut Galilée Année universitaire 20-202 MACS 2 Probabilités Fiche 2 Chaînes de Markov Définition, modélisation Exercice Formalisme matriciel Soit (X n ) n 0 une chaîne de Markov

Plus en détail

De la loi de Bernoulli à la loi normale en suivant le programme de Statistique de Terminale

De la loi de Bernoulli à la loi normale en suivant le programme de Statistique de Terminale De la loi de Bernoulli à la loi normale en suivant le programme de Statistique de Terminale IREM Marseille / Groupe "Statistique et Probabilités" Février 2013 Loi de Bernoulli C'est la variable de comptage

Plus en détail

Réseaux de neurones évaluation et sélection de modèle p.1/57

Réseaux de neurones évaluation et sélection de modèle p.1/57 Réseaux de neurones : évaluation et sélection de modèle Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine Réseaux de neurones évaluation et sélection de modèle p.1/57 lan du cours

Plus en détail

Approximation particulaire d une méthode adaptative de calcul d énergie libre

Approximation particulaire d une méthode adaptative de calcul d énergie libre Approximation particulaire d une méthode adaptative de calcul d énergie libre Raphaël Roux Travail en commun avec Benjamin Jourdain et Tony Lelièvre CERMICS ENPC & Projet MicMac INRIA Journées MAS - 29

Plus en détail

Introduction aux méthodes de simulation particulaires. Jean Bérard

Introduction aux méthodes de simulation particulaires. Jean Bérard Introduction aux méthodes de simulation particulaires Jean Bérard 2 Avertissement Ces notes sont en cours d élaboration, il se peut donc qu y subsistent un certain nombre d erreurs, d incohérences, et/ou

Plus en détail

Filtrage Bayésien et Approximation Particulaire

Filtrage Bayésien et Approximation Particulaire École ationale Supérieure de Techniques Avancées Module B7 : Commande des Systèmes Filtrage Bayésien et Approximation Particulaire version du 7 septembre 2008 François Le Gland IRISA / IRIA Rennes http://www.irisa.fr/aspi/legland/ensta/

Plus en détail

Variables aléatoires réelles

Variables aléatoires réelles Variables aléatoires réelles Table des matières 1 Généralités sur les variables aléatoires réelles. 3 1.1 Rappels sur les σ-algèbres ou tribus d événements................................. 3 1.2 σ-algèbre

Plus en détail

TEMPS DE MÉLANGE DE LA MARCHE ALÉATOIRE SUR L HYPERCUBE

TEMPS DE MÉLANGE DE LA MARCHE ALÉATOIRE SUR L HYPERCUBE TEMPS DE MÉLAGE DE LA MARCHE ALÉATOIRE SUR L HYPERCUBE mots-clés : chaînes de Markov, théorème ergodique, temps de mélange. L objectif de ce texte est de modéliser la perte de données dans un message chiffré,

Plus en détail

filtrage particulaire: quelques exemples

filtrage particulaire: quelques exemples filtrage particulaire: quelques exemples 23 janvier 06 introduction filtrage particulaire exemples plan 1 introduction 2 filtrage particulaire modélisation filtre approximation implémentation 3 exemples

Plus en détail

Chaînes de Markov et algorithmes stochastiques

Chaînes de Markov et algorithmes stochastiques Année universitaire 2003-2004 UNIVERSITÉ D ORLÉANS Olivier GARET Chaînes de Markov et algorithmes stochastiques 2 Table des matières Table des matières i 1 Chaînes de Markov 1 1.1 Dynamique markovienne.....................

Plus en détail

Echantillonneurs de Monte Carlo par Chaines de Markov (MCMC) Application à l Estimation Statistique Bayésienne

Echantillonneurs de Monte Carlo par Chaines de Markov (MCMC) Application à l Estimation Statistique Bayésienne Echantillonneurs de Monte Carlo par Chaines de Markov (MCMC) Application à l Estimation Statistique Bayésienne Paulo Gonçalves CPE Lyon 7 janvier 2015 Objectifs Rappel sur l inférence Bayésienne Méthodes

Plus en détail

Chaînes de Markov. F. Sur - ENSMN. Introduction. 1 Introduction. Vocabulaire. 2 Vocabulaire. Chaînes réductibles / irréductibles

Chaînes de Markov. F. Sur - ENSMN. Introduction. 1 Introduction. Vocabulaire. 2 Vocabulaire. Chaînes réductibles / irréductibles Cours de Tronc Commun Scientifique Recherche Opérationnelle Les de Markov Frédéric Sur École des Mines de Nancy www.loria.fr/ sur/enseignement/ro/ ergodiques Les de Markov 2 3 ergodiques ergodiques 6 /26

Plus en détail

Notions de probabilités et de statistiques

Notions de probabilités et de statistiques Notions de probabilités et de statistiques. Généralités Événement. Notons Ω l ensemble des événements élémentaires pouvant résulter d un phénomène aléatoire. Un événement ω est un sous-ensemble de Ω constitué

Plus en détail

Progression terminale S

Progression terminale S Progression terminale S Chapitre 1 : Suites (3 semaines) I. Rappels sur les suites A. Mode de génération d une suite B. Représentations graphiques C. Suites arithmétiques et géométriques II. III. IV. Raisonnement

Plus en détail

Texte. u(0, x) = φ(x) pour tout x R,

Texte. u(0, x) = φ(x) pour tout x R, Page n 1. Texte Équation du télégrape On s intéresse à l évolution de la tension dans un câble coaxial. Le courant passant dans un élément de câble de longueur dx subit l influence d une résistance Rdx,

Plus en détail

Partie A - Loi normale-

Partie A - Loi normale- Exercice 1 Les quatre parties de cet exercice peuvent être traitées de façon indépendantes. Une usine fabrique, en grandes quantité, des rondelles d acier pour la construction. Leur diamètre est exprimé

Plus en détail

master Électronique et Télécommunications spécialité Signal, Image, Systèmes Embarqués, Automatique, François Le Gland INRIA Rennes et IRMAR

master Électronique et Télécommunications spécialité Signal, Image, Systèmes Embarqués, Automatique, François Le Gland INRIA Rennes et IRMAR master Électronique et Télécommunications spécialité Signal, Image, Systèmes Embarqués, Automatique, 2016 2017 Modèles de Marov Cachés François Le Gland INRIA Rennes et IRMAR http://www.irisa.fr/aspi/legland/rennes-1/

Plus en détail

Séries numériques. Marcotte Sébastien 1

Séries numériques. Marcotte Sébastien 1 Programme de colle : semaines 1/2 Séries numériques I. Généralités 1) Dénitions Somme partielle d'une série, convergence, divergence. Divergence grossière. Reste d'une série convergente, limite du reste.

Plus en détail

RFIDEC cours 3 : Intervalles de confiance, tests d hypothèses, loi du χ 2

RFIDEC cours 3 : Intervalles de confiance, tests d hypothèses, loi du χ 2 RFIDEC cours 3 : Intervalles de confiance, tests d hypothèses, loi du χ 2 Christophe Gonzales LIP6 Université Paris 6, France Plan du cours n 3 RFIDEC cours 3 : Intervalles de confiance, tests d hypothèses,

Plus en détail

Navigation. Où suis-je? Comment rejoindre mon stand?

Navigation. Où suis-je? Comment rejoindre mon stand? La navigation 58 Navigation Où suis-je? Comment rejoindre mon stand? 59 Navigation Où suis-je? Comment rejoindre les «Twin Peaks»? 60 Localisation Localisation à l estime: estimation de la position en

Plus en détail

Rappels de théorie de l intégration et des probabilités

Rappels de théorie de l intégration et des probabilités CHAPITRE 26 Rappels de théorie de l intégration et des probabilités 26.1 Résultats de théorie de l intégration 26.1.1 Théorème de dérivation des intégrales à paramètre On en énonce une version lisible

Plus en détail

Estimation et intervalle de confiance

Estimation et intervalle de confiance Estimation et intervalle de confiance S. Robin robin@agroparistech.fr AgroParisTech, dépt. MMIP 8 octobre 2007 A lire : Chapitre 3 Estimation de paramètre du livre Statistique Inférentielle, Daudin, R.,

Plus en détail

Pronostic pour la Maintenance

Pronostic pour la Maintenance Pronostic pour la Maintenance surveillance, pronostic et maintenance conditionnelle Mitra Fouladirad Troyes University of Technology 15/05/14 Plan 1 Formalisation 2 Pronostic pour la maintenance 3 La mise

Plus en détail

CHAÎNES DE MARKOV. Master MIMSE Bordeaux

CHAÎNES DE MARKOV. Master MIMSE Bordeaux CHAÎNES DE MARKOV MICHEL BONNEFONT Master MIMSE Bordeaux Dans tout ce cours on se placera sur un espace d états E fini ou dénombrable. Dans ce chapitre, on va s intéresser à l étude de phénomènes aléatoires

Plus en détail

Estimation. Intervalle de confiance d une espérance d une loi de Gauss On se place dans le cas où X suit une loi N(m, σ) avec σ connu et m inconnu.

Estimation. Intervalle de confiance d une espérance d une loi de Gauss On se place dans le cas où X suit une loi N(m, σ) avec σ connu et m inconnu. Filière E Denis Pasquignon Résumé du cours :. l échantillonnage Estimation On appelle échantillon aléatoire de taille n la donnée de n variables aléatoires X,..., X n définies sur un espace probabilisé

Plus en détail

Agrégation externe de mathématiques, session 2008 Épreuve de modélisation, option A : Probabilités et Statistiques

Agrégation externe de mathématiques, session 2008 Épreuve de modélisation, option A : Probabilités et Statistiques grégation externe de mathématiques, session 2008 Épreuve de modélisation, option public 2008) Résumé : La monnaie en euros est frappée par chacun des états européens qui ont choisi d abandonner leur monnaie

Plus en détail

M1 Mathématiques Fondamentales Tests d hypothèses

M1 Mathématiques Fondamentales Tests d hypothèses M1 Mathématiques Fondamentales Tests d hypothèses 1 Notions générales sur les tests statistiques On manipulera au niveau de l agrégation des tests paramétriques le plus souvent, même s il existe également

Plus en détail

Couplage et Chaînes de Markov

Couplage et Chaînes de Markov chaînes de Markov Francis Comets Université Paris 7 Denis Diderot Notes de cours M2 2 novembre 2007 Chapitre 6 Couplage et Chaînes de Markov Cadre : Q matrice stochastique sur un espace discret E. Couplage

Plus en détail

CALCUL STOCHASTIQUE I

CALCUL STOCHASTIQUE I CALCUL STOCHASTIQUE I M.BENABDALLAH MASTER MINMACS SEMESTRE 3 AUTOMNE 2013 Le but de ce cours est d'introduire le calcul stochastique an de faire des applications. Après avoir étudié le mouvement brownien

Plus en détail

Plan du cours de probabilités

Plan du cours de probabilités Plan du cours de probabilités Fondamentaux pour le Big Data c Télécom ParisTech 1/11 Semaine 3 discrètes Variables et vecteurs aléatoires discrets, espérance conditionnelle Semaine 4 Indépendance, variance,

Plus en détail

MRO Chap 07 Chaînes de Markov

MRO Chap 07 Chaînes de Markov Chapitre 7 : Chaînes de Markov ENSIIE - Module de Recherche Opérationnelle (dimitri.watel@ensiie.fr) 2016-2017 Variable aléatoire et processus Une variable aléatoire X est une fonction qui prend des valeurs

Plus en détail

Estimation, Échantillonnage et Tests

Estimation, Échantillonnage et Tests Estimation, Échantillonnage et Tests H. Hocquard HSE 2016-2017 Hervé Hocquard Estimation, Échantillonnage et Tests 1/60 Introduction : les 3 grandes lignes Les statistiques peuvent permettre : Hervé Hocquard

Plus en détail

De la marche aléatoire persistante vers le processus du télégraphe.

De la marche aléatoire persistante vers le processus du télégraphe. De la marche aléatoire persistante vers le processus du télégraphe. Cénac, Chauvin, Herrmann, Vallois Université de Bourgogne 28 mars 2012 Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne,

Plus en détail

K-means, EM, Mélanges de Gaussiennes, Théorie des graphes 2010/2011. Cours 3 13 octobre

K-means, EM, Mélanges de Gaussiennes, Théorie des graphes 2010/2011. Cours 3 13 octobre K-means, EM, Mélanges de Gaussiennes, Théorie des graphes 2010/2011 Cours 3 13 octobre Enseignant: Francis Bach Scribe: Alexandre Boulc h, Bertrand Decoster Pour parler d estimation de paramêtres cachés,

Plus en détail

A. Popier (Le Mans) Processus de Lévy. Octobre / 38

A. Popier (Le Mans) Processus de Lévy. Octobre / 38 PROCESSUS DE LÉVY. Alexandre Popier Université du Maine, Le Mans Octobre 2010 A. Popier (Le Mans) Processus de Lévy. Octobre 2010 1 / 38 PLAN DU COURS 1 PROCESSUS DE LÉVY À ACTIVITÉ FINIE. Mouvement brownien

Plus en détail

Probabilités : Méthodes ECE 1

Probabilités : Méthodes ECE 1 Probabilités : Méthodes ECE 1 I. Calcul de probabilités : écriture d'évènements. 1) Intersection. Il faut connaître les points suivants : a) A B, intersection des évènements A et B, est vrai si et seulement

Plus en détail

Quelques outils statistiques pour la validation de modèles économiques

Quelques outils statistiques pour la validation de modèles économiques Quelques outils statistiques pour la validation de modèles économiques Valentin Patilea Ensai Journées IPR Mathématiques et Sciences Sociales Plan de la présentation 1 Introduction le problème économique

Plus en détail

Statistique et Informatique (LI323) Cours 5

Statistique et Informatique (LI323) Cours 5 Statistique et Informatique (LI323) Cours 5 Nicolas Baskiotis nicolas.baskiotis@lip6.fr Université Pierre et Marie Curie (UPMC) Laboratoire d Informatique de Paris 6 (LIP6) auteurs: M.R. Amini, N. Usunier

Plus en détail

Chapitre 3. Intervalles de confiance. 3.1 Principe général

Chapitre 3. Intervalles de confiance. 3.1 Principe général Chapitre 3 Intervalles de confiance Ce chapitre est consacré à la construction d intervalles contenant le paramètre inconnu supposé réel, avec un niveau de confiance fixé. Il contient essentiellement des

Plus en détail

Résumé du cours de probabilité Deuxième partie

Résumé du cours de probabilité Deuxième partie Université de Paris X Nanterre U.F.R. Segmi Année 25-26 Licence Economie-Gestion deuxième année Résumé du cours de probabilité Deuxième partie 6 Lois à densité Définition 1. Soit f : R R + une application

Plus en détail

Espérance d une variable aléatoire

Espérance d une variable aléatoire Licence Math et MASS, MATH504 : probabilités et statistiques Espérance d une variable aléatoire L objectif de ce paragraphe est de définir ce qu est la valeur moyenne d une variable aléatoire. Par exemple,

Plus en détail

TD 5 : Espérance conditionnelle Corrigé

TD 5 : Espérance conditionnelle Corrigé Processus aléatoires ENS Paris, 26-27 Thomas Budzinski Bureau V2 thomas.budzinski@ens.fr TD 5 : Espérance conditionnelle Corrigé Lundi 7 Octobre Exercice (Petits contre-exemples) Soient X et Y deux variables

Plus en détail