MÉTHODE DE MONTE CARLO PAR CHAÎNE DE MARKOV.

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "MÉTHODE DE MONTE CARLO PAR CHAÎNE DE MARKOV."

Transcription

1 MÉTHODE DE MONTE CARLO PAR CHAÎNE DE MARKOV. Alexandre Popier Université du Maine, Le Mans A. Popier (Université du Maine) MCMC. 1 / 31

2 PLAN DU COURS 1 RAPPELS SUR LES CHAÎNES DE MARKOV Théorème ergodique Vitesse de convergence? 2 ALGORITHME DE PROPP-WILSON 3 ALGORITHME DE METROPOLIS-HASTINGS 4 ÉCHANTILLONNAGE DE GIBBS A. Popier (Université du Maine) MCMC. 2 / 31

3 INTRODUCTION. BUT Calculer une espérance E(X) avec X de loi donnée (dite cible). REMARQUE : pas nécessaire de simuler un échantillon suivant la loi cible (échantillonnage d importance). LOIS MAL CONNUES. Modèles avec probabilité connue à constante près : mécanique statistique, Ising : f (s) exp H s i J i s i s j, s i { 1, 1}. (i,j) E A. Popier (Université du Maine) MCMC. 3 / 31

4 INTRODUCTION. BUT Calculer une espérance E(X) avec X de loi donnée (dite cible). LOIS MAL CONNUES. Inférence statistique : soit X = (X 1,..., X n ) un n-échantillon de loi de densité connue à un paramètre θ près. Approche bayésienne : θ v.a. de loi - appelée loi a priori - de densité π(θ). Loi de θ sachant X dite loi a posteriori : π (θ X=x) (θ) = π(θ)f (X θ) (x) Θ π(θ)f (X θ)(x)dθ π(θ)f (X θ)(x), avec f (X θ) densité conditionnelle de X sachant θ. A. Popier (Université du Maine) MCMC. 3 / 31

5 INTRODUCTION. BUT Calculer une espérance E(X) avec X de loi donnée (dite cible). LOIS MAL CONNUES. Inférence statistique : soit X = (X 1,..., X n ) un n-échantillon de loi de densité connue à un paramètre θ près. Approche bayésienne : Estimateur bayésien : T (x) = argmin T L(θ, T (x))π (θ X=x) dθ, p.p. Θ Exemple : L(θ, T (x)) = θ T (x) 2 T (x) = E(θ X = x). A. Popier (Université du Maine) MCMC. 3 / 31

6 MÉTHODE MCMC. DÉFINITION On appelle algorithme MCMC (pour Monte Carlo Markov Chain) toute méthode produisant une chaîne de Markov (X (n) ) ergodique de loi stationnaire la distribution cible. REMARQUE : structure lourde, mais naturelle dans algorithmes d optimisation stochastique (Robbins-Moro, recuit simulé, algorithmes génétiques) ; parfois seule possibilité (inférence statistique) ou plus efficace qu un algorithme de rejet. A. Popier (Université du Maine) MCMC. 4 / 31

7 PLAN 1 RAPPELS SUR LES CHAÎNES DE MARKOV Théorème ergodique Vitesse de convergence? 2 ALGORITHME DE PROPP-WILSON 3 ALGORITHME DE METROPOLIS-HASTINGS 4 ÉCHANTILLONNAGE DE GIBBS A. Popier (Université du Maine) MCMC. 5 / 31

8 PLAN 1 RAPPELS SUR LES CHAÎNES DE MARKOV Théorème ergodique Vitesse de convergence? 2 ALGORITHME DE PROPP-WILSON 3 ALGORITHME DE METROPOLIS-HASTINGS 4 ÉCHANTILLONNAGE DE GIBBS A. Popier (Université du Maine) MCMC. 6 / 31

9 THÉORÈME ERGODIQUE. NOTATIONS : matrice de transition P sur espace d états fini ou dénombrable E, (X x n ) n N : chaîne de Markov d état initial x et de matrice de transition P. Une mesure π sur E est un vecteur dont tous les termes sont positifs. Elle est invariante si πp = π. Une probabilité π est une mesure telle que E Une probabilité π est réversible si Alors elle est invariante. (x, y) E 2, π y P(y, x) = π x P(x, y). π(x) = 1. A. Popier (Université du Maine) MCMC. 7 / 31

10 THÉORÈME ERGODIQUE. NOTATIONS : matrice de transition P sur espace d états fini ou dénombrable E, (X x n ) n N : chaîne de Markov d état initial x et de matrice de transition P. THÉORÈME ERGODIQUE Soit P une matrice de transition irréductible. On suppose qu il existe une probabilité invariante π. Alors : 1 π est l unique probabilité invariante et π(x) > 0 pour tout x E. 2 Tous les états sont récurrents (chaîne dite récurrence positive). 3 Pour tout état x E et toute fonction f : E R telle que E f (x) π(x) < + 1 lim n + n n f (Xk x ) = E k=1 f (x)π(x), P p.s. A. Popier (Université du Maine) MCMC. 7 / 31

11 PRINCIPE. MÉTHODE Pour calculer une intégrale par rapport à π, remplacer la simulation d une suite de v.a. i.i.d. de loi π par celle d une chaîne de Markov irréductible de probabilité invariante π, puis la loi forte des grands nombres par le théorème ergodique. PROBLÈME : il n existe pas d analogue du théorème central limite, permettant d obtenir la vitesse de convergence dans le théorème ergodique ("toutes" les vitesses sont possibles!). A. Popier (Université du Maine) MCMC. 8 / 31

12 PLAN 1 RAPPELS SUR LES CHAÎNES DE MARKOV Théorème ergodique Vitesse de convergence? 2 ALGORITHME DE PROPP-WILSON 3 ALGORITHME DE METROPOLIS-HASTINGS 4 ÉCHANTILLONNAGE DE GIBBS A. Popier (Université du Maine) MCMC. 9 / 31

13 THÉORÈME CENTRAL LIMITE. THÉORÈME Soient (X n ) n N chaîne irréductible de matrice de transition P, π l unique probabilité invariante. Alors il existe σ f 0 tel que la suite ( 1 n 1 n f (X k ) n k=0 E converge en loi vers σ f Z, avec Z N (0, 1). f (x)π(x) ) A. Popier (Université du Maine) MCMC. 10 / 31

14 THÉORÈME CENTRAL LIMITE. CALCUL DE σ f : f doit vérifier les hypothèses du théorème ergodique. On pose f = f E f (x)π(x), et pour i E, Alors (I P)Q f = f et (Qf ) x = + n=0 E x ( f (X n )). σf 2 = µ x ((Q f ) x ) 2 µ x (PQ f ) 2 x x E x E = 2 µ x (Q f ) x fx 2 µ x f x. x E x E A. Popier (Université du Maine) MCMC. 10 / 31

15 APÉRIODICITÉ. DÉFINITION Un état x est apériodique s il existe N N tel que (P n )(x, x) > 0 pour tout n N. LEMME Si P est irréductible et s il existe un état apériodique x, alors pour tout (y, z) E 2, il existe M N tel que (P n )(y, z) > 0 pour n M. En particulier tous les états sont apériodiques. THÉORÈME (KOLMOGOROV) Soient P une matrice irréductible, récurrente positive et apériodique et π l unique probabilité invariante. Alors pour tout x E, lim P(X n = x) = π x. n + A. Popier (Université du Maine) MCMC. 11 / 31

16 DANS LE CAS FINI. THÉORÈME Soient (X n ) n N irréductible apériodique sur un espace d états E fini, de matrice de transition P avec λ 1 = 1 > λ 2 >... > λ d > 1 valeurs propres de P, α = sup{ λ i, 2 i d} ]0, 1[, et π l unique probabilité réversible. Alors pour tout x E, tout n 1 et tout f : E R, avec E π (f ) = x E f (x)π(x), Var π (f ) = x E [f (x) E π (f )] 2 π(x), on obtient : [E(f (X n ) X 0 = x) E π (f )] 2 α2n π(x) Var π(f ). A. Popier (Université du Maine) MCMC. 12 / 31

17 CONDITION DE DOEBLIN. Pour tout (x, y) E 2, lim n + (Pn )(x, y) = µ y. CONDITION DE DOEBLIN : il existe une mesure non nulle π sur E et n 0 N tels que : NOTATION : β = x E m x. (x, y) E 2, (P n 0 )(x, y) m y. Si E est fini : LEMME Soit P irréductible et apériodique. La condition de Doeblin est satisfaite. Quand E est infini, en général pour tout n N et tout y E, inf x E (Pn )(x, y) = 0. A. Popier (Université du Maine) MCMC. 13 / 31

18 CONVERGENCE EXPONENTIELLE. THÉORÈME Supposons P irréductible et vérifiant la condition de Doeblin. Alors P est récurrente positive et apériodique, et si π désigne sa probabilité invariante, pour tout i E et n N : (P n )(x, y) π y 2(1 β) [n/n0]. y E Pour α R, [α] est la partie entière de α. A. Popier (Université du Maine) MCMC. 14 / 31

19 MCMC. MÉTHODE Pour calculer une intégrale par rapport à π, simuler une chaîne irréductible de probabilité réversible π, utiliser le théorème ergodique, contrôler l erreur via un des résultats précédents. PROBLÈME : σ f, n 0, β, α, Var π (f ) ne sont pas calculables. EN PRATIQUE : simuler en faisant démarrer d un état quelconque, jusqu à un instant N : préchauffage ; évaluer f (X N+κM ), κ 1 (M inférieur à N) : les X N+κM sont "presque" indépendantes (propriété de mélange) ; poser 1 K f (X N+κM ). K κ=1 A. Popier (Université du Maine) MCMC. 15 / 31

20 PLAN 1 RAPPELS SUR LES CHAÎNES DE MARKOV Théorème ergodique Vitesse de convergence? 2 ALGORITHME DE PROPP-WILSON 3 ALGORITHME DE METROPOLIS-HASTINGS 4 ÉCHANTILLONNAGE DE GIBBS A. Popier (Université du Maine) MCMC. 16 / 31

21 RAPPEL. PROPOSITION Soit (X n ) n N la chaîne de Markov de matrice de transition P. Alors il existe une application f : [0, 1] E E t.q. pour tout n X n+1 = f (X n, U n ), avec U n uniforme sur [0, 1]. Alors P(x, y) = P(f (U n, x) = y). Pour (U n ) n suite de v.a. i.i.d. : f n = f Un = f (U n,.) : E E et D n = f U1... f Un, G n = f Un... f U1. ALGORITHMES CLASSIQUES : simuler G n. ALGORITHME DE PROPP-WILSON : simuler D n! A. Popier (Université du Maine) MCMC. 17 / 31

22 L ALGORITHME. ALGORITHME DE PROPP-WILSON 1 D 0 (x) = x pour tout x. 2 Si pour 0 k n, D k simulée, et si D n n est pas constante, alors tirer U n+1 uniforme sur [0, 1], D n+1 = D n f n+1. RÉSULTAT : si l algorithme s arrête, le résultat est la v.a. Z = D T (x) avec T = inf {n N, D n constante}. C est le temps de coalescence de D n. A. Popier (Université du Maine) MCMC. 18 / 31

23 ÉTUDE THÉORIQUE. THÉORÈME Si P est irréductible et apériodique, et si T < + p.s., alors Z est distribuée selon la probabilité invariante π. PROBLÈMES : Coalescence de D n? Pas toujours vérifiée. Hypothèse suffisante : A E, A > 1 = P( f (A, U n ) < A ) α > 0. Pour E de grande taille, difficile à mettre en œuvre (calculs d images longs). En pratique ne calculer que l image de quelques points et s arrrêter lorsque les images de ces points sont les mêmes. A. Popier (Université du Maine) MCMC. 19 / 31

24 PLAN 1 RAPPELS SUR LES CHAÎNES DE MARKOV Théorème ergodique Vitesse de convergence? 2 ALGORITHME DE PROPP-WILSON 3 ALGORITHME DE METROPOLIS-HASTINGS 4 ÉCHANTILLONNAGE DE GIBBS A. Popier (Université du Maine) MCMC. 20 / 31

25 L ALGORITHME : LES DONNÉES. DONNÉES : matrice de transition Q sur espace d états fini ou dénombrable E, avec Q(x, y) > 0 = Q(y, x) > 0. π probabilité sur E, h :]0, + [ ]0, 1] t.q. h(u) = uh(1/u). Exemples On définit h(u) = min(1, u), h(u) = u 1 + u. ( ) π(y)q(y, x) h si Q(x, y) 0, α(x, y) = π(x)q(x, y) 0 sinon. A. Popier (Université du Maine) MCMC. 21 / 31

26 L ALGORITHME : DESCRIPTION. PAR RÉCURRENCE : 1 Choisir x 0 E fixé t.q. π(x 0 ) > 0. 2 Si pour 0 k n, X k = x k a été calculé, alors : ALGORITHME A. Simuler Y n et U n indépendantes de X k, k n, et indépendantes t.q. Y n de loi Q(x n,.), i.e. : y E, P(Y n = y) = Q(x n, y) ; U n uniforme sur [0, 1]. B. Calculer X n+1 par la règle : si U n α(x n, Y n), X n+1 = Y n : transition acceptée ; si U n > α(x n, Y n), X n+1 = X n : transition rejetée. A. Popier (Université du Maine) MCMC. 22 / 31

27 L ALGORITHME : REMARQUES. La chaîne ainsi créée ne visite que les états t.q. π(x) > 0. Pas de problème de division par zéro dans h. Choix de Q : doit respecter les propriétés qui suivent, doit faire en sorte que les Yn "faciles" à simuler. Choix de x 0 : sans véritable importance. A. Popier (Université du Maine) MCMC. 23 / 31

28 ÉTUDE DE LA CHAÎNE CONSTRUITE. PROPOSITION Le processus (X n ) est une chaîne de Markov de matrice de transition P définie par ( ) π(y)q(y, x) P(x, y) = Q(x, y)α(x, y) = Q(x, y)h, si x y, π(x)q(x, y) P(x, x) = 1 y x P(x, y). De plus π est une probabilité réversible pour P. PROPOSITION Si Q est irréductible, alors la matrice de transition P est irréductible. Si Q est apériodique, ou si h < 1, alors P est apériodique. A. Popier (Université du Maine) MCMC. 24 / 31

29 DIFFÉRENTS CAS. ALGORITHME DE METROPOLIS ou symétrique : PROPOSITION (ALGORITHME DE METROPOLIS) Soit π une probabilité non constante sur E, Q une matrice de transition symétrique irréductible. Alors la matrice de transition P est irréductible apériodique. PROCÉDURE DE TEST : ( α(x, y) = min 1, π(y) ). π(x) "Optimal" si π(y n )/π(x n ) pas trop petit... A. Popier (Université du Maine) MCMC. 25 / 31

30 DIFFÉRENTS CAS. ALGORITHME INDÉPENDANT : Q(x, y) = q(y) (toutes les lignes sont égales). ( α(x, y) = min 1, π(y)q(x) ). π(x)q(y) Valeur de Y n indépendante de X n ; mais rejet dépendant de X n. PROPOSITION Si q est strictement positive (presque partout sur le support de π), la matrice de transition P est irréductible apériodique. A. Popier (Université du Maine) MCMC. 25 / 31

31 DIFFÉRENTS CAS. ALGORITHME À MARCHE ALÉATOIRE : Q(x, y) = q(y x). ( ) π(y)q(x y) α(x, y) = min 1,. π(x)q(y x) Si q est symétrique, q(t) = q( t), α(x, y) = min EXEMPLE : q(t) = 1 2 (δ 1 + δ 1 ). ( 1, π(y) ). π(x) PROPOSITION Si q est non nulle sur un "voisinage" de 0, la matrice de transition P est irréductible apériodique. A. Popier (Université du Maine) MCMC. 25 / 31

32 CAS DES MESURES DE GIBBS. DÉFINITION Soit E fini, β > 0 constante et V : E R fonction. La mesure de Gibbs associée à β et V est définie par : π(x) = exp( βv (x)) Z β où Z β est la constante de normalisation : Z β = x E exp( βv (x)). PROPOSITION Ces probabilités maximisent l entropie H(µ) = x E µ(x) ln(µ(x)), avec y ln(y) = 0 si y = 0, parmi les probabilités µ t.q. x E V (x)µ(x) = C fixée. A. Popier (Université du Maine) MCMC. 26 / 31

33 CAS DES MESURES DE GIBBS. DÉFINITION Soit E fini, β > 0 constante et V : E R fonction. La mesure de Gibbs associée à β et V est définie par : π(x) = exp( βv (x)) Z β où Z β est la constante de normalisation : Z β = x E exp( βv (x)). Choisir Q symétrique et irréductible ; alors : α(x, y) = min(1, π(y)/π(x)) = exp( β(v (y) V (x)) + ). A. Popier (Université du Maine) MCMC. 26 / 31

34 EXTENSION À DES ESPACES NON DÉNOMBRABLES. DÉFINITION L algorithme de Metropolis-Hastings associé à la loi cible de densité f et à la loi instrumentale q produit une chaîne de Markov (x (n) ) de transition : pour x (n) donné, 1 générer y q(y x (n) ), 2 prendre { x (n+1) y avec probabilité α(x = (n), y), x (n) avec probabilité 1 α(x (n), y), ( ) f (y)q(x (n) y) où α(x, y) = h f (x (n) )q(y x (n). ) A. Popier (Université du Maine) MCMC. 27 / 31

35 PLAN 1 RAPPELS SUR LES CHAÎNES DE MARKOV Théorème ergodique Vitesse de convergence? 2 ALGORITHME DE PROPP-WILSON 3 ALGORITHME DE METROPOLIS-HASTINGS 4 ÉCHANTILLONNAGE DE GIBBS A. Popier (Université du Maine) MCMC. 28 / 31

36 DISTINCTION AVEC METROPOLIS-HASTINGS. Taux d acceptation uniformément égal à 1. Critères sur taux d acceptation optimaux non valables. Convergence à établir suivant d autres crières. Limitations fortes sur le choix des paramètres des lois instrumentales. Connaissance préalable de certaines propriétés (probabilistes ou analytiques) de la loi cible. Nécessairement multidimensionnel. Ne fonctionne pas lorsque le nombre de variables est variable. A. Popier (Université du Maine) MCMC. 29 / 31

37 STRUCTURE DE L ALGORITHME. HYPOTHÈSES : il existe p > 1 t.q. x dans l espace d états se décompose en (x 1, x 2,..., x p ) ; les densités conditionnelles correspondantes sont simumlables. ALGORITHME D ÉCHANTILLONNAGE DE GIBBS. Transition de x (n) à x (n+1) : 1. x (n+1) 1 f 1 (x 1 x (n) 2,..., x (n) p ), 2. x (n+1) 2 f 2 (x 2 x (n+1) 1, x (n) 3,..., x (n) p ),... P. x (n+1) p f p (x p x (n+1) 1,..., x (n+1) p 1 ). A. Popier (Université du Maine) MCMC. 30 / 31

38 ANALYSE DE L ALGORITHME. THÉORÈME. L algorithme d échantillonnage de Gibbs admet f comme loi invariante, donc limite si la chaîne produite est ergodique. THÉORÈME. L algorithme d échantillonnage de Gibbs correspond à la composition de p algorithmes de Metropolis-Hastings de probabilités d acceptation uniformément égales à 1. LEMME (HAMMERSLEY-CLIFFORD) La connaissance de toutes les lois conditionnelles permet de calculer la loi jointe (sous une condition dite de positivité). A. Popier (Université du Maine) MCMC. 31 / 31

Alexandre Popier. ENSAI, Bruz. apopier. Janvier-Mars 2011

Alexandre Popier. ENSAI, Bruz.  apopier. Janvier-Mars 2011 CHAÎNES DE MARKOV. Alexandre Popier ENSAI, Bruz apopier@univ-lemans.fr http://www.univ-lemans.fr/ apopier Janvier-Mars 2011 A. Popier (ENSAI) Chaînes de Markov. Janvier-Mars 2011 1 / 51 PLAN 1 INTRODUCTION

Plus en détail

Estimation Bayésienne via une méthode de Monte Carlo par Chaine de. Foguen Tchuendom Rinel

Estimation Bayésienne via une méthode de Monte Carlo par Chaine de. Foguen Tchuendom Rinel Estimation Bayésienne via une méthode de Monte Carlo par Chaine de Markov(MCMC). Foguen Tchuendom Rinel Université de Nice-Sophia Antipolis MathMods Programme Inria-Grand Est Equipe TOSCA Juin 05, 2014

Plus en détail

Chaînes de Markov (et applications)

Chaînes de Markov (et applications) Chaînes de Markov (et applications) Raphael Lachieze-Rey 25 avril 2016 M1 Paris Descartes. Table des matières 1 Chaînes de Markov homogènes 2 1.1 Eemples et définitions....................... 2 1.2 Loi

Plus en détail

Initiation aux processus : Chaînes de Markov (solutions)

Initiation aux processus : Chaînes de Markov (solutions) Initiation aux processus : Chaînes de Markov (solutions) Fabrice Rossi 8 février Espace d état fini. Exercice.. Question Pour représenter la chaîne, on choisit de numéroter les états de à, dans l ordre

Plus en détail

Chaînes de Markov 1. Définition 1. Une matrice de transition (ou noyau) sur E est une application P : M M [0, 1] telle que P (x, y) = 1.

Chaînes de Markov 1. Définition 1. Une matrice de transition (ou noyau) sur E est une application P : M M [0, 1] telle que P (x, y) = 1. Page n 1. Chaînes de Markov 1 L essentiel de ces notes provient de [BEK04]. On pourra aussi consulter [BL98] ou [Nor97] qui bien qu en anglais, est très facile à lire et contient de nombreux exemples.

Plus en détail

Apprentissage automatique Méthodes d échantillonnage - motivation

Apprentissage automatique Méthodes d échantillonnage - motivation Apprentissage automatique Méthodes d échantillonnage - motivation ÉCHANTILLONNAGE échantillonnage La plupart des algorithmes d apprentissage vus sont basés sur un modèle probabiliste un modèle probabiliste

Plus en détail

École Nationale Supérieure de Techniques Avancées Filière : Finance quantitative Module : Automatique avancée

École Nationale Supérieure de Techniques Avancées Filière : Finance quantitative Module : Automatique avancée École Nationale Supérieure de Techniques Avancées Filière : Finance quantitative Module : Automatique avancée Examen du cours B7 3 Filtrage bayésien optimal et approximation particulaire Jeudi 27 octobre

Plus en détail

Chaîne de Markov - 2

Chaîne de Markov - 2 Chaîne de Markov - 2 LI323 Hugues Richard (notes de cours: Pierre-Henri Wuillemin) Université Pierre et Marie Curie (UPMC) Laboratoire génomique des microorganismes (LGM) Classements des états Définition

Plus en détail

TD7 Décembre I. Refroidissement trop rapide

TD7 Décembre I. Refroidissement trop rapide I. Refroidissement trop rapide TD7 Décembre 2016 1. Le potentiel V a un minimum local en 1 et son minimum global en 3. Le graphe de transition sur cet espace à 3 états est élémentaire. 2. On part du point

Plus en détail

les méthodes de Monte Carlo : exposé introductif

les méthodes de Monte Carlo : exposé introductif les méthodes de Monte Carlo : exposé introductif Fabien Campillo 1 Vivien Rossi 2 1 Projet ASPI IRISA-INRIA Rennes 2 IURC Université Montpellier I 11 octobre 2006 intro Monte Carlo MCMC plan 1 introduction

Plus en détail

Exercices sur les chaînes de Markov

Exercices sur les chaînes de Markov Préparation Agrégation 212-213 Exercices sur les chaînes de Markov 1. Exemples à espace d états finis Exercice 1. On dispose de deux pièces, une non pipée, et une qui est truquée et est Face des deux côtés.

Plus en détail

Chaînes de Markov et Génération Aléatoire

Chaînes de Markov et Génération Aléatoire Chaînes de Markov et Génération Aléatoire Aléa 2006 P. Duchon LaBRI Aléa 06 - Chaînes de Markov p. 1/3 Génération aléatoire C (C n ) classe (finie) d objets discrets Génération aléatoire uniforme: produire

Plus en détail

A. Popier (Le Mans) Processus de Lévy. Octobre / 38

A. Popier (Le Mans) Processus de Lévy. Octobre / 38 PROCESSUS DE LÉVY. Alexandre Popier Université du Maine, Le Mans Octobre 2010 A. Popier (Le Mans) Processus de Lévy. Octobre 2010 1 / 38 PLAN DU COURS 1 PROCESSUS DE LÉVY À ACTIVITÉ FINIE. Mouvement brownien

Plus en détail

Promenade aléatoire. Chaînes de Markov et simulations ; martingales et stratégies. Michel Benaïm et Nicole El Karoui. SUB Gôttingen

Promenade aléatoire. Chaînes de Markov et simulations ; martingales et stratégies. Michel Benaïm et Nicole El Karoui. SUB Gôttingen Promenade aléatoire Chaînes de Markov et simulations ; martingales et stratégies SUB Gôttingen 7 217 769 454 2005 A 1912 Michel Benaïm et Nicole El Karoui Table des matières I Modélisation markovienne

Plus en détail

CHAÎNES DE MARKOV. Master MIMSE Bordeaux

CHAÎNES DE MARKOV. Master MIMSE Bordeaux CHAÎNES DE MARKOV MICHEL BONNEFONT Master MIMSE Bordeaux Dans tout ce cours on se placera sur un espace d états E fini ou dénombrable. Dans ce chapitre, on va s intéresser à l étude de phénomènes aléatoires

Plus en détail

Réseaux de neurones : rappels de probabilités et statistiques

Réseaux de neurones : rappels de probabilités et statistiques Réseaux de neurones : rappels de probabilités et statistiques Fabrice Rossi http://apiacoa.org/contact.html. Université Paris-IX Dauphine Réseaux de neurones Rappels de probabilités et statistiques p.1/49

Plus en détail

Chaînes de Markov. Samy Tindel. Master 1 - Nancy. Université de Lorraine. Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 1 / 78

Chaînes de Markov. Samy Tindel. Master 1 - Nancy. Université de Lorraine. Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 1 / 78 Chaînes de Markov Samy Tindel Université de Lorraine Master 1 - Nancy Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 1 / 78 Plan 1 Définition et exemples 2 Propriétés de Markov Temps d arrêt

Plus en détail

Cours 3 : L échantillonneur de Gibbs

Cours 3 : L échantillonneur de Gibbs Cours 3 : L échantillonneur de Gibbs 1) Principes généraux 2) Complétion 3) Convergence 4) Le théorème de Hammersley-Clifford 5) Modèles hiérarchiques 6) Augmentation de données 7) Algorithme MCMC hybride

Plus en détail

Stéphane Messika. Séminaire, 22 Janvier 2007 Equipe TAO

Stéphane Messika. Séminaire, 22 Janvier 2007 Equipe TAO Utilisation des probabilités en informatique Stéphane Messika LRI Séminaire, 22 Janvier 2007 Equipe TAO Plan 1 Introduction 2 Le premier outil: La marche aléatoire Ruine du joueur: résultats Auto-stabilisation:

Plus en détail

TD, Contrôle continu 3 : éléments de correction /3 0 2/3 Q = / /4

TD, Contrôle continu 3 : éléments de correction /3 0 2/3 Q = / /4 Université Pierre et Marie Curie Période 2 L3 LM346 : Processus et Simulations TD, Contrôle continu 3 : éléments de correction Exercice 1. Considérons la matrice stochastique suivante : 0 0 0 0 0 1 0 0

Plus en détail

Variables aléatoires réelles

Variables aléatoires réelles Variables aléatoires réelles Table des matières 1 Généralités sur les variables aléatoires réelles. 3 1.1 Rappels sur les σ-algèbres ou tribus d événements................................. 3 1.2 σ-algèbre

Plus en détail

Rappels de théorie de l intégration et des probabilités

Rappels de théorie de l intégration et des probabilités CHAPITRE 26 Rappels de théorie de l intégration et des probabilités 26.1 Résultats de théorie de l intégration 26.1.1 Théorème de dérivation des intégrales à paramètre On en énonce une version lisible

Plus en détail

Sur l équation vectorielle stochastique Y n+1 = A n Y n + B n à coefficients iid

Sur l équation vectorielle stochastique Y n+1 = A n Y n + B n à coefficients iid 1/35 Sur l équation vectorielle stochastique Y n+1 = A n Y n + B n à coefficients iid INRIA Sophia Antipolis Projet OMEGA Yves Guivarc h (Université de Rennes 1 Emile (Université de Bretagne Sud Séminaire

Plus en détail

TD 10 : Chaînes de Markov, classification des états Corrigé

TD 10 : Chaînes de Markov, classification des états Corrigé Processus aléatoires ENS Paris, 2016-2017 Thomas Budzinski Bureau V2 thomas.budzinski@ens.fr TD 10 : Chaînes de Markov, classification des états Corrigé Lundi 5 Décembre Exercice 1 (Petites questions sur

Plus en détail

TD 11 : Convergence de chaînes de Markov Corrigé

TD 11 : Convergence de chaînes de Markov Corrigé Processus aléatoires ENS Paris, 206-207 Thomas Budzinski Bureau V2 thomas.budzinski@ens.fr TD : Convergence de chaînes de Markov Corrigé Lundi 2 Décembre Exercice (Les parapluies) Michel possède k parapluies

Plus en détail

École Nationale Supérieure de Techniques Avancées module : Commande des Systèmes. examen du cours B7 1 Filtrage bayésien et approximation particulaire

École Nationale Supérieure de Techniques Avancées module : Commande des Systèmes. examen du cours B7 1 Filtrage bayésien et approximation particulaire École Nationale Supérieure de Techniques Avancées module : Commande des Systèmes examen du cours B7 1 Filtrage bayésien et approximation particulaire lundi 18 octobre 2010, 8:30 à 10:30 Exercice 1 : L

Plus en détail

MTS445 : Modélisation et Simulation Stochastique

MTS445 : Modélisation et Simulation Stochastique MTS445 : Modélisation et Simulation Stochastique Sandrine VATON & Thierry CHONAVEL Télécom Bretagne, INFO & SC Mai 2014 S. Vaton, T.Chonavel (TB) MTS445 Mai 2014 1 / 114 Première partie I Introduction

Plus en détail

Déconvolution d images, modèles markoviens, algorithmes stochastiques 112

Déconvolution d images, modèles markoviens, algorithmes stochastiques 112 V. Déconvolution d images, modèles markoviens, algorithmes stochastiques Déconvolution d images, modèles markoviens, algorithmes stochastiques 112 Modélisation markovienne en imagerie Résumé des épisodes

Plus en détail

[M. Gubinelli - Processus discrets - M1 MMD 2010/ poly 4 - v.2] 4 Chaînes de Markov

[M. Gubinelli - Processus discrets - M1 MMD 2010/ poly 4 - v.2] 4 Chaînes de Markov Définitions et premières propriétés 1 [M. Gubinelli - Processus discrets - M1 MMD 2010/2011-20110104 - poly 4 - v.2] 4 Chaînes de Markov 1 Définitions et premières propriétés On s intéresse ici à des processus

Plus en détail

L3 informatique Année

L3 informatique Année Département MIDO Modélisation et simulation stochastique L3 informatique Année 007 008 Introduction Révisions 3 Processus de Poisson 3. Introduction On considère une route sur laquelle le passage moyen

Plus en détail

Définition, modélisation

Définition, modélisation Université Paris 3, Institut Galilée Année universitaire 20-202 MACS 2 Probabilités Fiche 2 Chaînes de Markov Définition, modélisation Exercice Formalisme matriciel Soit (X n ) n 0 une chaîne de Markov

Plus en détail

Convergence de l échantillonneur de Gibbs pour les distributions uniformes. Jeffrey S. Rosenthal

Convergence de l échantillonneur de Gibbs pour les distributions uniformes. Jeffrey S. Rosenthal Convergence de l échantillonneur de Gibbs pour les distributions uniformes Jeffrey S. Rosenthal Department of Statistics University of Toronto http://markov.utstat.toronto.edu/jeff/ jeff@math.toronto.edu

Plus en détail

Variables aléatoires réelles

Variables aléatoires réelles 23 Variables aléatoires réelles Pour ce paragraphe, (Ω, B, P est un espace probabilisé. 23.1 Définition et propriétés des variables aléatoires réelles Définition 23.1 On dit qu une application X : Ω R

Plus en détail

Texte Ancêtres et descendants

Texte Ancêtres et descendants Page n 1. Texte Ancêtres et descendants 1 Un modèle d arbre généalogique On souhaite ici présenter un modèle d évolution génétique permettant d étudier la structure d arbres phylogéniques. Ces arbres décrivent

Plus en détail

Génération aléatoire. Origine de la génération aléatoire. Pourquoi générer des objets aléatoires. Nicolas Hanusse Chargé de Recherche CNRS - LaBRI

Génération aléatoire. Origine de la génération aléatoire. Pourquoi générer des objets aléatoires. Nicolas Hanusse Chargé de Recherche CNRS - LaBRI Génération aléatoire Nicolas Hanusse Chargé de Recherche CNRS - LaBRI Origine de la génération aléatoire Wilf (960-70): simulation des trajectoires de particules à l intérieur de réacteurs nucléaires;

Plus en détail

Des chaînes de Markov en prépa?

Des chaînes de Markov en prépa? Des chaînes de Markov en prépa? Introduction Pourquoi étudier les chaînes de Markov en prépa? un sujet très proche d autres problématiques du cours (réduction en algèbre linéaire, automates ou graphes

Plus en détail

Couplage et Chaînes de Markov

Couplage et Chaînes de Markov chaînes de Markov Francis Comets Université Paris 7 Denis Diderot Notes de cours M2 2 novembre 2007 Chapitre 6 Couplage et Chaînes de Markov Cadre : Q matrice stochastique sur un espace discret E. Couplage

Plus en détail

Chapitre 2. Chaînes de Markov. Introduction

Chapitre 2. Chaînes de Markov. Introduction Chapitre 2 Chaînes de Markov Introduction Une chaîne de Markov est une suite aléatoire {X n ; n = 0, 1, 2,...}, définie sur un espace de probabilité (Ω, F, IP), à valeurs dans un ensemble E qui peut être

Plus en détail

TEMPS DE MÉLANGE DE LA MARCHE ALÉATOIRE SUR L HYPERCUBE

TEMPS DE MÉLANGE DE LA MARCHE ALÉATOIRE SUR L HYPERCUBE TEMPS DE MÉLAGE DE LA MARCHE ALÉATOIRE SUR L HYPERCUBE mots-clés : chaînes de Markov, théorème ergodique, temps de mélange. L objectif de ce texte est de modéliser la perte de données dans un message chiffré,

Plus en détail

SYNTHÈSE DE TEXTURES PAR LES CHAÎNES DE MARKOV. Massé Pierre-Yves. Meiniel William

SYNTHÈSE DE TEXTURES PAR LES CHAÎNES DE MARKOV. Massé Pierre-Yves. Meiniel William École Normale Supérieure de Cachan Département de Mathématiques Mémoire de stage de fin de 3 ème année de Licence Sous la direction de : Lionel MOISAN Université Paris Descartes et Bruno GALERNE Centre

Plus en détail

Statistique avec des petits échantillons

Statistique avec des petits échantillons Statistique avec des petits échantillons Gilles Celeux Select, Inria Saclay, Université Paris-Sud Gilles Celeux (Inria) Petits échantillons 1 / 40 Plan 1 Modélisation statistique Estimation du maximum

Plus en détail

Condition nécessaire et suffisante de convergence en loi de l estimateur des plus proches voisins

Condition nécessaire et suffisante de convergence en loi de l estimateur des plus proches voisins Condition nécessaire et suffisante de convergence en loi de l estimateur des plus proches voisins Rémi Servien Laboratoire Jean Kuntzmann INP Grenoble Neuvième Colloque Jeunes Probabilistes et Statisticiens

Plus en détail

Introduction aux processus stochastiques

Introduction aux processus stochastiques Introduction aux processus stochastiques Leçon 2 Louis Wehenkel Département EEI Université de Liège Montefiore - Liège - 13/2/2007 Find slides: http://montefiore.ulg.ac.be/ lwh/procstoch/ Louis Wehenkel

Plus en détail

MIDO M1 MMD Université Paris-Dauphine 09/10

MIDO M1 MMD Université Paris-Dauphine 09/10 MIDO M MMD Université Paris-Dauhine 09/0 Processus discrets [v. 2009227] Corrig TD4. Cha nes de Markov (III). Exercice. Soit Y n une suite i.i.d. avec loi P (Y n =)= et P (Y n =0)=. SoitX n = inf {i 0;

Plus en détail

Rappels de probabilités

Rappels de probabilités Plan Définitions Valeurs moyennes, variances Fonctions de distribution, densités Indépendance Le lemme de Borel-Cantelli Fonctions caractéristiques Espérances conditionnelles Fluctuations Plan Définitions

Plus en détail

DECALAGES ET SYSTEMES DYNAMIQUES ASSOCIES AUX SUITES. Nicolas Chevallier 2011

DECALAGES ET SYSTEMES DYNAMIQUES ASSOCIES AUX SUITES. Nicolas Chevallier 2011 DECALAGES ET SYSTEMES DYAMIQUES ASSOCIES AUX SUITES 1 Décalage 1.1 Généralités icolas Chevallier 2011 Définition 1 Soit A un ensemble fini. 1. L application S u : A A définie par S u ω n = ω n+1 pour tout

Plus en détail

EXERCICE I. Corrigé HEC maths III Eco 1998 par Pierre Veuillez

EXERCICE I. Corrigé HEC maths III Eco 1998 par Pierre Veuillez Corrigé HEC maths III Eco 998 par Pierre Veuillez EXERCICE I. a) Soit µ un paramètre réel. On observe les transformations souhaitées : µx + x 0 L L µx + x 0 3x i. () + µx + x 3 0 L µl L 3 x () 3 + µx 0

Plus en détail

Chaînes de Markov et algorithmes stochastiques

Chaînes de Markov et algorithmes stochastiques Année universitaire 2003-2004 UNIVERSITÉ D ORLÉANS Olivier GARET Chaînes de Markov et algorithmes stochastiques 2 Table des matières Table des matières i 1 Chaînes de Markov 1 1.1 Dynamique markovienne.....................

Plus en détail

Cours de Méthodes de Monte-Carlo Exercices : novembre 2005.

Cours de Méthodes de Monte-Carlo Exercices : novembre 2005. Cours de Méthodes de Monte-Carlo Exercices : novembre 2005. Exercice 1 Soit (X n, n 1) une suite de variables aléatoires à valeurs dans R indépendantes suivant toutes la même loi, telle que E(X 2 1)

Plus en détail

COMPLÉMENTS SUR LES VARIABLES ALÉATOIRES RÉELLES, VARIABLES À DENSITÉ

COMPLÉMENTS SUR LES VARIABLES ALÉATOIRES RÉELLES, VARIABLES À DENSITÉ Chapitre 8 : COMPLÉMENTS SUR LES VARIABLES ALÉATOIRES RÉELLES, VARIABLES À DENSITÉ ECS2 Lycée La Bruyère, Versailles Année 2013/2014 1 Généralités sur les variables aléatoires réelles 2 1.1 Généralités.............................................

Plus en détail

Règles de décisions stochastiques : le modèle de Luce

Règles de décisions stochastiques : le modèle de Luce En psychologie, on s intéresse à la façon dont un individu est amené à sélectionner une action quand un choix se présente entre différentes actions possibles. Ce choix peut être influencé par un grand

Plus en détail

Introduction au Filtrage en Temps Discret. Filtrage de Kalman et Modèles de Markov Cachés

Introduction au Filtrage en Temps Discret. Filtrage de Kalman et Modèles de Markov Cachés Université de Rennes 1 Master Électronique et Télécommunications Spécialité SISEA (Signal, Image, Systèmes Embarqués, Automatique) Introduction au Filtrage en Temps Discret Filtrage de Kalman et Modèles

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Page n 1. Simulation de variables aléatoires 1 Inversion de la fonction de répartition Soit X une variable aléatoire réelle de fonction de répartition F définie par F (x) = P(X x) pour x R. Exercice 1

Plus en détail

Tests non paramétriques

Tests non paramétriques Retour au plan du cours Fonction de répartition empirique Définition et premières propriétés Soit X, X 2, X n, une suite de variables aléatoires réelles iid de fonction de répartition F On rappelle que,

Plus en détail

Cours de Méthodes de Monte-Carlo Exercices : octobre 2011.

Cours de Méthodes de Monte-Carlo Exercices : octobre 2011. Cours de Méthodes de Monte-Carlo Exercices : octobre 2011. Exercice 1 Soit (X n, n 1) une suite de variables aléatoires à valeurs dans R indépendantes suivant toutes la même loi, telle que E(X 2 1) < +.

Plus en détail

M1-Mathématiques Appliquées 1ère partie: Modélisation statistique Cours 4: Compléments: tests, région de confiance. Christine Keribin

M1-Mathématiques Appliquées 1ère partie: Modélisation statistique Cours 4: Compléments: tests, région de confiance. Christine Keribin 1/37 M1-Mathématiques Appliquées 1ère partie: statistique Cours 4: Compléments: tests, région de 1 Laboratoire de Mathématiques Université Paris-Sud et région de 2016-2017 2/37 Outline et région de et

Plus en détail

Estimation. Intervalle de confiance d une espérance d une loi de Gauss On se place dans le cas où X suit une loi N(m, σ) avec σ connu et m inconnu.

Estimation. Intervalle de confiance d une espérance d une loi de Gauss On se place dans le cas où X suit une loi N(m, σ) avec σ connu et m inconnu. Filière E Denis Pasquignon Résumé du cours :. l échantillonnage Estimation On appelle échantillon aléatoire de taille n la donnée de n variables aléatoires X,..., X n définies sur un espace probabilisé

Plus en détail

Chaînes de Markov à temps continu

Chaînes de Markov à temps continu Université de Rennes I Préparation à l épreuve de modélisation - Agrégation Externe de Mathématiques 27-28 Page n Chaînes de Markov à temps continu L essentiel de ces notes provient de [Nor97], qui bien

Plus en détail

COMPLÉMENTS SUR LES VARIABLES ALÉATOIRES RÉELLES, VARIABLES À DENSITÉ

COMPLÉMENTS SUR LES VARIABLES ALÉATOIRES RÉELLES, VARIABLES À DENSITÉ Chapitre 8 : COMPLÉMENTS SUR LES VARIABLES ALÉATOIRES RÉELLES, VARIABLES À DENSITÉ ECS2 Lycée La Bruyère, Versailles Année 2015/2016 1 Généralités sur les variables aléatoires réelles 2 1.1 Généralités.............................................

Plus en détail

master Électronique et Télécommunications spécialité Signal, Image, Systèmes Embarqués, Automatique, François Le Gland INRIA Rennes et IRMAR

master Électronique et Télécommunications spécialité Signal, Image, Systèmes Embarqués, Automatique, François Le Gland INRIA Rennes et IRMAR master Électronique et Télécommunications spécialité Signal, Image, Systèmes Embarqués, Automatique, 2016 2017 Modèles de Marov Cachés François Le Gland INRIA Rennes et IRMAR http://www.irisa.fr/aspi/legland/rennes-1/

Plus en détail

Chapitre 6. Canaux et signaux continus

Chapitre 6. Canaux et signaux continus Chapitre 6. Canaux et signaux continus 1. Notions de base (survol rapide voir notes àtête reposée) (a) Processus aléatoires en temps continu (b) Théorème d échantillonnage (c) Entropies différentielles

Plus en détail

TRAVAUX DIRIGÉS NUMÉRO 4

TRAVAUX DIRIGÉS NUMÉRO 4 Université Paris 7 - M Modélisation Aléatoire - Calcul Stochastique TRAVAUX DIRIGÉS NUMÉRO 4 INTÉGRALE DE WIENER ET D ITÔ 1. Retour feuille 3 : Martingales du mouvement brownien. Temps d atteinte Exercice

Plus en détail

Méthodes de Réduction de Variance : Stratification

Méthodes de Réduction de Variance : Stratification Méthodes de Réduction de Variance : Stratification Gersende FORT LTCI, CNRS / TELECOM ParisTech Introduction I. Introduction Introduction Exemple Exemple On souhaite simuler des réalisations de v.a. i.i.d.

Plus en détail

Rappels de probabilités

Rappels de probabilités 12 Novembre 2008 Plan s Moyennes Densités Indépendance Le lemme de Borel-Cantelli Fonctions caractéristiques Plan s Moyennes Densités Indépendance Le lemme de Borel-Cantelli Fonctions caractéristiques

Plus en détail

7 Mai Amour, Mémoire & Modélisation. Pablo Crotti. Rappels de Probabilité. Théorie des graphes. Le modèle Coello- Crotti. Le modèle du Memory

7 Mai Amour, Mémoire & Modélisation. Pablo Crotti. Rappels de Probabilité. Théorie des graphes. Le modèle Coello- Crotti. Le modèle du Memory Modélisation Modélisation Département de Mathématiques Université de Fribourg 7 Mai 2010 1 / 33 Plan de la présentation Modélisation 1 2 3 4 2 / 33 Plan de la présentation Modélisation 1 2 3 4 2 / 33 Plan

Plus en détail

Rappels de statistique mathématique. Guillaume Lacôte vbureau E03 B Enoncé de l exercice 1

Rappels de statistique mathématique. Guillaume Lacôte vbureau E03 B Enoncé de l exercice 1 Cursus Intégré 004-005 Rappels de statistique mathématique Enoncé et corrigé des travaux dirigés n 4 Guillaume Lacôte vbureau E03 B Guillaume.Lacote@ensae.fr http://ensae.no-ip.com/se/ Ensae SE Enoncé

Plus en détail

La simulation parfaite

La simulation parfaite La simulation parfaite N.T.Viet M.Paul Encadrant : Christian Robert 29 juin 2007 Résumé La simulation parfaite est une technique permettant d obtenir des échantillons suivant une distribution (ou loi)

Plus en détail

Variables Aléatoires Continues

Variables Aléatoires Continues Novembre 2010 Plan du Chapitre 1. Généralités 2. Variables Continues Usuelles 3. Espérance et Variance 4. Couple de Variables Aléatoires 5. Covariance et Corrélation 6. Autres Variables Continues Usuelles

Plus en détail

Estimation, Échantillonnage et Tests

Estimation, Échantillonnage et Tests Estimation, Échantillonnage et Tests H. Hocquard HSE 2016-2017 Hervé Hocquard Estimation, Échantillonnage et Tests 1/60 Introduction : les 3 grandes lignes Les statistiques peuvent permettre : Hervé Hocquard

Plus en détail

Mouvement brownien et bruit blanc

Mouvement brownien et bruit blanc 12 Novembre 2008 Plan Motivations et définitions Construction du mouvement brownien Propriété des trajectoires Propriété de Markov Plan Motivations et définitions Construction du mouvement brownien Propriété

Plus en détail

Statistiques - Ajustement de courbes

Statistiques - Ajustement de courbes Statistiques - Ajustement de courbes 1 Rappels de Statistiques 1.1 Moyenne, variance, écart-type Soit une série statistique : x 1, x 2, x n (n valeurs) Moyenne x = 1 n x i n i=1 Somme des carrés des écarts

Plus en détail

Approche bayésienne pour la tomographie des temps de première arrivée. Jihane BELHADJ Thomas ROMARY Alexandrine GESRET Mark NOBLE

Approche bayésienne pour la tomographie des temps de première arrivée. Jihane BELHADJ Thomas ROMARY Alexandrine GESRET Mark NOBLE Approche bayésienne pour la tomographie des temps de première arrivée Jihane BELHADJ Thomas ROMARY Alexandrine GESRET Mark NOBLE Tomographie sismique La tomographie des temps de première arrivée a pour

Plus en détail

Loi d une variable aléatoire réelle

Loi d une variable aléatoire réelle Licence Math et MASS, MATH504 : probabilités et statistiques Loi d une variable aléatoire réelle On introduit la notion de variable aléatoire dans le cas réel ainsi que la notion fondamentale de loi d

Plus en détail

Chapitre 5 ESTIMATION ET INTERVALLES DE CONFIANCE

Chapitre 5 ESTIMATION ET INTERVALLES DE CONFIANCE Thierry Foucart 1 http://foucart.thierry.free.fr Chapitre 5 ESTIMATION ET INTERVALLES DE CONFIANCE 1. DES PROBABILITÉS À LA STATISTIQUE. hypothèse intuitive élaborée à partir d expériences diverses : convergence

Plus en détail

Génération aléatoire uniforme de mots avec motifs interdits et maximisation de l entropie.

Génération aléatoire uniforme de mots avec motifs interdits et maximisation de l entropie. Génération aléatoire uniforme de mots avec motifs interdits et maximisation de l entropie. Travail en commun avec Jean Mairesse LIAFA, Université Paris Diderot - Paris 7 Perpignan, Jeudi 11 avril 2013

Plus en détail

1 Sujets donnés en option scientifique

1 Sujets donnés en option scientifique Les sujets suivants, posés aux candidats des options scientifique, économique, technologique et littéraire BL, constituent la première version d un échantillon des sujets proposés lors des épreuves orales

Plus en détail

Cours 5: Inférences: Estimation, Echantillonnage et Tests

Cours 5: Inférences: Estimation, Echantillonnage et Tests Cours 5: Inférences:, Echantillonnage et Laboratoire de Mathématiques de Toulouse Université Paul Sabatier-IUT GEA Ponsan Module: Stat inférentielles Cours 5: Inférences:, Echantillonnage et 1 Les divers

Plus en détail

TD 4: Schémas de Matthes et chaînes de Markov

TD 4: Schémas de Matthes et chaînes de Markov Master IF, ENS de Lyon Évaluation de performance octobre 2 TD 4: Schémas de Matthes et chaînes de Markov lionel.rieg@ens-lyon.fr Schéma de Matthes Exercice (Commutation de paquets) Un réseau à commutation

Plus en détail

Texte Chaînes de Wright-Fisher

Texte Chaînes de Wright-Fisher Page n 1. Texte Chaînes de Wright-Fisher Mots-clefs : chaîne de Markov, martingale, temps d absorption. 1 Modélisation On souhaite étudier l évolution de la fréquence d un allèle dans une population de

Plus en détail

TD 3 et 4 : Processus à temps discret et Martingales

TD 3 et 4 : Processus à temps discret et Martingales 2009 - Université Paris VI Master 1 : Introduction au calcul stochastique pour la finance (MM054) TD 3 et 4 : Processus à temps discret et Martingales 1. Questions basiques sur les filtrations 1. Une union

Plus en détail

IFT1575 Modèles de recherche opérationnelle (RO) 5. Modèles stochastiques

IFT1575 Modèles de recherche opérationnelle (RO) 5. Modèles stochastiques IFT1575 Modèles de recherche opérationnelle (RO) 5. Modèles stochastiques Espace échantillon Expérience aléatoire = expérience dont le résultat n est pas connu avec certitude Supposons que tous les résultats

Plus en détail

1 Tests d ajustement. 2 Tests d indépendance. 3 Application aux réseaux bayésiens. 4 Maximum de vraisemblance. d 2 valeur prise par D(n)

1 Tests d ajustement. 2 Tests d indépendance. 3 Application aux réseaux bayésiens. 4 Maximum de vraisemblance. d 2 valeur prise par D(n) Plan du cours n 4 RFIDEC cours 4 : Tests d ajustement, apprentissage de paramètres Christophe Gonzales LIP6 Université Paris 6, France 1 Tests d ajustement 2 Tests d indépendance 3 Application aux réseaux

Plus en détail

Statistique multivariée TP2 : Loi normale multivariée. Exercice 1

Statistique multivariée TP2 : Loi normale multivariée. Exercice 1 Statistique multivariée TP : Loi normale multivariée Exercice 1 Montrez à l aide de la densité de la loi normale p-variée standard que l aire de la sphère unité S p 1 est donnée par πp/ Γp/, où Γx = t

Plus en détail

MAP X2009. Fonction caractéristique, Vecteur gaussien, Convergence en loi, Théorème de la limite centrale 1. 1 MAP 311, Chapitre 6

MAP X2009. Fonction caractéristique, Vecteur gaussien, Convergence en loi, Théorème de la limite centrale 1. 1 MAP 311, Chapitre 6 MAP 311 - X2009 Leçon 6 Fonction caractéristique, Vecteur gaussien, Convergence en loi, Théorème de la limite centrale 1 1 MAP 311, Chapitre 6 ATTENTION! COURS 7: reporté au lundi 28 juin de 8h30 à 10h,

Plus en détail

Interpolation. Chapitre Introduction

Interpolation. Chapitre Introduction Chapitre 4 Interpolation Dans ce chapitre, on s intéresse au problème suivant Étant donné une fonction continue, comment peut-on l approcher par un polynôme? Plus précisément, on se donne une fonction

Plus en détail

Moindres carrés récursifs et algorithme adaptatif

Moindres carrés récursifs et algorithme adaptatif Moindres carrés récursifs et algorithme adaptatif Département du Traitement du Signal et des Images Laboratoire de Transmission et de Communication de l Information-UMR5141 Télécom Paris-Tech 6 mars 2011

Plus en détail

Echantillonneurs de Monte Carlo par Chaines de Markov (MCMC) Application à l Estimation Statistique Bayésienne

Echantillonneurs de Monte Carlo par Chaines de Markov (MCMC) Application à l Estimation Statistique Bayésienne Echantillonneurs de Monte Carlo par Chaines de Markov (MCMC) Application à l Estimation Statistique Bayésienne Paulo Gonçalves CPE Lyon 7 janvier 2015 Objectifs Rappel sur l inférence Bayésienne Méthodes

Plus en détail

Statistique Mathématique 2 (MATH-F-309, Chapitre #6)

Statistique Mathématique 2 (MATH-F-309, Chapitre #6) Statistique Mathématique 2 (MATH-F-309, Chapitre #6) Thomas Verdebout Université Libre de Bruxelles 2015/2016 Plan du cours 1. Vecteurs aléatoires. 2. Loi normale multivariée. 3. Inférence dans les modèles

Plus en détail

Intervalles de confiance et tests portant sur la moyenne et la variance d une loi gaussienne

Intervalles de confiance et tests portant sur la moyenne et la variance d une loi gaussienne Master de mathématiques 011/01 Intervalles de confiance et tests portant sur la moyenne et la variance d une loi gaussienne Table des matières A Intervalle de confiance 1 B Intervalles de confiance et

Plus en détail

Filtrage Bayésien et Approximation Particulaire

Filtrage Bayésien et Approximation Particulaire École Nationale Supérieure de Techniques Avancées Filière : Finance quantitative Module : Automatique avancée Filtrage Bayésien et Approximation Particulaire version provisoire du 10 septembre 2007 François

Plus en détail

Agrégation externe de mathématiques, session 2008 Épreuve de modélisation, option A : Probabilités et Statistiques

Agrégation externe de mathématiques, session 2008 Épreuve de modélisation, option A : Probabilités et Statistiques grégation externe de mathématiques, session 2008 Épreuve de modélisation, option public 2008) Résumé : La monnaie en euros est frappée par chacun des états européens qui ont choisi d abandonner leur monnaie

Plus en détail

[M. Gubinelli - Contrôle des chaînes de Markov - M1 MMD 2011/ poly 2 - v.1] Arrêt optimal

[M. Gubinelli - Contrôle des chaînes de Markov - M1 MMD 2011/ poly 2 - v.1] Arrêt optimal Rappels sur les processus et sur les temps d arrêt 1 [M. Gubinelli - Contrôle des chaînes de Markov - M1 MMD 2011/2012-20110926 - poly 2 - v.1] Arrêt optimal 1 Rappels sur les processus et sur les temps

Plus en détail

Préparation à l écrit Année Un problème de Capes blanc

Préparation à l écrit Année Un problème de Capes blanc Capes de Mathématiques Université Joseph Fourier Préparation à l écrit Année 2008-2009 Un problème de Capes blanc Préambule Dans tout le suet, n désigne un entier fixé 2. On utilise les notations et observations

Plus en détail

Entropie, KL, MV, Familles exponentielles 2010/2011. Cours 5 27 octobre. p(x) log p(x) = E p(x)

Entropie, KL, MV, Familles exponentielles 2010/2011. Cours 5 27 octobre. p(x) log p(x) = E p(x) Entropie, KL, MV, Familles exponentielles 200/20 Cours 5 27 octobre Enseignant: Francis Bach Scribe: Vincent Adam, Samy Blusseau 5. Entropie Définition 5. Soit une variable aléatoire dans fini. On note

Plus en détail

Résumé du cours de probabilité Deuxième partie

Résumé du cours de probabilité Deuxième partie Université de Paris X Nanterre U.F.R. Segmi Année 25-26 Licence Economie-Gestion deuxième année Résumé du cours de probabilité Deuxième partie 6 Lois à densité Définition 1. Soit f : R R + une application

Plus en détail

Classification et reconnaissance de formes

Classification et reconnaissance de formes Classification et reconnaissance de formes Théorie Bayesienne de la décision Gilles Gasso 8 novembre 216 Gilles Gasso Classification et reconnaissance de formes 1 / 3 Plan 1 Introduction 2 Rappels : notions

Plus en détail

Cours N 4 : La loi Normale

Cours N 4 : La loi Normale I. Définition Cours N 4 : La loi Normale La loi normale, ou loi de Laplace-Gauss, ou loi de Gauss, de paramètre σ et µ,est définie sur R par la densité de probabilité suivante : Avec : f x = 1 σ 2π exp[

Plus en détail

Simulation de variables aléatoires. Chaînes de Markov -

Simulation de variables aléatoires. Chaînes de Markov - Simulation de variables aléatoires Anne Philippe Méthodes de Monte Carlo par chaînes de Markov Laboratoire de Mathématiques Jean Leray Université de Nantes December 9, 203 Les logiciels Jags / Openbugs

Plus en détail

Filtre de Kalman d ensemble vs. Filtres particulaires

Filtre de Kalman d ensemble vs. Filtres particulaires réunion de l ARC ADOQA Assimilation de Données pour la Qualité de l Air Grenoble, 17 et 18 octobre 26 Filtre de Kalman d ensemble vs. Filtres particulaires François Le Gland IRISA / INRIA Rennes legland@irisa.fr

Plus en détail

ELEMENTS DE LA THEORIE DES PROBABILITES

ELEMENTS DE LA THEORIE DES PROBABILITES ELEMENTS DE LA THEORIE DES PROBABILITES Laurent MAZLIAK Cours Préliminaire au DEA de Probabilités Année 2004-2005 20 juillet 2004 L objet de ces notes est de passer en revue un certain nombre de résultats

Plus en détail