Jeffrey S. Rosenthal



Documents pareils
Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Méthodes de Simulation

Texte Agrégation limitée par diffusion interne

Simulation de variables aléatoires

Amphi 3: Espaces complets - Applications linéaires continues

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

PROBABILITES ET STATISTIQUE I&II

Raisonnement probabiliste

Moments des variables aléatoires réelles

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Modélisation et simulation

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Probabilités III Introduction à l évaluation d options

Travaux dirigés d introduction aux Probabilités

Équation de Langevin avec petites perturbations browniennes ou

Résolution d équations non linéaires

Estimation et tests statistiques, TD 5. Solutions

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

IFT3245. Simulation et modèles

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Principe de symétrisation pour la construction d un test adaptatif

MÉTHODE DE MONTE CARLO.

Processus aléatoires avec application en finance

4. Martingales à temps discret

Programmes des classes préparatoires aux Grandes Ecoles

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

MCMC et approximations en champ moyen pour les modèles de Markov

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Apprentissage par renforcement (1a/3)

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Resolution limit in community detection

Feuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Loi binomiale Lois normales

Introduction à la statistique non paramétrique

Équations non linéaires

FIMA, 7 juillet 2005

Modélisation aléatoire en fiabilité des logiciels

UNIVERSITE DES ANTILLES et DE LA GUYANE Campus de Fouillole BP Pointe-à-Pitre Cedex CONTRAT LE MASTER NOM DU DOMAINE STS

TSTI 2D CH X : Exemples de lois à densité 1

4 Distributions particulières de probabilités

Lois de probabilité. Anita Burgun

Coup de Projecteur sur les Réseaux de Neurones

21 mars Simulations et Méthodes de Monte Carlo. DADI Charles-Abner. Objectifs et intérêt de ce T.E.R. Générer l'aléatoire.

Web Science. Master 1 IFI. Andrea G. B. Tettamanzi. Université de Nice Sophia Antipolis Département Informatique andrea.tettamanzi@unice.

Algorithmes de Transmission et de Recherche de l Information dans les Réseaux de Communication. Philippe Robert INRIA Paris-Rocquencourt

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Pourquoi l apprentissage?

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Economie de l Incertain et des Incitations

3. Caractéristiques et fonctions d une v.a.

Image d un intervalle par une fonction continue

Quantification Scalaire et Prédictive

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Cours de Tests paramétriques

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Intégration et probabilités TD1 Espaces mesurés

Sujet 4: Programmation stochastique propriétés de fonction de recours

Problèmes arithmétiques issus de la cryptographie reposant sur les réseaux

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Cours d analyse numérique SMI-S4

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Finance, Navier-Stokes, et la calibration

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

M2 IAD UE MODE Notes de cours (3)

Le modèle de Black et Scholes

Réalisabilité et extraction de programmes

Introduction à la Statistique Inférentielle

Outils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Introduction à l approche bootstrap

Chapitre 2 Le problème de l unicité des solutions

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Econométrie et applications

TABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie

Programmation linéaire

Probabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1

Couplage efficace entre Optimisation et Simulation stochastique Application à la maintenance optimale d une constellation de satellites

Leçon 01 Exercices d'entraînement

La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

Sur quelques applications des processus de branchement en biologie moléculaire

La mesure de Lebesgue sur la droite réelle

Quelques tests de primalité

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Une application des algorithmes génétiques à l ordonnancement d atelier

Cours de méthodes de scoring

Couples de variables aléatoires discrètes

Résumé des communications des Intervenants

Transcription:

Les marches aléatoires et les algorithmes MCMC Jeffrey S. Rosenthal University of Toronto jeff@math.toronto.edu http ://probability.ca/jeff/ (CRM, Montréal, Jan 12, 2007)

Un processus stochastique Qu est-ce que c est? Une collection des instructions probabilistiques pour «quoi faire la prochaine fois». Les instructions sont suivues en répétition. Après plusieurs répétitions, même des instructions simples peuvent produire des resultats très interessants. Plusieurs applications aux jeux, algorithmes aléatoires, et beaucoup plus. (1/14)

Premier exemple : marche aléatoire simple Tu paris $1, en répétition. Chaque fois, tu gagnes $1 avec probabilité p, ou perds $1 avec probabilité 1 p. (0 < p < 1) C est-à-dire : Tu commences avec une fortune initiale X 0. Puis, pour n = 1, 2,..., X n est égale à X n 1 + 1 avec prob p, ou X n 1 1 avec prob 1 p. Équivalence : X n = X 0 + Z 1 + Z 2 +... + Z n, où les {Z i } sont indépendants, avec P[Z i = +1] = p = 1 P[Z i = 1]. [APPLET] (2/14)

Marche aléatoire simple (continué) Même cette exemple simple est très interessante : Distribution : 1 2 (X n X 0 + n) Binomial(n, p) 1 Distribution limitée : (X n X 0 n(2p 1)) Normal(0, 1) np(1 p) (n grand) (TLC) Récurrence : P[ n 1 : X n = X 0 ] = 1 ssi p = 1/2 (symétrique) (toujours vrai en dimension 2, mais pas en 3) Fluctuations : Si p = 1/2, le processus éventuelement touchera à n importe quelle sequence a 1, a 2,..., a l. Martingale : Si p = 1/2, alors E(X n X 0,..., X n 1 ) = X n 1, c.à.d. le processus reste le même en moyenne. Si p 1/2, alors {((1 p)/p) X n } est martingale. (3/14)

La ruine du jouer Quelle est la probabilité que X n = 2X 0 avant X n = 0? Exemple : p = 0.492929 (comme le jeux «craps»). [APPLET] Impossible à resoudre avec des computations directes, parce que le nombre d iterations n est pas borné. Mais, avec des analyses plus fort (p.e. des martingales), on trouve : Jeux : Symétrique Craps Roulette X 0 = 1 50% 49.29% 47.37% X 0 = 10 50% 42.98% 25.85% X 0 = 100 50% 1 sur 18 1 sur 37,000 X 0 = 500 50% 1 sur 1.4 million 1 sur 10 23 X 0 = 1, 000 50% 1 sur 10 16 1 sur 10 48 Évidence claire pour la loi des grands nombres! (4/14)

La convergence en distribution Exemple : marche aléatoire simple symétrique (p = 1/2), sauf forcé à rester dans X = {0, 1,..., 6}. c.à.d. : si le processus essaye de quitter X, alors l étappe est rejetée, et le processus reste le même (X n = X n 1 ). Qu est-ce qui se passe après beaucoup d iterations? [APPLET] La distribution empirique (noir) converge vers la distribution désirée (bleu). Interessant? Oui. Utile? En effet! (5/14)

Generalisation Soit π( ) une distribution (cas discret) où densité (cas continue) sur une espace X. [Avant : π( ) = Uniform{1, 2, 3, 4, 5, 6}.] De X n 1, proposer Y n (symétriquement). Accepter (X n = Y n ) avec probabilité min[1, π(y n )/π(x n 1 )]. Sinon, rejeter (X n = X n 1 ). ( Algorithme Metropolis, 1953) [APPLET] Alors, probablement, si B et M sont grand, alors X B π( ), et E π (h) 1 B+M 1 M h(x i). i=b Markov Chain Monte Carlo (MCMC). Très populaire en statistique, physique, science informatique, finance, et plus. La preuve? 788,000 pages web en Google! (6/14)

Comment évaluer les algorithmes MCMC? e.g. exemple de l applet, mais avec π{2} = 0.0001. Proposer par Y n Uniform{x γ,..., x 1, x + 1,..., x + γ}, γ N. [Avant : γ = 1.] Quels γ donnent la bonne convergence? [APPLET] γ = 1 (comme avant) : trop petit, alors ne bouge pas assez. γ = 50 : trop grand, alors trop de rejets. γ = 3 ou 4 ou 5 : un compromis, qui marche très bien. Facile, ici. Mais, comment dècider dans un exemple complex... (7/14)

Une application statistique typique π( ) a la densité suivante sur R K+3 : f(σ 2 θ, σ 2 e, µ, θ 1,..., θ K ) = C e b 1/σ 2 θσ 2 θ a 1 1 e b 2 /σ 2 eσ 2 e a 2 1 e (µ µ 0 ) 2 /2σ 2 0 K i=1 [e (θ i µ) 2 /2σθ/σ 2 θ ] K i=1 j=1 [e (Y ij θ i ) 2 /2σe/σ 2 e ], où K, J grand, {Y ij } données (connues), a 1, a 2, b 1, b 2, µ 0, σ0 2 paramétres (connues), et C > 0 est la constante de nomalisation. [Posterieur pour le modèle Variance Components.] Integration numerique : impossible (même pour calculer C). Metropolis : Oui! Proposer p.e. Y n Normal(X n 1, σ 2 ). Mais, avec quel σ 2? (8/14) J

Approche théoretique #1 : couplage Si nous pouvons construire, avec {X n }, un autre processus {X n} pour lequel X n π( ) pour chaque n, alors : P(X n A) π(a) = P(X n A) P(X n A) P(X n X n). Si la construction a la proprieté que P(X n X n) 1 pour n grand, alors ça nous donne beaucoup d information sur la convergence en distribution. Possible, et il y a quelques succes avec des exemples compliqués. [R., JASA, 1995 ; Stat. Comput. 1996 ; Elec. Comm. Prob. 2002 ; JASA 2003 ; etc.] Mais pas facile! (Minorisations, drifts,...) [article] (9/14)

Approche théoretiques #2 : échelles optimales Il existe des théorèmes qui dissent, dans certains contextes, quelle valeur de γ (ou σ 2 ) est optimale : Si la distribution désirée a des composants i.i.d., alors pour l algorithme Metropolis, c est optimale d avoir un taux d acceptance de 0.234. [Roberts, Gelman et Gilks, Ann. Appl. Prob. 1994] Pour l algorithme Langevin, le taux optimal est 0.574. [Roberts et R., JRSSB 1998 ; Stat. Sci. 2001] Parfois ces resultats generalisent, et parfois pas. [M. Bédard, 2006] Mais, tous ces contexts sont trop specifiques pour des «vrais» exemples. Alors, quoi faire en practique? (10/14)

MCMC Adaptif Idée : Demander a l ordinateur de trouver des bons γ pour nous. C.à.d., à chaque iteration n, l ordinateur va choisir une valeur {Γ n } à utiliser pour γ. Essayer de faire «apprendre» à l ordinateur quelles valeurs sont les meilleures. Pour l applet, par exemple : Chaque fois que Y n est accepté, alors Γ n = Γ n 1 + 1 (alors γ augmente, et le taux d acceptence diminue). Chaque fois que Y n est rejeté, alors Γ n = max(γ n 1 1, 1) (alors γ diminue, et le taux d acceptence augmente). Logique, et naturale. Mais est-ce que ça marche? NON! C est un désastre! [APPLET] (11/14)

Quand est-ce les algorithmes adaptifs convergent? [Roberts et R., 2004, 2005] Théorème. Un algorithme adaptif converge si (a) les taux de convergence sont tous bornées [condition téchnique ; il suffit que X est fini ou compacte] ; et (b) l adaptation diminue : P[Γ n Γ n 1 ] 0, ou plus generalement sup x X P Γn+1 (x, ) P Γn (x, ) 0. Alors, dans l exemple de l applet, si on ne change Γ n qu avec probabilité p(n), et p(n) 0, alors ça va converger bien. (12/14)

Autres exemples des algorithmes adaptifs Autres exemples auxquels le théorème s applique : Metropolis-Hastings avec Y n MV N(X n 1, v n (X 0,..., X n 1 )), pour des fonctiones appropriées v n. Metropolis-within-Gibbs : chacune des 500 variables a sa propre variance σi 2 de sa propre Y i, et l ordinateur adapte chaque σi 2 sépérament. Et, ça marche! L algorithme Adaptive Metropolis : Y n MV N(X n 1, c Σ n ), où c > 0, et Σ n est l estime empirique de la covariance de π( ). Ça marche, même en dimension 200 (quand Σ n a dimension vers 20,000). Conclusion : Souvent, les algorithmes adaptifs marchent bien! (13/14)

Résumé Les processus aléatoires sont très interessants, et parfois très utiles. La répétition des instructions (simples?) probabilistiques. Distributions, limites, récurrence, fluctuations, martingales, la ruine du jouer,... MCMC (Metropolis etc.) pour converger en distribution. Approches théoretiques : couplage, échelles optimales. Algorithmes adaptifs : l ordinateur choisi pour nous. Si on fait beaucoup d attention, ça peut marcher bien. Beaucoup de questions récherches interressantes! (14/14)