Méthodes de Simulation



Documents pareils
Soutenance de stage Laboratoire des Signaux et Systèmes

Simulation de variables aléatoires

Modélisation aléatoire en fiabilité des logiciels

TABLE DES MATIERES. C Exercices complémentaires 42

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Économetrie non paramétrique I. Estimation d une densité

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Modélisation et simulation

MODELES DE DUREE DE VIE

PROBABILITES ET STATISTIQUE I&II

Théorie de l estimation et de la décision statistique

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Quantification Scalaire et Prédictive

Cours d introduction à la théorie de la détection

MCMC et approximations en champ moyen pour les modèles de Markov

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Programmes des classes préparatoires aux Grandes Ecoles

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Résolution d équations non linéaires

3 Approximation de solutions d équations

La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

MÉTHODE DE MONTE CARLO.

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Probabilités III Introduction à l évaluation d options

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

Chapitre 2 Le problème de l unicité des solutions

Équations non linéaires

UNIVERSITÉ DU QUÉBEC À MONTRÉAL TESTS EN ÉCHANTILLONS FINIS DU MEDAF SANS LA NORMALITÉ ET SANS LA CONVERGENCE

Introduction à la Statistique Inférentielle

Chapitre 7 : Intégration sur un intervalle quelconque

MA6.06 : Mesure et Probabilités

NON-LINEARITE ET RESEAUX NEURONAUX

Moments des variables aléatoires réelles

Pierre Thérond Année universitaire

Table des matières. I Mise à niveau 11. Préface

Résumé des communications des Intervenants

Le Modèle Linéaire par l exemple :

Feuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.

Cours de méthodes de scoring

TSTI 2D CH X : Exemples de lois à densité 1

Calcul fonctionnel holomorphe dans les algèbres de Banach

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Correction du baccalauréat ES/L Métropole 20 juin 2014

4 Distributions particulières de probabilités

Probabilités avancées. Florin Avram

Amphi 3: Espaces complets - Applications linéaires continues

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

IFT3245. Simulation et modèles

3. Conditionnement P (B)

TABLE DES MATIÈRES. Bruxelles, De Boeck, 2011, 736 p.

STATISTIQUES. UE Modélisation pour la biologie

Le modèle de régression linéaire

Variables Aléatoires. Chapitre 2

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Introduction à l approche bootstrap

Processus aléatoires avec application en finance

Intérêt du découpage en sous-bandes pour l analyse spectrale

Espérance conditionnelle

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Évaluation de la régression bornée

La fonction exponentielle

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Classification non supervisée

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Modèles et Méthodes de Réservation

Processus de comptage, Poisson mélange, fonction de perte exponentielle, système bonus-malus.

Probabilités sur un univers fini

Projet de Traitement du Signal Segmentation d images SAR

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Raisonnement probabiliste

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Cours de Tests paramétriques

Echantillonnage Non uniforme

Annexe commune aux séries ES, L et S : boîtes et quantiles

FIMA, 7 juillet 2005

Calculs de probabilités avec la loi normale

Détection de têtes dans un nuage de points 3D à l aide d un modèle de mélange sphérique

Correction de l examen de la première session

de calibration Master 2: Calibration de modèles: présentation et simulation d

Introduction à la théorie des files d'attente. Claude Chaudet

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

Simulation : application au système bonus-malus en responsabilité civile automobile

Apprentissage non paramétrique en régression

Température corporelle d un castor (une petite introduction aux séries temporelles)

Modélisation des risques

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

Transcription:

Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41

Remerciements Christian Robert : pour ses excellents transparents Éric Moulines : pour ses excellents fichiers Latex Olivier Cappé : pour ses excellents conseils Nicolas Dobigeon : pour ses excellents programmes Matlab Florent Chatelain : pour ses excellents talents d informaticien Peyresq06 p. 2/41

Méthodes de simulation Partie 1 : Bayes et Simulation Partie 2 : Metropolis - Hastings Partie 3 : L échantillonneur de Gibbs Partie 4 : Diagnostic de Convergence Partie 5 : Segmentation de signaux stationnaires par morceaux Pour finir : Livres, Sites Webs, Pages perso,... Peyresq06 p. 3/41

Cours 1 : Bayes et Simulation 1) Introduction : modèles statistiques 2) Maximum de vraisemblance 3) Méthodes Bayésiennes 4) Méthodes de base de simulation 5) Méthodes de Monte Carlo pour l intégration 6) Méthodes numériques déterministes Peyresq06 p. 4/41

Modèle Statistique (1) Compromis entre un modèle compliqué proche de la réalité qui peut induire des méthodes d estimation, de détection ou de classification non standards un modèle simple qui conduit à des hypothèses comme linéarité, Gaussianité,... mais qui peut être trop éloigné du phénomène physique étudié Avec le développement de la puissance de calcul, des méthodes comme les méthodes de simulation peuvent être envisagées plus facilement. Peyresq06 p. 5/41

Modèle Statistique (2) Parfois, on choisit un modèle simple mais la suppression de certaines informations rend le problème difficile : Modèles de censure Modèles de mélanges y i = min{x i,c} y i p 1 f 1 (x) +... + p k f k (x) Modèles stationnaires par morceaux y i f k (x) si i [t k,t k+1 [ Peyresq06 p. 6/41

Maximum de Vraisemblance Définition : Pour un échantillon x = (x 1,...,x n ) de densité f(x θ), la vraisemblance s écrit : L(x θ) = n f(x i θ) Propriétés asymptotiques : asymptotiquement sans biais, convergent et efficace Facile à comprendre et souvent facile à étudier Mais pose problème pour de nombreux modèles statistiques Peyresq06 p. 7/41

Exemple 1 : loi Gamma, α connu Log-vraisemblance : f(x α,β) = xα 1 e x/β Γ(α)β α I R +(x) ln L(x α,β) = n ln Γ(α) nα ln β n + (α 1) ln x i 1 β n x i Estimateur du maximum de vraisemblance de β : β = 1 Nα n x i Peyresq06 p. 8/41

Exemple 2 : loi Gamma, α inconnu Estimateur du maximum de vraisemblance α β ln L(x α,β) = 0 ln L(x α,β) = 0 Équations non-linéaires faisant intervenir la fonction digamma!! Peyresq06 p. 9/41

Exemple 3 : loi de Student f(x θ,p,σ) 1 σ (1 + Log-vraisemblance : ( ) ( p + 1 ln L(x θ,p,σ) = ln 2 (x θ)2 pσ 2 σ 2n p+1 ) p+1 2 n (1 + (x i θ) 2 ) ) possède n maxima locaux (p et σ 2 connus) matlab: student pσ 2 Peyresq06 p. 10/41

Modèles de censure Loi de Weibull f(x α,β) = αβx α 1 exp( βx α )I R +(x) Données tronquées z = min(x,ω) ( f(z α,β,ω) = αβz α e βzα I ],ω] (z)+ ω ) αβz α e βzα dz δ ω (z) Peyresq06 p. 11/41

Modèles de mélange Définition Supposons que x i suive la loi de densité f j (x i ) avec la probabilité p j : f(x i ) = p 1 f 1 (x i ) +... + p k f k (x i ) Vraisemblance L(x θ,p) = n ( p1 f 1 (x i ) +... + p k f k (x i ) ) comporte k n termes. Donc les techniques classiques d optimisation sont inappropriées à une telle fonction multimodale. Peyresq06 p. 12/41

Méthodes Bayésiennes Vraisemblance f(x θ) = n f(x i θ) Loi a priori sur θ π(θ) Loi a posteriori f(θ x) = f(x θ)π(θ) f(x θ)π(θ)dθ où f(x) = f(x θ)π(θ)dθ est la loi marginale de x. Peyresq06 p. 13/41

Inférence Bayésienne On rencontre deux types de problèmes avec les méthodes d estimation Bayésiennes [ ( E C θ, θ(x) )] [ = ] C(θ, θ(x))f(θ, x)dx dθ Des problèmes d optimisation (coût 0 1) : estimateur du maximum a Posteriori θ MAP (x) = arg maxf(θ x) = arg maxf(x θ)π(θ) Des problèmes d intégration (coût quadratique) : estimateur MMSE θ MMSE (x) = E[θ x] = θf(θ x)dθ Peyresq06 p. 14/41

Méthodes Bayésiennes Peyresq06 p. 15/41

Exemple 1 : le cas Gaussien Données f(x µ,σ 2 ) = n ( 1 exp (x ) i µ) 2 2πσ 2 2σ 2 Loi a priori : µ N(µ 0,σ 2 0) π(µ) = 1 2πσ 2 0 exp ( (µ µ ) 0) 2 2σ 2 0 Loi a posteriori : µ x N(µ n,σ 2 n) µ n = ( nσ 2 0 ) 1 nσ0 2 + σ 2 n n x i + ( σ 2 σ 2 + nσ 2 0 ) µ 0 matlab: Bayes Peyresq06 p. 16/41

Exemple 2 : Loi de Cauchy Données f(x µ,σ) = n σ 1 [1 + ( ) ] 2 xi µ σ Loi a priori : π(µ,σ) = σ 1 Loi a posteriori de µ f(µ x) 0 σ n 1 n [ 1 + ( ) ] 2 xi µ σ dσ Donc, pas d expression explicite de cette loi a posteriori! Peyresq06 p. 17/41

Lois conjuguées Définition : une loi a priori π(θ) est conjuguée si f(x θ) et π(θ) appartiennent à la même famille de lois. Cas Gaussien f(x m,σ 2 ) 1 (σ 2 ) n/2 exp [ 1 2σ 2 ] n (x i m) 2 loi conjuguée pour m : loi normale m N(µ,β 2 ) loi conjuguée pour σ 2 : loi inverse gamma π(σ 2 κ,γ) 1 ( (σ 2 ) κ+1 exp γ ) σ 2 Peyresq06 p. 18/41

Lois conjuguées Motivation : simplifie le calcul de la loi a posteriori Cas Particulier : lois impropres π(θ) Cste Jeffreys prior π(σ 2 ) 1 σ 2 Peyresq06 p. 19/41

Méthodes de simulation Générateur uniforme Pour une fonction de répartition F définie sur R, on définit son inverse généralisée par F 1 (u) = inf{x;f(x) u} Alors, si U est uniforme sur [0, 1], la variable aléatoire F 1 (U) est de fonction de répartition F car P[F 1 (U) x] = P[U F(x)] = F(x) Cette méthode nécessite de connaître l inverse généralisée de la fonction de répartition. Peyresq06 p. 20/41

Méthodes de simulation Certaines méthodes utilisent des propriétés spécifiques de la loi à simuler : loi Exponentielle X = 1 λ ln U, U U([0, 1]) la méthode de l inverse généralisée donne X = 1 λ ln(1 U). Loi Gamma et Beta Y = b a ln U j Ga(a,b), a N j=1 Y = a j=1 ln U j a+b j=1 ln U j Be(a,b), a,b N Peyresq06 p. 21/41

Méthodes de simulation Méthode de Box Müller Si U 1 et U 2 sont deux variables indépendantes uniformes sur [0, 1], alors Y 1 = 2 lnu 1 cos(2πu 2 ) Y 2 = 2 lnu 1 sin(2πu 2 ) sont des variables iid distribuées suivant une loi N(0, 1). Loi de Poisson Si X i E(λ) et N P(λ) alors P[N = k] = P [X 1 +... + X k 1 < X 1 +... + X k+1 ] Peyresq06 p. 22/41

Méthodes d acceptation-rejet Beaucoup de lois sont difficiles à simuler directement avec les méthodes précédentes Il y a certaines applications où la loi à simuler f est connue à une constante multiplicative près (méthodes Bayésiennes) Une solution est de simuler à l aide d une loi de proposition g plus simple et d utiliser un algorithme d acceptation-rejet Peyresq06 p. 23/41

Algorithme d acceptation-rejet Soit une loi d intérêt de densité f et une loi de proposition de densité g telle que f(x) Mg(x) sur le support de f. Alors, on peut simuler suivant f avec l algorithme suivant 1) Générer X g et U U([0, 1]) 2) Accepter Y = X si U f(x) Mg(X) 3) Retourner en 1) si rejet Peyresq06 p. 24/41

Probabilité d acceptation P[X accepté] = P = E = E = [ U [ E f(x) ] Mg(X) [ I {U f(x) [ f(x) Mg(X) Mg(X) } ] = E ] ] X f(x) Mg(x) g(x)dx = 1 M [ I {U f(x) Mg(X) } ] Peyresq06 p. 25/41

loi de X P[X < x,x accepté] P[X < x X accepté] = 1/M [ = MP X < x,u < f(x) ] Mg(X) [ ] = ME I f(x) {X<x,U Mg(X) } [ [ ] ] = ME E I f(x) {X<x,U X Mg(X) } [ ] f(x) = ME I {X<x} Mg(X) = x f(x) g(x) g(x)dx = F(x) Peyresq06 p. 26/41

Remarques Cet algorithme permet de simuler une densité connue à une const. multiplicative près, e.g. f(θ x) f(x θ)π(θ) La probabilité d acceptation est 1/M donc la valeur de M règle l efficacité (vitesse) de l algorithme Problème pour des densités à queues lourdes. Par exemple, on ne peut simuler une loi de Cauchy avec une loi de proposition normale (mais on peut faire l inverse!) Utilisable pour un grand nombre de lois : N(0, 1), Ga(a,b), lois normales tronquées,... Peyresq06 p. 27/41

Exemple : Cauchy Normale Loi cible f(x) = 1 2π exp ( x 2 /2 ) Loi de proposition g(x) = 1 π 1 1 + x 2 Choix de M f(x) g(x) = π 2 (1 + x2 )e x2 /2 2π e = 1.52 valeur atteinte en ±1. Proba d acceptation 1/M 0.66. matlab: accept-reject pour différentes valeurs de M Peyresq06 p. 28/41

Intégration par la méthode de Monte Carlo On cherche à évaluer E[h(Θ)] = P h(θ)f(θ)dθ, où P est l espace des paramètres, f est une densité connue et h est une fonction connue. Solution : générer un échantillon (θ 1,...,θ n ) distribué suivant f pour approcher cette intégrale : E[h(Θ)] h m = 1 m m j=1 h(θ j ), Justification : loi forte des grands nombres ( ) 1 Erreur : O n (remember, curse of dimensionality!) Cste Peyresq06 p. 29/41

Intervalles de confiance Variance : v m = 1 m 2 m j=1 [h(θ j ) h m ] 2 Loi asymptotique : h m E[h(Θ)] vm N(0, 1) On peut déterminer des intervalles de confiance sur les paramètres inconnus! Peyresq06 p. 30/41

Exemple : Fonction de répartition Définition : F(θ) = θ 1 2π e t2 /2 dt Approximation : F(θ) = 1 n n I θi <θ, où (θ 1,...,θ n ) est un échantillon généré avec l algorithme de Box-Muller. Remarque : La variance de F(θ) est F(θ)[1 F(θ)] n, e.g. 1 4n pour θ = 0. Donc, pour avoir une précision de 10 4, il faut un échantillon de taille n = 200 millions! Peyresq06 p. 31/41

Échantillonnage d importance Définition : E[h(Θ)] = P [ h(θ) f(θ) ] g(θ)dθ, g(θ) qui permet de simuler suivant g. Estimation : générer un échantillon (θ 1,...,θ n ) distribué suivant g pour approcher cette intégrale : E[h(Θ)] 1 m m j=1 f(θ j ) g(θ j ) h(θ j), Peyresq06 p. 32/41

Choix de la loi de proposition Loi g simple à simuler Si le support de g contient celui de f, l estimateur converge vers P h(θ)f(θ)dθ La variance de l estimateur est finie si [ E h 2 (Θ) f(θ) ] < g(θ) Éviter les lois de proposition telles que sup θ P 1) pb si le support de g n est pas inclus dans celui de f, f(θ) g(θ) = 2) il existe une loi optimale minimisant la variance qui dépend de l intégrale à calculer! Peyresq06 p. 33/41

Exemple Soit f la densité d une loi de Student à ν degrés de liberté. Calcul de I = Simulation suivant f a θ 5 f(θ)dθ, Échantillonnage d importance avec loi de Cauchy Un changement de variables u = 1/θ permet d obtenir I = 1 a 0 a 1 au 7f ( ) 1 du 1 u a où U suit une loi uniforme sur [0, 1 a ]. 1 n n matlab : integrale-student, I = 6.54, variance des estimées pour n = 5000 1 u 7 j f ( 1 u j ), Peyresq06 p. 34/41

Exemple : ν = 12, a = 2.1 7 6.5 6 intøgrale 5.5 5 Simulation suivant f Importance Sampling (Loi de Cauchy avec ν=1) Importance Sampling (Loi uniforme sur [0, 1/2.1]) 4.5 4 3.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 iterations x 10 4 Peyresq06 p. 35/41

Méthodes d accélération Utiliser la corrélation pour diminuer la variance d estimation. Soient deux échantillons (θ 1,...,θ n ) et (η 1,...,η n ) distribués suivant f. On a alors deux estimateurs non biaisés de I = h(θ)f(θ)dθ définis par R Î 1 = 1 n n h(θ i ), Î 2 = 1 n n h(η i ) La variance de la moyenne de ces deux estimateurs est ) (Î1 + Var Î2 = 1 ( ) VarÎ1 + VarÎ2 + 1 2 4 2 Cov(Î1,Î2) diminution de variance si la covariance est négative Peyresq06 p. 36/41

Conditionnement - Rao-Blackwellization Espérances conditionnelles E[h(Θ)] = E [E[h(Θ) Λ]] Estimateurs Donc, si on sait calculer g(λ) = E[h(Θ) λ], on en déduit deux estimateurs Î 1 = 1 n Î 2 = 1 n n h(θ i ) n g(λ i ) = 1 n Réduction de variance n E[h(Θ) Λ i ] Peyresq06 p. 37/41

Exemple Problème I = e θ2 f(θ)dθ, où f la densité d une loi de Student à ν degrés de liberté. Estimateur usuel Î 1 = 1 n n e Θ2 j Réduction de variance Θ Λ N(µ,σ 2 Λ) et Λ 1 χ 2 ν Î 2 = 1 n n E[e Θ2 Λ i ] = 1 n n 1 2σ2 Λ j + 1 matlab : Raoblack, I = 5373 Peyresq06 p. 38/41

Exemple : ν = 4.6, µ = 0, σ 2 = 1 0.57 0.56 0.55 0.54 intøgrale 0.53 0.52 0.51 Estimateur usuel Rao Blackwellization Valeur de l intøgrale 0.5 0.49 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000 iterations Peyresq06 p. 39/41

Méthodes déterministes d optimisation Pour résoudre une équation de la forme f(θ) = 0, on peut utiliser des algorithmes comme l algorithme de Newton-Raphson : θ n+1 = θ n + ( ) 1 f θ (θ n) f(θ n ), qui converge vers la solution f(θ) = 0. convergence lente en O(n 2 ) ou O(n 3 ) alors que pour une méthode de simulation, on aura classiquement une convergence en O(n)! Peyresq06 p. 40/41

Méthodes déterministes d intégration Pour calculer une intégrale de la forme b a f(θ)dθ, on peut utiliser des algorithmes basés sur les sommes de Riemann (méthode des trapèzes, méthode de Simpson,...). On peut explorer des zones de faibles probabilités On a en général des problèmes pour des fonctions multi-modales. L erreur est en O ( 1 n 1/d ), où d est la dimension de l espace! (curse of dimensionality). Pour les méthodes de Monte-Carlo, on aura une erreur en O 1 n! Peyresq06 p. 41/41