MÉTHODE DE MONTE CARLO.



Documents pareils
Simulation de variables aléatoires

Programmes des classes préparatoires aux Grandes Ecoles

Probabilités III Introduction à l évaluation d options

Moments des variables aléatoires réelles

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Modélisation et simulation

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

PROBABILITES ET STATISTIQUE I&II

Espérance conditionnelle

TSTI 2D CH X : Exemples de lois à densité 1

Le modèle de Black et Scholes

Travaux dirigés d introduction aux Probabilités

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

4 Distributions particulières de probabilités

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

IFT3245. Simulation et modèles

Loi binomiale Lois normales

Principe de symétrisation pour la construction d un test adaptatif

TABLE DES MATIERES. C Exercices complémentaires 42

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

3. Conditionnement P (B)

Méthodes de Simulation

Probabilités et statistique. Benjamin JOURDAIN

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Cours 7 : Utilisation de modules sous python

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Quantification Scalaire et Prédictive

3. Caractéristiques et fonctions d une v.a.

Loi d une variable discrète

Annexe commune aux séries ES, L et S : boîtes et quantiles

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Introduction au pricing d option en finance

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Introduction à la statistique non paramétrique

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

MODELES DE DUREE DE VIE

4. Martingales à temps discret

Table des matières. I Mise à niveau 11. Préface

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

La fonction exponentielle

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Polynômes de Tchebychev

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

de calibration Master 2: Calibration de modèles: présentation et simulation d

Value at Risk. CNAM GFN 206 Gestion d actifs et des risques. Grégory Taillard. 27 février & 13 mars 20061

Probabilités sur un univers fini

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Rappels sur les suites - Algorithme

Simulation : application au système bonus-malus en responsabilité civile automobile

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Que faire lorsqu on considère plusieurs variables en même temps?

Produits de crédit en portefeuille

Correction du baccalauréat ES/L Métropole 20 juin 2014

CCP PSI Mathématiques 1 : un corrigé

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

Chapitre 3. Les distributions à deux variables

FIMA, 7 juillet 2005

Lois de probabilité. Anita Burgun

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Modélisation aléatoire en fiabilité des logiciels

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Statistiques Descriptives à une dimension

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Chapitre 2 Le problème de l unicité des solutions

La classification automatique de données quantitatives

1. Vocabulaire : Introduction au tableau élémentaire

Cours de Tests paramétriques

Variables Aléatoires. Chapitre 2

Précision d un résultat et calculs d incertitudes

Estimation et tests statistiques, TD 5. Solutions

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Économetrie non paramétrique I. Estimation d une densité

Image d un intervalle par une fonction continue

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Introduction à MATLAB R

Introduction à la Statistique Inférentielle

Chapitre 3 : INFERENCE

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Analyse de la variance Comparaison de plusieurs moyennes

Représentation des Nombres

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Continuité et dérivabilité d une fonction

Température corporelle d un castor (une petite introduction aux séries temporelles)

MA6.06 : Mesure et Probabilités

Chp. 4. Minimisation d une fonction d une variable

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Transcription:

MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95

PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 2 / 95

BUT : CALCUL D ESPÉRANCE. Soient X une v.a.r. et f : R R une fonction. BUT Calculer numériquement E(f (X)). EXEMPLES FINANCE : prix d une option d achat modèle de Cox-Ross-Rubinstein : ( 1 C = (1 + r) N E S 0 N i=1 T i K ) + P(T i = 1 + u) = p = 1 P(T i = 1 + d) où p = (u r)/(u d). modèle de Black-Scholes : [ ( ) ] + C = e rt E S 0 e (r σ2 /2)T +σw T K avec W T N (0, T ).. A. Popier (Le Mans) Méthode de Monte Carlo. 3 / 95

BUT : CALCUL D ESPÉRANCE. Soient X une v.a.r. et f : R R une fonction. BUT Calculer numériquement E(f (X)). EXEMPLES FINANCE : prix d une option d achat ASSURANCE : calcul de la prime Prime pure : E(X), Prime exponentielle : 1 c ln E(ecX ), Prime quantile : F 1 (1 ε), X CALCUL DE PERTE ou Value At Risk en finance : P(X < seuil). etc. A. Popier (Le Mans) Méthode de Monte Carlo. 3 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 4 / 95

LOI DES GRANDS NOMBRES. THÉORÈME Soit (Y i ) i N une suite de variables aléatoires. HYPOTHÈSES indépendance distribution identique (comme une v.a. Y ) E( Y ) < +. Alors presque sûrement : lim Y 1 n = lim n + n + n (Y 1 +... + Y n ) = E(Y ). Autrement dit, pour n assez grand 1 n Y i E(Y ). n i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 5 / 95

MÉTHODE DE MONTE CARLO. MÉTHODE Pour calculer µ = E(f (X)), simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X, poser : ˆµ N = 1 N N i=1 f (X i ) = f (X 1) +... + f (X N ). N Loi des grands nombres : ˆµ N µ pour N grand. PROBLÈME : quelle est l erreur commise? A. Popier (Le Mans) Méthode de Monte Carlo. 6 / 95

LOI EXPONENTIELLE (2) (ESPÉRANCE 1/2) A. Popier (Le Mans) Méthode de Monte Carlo. 7 / 95

LOI DE PARETO (0,5) PAS D ESPÉRANCE A. Popier (Le Mans) Méthode de Monte Carlo. 8 / 95

THÉORÈME CENTRAL LIMITE. THÉORÈME Soit (Y i ) i N une suite de v.a. HYPOTHÈSES indépendance distribution identique (comme une v.a. Y ) E( Y 2 ) < +. Alors Y n = N (0, 1) : pour tout a < b ( lim P a < ) n Y n µ < b = P(a < Z < b), Z N (0, 1). n + σ A. Popier (Le Mans) Méthode de Monte Carlo. 9 / 95

INTERVALLE DE CONFIANCE. TCL : µ = E(Y 1 ), Y n = 1 n (Y 1 +... + Y n ) P (Y n a n σ µ Y n + a n σ ) ( = P a ) n Y n µ a σ P( Z a), où σ 2 = Var(f (X)). Pour un niveau de confiance α [0, 1] fixé, il existe c α > 0 tel que Donc avec a = c α, pour n grand avec P( Z c α ) = α. P (µ I α,n ) P( Z c α ) = α ] σ σ I α,n = [Y n c α n, Y n + c α n : intervalle de confiance. A. Popier (Le Mans) Méthode de Monte Carlo. 10 / 95

MÉTHODE DE MONTE CARLO : ERREUR. MÉTHODE Simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X. Poser : ˆµ N = 1 N N i=1 f (X i ) = f (X 1) +... + f (X N ). N Erreur donnée par un intervalle de confiance : P ( µ I α,n ) α avec [ ] σ σ I α,n = ˆµ N c α N, ˆµ N + c α N, σ 2 = Var (f (x)). Problème : on ne connaît pas en général la variance σ 2. A. Popier (Le Mans) Méthode de Monte Carlo. 11 / 95

ESTIMATION DE LA VARIANCE. On estime σ 2 grâce à l estimateur Sn 2 = 1 n 1 montrer que ES 2 n = σ 2 = Var(Y ) et n (Y i Y n ) 2. On peut i=1 lim n + S2 n = σ 2. MÉTHODE Simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X. Poser : ˆσ N = 1 N (f (X i ) ˆµ N ) N 1 2. i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 12 / 95

MÉTHODE DE MONTE CARLO COMPLÈTE. MÉTHODE 1 Simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X. 2 Poser : ˆµ N = 1 N f (X i ) = f (X 1) +... + f (X N ), N N i=1 ˆσ N = 1 N (f (X i ) ˆµ N ) N 1 2. 3 Erreur donnée par intervalle de confiance avec niveau de confiance α [ ] ˆσ N ˆσ I α,n = ˆµ N c α N, ˆµ N + c α. N N i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 13 / 95

LOI EXPONENTIELLE (2) (ESPÉRANCE 1/2) A. Popier (Le Mans) Méthode de Monte Carlo. 14 / 95

LOI EXPONENTIELLE (2) (DÉCROISSANCE EN 1/ N) A. Popier (Le Mans) Méthode de Monte Carlo. 15 / 95

PARETO (1,5) (ESPÉRANCE 3, PAS DE VARIANCE) A. Popier (Le Mans) Méthode de Monte Carlo. 16 / 95

PARETO (1,5) (TAILLE INTERVALLE CONFIANCE) A. Popier (Le Mans) Méthode de Monte Carlo. 17 / 95

MÉTHODE DE MONTE CARLO : REMARQUES. OBLIGATOIRE Donner ˆµ N sans intervalle de confiance n a aucune valeur! ERREUR Pour diminuer la taille de IC, diminuer le niveau de confiance α, augmenter N, diminuer σ ( réduction de variance). AVANT : SIMULATION Que signifie «Simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X»? A. Popier (Le Mans) Méthode de Monte Carlo. 18 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 19 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 20 / 95

THÉORÈME FONDAMENTAL DE LA SIMULATION. THÉORÈME Toute variable aléatoire X à valeurs dans R d peut être simulée sous la forme X = en loi f (U 1, U 2,..., U n ) où (U 1, U 2,..., U n ) est uniformément répartie sur [0, 1] n, la fonction f : R n R d est borélienne et a ses points de discontinuité dans un ensemble Lebesgue-négligeable. Il est même possible de réaliser ceci en imposant n = 1 ou n = d ou encore n 1 donné. REMARQUE : f est «explicite». A. Popier (Le Mans) Méthode de Monte Carlo. 21 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 22 / 95

SUITES ALÉATOIRES. Considérons une suite finie x := x 1,..., x n {0, 1}. Toutes les suites finies de ce type sont équiprobables et de probabilité 2 n. Certaines suites moins aléatoires que d autres 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1 1, 1, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 1, 1 1, 0, 0, 1, 0, 1, 1, 1, 0, 1, 0, 1, 1, 0, 0, 0, 1, 0 Quel sens donner et comment quantifier le caractère aléatoire d une suite finie ou infinie donnée? Comment produire des suites finies qui sont de «bonnes» approximations finies des suites infinies probables correspondant à des réalisations i.i.d. d une loi donnée? Comment mesurer la qualité de ces algorithmes? A. Popier (Le Mans) Méthode de Monte Carlo. 23 / 95

SUITES ALÉATOIRES. D.H. Lehmer (1951) : A random sequence is a vague notion... in which each term is unpredictable to the uninitiated and whose digits pass a certain number of tests traditional with statisticians... A. Popier (Le Mans) Méthode de Monte Carlo. 23 / 95

NOMBRES PSEUDO-ALÉATOIRES. Simuler la loi uniforme consistera à produire par un algorithme des suites finies de nombres que nous pouvons considérer comme autant de réalisations indépendantes de variables aléatoires uniformes sur [0, 1]. Mathématiquement les n sorties successives d un tel générateur seront considérées comme la donnée de U 1 (ω),..., U n (ω) pour un ω Ω où les U i sont des v.a.r. U i : (Ω, F, P) [0, 1] de loi uniforme. Matlab permet de simuler la loi uniforme via la fonction rand, qui renvoie un nombre «aléatoire» compris entre [0, 1]. A. Popier (Le Mans) Méthode de Monte Carlo. 24 / 95

NOMBRES PSEUDO-ALÉATOIRES. Intéressons nous au nombre 0, 950129285147175. C est par défaut le premier nombre produit par la fonction rand de Matlab. Pour cela redémarrer Matlab, et exécuter les commandes format long rand Si tous les utilisateurs de Matlab trouvent toujours ce même nombre il ne peut être qualifié d aléatoire. D ailleurs il ne l est pas. A. Popier (Le Mans) Méthode de Monte Carlo. 25 / 95

NOMBRES PSEUDO-ALÉATOIRES. À ce stade il est important de faire la distinction entre deux types de méthodes de génération de suites «aléatoires». Méthodes prédictibles : ce sont des méthodes déterministes basées entièrement sur des algorithmes bien établis qui nécessitent d être initialisés. On parlera de suites ou nombres pseudo-aléatoires. Méthodes non-prédictibles : surtout utiles en cryptographie, où il est capital que le hasard utilisé ne soit pas prédictible ni reproductible. Elles peuvent être obtenues à partir des premières en utilisant des «fonctions de hachage», difficilement inversibles en terme de temps de calcul. A. Popier (Le Mans) Méthode de Monte Carlo. 26 / 95

ALGORITHMES PAR CONGRUENCE (LEHMER, 1950). utilisent trois paramètres entiers a, c et m et une valeur initiale x 0, appelé seed ; créent une suite d entiers y n+1 = ay n + c mod m compris entre 0 et m ; ramènent les valeurs entre 0 et 1 : x n = y n /m. Exemple : a = 13, c = 0, m = 31 et x 0 = 1. Suite des y n : Celle des x n : 1 13 14 27 10 6 16 22 7 29 5 3... 0.0323, 0.4194, 0.4516, 0.8710, 0.3226, 0.1935, 0.5161,... A. Popier (Le Mans) Méthode de Monte Carlo. 27 / 95

ALGORITHMES PAR CONGRUENCE (LEHMER, 1950). Dans les années 60, sur IBM, Scientific Subroutine Package (SSP) : a = 65539, c = 0, et m = 2 31. Comme le codage se fait en 32-bits, l arithmétique modulo 2 31 se fait très rapidement. a = 2 16 + 3 : multiplication par a = shift + addition. Problème : y k+2 = 6y k+1 9y k : très forte corrélation. cf. graphique randssp A. Popier (Le Mans) Méthode de Monte Carlo. 27 / 95

ALGORITHMES PAR CONGRUENCE (LEHMER, 1950). À partir de Matlab 4, on a choisi : a = 7 5 = 16807, c = 0, m = 2 31 1 = 2147483647. Toujours disponible via s=rand( seed ) : fournit le paramètre x0 de cette méthode. rand( seed,s) : impose à Matlab d utiliser cet algorithme avec x 0 = s. Périodicité grande : m 1. Génére toutes les valeurs k/m avec k = 1,..., m, i.e. [0, 1] D r = {k/m, 1 k m} [0.00000000046566, 0.99999999953434]. cf. graphique randmcg A. Popier (Le Mans) Méthode de Monte Carlo. 27 / 95

ALGORITHME PAR DÉFAUT. À partir de la version 5 (1995), Du à G. Marsaglia. N utilise plus les algorithmes à la Lehmer, plus de multiplication, plus de division. Génère directement des nombres décimaux. Disponible via s=rand( state ) : fournit le paramètre x0 de cette méthode (vecteur de dimension 35). rand( state,s) : impose à Matlab d utiliser cet algorithme avec x 0 = s. Peut générer tous les nombres (flottants) entre 2 53 et 1 2 53 (on ne connaît pas de nombre non atteint). Période proche de 2 1492. A. Popier (Le Mans) Méthode de Monte Carlo. 28 / 95

ALGORITHME «MERSENNE TWISTER». Troisième algorithme implémenté sous Matlab (version 5 et plus). Disponible via s=rand( twister ) : fournit le paramètre x 0 de cette méthode (vecteur de dimension 625). rand( twister,s) : impose à Matlab d utiliser cet algorithme avec x 0 = s. Période de l ordre de (2 19937 1)/2. A. Popier (Le Mans) Méthode de Monte Carlo. 29 / 95

IMPORTANCE DE LA RACINE. REMARQUE Connaître la valeur de la racine avant de lancer un programme peut être important! Notamment pour pouvoir : comparer des vitesses de calcul ; générer des variables aléatoires couplées. Pour éviter d avoir toujours le même nombre de départ : rand ( s t a t e,sum(100 clock ) ) rand A. Popier (Le Mans) Méthode de Monte Carlo. 30 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 31 / 95

FONCTION DE RÉPARTITION. DÉFINITION La fonction de répartition de X, notée F X, est définie sur R par : x R, F X (x) = P(X x). PROPOSITION Soit F X la fonction de répartition d une v.a.r. X. Alors : 1 F X (x) [0, 1]. 2 F X est croissante. 3 lim F X (x) = 0 et lim F X (x) = 1. x x + 4 F X est continue à droite et a une limite à gauche en tout point. A. Popier (Le Mans) Méthode de Monte Carlo. 32 / 95

V.A. À DENSITÉ. DÉFINITION Une v.a. X est à densité (par rapport à la mesure de Lebesgue) s il existe f t.q. pour tout x R, f (x) 0 ; + f (x) dx = 1 ; et pour tout a < b +, P(a < X b) = b a f (t)dt. EXEMPLE : LOI UNIFORME SUR [a, b] X suit une loi uniforme sur [a, b] si sa densité f est f (x) = 1 b a 1 [a,b](x). A. Popier (Le Mans) Méthode de Monte Carlo. 33 / 95

V.A. À DENSITÉ. PROPOSITION Si X a pour densité f, alors x R, F X (x) = P(X x) = x f (t)dt. F X est continue. F X est dérivable aux points de continuité de f avec f X (x) = F X (x). EXEMPLE : LOI UNIFORME SUR [a, b] Si X suit la loi uniforme sur [a, b], alors F X (x) = 0 si x a, F X (x) = x a si x [a, b], b a F X (x) = 1 pour x b. A. Popier (Le Mans) Méthode de Monte Carlo. 33 / 95

V.A. DISCRÈTES. DÉFINITION Une v.a. X est discrète si elle ne prend qu un nombre fini (ou dénombrable) de valeurs {x i R, i N} avec probabilité p i = P(X = x i ) 0. De plus + P(X = x i ) = + i=0 i=0 p i = 1. REPRÉSENTATION en tableau X x 0 x 1 x 2 x 3... (valeurs prises parx) P(X = x i ) p 0 p 1 p 2 p 3... (probabilité) PROPOSITION Si X est une v.a. discrète, F X est constante par morceaux. A. Popier (Le Mans) Méthode de Monte Carlo. 34 / 95

EXEMPLE : DÉ À SIX FACES. FONCTION DE RÉPARTITION d une v.a. de loi uniforme sur {1,..., 6} A. Popier (Le Mans) Méthode de Monte Carlo. 35 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 36 / 95

MÉTHODE D INVERSION. Si X est une v.a.r. alors la fonction de répartition F X est définie par x R, F X (x) = P(X x). Comme F X est croissante, on peut définir la fonction pseudo-inverse q X de F X ainsi : u (0, 1), q X (u) = inf{x R, F X (x) > u}. THÉORÈME Si U suit une loi uniforme sur [0, 1], q X (U) suit la même loi que X. PROPOSITION Si F est inversible, alors q = F 1. A. Popier (Le Mans) Méthode de Monte Carlo. 37 / 95

EXEMPLES. Si U suit une loi uniforme sur [0, 1], alors LOI UNIFORME SUR [a, b] X = a + (b a)u suit la loi uniforme sur [a, b]. LOI EXPONENTIELLE X = 1 ln(1 U) suit la loi exponentielle de paramètre λ. λ LOI DE CAUCHY X = c tan(π(u 1/2)) suit la loi de Cauchy de paramètre c. LOI DE BERNOULLI Si U < 1 p, X = 0, sinon X = 1 : suit la loi de Bernoulli de paramètre p [0, 1]. A. Popier (Le Mans) Méthode de Monte Carlo. 38 / 95

LOI DISCRÈTE À SUPPORT FINI. function r e a l i s = r d i s t ( x, p ) n=length ( p ) ; r = rand ; a = 0; b = p ( 1 ) ; for i = 1 : n 1, i f ( ( r >=a ) & ( r <b ) ) r e a l i s = x ( i ) ; return ; end a = b ; b = b + p ( i + 1 ) ; end r e a l i s = x ( n ) ; A. Popier (Le Mans) Méthode de Monte Carlo. 39 / 95

LOI UNIFORME. function r e a l i s = r a n d d i s c r ( x, n,m) %Renvoie des realisations iid %de loi uniforme sur x(1),...,x(length(x)). %n et m sont des entiers optionnels, valant 1 par defaut. i f ( nargin ==0) error ( Pas assez de parametres ) ; e l s e i f ( nargin ==1) n=1;m=1; e l s e i f ( nargin ==2) m=1; e l s e i f ( nargin >3) error ( Trop de parametres ) ; end ; r e a l i s = reshape ( x ( c e i l ( length ( x ) rand ( n,m) ) ), n,m) ; return ; A. Popier (Le Mans) Méthode de Monte Carlo. 40 / 95

INVERSION : DIMENSION QUELCONQUE. Soit une v.a. X = (X 1, X 2 ) de loi connue P X sur R 2 avec densité f > 0. Fonction de répartition de X 1 : x1 F X1 (x 1 ) = f (x, y)dxdy. Soit q 1 son inverse. Fonction de répartition F X 1=x 1 X 2 de la loi conditionnelle de X 2 sachant X 1 = x 1 : x2 F X 1=x 1 X 2 (x 2 ) = f (x 1, y)dy + f (x 1, y)dy. Inverse : q 2. MÉTHODE Si U 1 et U 2 sont deux v.a. uniformes sur [0, 1] indépendantes, alors X 1 = q 1 (U 1 ), X 2 = q 2 (q 1 (U 1 ), U 2 ). R A. Popier (Le Mans) Méthode de Monte Carlo. 41 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 42 / 95

LOI BINOMIALE. DÉFINITION Une v.a. X à valeurs entières comprises entre 1 et N suit une loi binômiale de paramètres N N et p [0, 1] si : k = 1,..., N, P(X = k) = C k N pk (1 p) N k. PROPOSITION Soient U i, i = 1,..., N des v.a. uniformes sur [0, 1] indépendantes. N Soit X le nombre des U i inférieures à p [0, 1], i.e. X = 1 Ui <p. Alors X suit une loi binomiale de paramètres N et p. i=1 MÉTHODE Simuler N v.a. de Bernoulli X i et en faire la somme. A. Popier (Le Mans) Méthode de Monte Carlo. 43 / 95

LOI GÉOMÉTRIQUE. DÉFINITION Une v.a. X à valeurs entières strictement positives suit une loi géométrique de paramètre p ]0, 1[ si : QUELQUES RÉSULTATS : E(X) = 1 1 p p, Var(X) =. p 2 P(X k) = (1 p) k 1. PILE OU FACE n 1, P(X = n) = p(1 p) n 1. Une loi géométrique est la loi du nombre de tirages à pile ou face (indépendants) à réaliser pour obtenir face (si face a p % de chances de sortir). A. Popier (Le Mans) Méthode de Monte Carlo. 44 / 95

LOI DE POISSON. DÉFINITION Une v.a. X à valeurs entières positives suit une loi de Poisson de paramètre λ > 0 si : MOMENTS : E(X) = Var(X) = λ. PROPOSITION λ λn n 0, P(X = n) = e n!. Soit (E n ) n N v.a. i.i.d. exponentielles de paramètre λ. Alors λ λn P(E 1 +... + E n 1 < E 1 +... + E n+1 ) = e n!. A. Popier (Le Mans) Méthode de Monte Carlo. 45 / 95

LOI DE POISSON. DÉFINITION Une v.a. X à valeurs entières positives suit une loi de Poisson de paramètre λ > 0 si : MOMENTS : E(X) = Var(X) = λ. MÉTHODE λ λn n 0, P(X = n) = e n!. X = 1 E1 1<E 1 +E 2 + 2 1 E1 +E 2 1<E 1 +E 2 +E 3 +... +n 1 E1 +...+E n 1<E 1 +...+E n+1 +... suit une loi de Poisson de paramètre λ. A. Popier (Le Mans) Méthode de Monte Carlo. 45 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 46 / 95

QUELLES VÉRIFICATIONS? DEUX TYPES de vérifications : histogramme normalisé contre densité, fonctions de répartition empirique contre théorique. Dans les deux cas, il faut d abord simuler un grand nombre de fois la loi en question. Pour n N, on obtient un vecteur (x 1,..., x n ) qui contient n réalisations de la loi de X. A. Popier (Le Mans) Méthode de Monte Carlo. 47 / 95

HISTOGRAMME VS. DENSITÉ. HISTOGRAMME NORMALISÉ 1 regrouper les n termes dans un certain nombre m de classes (avec m < n). Dans chaque classe r m réalisations de X avec r m = n. m 2 normalisation : la somme des aires des colonnes fait 1 r m /(n(c m+1 C m )). 3 tracé : sur l axe des abscisses, placer les m centres des m classes, et mettre une colonne de hauteur r m /(n(c m+1 C m )). CONVERGENCE VERS LA DENSITÉ r m n(c m+1 C m ) n + 1 C m+1 C m P(X [C m, C m+1 [). A. Popier (Le Mans) Méthode de Monte Carlo. 48 / 95

HISTOGRAMME VS. DENSITÉ. CONVERGENCE VERS LA DENSITÉ CONCLUSION r m n(c m+1 C m ) n + 1 C m+1 C m P(X [C m, C m+1 [). Si X discrète avec C k espacés de 1, approximativement p k. Si X à densité, alors P(X [C m, C m+1 [) C m+1 C m = 1 C m+1 C m Cm+1 C m f (t)dt C m+1 C m 0 f (C m). A. Popier (Le Mans) Méthode de Monte Carlo. 48 / 95

RÉPARTITION EMPIRIQUE VS. THÉORIQUE. FONCTION DE RÉPARTITION EMPIRIQUE t R, F n (t) = 1 n n 1 ],t] (x i ). i=1 THÉORÈME DE KOLMOGOROV-SMIRNOV t R, lim F n (t) = F X (t). n + A. Popier (Le Mans) Méthode de Monte Carlo. 49 / 95

EXEMPLE SUR LA LOI EXPONENTIELLE(2). n=100 Histogramme vs densite Fcts de repartition 2.0 1.8 1.6 1.0 empirique theorique 1.4 0.8 1.2 1.0 0.8 0.6 0.4 0.6 0.2 0.4 0.2 0.0 0.0 0 1 2 3 4 5 6!0.2!1 0 1 2 3 4 5 A. Popier (Le Mans) Méthode de Monte Carlo. 50 / 95

EXEMPLE SUR LA LOI EXPONENTIELLE(2). n=10000 Histogramme vs densite Fcts de repartition 2.0 1.8 1.6 1.0 empirique theorique 1.4 0.8 1.2 1.0 0.8 0.6 0.4 0.6 0.2 0.4 0.2 0.0 0.0 0 1 2 3 4 5 6 7 8!0.2!1 0 1 2 3 4 5 6 7 A. Popier (Le Mans) Méthode de Monte Carlo. 51 / 95

EXEMPLE SUR LA LOI DE BERNOULLI(0.3). n=100 Histogramme Fcts de repartition 0.8 0.7 1.0 empirique theorique 0.6 0.8 0.5 0.6 0.4 0.3 0.4 0.2 0.2 0.1 0.0 0.0!0.5 0.0 0.5 1.0 1.5 2.0!0.2!1.0!0.5 0.0 0.5 1.0 1.5 2.0 A. Popier (Le Mans) Méthode de Monte Carlo. 52 / 95

EXEMPLE SUR LA LOI DE BERNOULLI(0.3). n=10000 Histogramme Fcts de repartition 0.7 0.6 1.0 empirique theorique 0.5 0.8 0.4 0.6 0.3 0.4 0.2 0.2 0.1 0.0 0.0!0.5 0.0 0.5 1.0 1.5 2.0!0.2!1.0!0.5 0.0 0.5 1.0 1.5 2.0 A. Popier (Le Mans) Méthode de Monte Carlo. 53 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 54 / 95

MÉTHODE DE REJET. On veut simuler une v.a. de densité f, et il existe une densité g simulable facilement et une constante k 1 telle que Soit α(x) = f (x) kg(x). PROPOSITION x R, f (x) kg(x). Soit (X i ) i 1 une suite de v.a. i.i.d. de densité g, et (U i ) i 1 une suite de v.a. i.i.d. de loi uniforme sur [0, 1], indépendante de la suite (X i ) i 1. Soit T = inf{i 1, U i α(x i )}. La variable X T a pour densité f. A. Popier (Le Mans) Méthode de Monte Carlo. 55 / 95

MÉTHODE DE REJET. MÉTHODE Soit (X 1, U 1 ) un couple de v.a. indépendantes telles que X 1 suive la loi de densité g et U 1 suive une loi uniforme sur [0, 1]. Si U 1 α(u 1 ), on pose X = X 1. Sinon on rejette X 1 et on recommence en générant une suite (X n, U n ) n 2 de v.a. indépendantes de même loi que (X 1, U 1 ) jusqu à l instant p où U p α(x p ). On pose alors X = X p. REMARQUES on n a pas besoin de connaître F, ni F 1. elle s étend à R d, à des lois discrètes, etc. A. Popier (Le Mans) Méthode de Monte Carlo. 56 / 95

MÉTHODE DE REJET : VITESSE. Calcul de la probabilité d acceptation : p = P(U α(x)) = 1 k. Donc T a pour distribution une loi géométrique de paramètre p. En moyenne, on doit rejeter k = 1/p fois avant d accepter la valeur. Ainsi il faut choisir g telle que ( ) f k = max g soit la plus petite possible. A. Popier (Le Mans) Méthode de Monte Carlo. 57 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 58 / 95

LOI NORMALE : MÉTHODE POLAIRE. PROPOSITION Si Y N (µ, σ 2 ), alors X = (Y µ)/σ N (0, 1). Pour simuler X (et Y ) simuler deux lois uniformes U et V sur [0, 1] ; poser X = 2 ln U cos(2πv ), Y = 2 ln U sin(2πv ). PROPOSITION X et Y sont deux v.a. normales centrées réduites indépendantes. Ou utiliser sous Matlab randn(n,m). A. Popier (Le Mans) Méthode de Monte Carlo. 59 / 95

LOI NORMALE : MÉTHODE POLAIRE. Pour simuler X (et Y ) simuler deux lois uniformes U et V sur [0, 1] ; poser c l f ; X = 2 ln U cos(2πv ), Y = 2 ln U sin(2πv ). hold on t i t l e ( Simulation d une l o i normale ) ylabel ( E f f e c t i f s ) ; xlabel ( Valeurs ) ; [ E,C]= ecdf ( sqrt ( 2 log ( rand ( 5 0 0 0, 1 ) ) ). cos(2 pi rand ( 5 0 0 0, 1 ) ) ) ; e c d f h i s t (E,C, 4 0 ) ; hold on plot (C, ( 2 pi )^( 1/2) exp( C. ^ 2 / 2 ), r ) ; legend ( Empirique, Theorique ) hold o f f A. Popier (Le Mans) Méthode de Monte Carlo. 60 / 95

LOI NORMALE : MÉTHODE POLAIRE. A. Popier (Le Mans) Méthode de Monte Carlo. 61 / 95

LOI NORMALE : MÉTHODE POLAIRE. A. Popier (Le Mans) Méthode de Monte Carlo. 61 / 95

LOI NORMALE : MÉTHODE POLAIRE-REJET. PROPOSITION (X, Y ) = (ρ cos(θ), ρ sin(θ)) suit une loi uniforme sur le disque unité du plan, alors 4 ln(ρ) (X, Y ) ρ suit une loi normale centrée réduite bidimensionnelle. (X, Y ) facile à simuler par rejet à partir d une uniforme sur le carré [ 1, 1] 2 (rejet dans 21 % des cas puisque π/4 0, 79). θ et ρ indépendantes, ρ loi de densité u 2u1 [0,1] (u), 4 ln(ρ) exponentielle de paramètre 1/2, θ uniforme sur [0, 2π]. A. Popier (Le Mans) Méthode de Monte Carlo. 62 / 95

LOI UNIFORME SUR LE DISQUE. A. Popier (Le Mans) Méthode de Monte Carlo. 63 / 95

VECTEUR GAUSSIEN. PROPOSITION Soit m R n, Γ S + n (R) matrice réelle de taille n symétrique positive, Y vecteur aléatoire gaussien standard de moyenne nulle et matrice de covariance Id n. Alors le vecteur aléatoire X = Γ 1/2 Y + m est gaussien de moyenne m et de matrice de covariance Γ. Si Y est un vecteur gaussien de loi N (0, Id n ), ses coordonnées sont i.i.d. de loi N (0, 1). Ainsi on peut simuler une réalisation de Y en simulant n réalisations indépendantes Y 1 (ω),..., Y n (ω) de loi N (0, 1). A. Popier (Le Mans) Méthode de Monte Carlo. 64 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 65 / 95

DEUX EXEMPLES. EXEMPLE THÉORIQUE. Calculer θ = E(e 5Z ) = e 52 /2 avec Z N (0, 1) variance théorique : σ 2 = e 50 e 25 7 10 10. valeur exacte : 268337. nombre tirages : N = 500000. valeur estimée : θ = 221741. Intervalle de confiance : I = [ 65186, 508668]. A. Popier (Le Mans) Méthode de Monte Carlo. 66 / 95

DEUX EXEMPLES. EXEMPLE PLUS CONCRET. Call C = E((5e (Z 1/2) 3) + ) avec Z N (0, 1) valeur exacte : 2,71. nombre tirages : N = 1000. valeur estimée : 2,83. Intervalle de confiance : I = [2, 42; 3, 24]. Put P = E((3 5e (Z 1/2) ) + ) et C P = 2. valeur exacte : 0,71. valeur estimée : 0,70. Intervalle de confiance : I = [0, 64; 0, 76]. Contrôle : C = 2 + P. A. Popier (Le Mans) Méthode de Monte Carlo. 66 / 95

RÉDUCTION DE VARIANCE : MÉTHODES. Variables antithétiques. Variables de contrôle. Échantillonnage préférentiel (ou d importance). Échantillonnage stratifié. Méthodes adaptatives (chaînes de Markov). A. Popier (Le Mans) Méthode de Monte Carlo. 67 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 68 / 95

VARIABLES ANTITHÉTIQUES. BUT : calculer θ = E(Y ) = E(f (X)). DEUX V.A. Y 1 et Y 2 de même loi que Y. ( E(Y ) = 1 2 (E(Y 1) + E(Y 2 )) = E Y1 +Y 2 2 ) Var ( Y1 +Y 2 2 ) ; = Var (Y 1)+Var (Y 2 )+2Cov(Y 1,Y 2 ) 4 ; si Y 1 ( et Y 2 décorrélées ) (ou indépendantes), Var Y1 +Y 2 2 = Var (Y ) 2 ; ( ) si Cov(Y 1, Y 2 ) < 0, alors Var Y1 +Y 2 2 < Var (Y ) 2. QUESTION : comment obtenir Y 1 et Y 2 de même loi que Y avec Cov(Y 1, Y 2 ) < 0? A. Popier (Le Mans) Méthode de Monte Carlo. 69 / 95

VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) où U uniforme sur [0, 1]. ALGORITHME CLASSIQUE avec échantillon de taille 2n. MÉTHODE de i = 1 à 2n générer U i définir Y i = g(u i ) fin définir ˆθ 2n = Y 2n = 1 2n 2n i=1 Y i et ˆσ 2 2n = 1 2n 1 définir CI = [ˆθ 2n c α ˆσ 2n 2n, ˆθ 2n + c α ˆσ 2n 2n ] 2n i=1 (Y i ˆθ 2n ) 2 A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95

VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) avec U uniforme sur [0, 1]. ALGORITHME avec échantillon de taille 2n. MÉTHODE de i = 1 à 2n générer U i définir Y i = g(1 U i ) fin définir ˆθ 2n = Y 2n = 1 2n 2n i=1 Y i et ˆσ 2 2n = 1 2n 1 définir CI = [ˆθ 2n c α ˆσ 2n 2n, ˆθ 2n + c α ˆσ 2n 2n ] 2n i=1 (Y i ˆθ 2n ) 2 A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95

VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) avec U uniforme sur [0, 1]. ALGORITHME MÉLANGÉ avec échantillon de taille n. MÉTHODE de i = 1 à n générer U i définir Y i = g(u i ), Ỹi = g(1 U i ) et Z i = Y i + Ỹi 2 fin définir ˆθ n,a = Z n = 1 n Z i et ˆσ n 2 = 1 n (Z i ˆθ n ) 2 n n 1 i=1 définir CI = [ˆθ n,a c α ˆσ n n, ˆθ n,a + c α ˆσ n n ] i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95

VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) avec U uniforme sur [0, 1]. DIFFÉRENTS RÉSULTATS : ˆθ 2n = Y 2n = 1 2n 2n i=1 Y i ; ˆθ n,a = Z n = 1 n n i=1 Z i. COMPARAISON DES VARIANCES Var (ˆθ 2n ) = Var ( 2n ) i=1 Y i Var (Y ) = 2n 2n Ainsi Var (ˆθ n,a ) = Var (ˆθ 2n ) + Cov(Y, Ỹ ). 2n Var (ˆθ n,a ) < Var (ˆθ 2n ) Cov(g(U), g(1 U)) < 0. A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95

VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) avec U uniforme sur [0, 1]. THÉORÈME Si g est une fonction monotone, alors Cov(g(U), g(1 U)) < 0. CONSÉQUENCE Méthode d inversion : g = f (F 1 ) est monotone si f l est. X A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95

VARIABLES ANTITHÉTIQUES : GÉNÉRALISATION. HYPOTHÈSE SUR X : il existe a t.q. X et a X aient la même loi. EXEMPLES Lois normales N (µ, σ 2 ) : a = 2µ. Lois de Laplace de paramètre λ > 0 : f (x) = λ 2 exp( λ x ). a = 0. MÉTHODE de i = 1 à n générer X i définir Y i = g(x i ), Ỹi = g(a X i ) et Z i = Y i + Ỹi 2 fin définir ˆθ n,a = Z n = 1 n Z i et ˆσ n 2 = 1 n (Z i ˆθ n ) 2 n n 1 i=1 définir CI = [ˆθ n,a c α ˆσ n n, ˆθ n,a + c α ˆσ n n ] i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 71 / 95

EXEMPLE : OPTION KNOCK-IN. CONTRAT FINANCIER de payoff h(s T ) = max(0, S T K )1 ST >B. MODÈLE BLACK-SCHOLES S T = S 0 exp((r σ 2 /2)T + σ T X, X N (0, 1). PRIX DU CONTRAT C = e rt E (h(s T )) = e rt E ( max(0, S T K )1 ST >B). JEU DE PARAMÈTRES S 0 = 2, K = 1, B = 2, 5, r = 0, 1, σ = 0.3, T = 10, N = 5000. RÉSULTATS OBTENUS sans réduction de variance : C = 1.5720 (variance 5.4236) ; avec réduction de variance : C = 1.5543 (variance 1.5827). A. Popier (Le Mans) Méthode de Monte Carlo. 72 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 73 / 95

VARIABLES DE CONTRÔLE. BUT : calculer θ = E(Y ) = E(f (X)). AJOUT d une variable Z facilement simulable ; E(Z ) connue ou facilement calculable (variance «petite»). DEUX CALCULS POSSIBLES DE θ : par méthode de Monte Carlo standard, en posant W c = Y + c(z E(Z )) et en calculant E(W c ) par Monte Carlo (c : paramètre constant fixé). QUESTION : Var (W c ) < Var (Y )? A. Popier (Le Mans) Méthode de Monte Carlo. 74 / 95

VARIABLES DE CONTRÔLE. CALCUL DE LA VARIANCE : Var (W c ) = Var (Y ) + c 2 Var (Z ) + 2c Cov(Y, Z ). CHOIX OPTIMAL DE c : c Cov(Y,Z ) = Var (Z ) Cov(Y,Z )2 Var (W c ) = Var (Y ) ; Var (Z ) Var (W c ) < Var (Y ) Cov(Y, Z ) < 0 ; Z : variable de contrôle de Y. ; ALGORITHME : ˆθ N,c = 1 N N (Y i + c (Z i E(Z ))) θ. i=1 PROBLÈMES : calcul de E(Z )? De Cov(Y, Z )? A. Popier (Le Mans) Méthode de Monte Carlo. 75 / 95

MMC AVEC VARIABLE DE CONTRÔLE. MÉTHODE ÉTAPE 1 : p petit détermine une valeur approchée de c. Simuler p v.a. (Y n ) 1 n p et p v.a. (Z n ) 1 n p. Poser : Calculer ĉ = Ê(Z ) = 1 p p Z i, Ê(Y ) = 1 p i=1 Var (Z ) = 1 p 1 Ĉov(Y, Z ) = 1 p 1,Z ) Ĉov(Y. Var (Z ) p Y i, i=1 p (Z j Ê(Z ))2, j=1 p (Y i Ê(Y ))(Z j Ê(Z ))). j=1 A. Popier (Le Mans) Méthode de Monte Carlo. 76 / 95

MMC AVEC VARIABLE DE CONTRÔLE. MÉTHODE ÉTAPE 1 : p petit détermine une valeur approchée de c. ÉTAPE 2 : N grand. Simuler N v.a. (Y n ) 1 n N et N v.a. (Z n ) 1 n N. Poser : θ = 1 N N (Y i + ĉ (Z i Ê(Z ))) θ. i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 76 / 95

UN EXEMPLE. ÉNONCÉ Calculer θ = E(e (U+V )2 ) avec U et V de loi uniforme sur [0, 1]. Y = e (U+V )2. Variables de contrôle : Z 1 = U + V, Z 2 = (U + V ) 2 ou encore Z 3 = exp(u + V ). A. Popier (Le Mans) Méthode de Monte Carlo. 77 / 95

LE PROGRAMME (CALCUL DE c ). p=500; u=rand ( p, 1 ) ; v=rand ( p, 1 ) ; y=exp ( ( u+v ). ^ 2 ) ; z1=u+v ; z2 =(u+v ). ^ 2 ; z3=exp ( u+v ) ; a1=cov ( [ y z1 ] ) ; a2=cov ( [ y z2 ] ) ; a3=cov ( [ y z3 ] ) ; c_est1= a1 ( 1, 2 ) / a1 ( 2, 2 ) c_est2= a2 ( 1, 2 ) / a2 ( 2, 2 ) c_est3= a3 ( 1, 2 ) / a3 ( 2, 2 ) Valeurs obtenues : c est1 = - 11.088954 c est2 = - 5.7049857 c est3 = - 3.9928724 A. Popier (Le Mans) Méthode de Monte Carlo. 78 / 95

LE PROGRAMME (MMC). n=5000; u=rand ( n, 1 ) ; v=rand ( n, 1 ) ; y=exp ( ( u+v ). ^ 2 ) ; z1=u+v ; z2 =(u+v ). ^ 2 ; z3=exp ( u+v ) ; m1=mean( z1 ) m2=mean( z2 ) m3=mean( z3 ) w1=y+c_est1 ( z1 m1 ) ; w2=y+c_est2 ( z2 m2 ) ; w3=y+c_est3 ( z3 m3 ) ; b0 =[mean( y ) stdev ( y ) ^ 2 ] b1 =[mean(w1) var (w1 ) ] b2 =[mean(w2) var (w2 ) ] b3 =[mean(w3) var (w3 ) ] %Intervalle de confiance CI =[ b2(1) 1.96 stdev (w2 ) / sqrt ( n ), b2 (1)+1.96 stdev (w2 ) / sqrt ( n ) ] A. Popier (Le Mans) Méthode de Monte Carlo. 79 / 95

BILAN. Valeurs obtenues : m1 = 1.0006399 (exacte 1) ; m2 = 1.171765 (exacte 7/6 1.1666667) ; m3 = 2.959135 (exacte (e 1) 2 2.9524924) ; CI = [4.8545742, 5.0088663]. moyenne variance b0 4.9317203 34.564778 b1 4.9317203 13.840552 b2 4.9317203 7.7461357 b3 4.9317203 7.2175877 A. Popier (Le Mans) Méthode de Monte Carlo. 80 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 81 / 95

MONTE CARLO CONDITIONNEL. IDÉE : au lieu de calculer θ = E(Y ) = E(f (X)), pour Z v.a. poser V = E(Y Z ) = g(z ) v.a. ; et θ = E(V ). CONDITIONS : Z facilement simulable ; V facilement calculable. CALCULS DE LA VARIANCE : Var (Y Z ) est une v.a. positive : [ Var (Y Z ) = E (Y E(Y Z )) 2 ] Z, et comme Y E(Y ) (E(Y Z ) E(Y )) E(Y Z ) E(Y ), Var (Y ) = E(Var (Y Z )) + Var (E(Y Z )) Var (Y ) Var (E(Y Z )). A. Popier (Le Mans) Méthode de Monte Carlo. 82 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 83 / 95

ÉVÉNEMENTS RARES. Technique utilisée beaucoup pour θ = P(X seuil ) = E(1 X seuil ), quand l occurence de X seuil est très petite. EXEMPLES. Catastrophes climatiques, ferroviaires, aériennes, etc. Faillites de grosses entreprises, d états, etc. Cracks boursiers importants BUT : mesurer les risques de portefeuille, opérationnels, etc. (obligation légale pour les banques ou les assurances). A. Popier (Le Mans) Méthode de Monte Carlo. 84 / 95

EXEMPLE. X suit une loi normale de paramètres 0 et 1 θ = P(X 10) = E(1 X 10 ). MONTE-CARLO CLASSIQUE. Nombre de tirages N variant de 1000 à 10000000. Valeur estimée : 0. CONCLUSION ERRONÉE : θ = 0. VALEUR EXACTE : θ = 7.6199 10 24. Nombre de tirages nécessaires de l ordre de 10 25 : impossible! A. Popier (Le Mans) Méthode de Monte Carlo. 85 / 95

ÉCHANTILLONNAGE PRÉFÉRENTIEL : PRINCIPE. Changer la loi. Soient φ la densité de X et ψ une autre densité telle que ψ(x) 0 si φ(x) 0. Alors θ = E(f (X)) = f (x)φ(x)dx = f (x) φ(x) ψ(x) ψ(x)dx = E(h(Y )), avec h(x) = f (x) φ(x) et Y ψ. ψ(x) DÉFINITION : g est une fonction d importance. QUESTION : comment choisir g? A. Popier (Le Mans) Méthode de Monte Carlo. 86 / 95

RETOUR SUR L EXEMPLE. X N (0, 1) et θ = P(X 10) : forcer les tirages de Y à être aux alentours de -10. Donc Y N ( 10, 1). REMARQUE Si Y N (µ, σ 2 ), alors P(Y µ) = 1/2. θ = P(X 10) = = = 1 x 10 R R R 1 exp 2π 1 exp 2π 1 1 x 10 exp ( x 2 ) 2π 2 ( ) x 2 2 ( ) 1 exp 2π (x+10)2 2 ( 1 x 10 exp 10x + ( 10) 2 /2 = E [1 Y 10 exp (10Y + 50)]. ( ) 1 exp ( 2π ) (x + 10)2 dx 2 ) (x + 10)2 dx 2 A. Popier (Le Mans) Méthode de Monte Carlo. 87 / 95

RETOUR SUR L EXEMPLE. θ = P(X 10) = E [1 Y 10 exp (10Y + 50)]. MONTE-CARLO AVEC Y. Valeur exacte θ = 7.6199 10 24. Y=randn(N,1) - 10. Nombre de tirages N variant de 1 à 10000. Valeur estimée : 8.0060 10 24. Écart-type : 2.6893 10 23 A. Popier (Le Mans) Méthode de Monte Carlo. 87 / 95

RETOUR SUR L EXEMPLE. A. Popier (Le Mans) Méthode de Monte Carlo. 87 / 95

CHOIX DE LA FONCTION D IMPORTANCE. DONNÉES : φ densité de X, ψ autre densité t.q. ψ(x) 0 si φ(x) 0. ( θ = E(f (X)) = E(h(Y )) = E f (Y ) φ(y ) ), Y ψ. ψ(y ) CALCULS DE LA VARIANCE : Var (f (X)) = Var (h(y )) = Donc Var (f (X)) Var (h(y )) = f 2 (x)φ(x)dx θ 2 ; f 2 (x) φ2 (x) ψ(x) dx θ2. ( f 2 (x) 1 φ(x) ) φ(x)dx > 0. ψ(x) A. Popier (Le Mans) Méthode de Monte Carlo. 88 / 95

CHOIX DE LA FONCTION D IMPORTANCE. DONNÉES : φ densité de X, ψ autre densité t.q. ψ(x) 0 si φ(x) 0. ( θ = E(f (X)) = E(h(Y )) = E f (Y ) φ(y ) ), Y ψ. ψ(y ) CALCULS DE LA VARIANCE : Var (f (X)) Var (h(y )) = ( f 2 (x) 1 φ(x) ) φ(x)dx > 0. ψ(x) PISTE : si ψ(x) = f (x)φ(x)/θ, Var (h(y )) = 0! Prendre ψ proche de f φ... THÉORÈME (RUBINSTEIN) La densité ψ qui minimise la variance est ψ(x) = 1 f (x) φ(x)dx f (x) φ(x). A. Popier (Le Mans) Méthode de Monte Carlo. 88 / 95

CHOIX DE LA FONCTION D IMPORTANCE. DONNÉES : φ densité de X, ψ autre densité t.q. ψ(x) 0 si φ(x) 0. ( θ = E(f (X)) = E(h(Y )) = E f (Y ) φ(y ) ), Y ψ. ψ(y ) CALCULS DE LA VARIANCE : IDÉE : Var (f (X)) Var (h(y )) = prendre φ/ψ > 1 quand f φ petit ; prendre φ/ψ < 1 quand f φ grand. ( f 2 (x) 1 φ(x) ) φ(x)dx > 0. ψ(x) A. Popier (Le Mans) Méthode de Monte Carlo. 88 / 95

PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 89 / 95

PRINCIPE DE L ÉCHANTILLONNAGE STRATIFIÉ. OBJECTIF : évaluer θ = E(Y ) avec Y v.a. réelle. Soit A 1,..., A K sous-ensembles disjoints de R tels que P(Y i A i ) = 1. Alors θ = K P(Y A i )E(Y Y A i ) = i=1 K p i E(Y Y A i ). i=1 STRATIFICATION PROPORTIONNELLE. Soit N la taille de l échantillon. choisir les A i avec p i = P(Y A i ) ; poser n i = Np i (considéré comme entier) ; pour chaque i = 1,..., K, simuler Y ij, j = 1,..., n i i.i.d. suivant la loi de Y sachant Y A i. θ K i=1 p i 1 n i n i j=1 Y ij = 1 N K n i Y ij. i=1 j=1 A. Popier (Le Mans) Méthode de Monte Carlo. 90 / 95

GÉNÉRALISATION. STRATIFICATION FONCTION DE X. A i choisis tels que P(X i A i ) = 1 : θ = K P(X A i )E(Y Y A i ) = i=1 K p i E(Y X A i ). i=1 Générer (X ij, Y ij ) suivant la loi conditionnelle de (X, Y ) sachant X A i. SUPPRIMER LA PROPORTIONNALITÉ. Autoriser le nombre de tirages n 1,..., n k arbitraire (avec i n i = N) ; Poser q i = n i /N : K θ Ŷ = p i 1 n i Y ij = 1 K p i n i Y ij. n i N q i i=1 j=1 i=1 j=1 A. Popier (Le Mans) Méthode de Monte Carlo. 91 / 95

EXEMPLES. STRATIFICATION DE LA LOI UNIFORME. Partition de ]0, 1[ : A i =]a i, b i ] ; Loi de U sachant U A i : uniforme entre a i et b i ; Échantillon : V i = a i + (b i a i )U i. Exemple : A i =](i 1)/N, i/n], i = 1,..., N. VIA FONCTION DE RÉPARTITION. Y de fonction de répartition F. Pour p 1,..., p K données, avec a 0 =, a 1 = F 1 (p 1 ), a 2 = F 1 (p 1 + p 2 ),..., a K = F 1 (1), et A i =]a i 1, a i ] pour i = 1,..., K. Si a k = +, alors A K =]a K 1, a K [. V = a i 1 + U(a i a i 1 ) uniforme sur A i et F 1 (V ) a la loi de Y sachant Y A i. A. Popier (Le Mans) Méthode de Monte Carlo. 92 / 95

ANALYSE DE L ESTIMATEUR Ŷ. NOTATIONS : θ i = E(Y ij ) = E(Y X A i ), σ 2 = Var (Y ij ) = Var (Y X A i ). ESTIMATEUR SANS BIAIS : E(Ŷ ) = K i=1 p i 1 n i n i E(Y ij ) = j=1 N p i θ i = θ. i=1 de variance : K Var (Ŷ ) = pi 2 Var 1 n i E(Y ij ) = n i avec i=1 j=1 σ 2 (q) = N i=1 p 2 i q i σ 2 i. N i=1 p 2 i σ 2 i n i = σ2 (q) N A. Popier (Le Mans) Méthode de Monte Carlo. 93 / 95

ANALYSE DE L ESTIMATEUR Ŷ. INTERVALLE DE CONFIANCE : [Nq i ] 1 (Y ij θ i ) [Nqi ] j=1 en loi N (0, σ 2 i ) d où N (Ŷ θ ) = K N p i 1 [Nq i ] (Y ij θ i ) [Nq i ] i=1 j=1 K p i 1 [Nq i ] (Y ij θ i ) qi [Nqi ] i=1 j=1 Ainsi N (Ŷ θ ) en loi N (0, σ(q) 2 ). A. Popier (Le Mans) Méthode de Monte Carlo. 93 / 95

ANALYSE DE L ESTIMATEUR Ŷ. INTERVALLE DE CONFIANCE : Ainsi N (Ŷ θ ) en loi N (0, σ(q) 2 ). σ(q) 2 : estimé via N s 2 pi 2 (q) = si 2 q, avec s i déviation standard de Y i1,..., Y ini ; i ou i=1 N = mk, ki = q i k et n i = mk i, Ŷ moyenne de m estimateurs Ŷi qui allouent une fraction q i d observations pour la strate i et de taille k, Ŷi de variance σ(q) 2 /k et Ŷ de variance (σ(q)2 /k)/m. A. Popier (Le Mans) Méthode de Monte Carlo. 93 / 95

RÉDUCTION DE VARIANCE? CAS PROPORTIONNEL. [ σ 2 N = 1 N (E(Y 2 ) θ 2 ) = 1 K ] p i E(Y 2 X A i ) θ 2 N i=1 [ = 1 K ] p i (σi 2 + θi 2 N ) θ2 = 1 N i=1 K p i σi 2 + 1 N i=1 Ainsi : σ2 N Var (ŶProp) = 1 N K p i (θ i θ) 2 i=1 K p i (θ i θ) 2. i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 94 / 95

RÉDUCTION DE VARIANCE? CAS PROPORTIONNEL. Ainsi : σ2 N Var (ŶProp) = 1 N OPTIMISATION. Trouver le minimum de σ 2 (q) = n 1 +... + n k = N. Optimum : qi = p iσ i. K p j σ j Ainsi j=1 N i=1 p 2 i q i σ 2 i Var (ŶOpt) = 1 K p j σ j N j=1 Var (ŶProp) Var (ŶOpt) = 1 N K p i (θ i θ) 2. i=1 avec q i = n i /N et 2 = σ2 N. K ( p j σj σ ) 2. A. Popier (Le Mans) Méthode de Monte Carlo. 94 / 95 j=1

RÉDUCTION DE VARIANCE? CAS PROPORTIONNEL. Ainsi : σ2 N Var (ŶProp) = 1 N OPTIMISATION. K p i (θ i θ) 2. i=1 Var (ŶProp) Var (ŶOpt) = 1 N K ( p j σj σ ) 2. j=1 CONCLUSION. σ 2 N = σ2 N Var (ŶProp) + Var (ŶProp) Var (ŶOpt) + σ2 N = 1 K K p i (θ i θ) 2 ( + p j σj σ ) 2 + σ 2. N i=1 j=1 A. Popier (Le Mans) Méthode de Monte Carlo. 94 / 95

EXEMPLE NUMÉRIQUE. OBJECTIF : calculer θ = E(Y ) = E( 1 U 2 ), avec variable de stratification X = U. Pour A i =]a i, b i ], Y i = ( 1 U 2 U A i ) obtenue via (U U A i ) uniforme sur A i. Choix : A 1 =]0, 1 K ], A 2 =] 1 K, 2 K ],..., A K =] K 1 K, 1]. p i = 1/K, n i = Np i = N/K. RÉSULTATS : N = 10000, K = 100. Monte-Carlo standard : θ = 0, 782 avec intervalle de confiance [0, 7775; 0, 7864]. Variance : 0,05. Échantillonnage stratifié : θ = 0, 7854 avec intervalle de confiance [0, 7853; 0, 7855]. Variance : 2, 65 10 5. A. Popier (Le Mans) Méthode de Monte Carlo. 95 / 95