MÉTHODE DE MONTE CARLO.
|
|
|
- Marie-Thérèse Ratté
- il y a 10 ans
- Total affichages :
Transcription
1 MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95
2 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 2 / 95
3 BUT : CALCUL D ESPÉRANCE. Soient X une v.a.r. et f : R R une fonction. BUT Calculer numériquement E(f (X)). EXEMPLES FINANCE : prix d une option d achat modèle de Cox-Ross-Rubinstein : ( 1 C = (1 + r) N E S 0 N i=1 T i K ) + P(T i = 1 + u) = p = 1 P(T i = 1 + d) où p = (u r)/(u d). modèle de Black-Scholes : [ ( ) ] + C = e rt E S 0 e (r σ2 /2)T +σw T K avec W T N (0, T ).. A. Popier (Le Mans) Méthode de Monte Carlo. 3 / 95
4 BUT : CALCUL D ESPÉRANCE. Soient X une v.a.r. et f : R R une fonction. BUT Calculer numériquement E(f (X)). EXEMPLES FINANCE : prix d une option d achat ASSURANCE : calcul de la prime Prime pure : E(X), Prime exponentielle : 1 c ln E(ecX ), Prime quantile : F 1 (1 ε), X CALCUL DE PERTE ou Value At Risk en finance : P(X < seuil). etc. A. Popier (Le Mans) Méthode de Monte Carlo. 3 / 95
5 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 4 / 95
6 LOI DES GRANDS NOMBRES. THÉORÈME Soit (Y i ) i N une suite de variables aléatoires. HYPOTHÈSES indépendance distribution identique (comme une v.a. Y ) E( Y ) < +. Alors presque sûrement : lim Y 1 n = lim n + n + n (Y Y n ) = E(Y ). Autrement dit, pour n assez grand 1 n Y i E(Y ). n i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 5 / 95
7 MÉTHODE DE MONTE CARLO. MÉTHODE Pour calculer µ = E(f (X)), simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X, poser : ˆµ N = 1 N N i=1 f (X i ) = f (X 1) f (X N ). N Loi des grands nombres : ˆµ N µ pour N grand. PROBLÈME : quelle est l erreur commise? A. Popier (Le Mans) Méthode de Monte Carlo. 6 / 95
8 LOI EXPONENTIELLE (2) (ESPÉRANCE 1/2) A. Popier (Le Mans) Méthode de Monte Carlo. 7 / 95
9 LOI DE PARETO (0,5) PAS D ESPÉRANCE A. Popier (Le Mans) Méthode de Monte Carlo. 8 / 95
10 THÉORÈME CENTRAL LIMITE. THÉORÈME Soit (Y i ) i N une suite de v.a. HYPOTHÈSES indépendance distribution identique (comme une v.a. Y ) E( Y 2 ) < +. Alors Y n = N (0, 1) : pour tout a < b ( lim P a < ) n Y n µ < b = P(a < Z < b), Z N (0, 1). n + σ A. Popier (Le Mans) Méthode de Monte Carlo. 9 / 95
11 INTERVALLE DE CONFIANCE. TCL : µ = E(Y 1 ), Y n = 1 n (Y Y n ) P (Y n a n σ µ Y n + a n σ ) ( = P a ) n Y n µ a σ P( Z a), où σ 2 = Var(f (X)). Pour un niveau de confiance α [0, 1] fixé, il existe c α > 0 tel que Donc avec a = c α, pour n grand avec P( Z c α ) = α. P (µ I α,n ) P( Z c α ) = α ] σ σ I α,n = [Y n c α n, Y n + c α n : intervalle de confiance. A. Popier (Le Mans) Méthode de Monte Carlo. 10 / 95
12 MÉTHODE DE MONTE CARLO : ERREUR. MÉTHODE Simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X. Poser : ˆµ N = 1 N N i=1 f (X i ) = f (X 1) f (X N ). N Erreur donnée par un intervalle de confiance : P ( µ I α,n ) α avec [ ] σ σ I α,n = ˆµ N c α N, ˆµ N + c α N, σ 2 = Var (f (x)). Problème : on ne connaît pas en général la variance σ 2. A. Popier (Le Mans) Méthode de Monte Carlo. 11 / 95
13 ESTIMATION DE LA VARIANCE. On estime σ 2 grâce à l estimateur Sn 2 = 1 n 1 montrer que ES 2 n = σ 2 = Var(Y ) et n (Y i Y n ) 2. On peut i=1 lim n + S2 n = σ 2. MÉTHODE Simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X. Poser : ˆσ N = 1 N (f (X i ) ˆµ N ) N 1 2. i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 12 / 95
14 MÉTHODE DE MONTE CARLO COMPLÈTE. MÉTHODE 1 Simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X. 2 Poser : ˆµ N = 1 N f (X i ) = f (X 1) f (X N ), N N i=1 ˆσ N = 1 N (f (X i ) ˆµ N ) N Erreur donnée par intervalle de confiance avec niveau de confiance α [ ] ˆσ N ˆσ I α,n = ˆµ N c α N, ˆµ N + c α. N N i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 13 / 95
15 LOI EXPONENTIELLE (2) (ESPÉRANCE 1/2) A. Popier (Le Mans) Méthode de Monte Carlo. 14 / 95
16 LOI EXPONENTIELLE (2) (DÉCROISSANCE EN 1/ N) A. Popier (Le Mans) Méthode de Monte Carlo. 15 / 95
17 PARETO (1,5) (ESPÉRANCE 3, PAS DE VARIANCE) A. Popier (Le Mans) Méthode de Monte Carlo. 16 / 95
18 PARETO (1,5) (TAILLE INTERVALLE CONFIANCE) A. Popier (Le Mans) Méthode de Monte Carlo. 17 / 95
19 MÉTHODE DE MONTE CARLO : REMARQUES. OBLIGATOIRE Donner ˆµ N sans intervalle de confiance n a aucune valeur! ERREUR Pour diminuer la taille de IC, diminuer le niveau de confiance α, augmenter N, diminuer σ ( réduction de variance). AVANT : SIMULATION Que signifie «Simuler N v.a. (X n ) 1 n N i.i.d. de même loi que X»? A. Popier (Le Mans) Méthode de Monte Carlo. 18 / 95
20 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 19 / 95
21 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 20 / 95
22 THÉORÈME FONDAMENTAL DE LA SIMULATION. THÉORÈME Toute variable aléatoire X à valeurs dans R d peut être simulée sous la forme X = en loi f (U 1, U 2,..., U n ) où (U 1, U 2,..., U n ) est uniformément répartie sur [0, 1] n, la fonction f : R n R d est borélienne et a ses points de discontinuité dans un ensemble Lebesgue-négligeable. Il est même possible de réaliser ceci en imposant n = 1 ou n = d ou encore n 1 donné. REMARQUE : f est «explicite». A. Popier (Le Mans) Méthode de Monte Carlo. 21 / 95
23 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 22 / 95
24 SUITES ALÉATOIRES. Considérons une suite finie x := x 1,..., x n {0, 1}. Toutes les suites finies de ce type sont équiprobables et de probabilité 2 n. Certaines suites moins aléatoires que d autres 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1 1, 1, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 1, 1 1, 0, 0, 1, 0, 1, 1, 1, 0, 1, 0, 1, 1, 0, 0, 0, 1, 0 Quel sens donner et comment quantifier le caractère aléatoire d une suite finie ou infinie donnée? Comment produire des suites finies qui sont de «bonnes» approximations finies des suites infinies probables correspondant à des réalisations i.i.d. d une loi donnée? Comment mesurer la qualité de ces algorithmes? A. Popier (Le Mans) Méthode de Monte Carlo. 23 / 95
25 SUITES ALÉATOIRES. D.H. Lehmer (1951) : A random sequence is a vague notion... in which each term is unpredictable to the uninitiated and whose digits pass a certain number of tests traditional with statisticians... A. Popier (Le Mans) Méthode de Monte Carlo. 23 / 95
26 NOMBRES PSEUDO-ALÉATOIRES. Simuler la loi uniforme consistera à produire par un algorithme des suites finies de nombres que nous pouvons considérer comme autant de réalisations indépendantes de variables aléatoires uniformes sur [0, 1]. Mathématiquement les n sorties successives d un tel générateur seront considérées comme la donnée de U 1 (ω),..., U n (ω) pour un ω Ω où les U i sont des v.a.r. U i : (Ω, F, P) [0, 1] de loi uniforme. Matlab permet de simuler la loi uniforme via la fonction rand, qui renvoie un nombre «aléatoire» compris entre [0, 1]. A. Popier (Le Mans) Méthode de Monte Carlo. 24 / 95
27 NOMBRES PSEUDO-ALÉATOIRES. Intéressons nous au nombre 0, C est par défaut le premier nombre produit par la fonction rand de Matlab. Pour cela redémarrer Matlab, et exécuter les commandes format long rand Si tous les utilisateurs de Matlab trouvent toujours ce même nombre il ne peut être qualifié d aléatoire. D ailleurs il ne l est pas. A. Popier (Le Mans) Méthode de Monte Carlo. 25 / 95
28 NOMBRES PSEUDO-ALÉATOIRES. À ce stade il est important de faire la distinction entre deux types de méthodes de génération de suites «aléatoires». Méthodes prédictibles : ce sont des méthodes déterministes basées entièrement sur des algorithmes bien établis qui nécessitent d être initialisés. On parlera de suites ou nombres pseudo-aléatoires. Méthodes non-prédictibles : surtout utiles en cryptographie, où il est capital que le hasard utilisé ne soit pas prédictible ni reproductible. Elles peuvent être obtenues à partir des premières en utilisant des «fonctions de hachage», difficilement inversibles en terme de temps de calcul. A. Popier (Le Mans) Méthode de Monte Carlo. 26 / 95
29 ALGORITHMES PAR CONGRUENCE (LEHMER, 1950). utilisent trois paramètres entiers a, c et m et une valeur initiale x 0, appelé seed ; créent une suite d entiers y n+1 = ay n + c mod m compris entre 0 et m ; ramènent les valeurs entre 0 et 1 : x n = y n /m. Exemple : a = 13, c = 0, m = 31 et x 0 = 1. Suite des y n : Celle des x n : , , , , , , ,... A. Popier (Le Mans) Méthode de Monte Carlo. 27 / 95
30 ALGORITHMES PAR CONGRUENCE (LEHMER, 1950). Dans les années 60, sur IBM, Scientific Subroutine Package (SSP) : a = 65539, c = 0, et m = Comme le codage se fait en 32-bits, l arithmétique modulo 2 31 se fait très rapidement. a = : multiplication par a = shift + addition. Problème : y k+2 = 6y k+1 9y k : très forte corrélation. cf. graphique randssp A. Popier (Le Mans) Méthode de Monte Carlo. 27 / 95
31 ALGORITHMES PAR CONGRUENCE (LEHMER, 1950). À partir de Matlab 4, on a choisi : a = 7 5 = 16807, c = 0, m = = Toujours disponible via s=rand( seed ) : fournit le paramètre x0 de cette méthode. rand( seed,s) : impose à Matlab d utiliser cet algorithme avec x 0 = s. Périodicité grande : m 1. Génére toutes les valeurs k/m avec k = 1,..., m, i.e. [0, 1] D r = {k/m, 1 k m} [ , ]. cf. graphique randmcg A. Popier (Le Mans) Méthode de Monte Carlo. 27 / 95
32 ALGORITHME PAR DÉFAUT. À partir de la version 5 (1995), Du à G. Marsaglia. N utilise plus les algorithmes à la Lehmer, plus de multiplication, plus de division. Génère directement des nombres décimaux. Disponible via s=rand( state ) : fournit le paramètre x0 de cette méthode (vecteur de dimension 35). rand( state,s) : impose à Matlab d utiliser cet algorithme avec x 0 = s. Peut générer tous les nombres (flottants) entre 2 53 et (on ne connaît pas de nombre non atteint). Période proche de A. Popier (Le Mans) Méthode de Monte Carlo. 28 / 95
33 ALGORITHME «MERSENNE TWISTER». Troisième algorithme implémenté sous Matlab (version 5 et plus). Disponible via s=rand( twister ) : fournit le paramètre x 0 de cette méthode (vecteur de dimension 625). rand( twister,s) : impose à Matlab d utiliser cet algorithme avec x 0 = s. Période de l ordre de ( )/2. A. Popier (Le Mans) Méthode de Monte Carlo. 29 / 95
34 IMPORTANCE DE LA RACINE. REMARQUE Connaître la valeur de la racine avant de lancer un programme peut être important! Notamment pour pouvoir : comparer des vitesses de calcul ; générer des variables aléatoires couplées. Pour éviter d avoir toujours le même nombre de départ : rand ( s t a t e,sum(100 clock ) ) rand A. Popier (Le Mans) Méthode de Monte Carlo. 30 / 95
35 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 31 / 95
36 FONCTION DE RÉPARTITION. DÉFINITION La fonction de répartition de X, notée F X, est définie sur R par : x R, F X (x) = P(X x). PROPOSITION Soit F X la fonction de répartition d une v.a.r. X. Alors : 1 F X (x) [0, 1]. 2 F X est croissante. 3 lim F X (x) = 0 et lim F X (x) = 1. x x + 4 F X est continue à droite et a une limite à gauche en tout point. A. Popier (Le Mans) Méthode de Monte Carlo. 32 / 95
37 V.A. À DENSITÉ. DÉFINITION Une v.a. X est à densité (par rapport à la mesure de Lebesgue) s il existe f t.q. pour tout x R, f (x) 0 ; + f (x) dx = 1 ; et pour tout a < b +, P(a < X b) = b a f (t)dt. EXEMPLE : LOI UNIFORME SUR [a, b] X suit une loi uniforme sur [a, b] si sa densité f est f (x) = 1 b a 1 [a,b](x). A. Popier (Le Mans) Méthode de Monte Carlo. 33 / 95
38 V.A. À DENSITÉ. PROPOSITION Si X a pour densité f, alors x R, F X (x) = P(X x) = x f (t)dt. F X est continue. F X est dérivable aux points de continuité de f avec f X (x) = F X (x). EXEMPLE : LOI UNIFORME SUR [a, b] Si X suit la loi uniforme sur [a, b], alors F X (x) = 0 si x a, F X (x) = x a si x [a, b], b a F X (x) = 1 pour x b. A. Popier (Le Mans) Méthode de Monte Carlo. 33 / 95
39 V.A. DISCRÈTES. DÉFINITION Une v.a. X est discrète si elle ne prend qu un nombre fini (ou dénombrable) de valeurs {x i R, i N} avec probabilité p i = P(X = x i ) 0. De plus + P(X = x i ) = + i=0 i=0 p i = 1. REPRÉSENTATION en tableau X x 0 x 1 x 2 x 3... (valeurs prises parx) P(X = x i ) p 0 p 1 p 2 p 3... (probabilité) PROPOSITION Si X est une v.a. discrète, F X est constante par morceaux. A. Popier (Le Mans) Méthode de Monte Carlo. 34 / 95
40 EXEMPLE : DÉ À SIX FACES. FONCTION DE RÉPARTITION d une v.a. de loi uniforme sur {1,..., 6} A. Popier (Le Mans) Méthode de Monte Carlo. 35 / 95
41 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 36 / 95
42 MÉTHODE D INVERSION. Si X est une v.a.r. alors la fonction de répartition F X est définie par x R, F X (x) = P(X x). Comme F X est croissante, on peut définir la fonction pseudo-inverse q X de F X ainsi : u (0, 1), q X (u) = inf{x R, F X (x) > u}. THÉORÈME Si U suit une loi uniforme sur [0, 1], q X (U) suit la même loi que X. PROPOSITION Si F est inversible, alors q = F 1. A. Popier (Le Mans) Méthode de Monte Carlo. 37 / 95
43 EXEMPLES. Si U suit une loi uniforme sur [0, 1], alors LOI UNIFORME SUR [a, b] X = a + (b a)u suit la loi uniforme sur [a, b]. LOI EXPONENTIELLE X = 1 ln(1 U) suit la loi exponentielle de paramètre λ. λ LOI DE CAUCHY X = c tan(π(u 1/2)) suit la loi de Cauchy de paramètre c. LOI DE BERNOULLI Si U < 1 p, X = 0, sinon X = 1 : suit la loi de Bernoulli de paramètre p [0, 1]. A. Popier (Le Mans) Méthode de Monte Carlo. 38 / 95
44 LOI DISCRÈTE À SUPPORT FINI. function r e a l i s = r d i s t ( x, p ) n=length ( p ) ; r = rand ; a = 0; b = p ( 1 ) ; for i = 1 : n 1, i f ( ( r >=a ) & ( r <b ) ) r e a l i s = x ( i ) ; return ; end a = b ; b = b + p ( i + 1 ) ; end r e a l i s = x ( n ) ; A. Popier (Le Mans) Méthode de Monte Carlo. 39 / 95
45 LOI UNIFORME. function r e a l i s = r a n d d i s c r ( x, n,m) %Renvoie des realisations iid %de loi uniforme sur x(1),...,x(length(x)). %n et m sont des entiers optionnels, valant 1 par defaut. i f ( nargin ==0) error ( Pas assez de parametres ) ; e l s e i f ( nargin ==1) n=1;m=1; e l s e i f ( nargin ==2) m=1; e l s e i f ( nargin >3) error ( Trop de parametres ) ; end ; r e a l i s = reshape ( x ( c e i l ( length ( x ) rand ( n,m) ) ), n,m) ; return ; A. Popier (Le Mans) Méthode de Monte Carlo. 40 / 95
46 INVERSION : DIMENSION QUELCONQUE. Soit une v.a. X = (X 1, X 2 ) de loi connue P X sur R 2 avec densité f > 0. Fonction de répartition de X 1 : x1 F X1 (x 1 ) = f (x, y)dxdy. Soit q 1 son inverse. Fonction de répartition F X 1=x 1 X 2 de la loi conditionnelle de X 2 sachant X 1 = x 1 : x2 F X 1=x 1 X 2 (x 2 ) = f (x 1, y)dy + f (x 1, y)dy. Inverse : q 2. MÉTHODE Si U 1 et U 2 sont deux v.a. uniformes sur [0, 1] indépendantes, alors X 1 = q 1 (U 1 ), X 2 = q 2 (q 1 (U 1 ), U 2 ). R A. Popier (Le Mans) Méthode de Monte Carlo. 41 / 95
47 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 42 / 95
48 LOI BINOMIALE. DÉFINITION Une v.a. X à valeurs entières comprises entre 1 et N suit une loi binômiale de paramètres N N et p [0, 1] si : k = 1,..., N, P(X = k) = C k N pk (1 p) N k. PROPOSITION Soient U i, i = 1,..., N des v.a. uniformes sur [0, 1] indépendantes. N Soit X le nombre des U i inférieures à p [0, 1], i.e. X = 1 Ui <p. Alors X suit une loi binomiale de paramètres N et p. i=1 MÉTHODE Simuler N v.a. de Bernoulli X i et en faire la somme. A. Popier (Le Mans) Méthode de Monte Carlo. 43 / 95
49 LOI GÉOMÉTRIQUE. DÉFINITION Une v.a. X à valeurs entières strictement positives suit une loi géométrique de paramètre p ]0, 1[ si : QUELQUES RÉSULTATS : E(X) = 1 1 p p, Var(X) =. p 2 P(X k) = (1 p) k 1. PILE OU FACE n 1, P(X = n) = p(1 p) n 1. Une loi géométrique est la loi du nombre de tirages à pile ou face (indépendants) à réaliser pour obtenir face (si face a p % de chances de sortir). A. Popier (Le Mans) Méthode de Monte Carlo. 44 / 95
50 LOI DE POISSON. DÉFINITION Une v.a. X à valeurs entières positives suit une loi de Poisson de paramètre λ > 0 si : MOMENTS : E(X) = Var(X) = λ. PROPOSITION λ λn n 0, P(X = n) = e n!. Soit (E n ) n N v.a. i.i.d. exponentielles de paramètre λ. Alors λ λn P(E E n 1 < E E n+1 ) = e n!. A. Popier (Le Mans) Méthode de Monte Carlo. 45 / 95
51 LOI DE POISSON. DÉFINITION Une v.a. X à valeurs entières positives suit une loi de Poisson de paramètre λ > 0 si : MOMENTS : E(X) = Var(X) = λ. MÉTHODE λ λn n 0, P(X = n) = e n!. X = 1 E1 1<E 1 +E E1 +E 2 1<E 1 +E 2 +E n 1 E E n 1<E E n suit une loi de Poisson de paramètre λ. A. Popier (Le Mans) Méthode de Monte Carlo. 45 / 95
52 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 46 / 95
53 QUELLES VÉRIFICATIONS? DEUX TYPES de vérifications : histogramme normalisé contre densité, fonctions de répartition empirique contre théorique. Dans les deux cas, il faut d abord simuler un grand nombre de fois la loi en question. Pour n N, on obtient un vecteur (x 1,..., x n ) qui contient n réalisations de la loi de X. A. Popier (Le Mans) Méthode de Monte Carlo. 47 / 95
54 HISTOGRAMME VS. DENSITÉ. HISTOGRAMME NORMALISÉ 1 regrouper les n termes dans un certain nombre m de classes (avec m < n). Dans chaque classe r m réalisations de X avec r m = n. m 2 normalisation : la somme des aires des colonnes fait 1 r m /(n(c m+1 C m )). 3 tracé : sur l axe des abscisses, placer les m centres des m classes, et mettre une colonne de hauteur r m /(n(c m+1 C m )). CONVERGENCE VERS LA DENSITÉ r m n(c m+1 C m ) n + 1 C m+1 C m P(X [C m, C m+1 [). A. Popier (Le Mans) Méthode de Monte Carlo. 48 / 95
55 HISTOGRAMME VS. DENSITÉ. CONVERGENCE VERS LA DENSITÉ CONCLUSION r m n(c m+1 C m ) n + 1 C m+1 C m P(X [C m, C m+1 [). Si X discrète avec C k espacés de 1, approximativement p k. Si X à densité, alors P(X [C m, C m+1 [) C m+1 C m = 1 C m+1 C m Cm+1 C m f (t)dt C m+1 C m 0 f (C m). A. Popier (Le Mans) Méthode de Monte Carlo. 48 / 95
56 RÉPARTITION EMPIRIQUE VS. THÉORIQUE. FONCTION DE RÉPARTITION EMPIRIQUE t R, F n (t) = 1 n n 1 ],t] (x i ). i=1 THÉORÈME DE KOLMOGOROV-SMIRNOV t R, lim F n (t) = F X (t). n + A. Popier (Le Mans) Méthode de Monte Carlo. 49 / 95
57 EXEMPLE SUR LA LOI EXPONENTIELLE(2). n=100 Histogramme vs densite Fcts de repartition empirique theorique !0.2! A. Popier (Le Mans) Méthode de Monte Carlo. 50 / 95
58 EXEMPLE SUR LA LOI EXPONENTIELLE(2). n=10000 Histogramme vs densite Fcts de repartition empirique theorique !0.2! A. Popier (Le Mans) Méthode de Monte Carlo. 51 / 95
59 EXEMPLE SUR LA LOI DE BERNOULLI(0.3). n=100 Histogramme Fcts de repartition empirique theorique ! !0.2!1.0! A. Popier (Le Mans) Méthode de Monte Carlo. 52 / 95
60 EXEMPLE SUR LA LOI DE BERNOULLI(0.3). n=10000 Histogramme Fcts de repartition empirique theorique ! !0.2!1.0! A. Popier (Le Mans) Méthode de Monte Carlo. 53 / 95
61 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 54 / 95
62 MÉTHODE DE REJET. On veut simuler une v.a. de densité f, et il existe une densité g simulable facilement et une constante k 1 telle que Soit α(x) = f (x) kg(x). PROPOSITION x R, f (x) kg(x). Soit (X i ) i 1 une suite de v.a. i.i.d. de densité g, et (U i ) i 1 une suite de v.a. i.i.d. de loi uniforme sur [0, 1], indépendante de la suite (X i ) i 1. Soit T = inf{i 1, U i α(x i )}. La variable X T a pour densité f. A. Popier (Le Mans) Méthode de Monte Carlo. 55 / 95
63 MÉTHODE DE REJET. MÉTHODE Soit (X 1, U 1 ) un couple de v.a. indépendantes telles que X 1 suive la loi de densité g et U 1 suive une loi uniforme sur [0, 1]. Si U 1 α(u 1 ), on pose X = X 1. Sinon on rejette X 1 et on recommence en générant une suite (X n, U n ) n 2 de v.a. indépendantes de même loi que (X 1, U 1 ) jusqu à l instant p où U p α(x p ). On pose alors X = X p. REMARQUES on n a pas besoin de connaître F, ni F 1. elle s étend à R d, à des lois discrètes, etc. A. Popier (Le Mans) Méthode de Monte Carlo. 56 / 95
64 MÉTHODE DE REJET : VITESSE. Calcul de la probabilité d acceptation : p = P(U α(x)) = 1 k. Donc T a pour distribution une loi géométrique de paramètre p. En moyenne, on doit rejeter k = 1/p fois avant d accepter la valeur. Ainsi il faut choisir g telle que ( ) f k = max g soit la plus petite possible. A. Popier (Le Mans) Méthode de Monte Carlo. 57 / 95
65 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 58 / 95
66 LOI NORMALE : MÉTHODE POLAIRE. PROPOSITION Si Y N (µ, σ 2 ), alors X = (Y µ)/σ N (0, 1). Pour simuler X (et Y ) simuler deux lois uniformes U et V sur [0, 1] ; poser X = 2 ln U cos(2πv ), Y = 2 ln U sin(2πv ). PROPOSITION X et Y sont deux v.a. normales centrées réduites indépendantes. Ou utiliser sous Matlab randn(n,m). A. Popier (Le Mans) Méthode de Monte Carlo. 59 / 95
67 LOI NORMALE : MÉTHODE POLAIRE. Pour simuler X (et Y ) simuler deux lois uniformes U et V sur [0, 1] ; poser c l f ; X = 2 ln U cos(2πv ), Y = 2 ln U sin(2πv ). hold on t i t l e ( Simulation d une l o i normale ) ylabel ( E f f e c t i f s ) ; xlabel ( Valeurs ) ; [ E,C]= ecdf ( sqrt ( 2 log ( rand ( , 1 ) ) ). cos(2 pi rand ( , 1 ) ) ) ; e c d f h i s t (E,C, 4 0 ) ; hold on plot (C, ( 2 pi )^( 1/2) exp( C. ^ 2 / 2 ), r ) ; legend ( Empirique, Theorique ) hold o f f A. Popier (Le Mans) Méthode de Monte Carlo. 60 / 95
68 LOI NORMALE : MÉTHODE POLAIRE. A. Popier (Le Mans) Méthode de Monte Carlo. 61 / 95
69 LOI NORMALE : MÉTHODE POLAIRE. A. Popier (Le Mans) Méthode de Monte Carlo. 61 / 95
70 LOI NORMALE : MÉTHODE POLAIRE-REJET. PROPOSITION (X, Y ) = (ρ cos(θ), ρ sin(θ)) suit une loi uniforme sur le disque unité du plan, alors 4 ln(ρ) (X, Y ) ρ suit une loi normale centrée réduite bidimensionnelle. (X, Y ) facile à simuler par rejet à partir d une uniforme sur le carré [ 1, 1] 2 (rejet dans 21 % des cas puisque π/4 0, 79). θ et ρ indépendantes, ρ loi de densité u 2u1 [0,1] (u), 4 ln(ρ) exponentielle de paramètre 1/2, θ uniforme sur [0, 2π]. A. Popier (Le Mans) Méthode de Monte Carlo. 62 / 95
71 LOI UNIFORME SUR LE DISQUE. A. Popier (Le Mans) Méthode de Monte Carlo. 63 / 95
72 VECTEUR GAUSSIEN. PROPOSITION Soit m R n, Γ S + n (R) matrice réelle de taille n symétrique positive, Y vecteur aléatoire gaussien standard de moyenne nulle et matrice de covariance Id n. Alors le vecteur aléatoire X = Γ 1/2 Y + m est gaussien de moyenne m et de matrice de covariance Γ. Si Y est un vecteur gaussien de loi N (0, Id n ), ses coordonnées sont i.i.d. de loi N (0, 1). Ainsi on peut simuler une réalisation de Y en simulant n réalisations indépendantes Y 1 (ω),..., Y n (ω) de loi N (0, 1). A. Popier (Le Mans) Méthode de Monte Carlo. 64 / 95
73 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 65 / 95
74 DEUX EXEMPLES. EXEMPLE THÉORIQUE. Calculer θ = E(e 5Z ) = e 52 /2 avec Z N (0, 1) variance théorique : σ 2 = e 50 e valeur exacte : nombre tirages : N = valeur estimée : θ = Intervalle de confiance : I = [ 65186, ]. A. Popier (Le Mans) Méthode de Monte Carlo. 66 / 95
75 DEUX EXEMPLES. EXEMPLE PLUS CONCRET. Call C = E((5e (Z 1/2) 3) + ) avec Z N (0, 1) valeur exacte : 2,71. nombre tirages : N = valeur estimée : 2,83. Intervalle de confiance : I = [2, 42; 3, 24]. Put P = E((3 5e (Z 1/2) ) + ) et C P = 2. valeur exacte : 0,71. valeur estimée : 0,70. Intervalle de confiance : I = [0, 64; 0, 76]. Contrôle : C = 2 + P. A. Popier (Le Mans) Méthode de Monte Carlo. 66 / 95
76 RÉDUCTION DE VARIANCE : MÉTHODES. Variables antithétiques. Variables de contrôle. Échantillonnage préférentiel (ou d importance). Échantillonnage stratifié. Méthodes adaptatives (chaînes de Markov). A. Popier (Le Mans) Méthode de Monte Carlo. 67 / 95
77 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 68 / 95
78 VARIABLES ANTITHÉTIQUES. BUT : calculer θ = E(Y ) = E(f (X)). DEUX V.A. Y 1 et Y 2 de même loi que Y. ( E(Y ) = 1 2 (E(Y 1) + E(Y 2 )) = E Y1 +Y 2 2 ) Var ( Y1 +Y 2 2 ) ; = Var (Y 1)+Var (Y 2 )+2Cov(Y 1,Y 2 ) 4 ; si Y 1 ( et Y 2 décorrélées ) (ou indépendantes), Var Y1 +Y 2 2 = Var (Y ) 2 ; ( ) si Cov(Y 1, Y 2 ) < 0, alors Var Y1 +Y 2 2 < Var (Y ) 2. QUESTION : comment obtenir Y 1 et Y 2 de même loi que Y avec Cov(Y 1, Y 2 ) < 0? A. Popier (Le Mans) Méthode de Monte Carlo. 69 / 95
79 VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) où U uniforme sur [0, 1]. ALGORITHME CLASSIQUE avec échantillon de taille 2n. MÉTHODE de i = 1 à 2n générer U i définir Y i = g(u i ) fin définir ˆθ 2n = Y 2n = 1 2n 2n i=1 Y i et ˆσ 2 2n = 1 2n 1 définir CI = [ˆθ 2n c α ˆσ 2n 2n, ˆθ 2n + c α ˆσ 2n 2n ] 2n i=1 (Y i ˆθ 2n ) 2 A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95
80 VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) avec U uniforme sur [0, 1]. ALGORITHME avec échantillon de taille 2n. MÉTHODE de i = 1 à 2n générer U i définir Y i = g(1 U i ) fin définir ˆθ 2n = Y 2n = 1 2n 2n i=1 Y i et ˆσ 2 2n = 1 2n 1 définir CI = [ˆθ 2n c α ˆσ 2n 2n, ˆθ 2n + c α ˆσ 2n 2n ] 2n i=1 (Y i ˆθ 2n ) 2 A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95
81 VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) avec U uniforme sur [0, 1]. ALGORITHME MÉLANGÉ avec échantillon de taille n. MÉTHODE de i = 1 à n générer U i définir Y i = g(u i ), Ỹi = g(1 U i ) et Z i = Y i + Ỹi 2 fin définir ˆθ n,a = Z n = 1 n Z i et ˆσ n 2 = 1 n (Z i ˆθ n ) 2 n n 1 i=1 définir CI = [ˆθ n,a c α ˆσ n n, ˆθ n,a + c α ˆσ n n ] i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95
82 VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) avec U uniforme sur [0, 1]. DIFFÉRENTS RÉSULTATS : ˆθ 2n = Y 2n = 1 2n 2n i=1 Y i ; ˆθ n,a = Z n = 1 n n i=1 Z i. COMPARAISON DES VARIANCES Var (ˆθ 2n ) = Var ( 2n ) i=1 Y i Var (Y ) = 2n 2n Ainsi Var (ˆθ n,a ) = Var (ˆθ 2n ) + Cov(Y, Ỹ ). 2n Var (ˆθ n,a ) < Var (ˆθ 2n ) Cov(g(U), g(1 U)) < 0. A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95
83 VARIABLES ANTITHÉTIQUES UNIFORMES. HYPOTHÈSE : Y = g(u) avec U uniforme sur [0, 1]. THÉORÈME Si g est une fonction monotone, alors Cov(g(U), g(1 U)) < 0. CONSÉQUENCE Méthode d inversion : g = f (F 1 ) est monotone si f l est. X A. Popier (Le Mans) Méthode de Monte Carlo. 70 / 95
84 VARIABLES ANTITHÉTIQUES : GÉNÉRALISATION. HYPOTHÈSE SUR X : il existe a t.q. X et a X aient la même loi. EXEMPLES Lois normales N (µ, σ 2 ) : a = 2µ. Lois de Laplace de paramètre λ > 0 : f (x) = λ 2 exp( λ x ). a = 0. MÉTHODE de i = 1 à n générer X i définir Y i = g(x i ), Ỹi = g(a X i ) et Z i = Y i + Ỹi 2 fin définir ˆθ n,a = Z n = 1 n Z i et ˆσ n 2 = 1 n (Z i ˆθ n ) 2 n n 1 i=1 définir CI = [ˆθ n,a c α ˆσ n n, ˆθ n,a + c α ˆσ n n ] i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 71 / 95
85 EXEMPLE : OPTION KNOCK-IN. CONTRAT FINANCIER de payoff h(s T ) = max(0, S T K )1 ST >B. MODÈLE BLACK-SCHOLES S T = S 0 exp((r σ 2 /2)T + σ T X, X N (0, 1). PRIX DU CONTRAT C = e rt E (h(s T )) = e rt E ( max(0, S T K )1 ST >B). JEU DE PARAMÈTRES S 0 = 2, K = 1, B = 2, 5, r = 0, 1, σ = 0.3, T = 10, N = RÉSULTATS OBTENUS sans réduction de variance : C = (variance ) ; avec réduction de variance : C = (variance ). A. Popier (Le Mans) Méthode de Monte Carlo. 72 / 95
86 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 73 / 95
87 VARIABLES DE CONTRÔLE. BUT : calculer θ = E(Y ) = E(f (X)). AJOUT d une variable Z facilement simulable ; E(Z ) connue ou facilement calculable (variance «petite»). DEUX CALCULS POSSIBLES DE θ : par méthode de Monte Carlo standard, en posant W c = Y + c(z E(Z )) et en calculant E(W c ) par Monte Carlo (c : paramètre constant fixé). QUESTION : Var (W c ) < Var (Y )? A. Popier (Le Mans) Méthode de Monte Carlo. 74 / 95
88 VARIABLES DE CONTRÔLE. CALCUL DE LA VARIANCE : Var (W c ) = Var (Y ) + c 2 Var (Z ) + 2c Cov(Y, Z ). CHOIX OPTIMAL DE c : c Cov(Y,Z ) = Var (Z ) Cov(Y,Z )2 Var (W c ) = Var (Y ) ; Var (Z ) Var (W c ) < Var (Y ) Cov(Y, Z ) < 0 ; Z : variable de contrôle de Y. ; ALGORITHME : ˆθ N,c = 1 N N (Y i + c (Z i E(Z ))) θ. i=1 PROBLÈMES : calcul de E(Z )? De Cov(Y, Z )? A. Popier (Le Mans) Méthode de Monte Carlo. 75 / 95
89 MMC AVEC VARIABLE DE CONTRÔLE. MÉTHODE ÉTAPE 1 : p petit détermine une valeur approchée de c. Simuler p v.a. (Y n ) 1 n p et p v.a. (Z n ) 1 n p. Poser : Calculer ĉ = Ê(Z ) = 1 p p Z i, Ê(Y ) = 1 p i=1 Var (Z ) = 1 p 1 Ĉov(Y, Z ) = 1 p 1,Z ) Ĉov(Y. Var (Z ) p Y i, i=1 p (Z j Ê(Z ))2, j=1 p (Y i Ê(Y ))(Z j Ê(Z ))). j=1 A. Popier (Le Mans) Méthode de Monte Carlo. 76 / 95
90 MMC AVEC VARIABLE DE CONTRÔLE. MÉTHODE ÉTAPE 1 : p petit détermine une valeur approchée de c. ÉTAPE 2 : N grand. Simuler N v.a. (Y n ) 1 n N et N v.a. (Z n ) 1 n N. Poser : θ = 1 N N (Y i + ĉ (Z i Ê(Z ))) θ. i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 76 / 95
91 UN EXEMPLE. ÉNONCÉ Calculer θ = E(e (U+V )2 ) avec U et V de loi uniforme sur [0, 1]. Y = e (U+V )2. Variables de contrôle : Z 1 = U + V, Z 2 = (U + V ) 2 ou encore Z 3 = exp(u + V ). A. Popier (Le Mans) Méthode de Monte Carlo. 77 / 95
92 LE PROGRAMME (CALCUL DE c ). p=500; u=rand ( p, 1 ) ; v=rand ( p, 1 ) ; y=exp ( ( u+v ). ^ 2 ) ; z1=u+v ; z2 =(u+v ). ^ 2 ; z3=exp ( u+v ) ; a1=cov ( [ y z1 ] ) ; a2=cov ( [ y z2 ] ) ; a3=cov ( [ y z3 ] ) ; c_est1= a1 ( 1, 2 ) / a1 ( 2, 2 ) c_est2= a2 ( 1, 2 ) / a2 ( 2, 2 ) c_est3= a3 ( 1, 2 ) / a3 ( 2, 2 ) Valeurs obtenues : c est1 = c est2 = c est3 = A. Popier (Le Mans) Méthode de Monte Carlo. 78 / 95
93 LE PROGRAMME (MMC). n=5000; u=rand ( n, 1 ) ; v=rand ( n, 1 ) ; y=exp ( ( u+v ). ^ 2 ) ; z1=u+v ; z2 =(u+v ). ^ 2 ; z3=exp ( u+v ) ; m1=mean( z1 ) m2=mean( z2 ) m3=mean( z3 ) w1=y+c_est1 ( z1 m1 ) ; w2=y+c_est2 ( z2 m2 ) ; w3=y+c_est3 ( z3 m3 ) ; b0 =[mean( y ) stdev ( y ) ^ 2 ] b1 =[mean(w1) var (w1 ) ] b2 =[mean(w2) var (w2 ) ] b3 =[mean(w3) var (w3 ) ] %Intervalle de confiance CI =[ b2(1) 1.96 stdev (w2 ) / sqrt ( n ), b2 (1)+1.96 stdev (w2 ) / sqrt ( n ) ] A. Popier (Le Mans) Méthode de Monte Carlo. 79 / 95
94 BILAN. Valeurs obtenues : m1 = (exacte 1) ; m2 = (exacte 7/ ) ; m3 = (exacte (e 1) ) ; CI = [ , ]. moyenne variance b b b b A. Popier (Le Mans) Méthode de Monte Carlo. 80 / 95
95 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 81 / 95
96 MONTE CARLO CONDITIONNEL. IDÉE : au lieu de calculer θ = E(Y ) = E(f (X)), pour Z v.a. poser V = E(Y Z ) = g(z ) v.a. ; et θ = E(V ). CONDITIONS : Z facilement simulable ; V facilement calculable. CALCULS DE LA VARIANCE : Var (Y Z ) est une v.a. positive : [ Var (Y Z ) = E (Y E(Y Z )) 2 ] Z, et comme Y E(Y ) (E(Y Z ) E(Y )) E(Y Z ) E(Y ), Var (Y ) = E(Var (Y Z )) + Var (E(Y Z )) Var (Y ) Var (E(Y Z )). A. Popier (Le Mans) Méthode de Monte Carlo. 82 / 95
97 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 83 / 95
98 ÉVÉNEMENTS RARES. Technique utilisée beaucoup pour θ = P(X seuil ) = E(1 X seuil ), quand l occurence de X seuil est très petite. EXEMPLES. Catastrophes climatiques, ferroviaires, aériennes, etc. Faillites de grosses entreprises, d états, etc. Cracks boursiers importants BUT : mesurer les risques de portefeuille, opérationnels, etc. (obligation légale pour les banques ou les assurances). A. Popier (Le Mans) Méthode de Monte Carlo. 84 / 95
99 EXEMPLE. X suit une loi normale de paramètres 0 et 1 θ = P(X 10) = E(1 X 10 ). MONTE-CARLO CLASSIQUE. Nombre de tirages N variant de 1000 à Valeur estimée : 0. CONCLUSION ERRONÉE : θ = 0. VALEUR EXACTE : θ = Nombre de tirages nécessaires de l ordre de : impossible! A. Popier (Le Mans) Méthode de Monte Carlo. 85 / 95
100 ÉCHANTILLONNAGE PRÉFÉRENTIEL : PRINCIPE. Changer la loi. Soient φ la densité de X et ψ une autre densité telle que ψ(x) 0 si φ(x) 0. Alors θ = E(f (X)) = f (x)φ(x)dx = f (x) φ(x) ψ(x) ψ(x)dx = E(h(Y )), avec h(x) = f (x) φ(x) et Y ψ. ψ(x) DÉFINITION : g est une fonction d importance. QUESTION : comment choisir g? A. Popier (Le Mans) Méthode de Monte Carlo. 86 / 95
101 RETOUR SUR L EXEMPLE. X N (0, 1) et θ = P(X 10) : forcer les tirages de Y à être aux alentours de -10. Donc Y N ( 10, 1). REMARQUE Si Y N (µ, σ 2 ), alors P(Y µ) = 1/2. θ = P(X 10) = = = 1 x 10 R R R 1 exp 2π 1 exp 2π 1 1 x 10 exp ( x 2 ) 2π 2 ( ) x 2 2 ( ) 1 exp 2π (x+10)2 2 ( 1 x 10 exp 10x + ( 10) 2 /2 = E [1 Y 10 exp (10Y + 50)]. ( ) 1 exp ( 2π ) (x + 10)2 dx 2 ) (x + 10)2 dx 2 A. Popier (Le Mans) Méthode de Monte Carlo. 87 / 95
102 RETOUR SUR L EXEMPLE. θ = P(X 10) = E [1 Y 10 exp (10Y + 50)]. MONTE-CARLO AVEC Y. Valeur exacte θ = Y=randn(N,1) Nombre de tirages N variant de 1 à Valeur estimée : Écart-type : A. Popier (Le Mans) Méthode de Monte Carlo. 87 / 95
103 RETOUR SUR L EXEMPLE. A. Popier (Le Mans) Méthode de Monte Carlo. 87 / 95
104 CHOIX DE LA FONCTION D IMPORTANCE. DONNÉES : φ densité de X, ψ autre densité t.q. ψ(x) 0 si φ(x) 0. ( θ = E(f (X)) = E(h(Y )) = E f (Y ) φ(y ) ), Y ψ. ψ(y ) CALCULS DE LA VARIANCE : Var (f (X)) = Var (h(y )) = Donc Var (f (X)) Var (h(y )) = f 2 (x)φ(x)dx θ 2 ; f 2 (x) φ2 (x) ψ(x) dx θ2. ( f 2 (x) 1 φ(x) ) φ(x)dx > 0. ψ(x) A. Popier (Le Mans) Méthode de Monte Carlo. 88 / 95
105 CHOIX DE LA FONCTION D IMPORTANCE. DONNÉES : φ densité de X, ψ autre densité t.q. ψ(x) 0 si φ(x) 0. ( θ = E(f (X)) = E(h(Y )) = E f (Y ) φ(y ) ), Y ψ. ψ(y ) CALCULS DE LA VARIANCE : Var (f (X)) Var (h(y )) = ( f 2 (x) 1 φ(x) ) φ(x)dx > 0. ψ(x) PISTE : si ψ(x) = f (x)φ(x)/θ, Var (h(y )) = 0! Prendre ψ proche de f φ... THÉORÈME (RUBINSTEIN) La densité ψ qui minimise la variance est ψ(x) = 1 f (x) φ(x)dx f (x) φ(x). A. Popier (Le Mans) Méthode de Monte Carlo. 88 / 95
106 CHOIX DE LA FONCTION D IMPORTANCE. DONNÉES : φ densité de X, ψ autre densité t.q. ψ(x) 0 si φ(x) 0. ( θ = E(f (X)) = E(h(Y )) = E f (Y ) φ(y ) ), Y ψ. ψ(y ) CALCULS DE LA VARIANCE : IDÉE : Var (f (X)) Var (h(y )) = prendre φ/ψ > 1 quand f φ petit ; prendre φ/ψ < 1 quand f φ grand. ( f 2 (x) 1 φ(x) ) φ(x)dx > 0. ψ(x) A. Popier (Le Mans) Méthode de Monte Carlo. 88 / 95
107 PLAN 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental Simulation de la loi uniforme Fonction de répartition Méthode d inversion Cas particuliers Vérifications Méthode de rejet Lois gaussiennes 3 RÉDUCTION DE VARIANCE Variables antithétiques Variables de contrôle Monte Carlo conditionnel Échantillonnage d importance Échantillonnage stratifié A. Popier (Le Mans) Méthode de Monte Carlo. 89 / 95
108 PRINCIPE DE L ÉCHANTILLONNAGE STRATIFIÉ. OBJECTIF : évaluer θ = E(Y ) avec Y v.a. réelle. Soit A 1,..., A K sous-ensembles disjoints de R tels que P(Y i A i ) = 1. Alors θ = K P(Y A i )E(Y Y A i ) = i=1 K p i E(Y Y A i ). i=1 STRATIFICATION PROPORTIONNELLE. Soit N la taille de l échantillon. choisir les A i avec p i = P(Y A i ) ; poser n i = Np i (considéré comme entier) ; pour chaque i = 1,..., K, simuler Y ij, j = 1,..., n i i.i.d. suivant la loi de Y sachant Y A i. θ K i=1 p i 1 n i n i j=1 Y ij = 1 N K n i Y ij. i=1 j=1 A. Popier (Le Mans) Méthode de Monte Carlo. 90 / 95
109 GÉNÉRALISATION. STRATIFICATION FONCTION DE X. A i choisis tels que P(X i A i ) = 1 : θ = K P(X A i )E(Y Y A i ) = i=1 K p i E(Y X A i ). i=1 Générer (X ij, Y ij ) suivant la loi conditionnelle de (X, Y ) sachant X A i. SUPPRIMER LA PROPORTIONNALITÉ. Autoriser le nombre de tirages n 1,..., n k arbitraire (avec i n i = N) ; Poser q i = n i /N : K θ Ŷ = p i 1 n i Y ij = 1 K p i n i Y ij. n i N q i i=1 j=1 i=1 j=1 A. Popier (Le Mans) Méthode de Monte Carlo. 91 / 95
110 EXEMPLES. STRATIFICATION DE LA LOI UNIFORME. Partition de ]0, 1[ : A i =]a i, b i ] ; Loi de U sachant U A i : uniforme entre a i et b i ; Échantillon : V i = a i + (b i a i )U i. Exemple : A i =](i 1)/N, i/n], i = 1,..., N. VIA FONCTION DE RÉPARTITION. Y de fonction de répartition F. Pour p 1,..., p K données, avec a 0 =, a 1 = F 1 (p 1 ), a 2 = F 1 (p 1 + p 2 ),..., a K = F 1 (1), et A i =]a i 1, a i ] pour i = 1,..., K. Si a k = +, alors A K =]a K 1, a K [. V = a i 1 + U(a i a i 1 ) uniforme sur A i et F 1 (V ) a la loi de Y sachant Y A i. A. Popier (Le Mans) Méthode de Monte Carlo. 92 / 95
111 ANALYSE DE L ESTIMATEUR Ŷ. NOTATIONS : θ i = E(Y ij ) = E(Y X A i ), σ 2 = Var (Y ij ) = Var (Y X A i ). ESTIMATEUR SANS BIAIS : E(Ŷ ) = K i=1 p i 1 n i n i E(Y ij ) = j=1 N p i θ i = θ. i=1 de variance : K Var (Ŷ ) = pi 2 Var 1 n i E(Y ij ) = n i avec i=1 j=1 σ 2 (q) = N i=1 p 2 i q i σ 2 i. N i=1 p 2 i σ 2 i n i = σ2 (q) N A. Popier (Le Mans) Méthode de Monte Carlo. 93 / 95
112 ANALYSE DE L ESTIMATEUR Ŷ. INTERVALLE DE CONFIANCE : [Nq i ] 1 (Y ij θ i ) [Nqi ] j=1 en loi N (0, σ 2 i ) d où N (Ŷ θ ) = K N p i 1 [Nq i ] (Y ij θ i ) [Nq i ] i=1 j=1 K p i 1 [Nq i ] (Y ij θ i ) qi [Nqi ] i=1 j=1 Ainsi N (Ŷ θ ) en loi N (0, σ(q) 2 ). A. Popier (Le Mans) Méthode de Monte Carlo. 93 / 95
113 ANALYSE DE L ESTIMATEUR Ŷ. INTERVALLE DE CONFIANCE : Ainsi N (Ŷ θ ) en loi N (0, σ(q) 2 ). σ(q) 2 : estimé via N s 2 pi 2 (q) = si 2 q, avec s i déviation standard de Y i1,..., Y ini ; i ou i=1 N = mk, ki = q i k et n i = mk i, Ŷ moyenne de m estimateurs Ŷi qui allouent une fraction q i d observations pour la strate i et de taille k, Ŷi de variance σ(q) 2 /k et Ŷ de variance (σ(q)2 /k)/m. A. Popier (Le Mans) Méthode de Monte Carlo. 93 / 95
114 RÉDUCTION DE VARIANCE? CAS PROPORTIONNEL. [ σ 2 N = 1 N (E(Y 2 ) θ 2 ) = 1 K ] p i E(Y 2 X A i ) θ 2 N i=1 [ = 1 K ] p i (σi 2 + θi 2 N ) θ2 = 1 N i=1 K p i σi N i=1 Ainsi : σ2 N Var (ŶProp) = 1 N K p i (θ i θ) 2 i=1 K p i (θ i θ) 2. i=1 A. Popier (Le Mans) Méthode de Monte Carlo. 94 / 95
115 RÉDUCTION DE VARIANCE? CAS PROPORTIONNEL. Ainsi : σ2 N Var (ŶProp) = 1 N OPTIMISATION. Trouver le minimum de σ 2 (q) = n n k = N. Optimum : qi = p iσ i. K p j σ j Ainsi j=1 N i=1 p 2 i q i σ 2 i Var (ŶOpt) = 1 K p j σ j N j=1 Var (ŶProp) Var (ŶOpt) = 1 N K p i (θ i θ) 2. i=1 avec q i = n i /N et 2 = σ2 N. K ( p j σj σ ) 2. A. Popier (Le Mans) Méthode de Monte Carlo. 94 / 95 j=1
116 RÉDUCTION DE VARIANCE? CAS PROPORTIONNEL. Ainsi : σ2 N Var (ŶProp) = 1 N OPTIMISATION. K p i (θ i θ) 2. i=1 Var (ŶProp) Var (ŶOpt) = 1 N K ( p j σj σ ) 2. j=1 CONCLUSION. σ 2 N = σ2 N Var (ŶProp) + Var (ŶProp) Var (ŶOpt) + σ2 N = 1 K K p i (θ i θ) 2 ( + p j σj σ ) 2 + σ 2. N i=1 j=1 A. Popier (Le Mans) Méthode de Monte Carlo. 94 / 95
117 EXEMPLE NUMÉRIQUE. OBJECTIF : calculer θ = E(Y ) = E( 1 U 2 ), avec variable de stratification X = U. Pour A i =]a i, b i ], Y i = ( 1 U 2 U A i ) obtenue via (U U A i ) uniforme sur A i. Choix : A 1 =]0, 1 K ], A 2 =] 1 K, 2 K ],..., A K =] K 1 K, 1]. p i = 1/K, n i = Np i = N/K. RÉSULTATS : N = 10000, K = 100. Monte-Carlo standard : θ = 0, 782 avec intervalle de confiance [0, 7775; 0, 7864]. Variance : 0,05. Échantillonnage stratifié : θ = 0, 7854 avec intervalle de confiance [0, 7853; 0, 7855]. Variance : 2, A. Popier (Le Mans) Méthode de Monte Carlo. 95 / 95
Simulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Programmes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Probabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Moments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Modélisation et simulation
Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.
TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options
Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce
PROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Espérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
TSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Le modèle de Black et Scholes
Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un
Travaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
4 Distributions particulières de probabilités
4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli
Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
IFT3245. Simulation et modèles
IFT 3245 Simulation et modèles DIRO Université de Montréal Automne 2012 Tests statistiques L étude des propriétés théoriques d un générateur ne suffit; il estindispensable de recourir à des tests statistiques
Loi binomiale Lois normales
Loi binomiale Lois normales Christophe ROSSIGNOL Année scolaire 204/205 Table des matières Rappels sur la loi binomiale 2. Loi de Bernoulli............................................ 2.2 Schéma de Bernoulli
Principe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, [email protected] 2 Université
TABLE DES MATIERES. C Exercices complémentaires 42
TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence
Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Méthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Probabilités et statistique. Benjamin JOURDAIN
Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech
TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION
TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun
Cours 7 : Utilisation de modules sous python
Cours 7 : Utilisation de modules sous python 2013/2014 Utilisation d un module Importer un module Exemple : le module random Importer un module Exemple : le module random Importer un module Un module est
PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390
PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas
Quantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
3. Caractéristiques et fonctions d une v.a.
3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions
Loi d une variable discrète
MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une
Annexe commune aux séries ES, L et S : boîtes et quantiles
Annexe commune aux séries ES, L et S : boîtes et quantiles Quantiles En statistique, pour toute série numérique de données à valeurs dans un intervalle I, on définit la fonction quantile Q, de [,1] dans
Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes
de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes Zohra Guessoum 1 & Farida Hamrani 2 1 Lab. MSTD, Faculté de mathématique, USTHB, BP n 32, El Alia, Alger, Algérie,[email protected]
I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300
I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,
Introduction au pricing d option en finance
Introduction au pricing d option en finance Olivier Pironneau Cours d informatique Scientifique 1 Modélisation du prix d un actif financier Les actions, obligations et autres produits financiers cotés
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Introduction à la statistique non paramétrique
Introduction à la statistique non paramétrique Catherine MATIAS CNRS, Laboratoire Statistique & Génome, Évry http://stat.genopole.cnrs.fr/ cmatias Atelier SFDS 27/28 septembre 2012 Partie 2 : Tests non
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,
Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
MODELES DE DUREE DE VIE
MODELES DE DUREE DE VIE Cours 1 : Introduction I- Contexte et définitions II- Les données III- Caractéristiques d intérêt IV- Evènements non renouvelables/renouvelables (unique/répété) I- Contexte et définitions
4. Martingales à temps discret
Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les
Table des matières. I Mise à niveau 11. Préface
Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3
Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
La fonction exponentielle
DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction
Baccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
I. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
de calibration Master 2: Calibration de modèles: présentation et simulation d
Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe
Value at Risk. CNAM GFN 206 Gestion d actifs et des risques. Grégory Taillard. 27 février & 13 mars 20061
Value at Risk 27 février & 13 mars 20061 CNAM Gréory Taillard CNAM Master Finance de marché et estion de capitaux 2 Value at Risk Biblioraphie Jorion, Philippe, «Value at Risk: The New Benchmark for Manain
Probabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Estimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison
Estimation: intervalle de fluctuation et de confiance Mars 2012 IREM: groupe Proba-Stat Estimation Term.1 Intervalle de fluctuation connu : probabilité p, taille de l échantillon n but : estimer une fréquence
Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Rappels sur les suites - Algorithme
DERNIÈRE IMPRESSION LE 14 septembre 2015 à 12:36 Rappels sur les suites - Algorithme Table des matières 1 Suite : généralités 2 1.1 Déition................................. 2 1.2 Exemples de suites............................
Simulation : application au système bonus-malus en responsabilité civile automobile
Simulation : application au système bonus-malus en responsabilité civile automobile Robert Langmeier Travail de séminaire réalisé sous la supervision du professeur François Dufresne Ecole des HEC Université
Filtrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Que faire lorsqu on considère plusieurs variables en même temps?
Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites
Produits de crédit en portefeuille
Chapitre 6 Produits de crédit en portefeuille et défauts corrélés Dans ce chapitre, on étudie des produits financiers de crédit en portfeuille, notamment k th -to-default swap et CDOs (voir 1.2 pour une
Correction du baccalauréat ES/L Métropole 20 juin 2014
Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)
CCP PSI - 2010 Mathématiques 1 : un corrigé
CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P
La survie nette actuelle à long terme Qualités de sept méthodes d estimation
La survie nette actuelle à long terme Qualités de sept méthodes d estimation PAR Alireza MOGHADDAM TUTEUR : Guy HÉDELIN Laboratoire d Épidémiologie et de Santé publique, EA 80 Faculté de Médecine de Strasbourg
Chapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
FIMA, 7 juillet 2005
F. Corset 1 S. 2 1 LabSAD Université Pierre Mendes France 2 Département de Mathématiques Université de Franche-Comté FIMA, 7 juillet 2005 Plan de l exposé plus court chemin Origine du problème Modélisation
Lois de probabilité. Anita Burgun
Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage
Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. [email protected]. http ://freakonometrics.blog.free.
Actuariat I ACT2121 septième séance Arthur Charpentier [email protected] http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement
Modélisation aléatoire en fiabilité des logiciels
collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.
Séminaire TEST. 1 Présentation du sujet. October 18th, 2013
Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de
Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Statistiques Descriptives à une dimension
I. Introduction et Définitions 1. Introduction La statistique est une science qui a pour objectif de recueillir et de traiter les informations, souvent en très grand nombre. Elle regroupe l ensemble des
Exercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Chapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
La classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
1. Vocabulaire : Introduction au tableau élémentaire
L1-S1 Lire et caractériser l'information géographique - Le traitement statistique univarié Statistique : le terme statistique désigne à la fois : 1) l'ensemble des données numériques concernant une catégorie
Cours de Tests paramétriques
Cours de Tests paramétriques F. Muri-Majoube et P. Cénac 2006-2007 Licence Ce document est sous licence ALC TYPE 2. Le texte de cette licence est également consultable en ligne à l adresse http://www.librecours.org/cgi-bin/main?callback=licencetype2.
Variables Aléatoires. Chapitre 2
Chapitre 2 Variables Aléatoires Après avoir réalisé une expérience, on ne s intéresse bien souvent à une certaine fonction du résultat et non au résultat en lui-même. Lorsqu on regarde une portion d ADN,
Précision d un résultat et calculs d incertitudes
Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................
Estimation et tests statistiques, TD 5. Solutions
ISTIL, Tronc commun de première année Introduction aux méthodes probabilistes et statistiques, 2008 2009 Estimation et tests statistiques, TD 5. Solutions Exercice 1 Dans un centre avicole, des études
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :
Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant
Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1
Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs
Économetrie non paramétrique I. Estimation d une densité
Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer
Image d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA
Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université
Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2
Probabilités Table des matières I Petits rappels sur le vocabulaire des ensembles 2 I.1 s................................................... 2 I.2 Propriétés...................................................
(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01)
(19) TEPZZ 8 8 4_A_T (11) EP 2 838 241 A1 (12) DEMANDE DE BREVET EUROPEEN (43) Date de publication: 18.02.1 Bulletin 1/08 (1) Int Cl.: H04L 29/06 (06.01) G06F 21/ (13.01) (21) Numéro de dépôt: 141781.4
Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé
Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé A. P. M. E. P. Exercice 1 5 points 1. Réponse d. : 1 e Le coefficient directeur de la tangente est négatif et n est manifestement pas 2e
Modèles à Événements Discrets. Réseaux de Petri Stochastiques
Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés
Introduction à MATLAB R
Introduction à MATLAB R Romain Tavenard 10 septembre 2009 MATLAB R est un environnement de calcul numérique propriétaire orienté vers le calcul matriciel. Il se compose d un langage de programmation, d
Introduction à la Statistique Inférentielle
UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique
Chapitre 3 : INFERENCE
Chapitre 3 : INFERENCE 3.1 L ÉCHANTILLONNAGE 3.1.1 Introduction 3.1.2 L échantillonnage aléatoire 3.1.3 Estimation ponctuelle 3.1.4 Distributions d échantillonnage 3.1.5 Intervalles de probabilité L échantillonnage
Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes
Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire
UFR de Sciences Economiques Année 2008-2009 TESTS PARAMÉTRIQUES
Université Paris 13 Cours de Statistiques et Econométrie I UFR de Sciences Economiques Année 2008-2009 Licence de Sciences Economiques L3 Premier semestre TESTS PARAMÉTRIQUES Remarque: les exercices 2,
Analyse de la variance Comparaison de plusieurs moyennes
Analyse de la variance Comparaison de plusieurs moyennes Biostatistique Pr. Nicolas MEYER Laboratoire de Biostatistique et Informatique Médicale Fac. de Médecine de Strasbourg Mars 2011 Plan 1 Introduction
Représentation des Nombres
Chapitre 5 Représentation des Nombres 5. Representation des entiers 5.. Principe des représentations en base b Base L entier écrit 344 correspond a 3 mille + 4 cent + dix + 4. Plus généralement a n a n...
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Continuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Température corporelle d un castor (une petite introduction aux séries temporelles)
Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature
MA6.06 : Mesure et Probabilités
Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................
Chp. 4. Minimisation d une fonction d une variable
Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,
