Méthodes numériques pour la finance. Cours MAE51

Dimension: px
Commencer à balayer dès la page:

Download "Méthodes numériques pour la finance. Cours MAE51"

Transcription

1 Méthodes numériques pour la finance Cours MAE51 LELONG Jérôme 5 avril 27

2

3 Table des matières 1 Calcul d espérances et méthode de Monte Carlo Principe de la méthode Générateur aléatoire Simulation de variables aléatoires Méthode d inversion de la fonction de répartition Méthode du rejet Méthode par changement de variables Méthodes de réduction de variance Variables antithétiques Variables de contrôle Conditionnement Fonctions d importance Suites à discrépance faible Méthodes d arbre Cox-Ross-Rubinstein : une approximation du modèle de Black-Scholes Détermination du modèle Convergence faible Résultats de convergence généraux L arbre trinomial de Kamrad-Ritchken Application au pricing d options Principe général Options barrières Options sur maximum Simulation de processus et discrétisation d EDS Simulation d une trajectoire Brownienne Simulation récursive Simulation rétrograde Discrétisation d EDS Rappels

4 4 TABLE DES MATIÈRES Schéma d Euler Schéma de Milshtein Lien EDP et espérance conditionnelle Modèle de Black Scholes Cas général Résolution numérique dans le modèle de Black-Scholes

5 Chapitre 1 Calcul d espérances et méthode de Monte Carlo Les problèmes probabilistes qui se posent dans les applications fiancières se ramènent généralement au calcul d espérances. Par exemple, en finance les prix des produits dérivés s écrivent comme des espérances. C est donc tout naturellement que l on s intéresse à des méthodes numériques pour calculer ces espérances, sachant que dans la majorité des cas on ne dispose pas de formules exactes. 1.1 Principe de la méthode Les méthodes de Monte Carlo permettent de calculer numériquement des espérances. Ces méthodes sont basées sur le résultat bien connu de la Loi Forte des Grands Nombres. Théorème 1 (Loi Forte des Grands Nombres). Soit (X n ) n une suite de v.a. i.i.d de même loi que X. Si E( X ) <, alors X n = 1 n n i=1 X i p.s E(X). n La convergence a également lieu dans L 1. Remarque 1. L hypothèse d intégrabilité est indispensable, en effet on peut montrer que si l on considère une suite i.i.d de v.a. selon la loi de Cauchy, alors la moyenne empirique ne converge pas. Démonstration. Nous allons faire la preuve sous des hypothèses plus fortes. On suppose que E( X 4 ) <. On peut toujours considérer que E(X) =, en considérant Y = 5

6 6 1. Calcul d espérances et méthode de Monte Carlo X E(x). E ( X4 n ) ( n ) 4 = 1 n 4 E X k, k=1 = 1 n n 4 E(Xk 4 ) + 6 E(Xi 2 )E(X2 j ), k=1 i<j car les X i sont centrés et indépendants, = 1 n 4 (ne(x 4 ) + 3n(n 1)E(X 2 ) 2), 3E(X4 ) n 2. Comme E( X 4 ) <, on déduit par convergence monotone que E( implique que X n 4 < p.s.. n=1 n=1 X 4 n ) <. Cela Et donc les termes de la série tendent p.s. vers, i.e. lim n X n = p.s.. Comme lim n E( X 4 n) =, on a grâce à l inégalité de Jensen 1 lim n E( X n ) =. Dans la mesure où l estimateur de E(X) est une variable aléatoire, il est important de pouvoir fournir un intervalle de confiance. En effet, deux simulations distinctes peuvent conduire à deux estimations très différentes. Le théorème suivant donne un résultat sur la vitesse de convergence de l estimateur et permet par la suite de fournir un intervalle de confiance. Dans la pratique, il faudra toujours mettre en perspective la valeur obtenue avec la largeur de l intervalle de confiance pour justifier la pertinence du résultat annoncé. Théorème 2 (Théorème Central Limite). Soit (X n ) n une suite de v.a. i.i.d de même loi que X. Si E( X 2 ) <, alors ) (1 n L n X i E(X) n N(, n σ2 ), où σ 2 = Var(X). i=1 Démonstration. De nouveau, on peut supposer que E(X) =, ainsi E(X 2 ) = σ 2. On note X n = 1 n n i=1 X i. On calcule la fonction caractéristique de n X n. [ ( )] ψ n X n (u) = ψ n 1 P u n n i=1 X (u) = ψ i X n. 1 Soit X une v.a. intégrable et φ une fonction convexe, alors on a φ(e(x)) E(φ(X)).

7 1.1. Principe de la méthode 7 En utilisant la formule de Taylor reste intégral à l ordre 2, puis 3, on peut facilement montrer l inégalité suivante ( ) eiy 1 iy + y2 2 min y 3 6,y2. Ainsi, e iux n = 1 + i u n X u2 2n X2 + h n (X) (1.1) ( avec h n (X) u2 n min u X 3 ). 6 n,x2 Grâce à la majoration précédente, h n (X) est intégrable. En prenant l espérance dans (1.1), on obtient ( ) u ψ X n = 1 u2 σ 2 2n + E(h n(x)). La v.a. n h n (X) est uniformément dominée par u 2 X 2, qui est intégrable. Par le théorème de convergence dominée, on a lim n E(n h n (X)) E (lim n nh n (X)). Or lim n nh n (X) lim n u 3 6 n X 3 = p.s.. Ainsi on obtient, On en déduit donc que lim E(nh n(x)) =. n ( ) u ψ X n = 1 u2 σ 2 2n + o(n 1 ). Le o(n 1 ) est à priori complexe, on a donc recours au lemme suivant pour l étude de ( 1 u2 σ 2 2n + o(n 1 )) n. Lemme 1. Soit (a k ) et (b k ) deux suites complexes de module inférieur à 1. On a n n n a k b k a k b k. k=1 k=1 k=1 (1 u2 σ 2 ) n 2n + o(n 1 ) (1 u2 σ 2 ) n 2n ( 1 u2 σ 2 ) n Par ailleurs 2n ) n termine de prouver que n o(n 1 ) = o(1). k=1 e u 2 σ 2 2. En combinant ces deux derniers résultats, on lim n ψ n X n (u) = e u 2 σ 2 2. Néanmoins, la loi limite fait intervenir Var(X) qui est souvent une quantité inconnue. On est alors tenté de remplacer σ 2 par un estimateur. Une question se pose alors : le théorème précédent reste-t-il valide? La réponse est oui, comme le montre la proposition suivante.

8 8 1. Calcul d espérances et méthode de Monte Carlo Proposition 1. Soit (X n ) n une suite de v.a. i.i.d de même loi que X, telle que E( X 2 ) < et σ 2 >. On note ( ) ε n = 1 n X i E(X), σ n 2 = n 1 2 n X 2 1 n i X i. n n 1 n n Alors, i=1 n ε n σ n i=1 L N(, 1) n Démonstration. Cette proposition est une conséquence directe des Théorèmes 2 et 3. En effet, σ 2 n est un estimateur convergent (et sans biais) de σ2 grâce à la Loi Forte des Grands Nombres. On rappelle le Théorème de Slutsky Théorème 3 (Théorème de Slutsky). Soit (X n ) n une suite de v.a. qui converge en loi vers X. Soit (Y n ) n une suite de v.a. qui converge en loi vers une constante a, alors la suite (X n,y n ) n converge en loi vers le couple (X,a). i=1 Utilisation du TCL pour les méthodes de Monte Carlo. Soit X une v.a. et f une fonction mesurable telle que E( f(x) 2 ) <. On cherche à calculer E(f(X)) par une méthode Monte Carlo. On simule un n échantillon (X 1,..., X n ) selon la loi de X, puis on calcule S n = 1 n n i=1 f(x i ), V 2 n = n n 1 1 n n f(x i ) 2 i=1 ( 1 n ) 2 n f(x i ). Grâce à la Loi Forte des Grands Nombres, S n converge p.s. vers E(f(X)) et grâce à la proposition 1, n S n E(f(X)) V n L N(, 1). n Ce dernier résultat nous permet alors de donner un intervalle de confiance sur l estimateur S n. En effet la convergence en loi implique (grâce à la continuité p.s. de 1 { a} ) que ( ) S n E(f(X)) P n a P ( G a) V n n où G N(, 1). Ainsi [S n ± avn n ] est un intervalle de confiance de niveau asymptotique α pour E(f(X)) si a est le quantile d ordre 1 α de la loi N(, 1), i.e. P( G a) = 1 α si G N(, 1). En général, on prend α =.5 et dans ce cas a i=1

9 1.2. Générateur aléatoire Générateur aléatoire Les méthodes de Monte Carlo reposent sur la capacitié de simuler des variables aléatoires. Pour ce faire, on a recours à des générateurs de nombres aléatoires. Un ordinateur n est en pratique capable que de générer des suites déterministes. Il existe néanmoins des procédés permettant de construire des suites de nombres qui se comportent statistiquement comme des suites aléatoires. En général, ces suites sont à valeurs dans une partie de N, par exemple {,...,M 1}. On peut alors facilement se ramener à une suite à valeurs dans [, 1[, en divisant par M. Ces suites sont construites par récurrence u n+1 = h(u n ) n N où h est une fonction de {,..., M 1} dans lui-même. La valeur de u (la graine) doit alors être choisie par l utilisateur sous peine de toujours obtenir la même suite de nombres. Souvent, on utilise l horloge de l ordinateur pour initialiser la graine. L exemple le plus simple est celui du générateur congruentiel linéaire h(x) = (Ax + C) mod M. Il faut alors prêter une attention particulière au choix des réels positifs A et C. En particulier, on veillera toujours à s assurer que la période du générateur, au plus M, est assez grande pour l utilisation que l on veut en faire. Remarque 2. En C, la fonction srand permet d initialiser la graine du générateur rand. On peut par exemple écrire srand(time(null));. Pour ce générateur, M vaut RAND_MAX. Attention, rand peut renvoyer la valeur. Bien évidemment si U U [,1] alors a + (b a)u U [a,b]. Nous allons maintenant étudier les différentes méthodes qui permettent de simuler des variables aléatoires suivant d autres lois que la loi uniforme. 1.3 Simulation de variables aléatoires Méthode d inversion de la fonction de répartition Cette technique repose sur le résultat suivant Proposition 2. Soit Y une variable aléatoire réelle de fonction de répartition F Y. On définit pour tout x [, 1] F 1 Y (x) = inf{y R : F Y (y) x}. Si U U [,1], alors F 1 Y (U) suit la loi de Y.

10 1 1. Calcul d espérances et méthode de Monte Carlo Remarque 3. Si F est une bijection, alors la définition de F 1 Y coïncide avec l inverse classique. Cette définition est connue sous le nom d inverse généralisée et existe toujours pour une fonction croissante. Démonstration. Remarquons que Ainsi, on a l égalité F 1 (u) x u F(x). P(F 1 (U) y) = P(U F Y (y)) = F Y (y). Simulation d une loi à support discret. Soit Y une variable aléatoire de support (y k ) k N, telle que P(Y = y k ) = p k. Si U U [,1], alors X = y 1 {U p } + k 1 y k 1 { P k 1 i= p i<u P k i= p i} a même loi que Y. En effet, on vérifie que pour k >, on a P(X = y k ) = P ( k 1 p i < U i= ) k p i = p k. i= Par exemple, si on considère une v.a. U U [,1] alors la v.a. 1 {U p} suit une loi de Bernouilli de paramètre p. Exercice 1. Proposer une méthode pour simuler une variable aléatoire de loi exponentielle de paramètre λ > à partir de la loi uniforme. Solution. On utilise la méthode d inversion de la fonction de répartition pour montrer que si U U ],1[, la v.a. 1 λ log(u) suit une loi exponentielle de paramètre λ. Exercice 2. En vous basant sur l interprétation physique de la loi Binomiale de paramètres (n, p), proposer une méthode pour simuler une variable aléatoire de loi Binomiale à partir de la loi uniforme. Solution. Soit (X 1,...,X n ) un schéma de Bernouilli de paramètre p. La v.a. n i=1 X i suit une loi Binomiale de paramètre (n,p). Or on sait que si (U 1,...,U n ) sont n variables i.i.d selon la loi U ],1[, les vecteurs aléatoires (X 1,...,X n ) et (1 {U1 p},...,1 {Un p}) sont égaux en loi. On conclut alors que la v.a. n i=1 1 {U i p} suit une loi Binomiale de paramètres (n,p).

11 1.3. Simulation de variables aléatoires Méthode du rejet Proposition 3. Soit (X n ) n une suite de v.a i.i.d à valeurs dans R d et D R d, tels que P(X 1 D) >. On définit τ 1 τ n+1 := inf{i 1 : X i D}, := inf{i > τ n : X i D}, Y n := X τn pour n 1. (Y n ) n 1 est une suite de variables aléatoires i.i.d de loi µ sur D, définie par Démonstration. On note α = P(X 1 D). par indépendance des (X i ). On calcule la loi de Y 1. µ(a) = P(X 1 A X 1 D), A D. P(τ 1 = k) = P(X 1 / D,...,X k 1 / D,X k D) = (1 α) k 1 α (1.2) P(Y 1 A) = P(X τ1 A) = P(τ 1 = k,x k A D). Par l équation (1.2) et l indépendance des (X k,k ), on obtient P(Y 1 A) = k=1 (1 α) k 1 P(X k A D) = P(X 1 A D)/P(X 1 D). k=1 On va maintenant montrer par récurrence que n P(X τi A i ;i = 1,...,n) = P(X 1 A i D)/P(X 1 D). (1.3) i=1 La preuve de la récurrence se fait en décomposant sur les valeurs possibles de τ n 1 et τ n et grâce à l indépendance des X i, (1.3) est démontrée. Remarque 4. On remarque que plus la probablité P(X 1 D) est petite, plus il y a de rejets et donc plus la simulation est coûteuse. De cette proposition, on peut facilement déduire le corollaire suivant. Corollaire 1. Soit (X n ) n une suite de v.a i.i.d de loi uniforme sur [, 1] d et D [, 1] d. On définit τ 1 τ n+1 := inf{i 1 : X i D}, := inf{i > τ n : X i D}, Y n := X τn pour n 1. (Y n ) n 1 est une suite de variables aléatoires i.i.d de loi uniforme sur D.

12 12 1. Calcul d espérances et méthode de Monte Carlo La méthode proposée maintenant ne s applique que pour les v.a. possédant une densité par rapport à la mesure de Lebesgue. Soit X une v.a. de densité f et Y une v.a. de densité g. X et Y sont à valeurs dans R d. On suppose que l on sait simuler selon la densité g. De plus on suppose que x R d, f(x) kg(x). Soit (Y 1,...,Y n ) une suite de v.a. i.i.d selon la loi de Y et (U 1,..., U n ) une suite de v.a. i.i.d de loi uniforme sur [, 1]. On pose τ = inf{n 1 : kg(y n )U n f(y n )}. Proposition 4. Y τ suit la loi de X et le nombre d essais nécessaires pour simuler un tirage de la loi de X avec cette méthode suit une loi géométrique de paramètre 1 k. Démonstration. Dans un souci de simplicité, la preuve est faite pour d = 1. τ peut être vu comme le premier instant de succès d un schéma de Bernouilli de paramètre p = P(kg(Y )U f(y )). τ suit donc une loi géométrique de paramètre p. P(kg(Y )U f(y )) = R dy 1 Soit φ une fonction mesurable bornée E(φ(Y τ )) = = = = E(φ(Y n )1 {τ=n} ), n=1 n=1 n=1 n=1 dug(y)1 {kug(y) f(y)} = ( 1 1 k) n 1 E(φ(Y n )1 {kg(yn)u n f(y n)}), ( 1 1 ) n 1 dyφ(y)g(y) k R ( 1 1 k = E(φ(X)). ) n 1 1 k R 1 dyφ(y)f(y), R dyg(y) f(y) kg(y) = 1 k. du1 {kug(y) f(y)}, Méthode par changement de variables On peut également chercher à établir des égalités en loi entre la loi que l on cherche à simuler et une fonction de variables aléatoires facilement simulables (en pratique des v.a. de loi uniforme). Lemme 2 (Changement de variables). Soit φ un C 1 difféomorphisme d un ouvert O R d sur un ouvert O R d et g une fonction intégrable de O dans R, alors g(v)dv = g φ 1 (u) det( φ 1 (u)) du. O O

13 1.3. Simulation de variables aléatoires 13 En s appuyant sur ce lemme, on peut énoncer la proposition suivante qui propose une méthode de simulation d un couple de gaussiennes indépendantes. Proposition 5 (Box-Müller). Soit U et V deux v.a. indépendantes de loi U ],1[. On pose X = 2 ln(u) cos(2πv ), Y = 2 ln(u) sin(2πv ). Alors (X, Y ) N(, I 2 ). Démonstration. Soit f une fonction mesurable bornée. On calcule E(f(X,Y )). E(f(X,Y )) = f( 2ln(u) cos(2πv), 2ln(u) sin(2πv))dudv. ],1[ 2 On pose alors le changement de variables x = 2ln(u) cos(2πv), y = 2ln(u) sin(2πv). On vérifie que (x,y) = φ(u,v) définit bien un changement de variables de ],1[ 2 dans R 2. (i.e. φ est bien une application de classe C 1 et son Jacobien ne s annule jamais). On trouve que det(j(φ 1 (u,v))) = u 2π et on obtient le résultat annoncé. Une autre méthode, ne faisant pas appel aux fonctions trigonométriques mais s appuyant sur la méthode du rejet permet de simuler des v.a. gaussiennes. Proposition 6 (Algorithme polaire). Soit (U, V ) de loi uniforme sur {(u, v); < u 2 + v 2 < 1}. On pose R = U 2 + V 2 et Alors (X, Y ) N(, I 2 ). X = U 2 ln(r 2 )/R 2, Y = V 2 ln(r 2 )/R 2. Démonstration. La densité du couple (U,V ) s écrit f (U,V ) (u,v) = 1 π 1 {u 2 +v 2 <1}. On prend φ une fonction mesurable bornée et on calcule E(φ(X,Y )). E(φ(X,Y )) = ] 1,1[ 2 φ ( u ) 2ln((u 2 + v 2 )), v 2ln((u 2 + v 2 )) dudv. (u 2 + v 2 ) (u 2 + v 2 ) On définit le changement de variables r = u 2 + v 2, θ [,2π[ tel que u = r cos(θ) et v = r sin(θ). On vérifie que c est effectivement un C 1 difféomorphisme de ] 1,1[ 2 dans ],1[ [,2π[. On obtient ainsi ( ( )) E(φ(X,Y )) = E φ 2ln(U) cos(2πv ), 2ln(U) sin(2πv ) où U et V deux v.a. indépendantes de loi U ],1[. La proposition 5 permet alors de conclure.

14 14 1. Calcul d espérances et méthode de Monte Carlo En pratique, on a souvent besoin de pouvoir simuler des vecteurs gaussiens faisant intervenir des corrélations entre les différentes dimensions. Proposition 7 (Simulation de vecteurs gaussiens). Soit µ R d et Γ M d une matrice symmétrique définie positive. Alors il existe A M d, telle que Γ = AA (par exemple en utilisant l algorithme de Cholesky), si G N(, I d ), alors µ + AG N(µ, Γ). Démonstration. La fonction caractéristique de G est ψ(u) = e (u,u) 2. Calculons ψ µ+ag (u). ( ψ µ+ag (u) = E e i(u,µ+ag)), ( = e i(u,µ) E e i(u,ag)), ( ) = e i(u,µ) E e i(a u,g), = e i(u,µ) ψ(a u) = e i(u,µ) (A u,a u) 2, = e i(u,µ) (u,γu) 2. Exercice 3. Soit (T i ) i une suite i.i.d de loi exponentielle de paramètre λ. Montrer que X = i=1 i1 { P i k=1 T k 1< P i+1 k=1 T k} suit une loi de Poisson de paramètre λ. En déduire une méthode pour simuler une loi de Poisson à partir d une suite de v.a. de loi U [,1]. Solution. On calcule P(X = n). ( n ) n+1 P(X = n) = P T k 1 < T k. k=1 On calcule la loi de Y n = n k=1 T k. Soit u R. k=1 E ( e iuyn) = ( E(e iut 1 ) ) ( ) n λ n =. λ iu On reconnaît là la fonction caractéristique d une loi Gamma de paramètres (λ, n).on peut

15 1.4. Méthodes de réduction de variance 15 alors écrire P(X = n) = = = 1 1 dt dy = λn n! e λ. 1 y dy λn Γ(n) yn 1 e λy λe λt 1 {y 1} 1 {1 y<t}, dt λn Γ(n) yn 1 e λy λe λt 1 {y 1} 1 {1 y<t}, dy λn Γ(n) yn 1 e λ, X suit donc bien une loi de Poisson. Ensuite il suffit de se rappeler que (T 1,...,T n ) = L ( 1 λ log(u 1),..., 1 λ log(u n)) si (U 1,...,U n ) est un n échantillon qui suit une loi uniforme sur ],1[. Au vu des résultats du paragraphe 1.1 sur la vitesse de convergence des méthodes de Monte Carlo, il est important de chercher à réduire la variance de la somme Monte Carlo (i.e. Vn 2 ). Nous allons maintenant étudier plusieurs méthodes permettant de réduire la variance de la somme Monte Carlo. 1.4 Méthodes de réduction de variance Il est important de noter qu avec les notations du paragraphe 1.1, Vn 2 /n est un estimateur de la variance de S n. On cherche alors à trouver une somme Monte Carlo (i.e. une somme de termes i.i.d) S n qui converge toujours vers E(f(X)) mais de variance V n2 Vn Variables antithétiques Supposons que l on cherche à calculer E(g(U)) où U U [,1] par une méthode de Monte Carlo. Si l on dispose d un n échantillon (U 1,..., U n ) de v.a. i.i.d selon la loi de U, la méthode classique nous invite à considérer S n = 1 n n g(u i ). i=1 Néanmoins on peut remarquer que si U U [,1] alors 1 U suit également une loi U [,1]. On peut alors être tenté de considérer S n = 1 n n g(1 U i ) i=1

16 16 1. Calcul d espérances et méthode de Monte Carlo ou même Calculons la variance de S n. S n = 1 n n/2 i=1 g(u i ) + g(1 U i ). Var ( ) 1 Sn = (2 Var(g(U)) + 2 Cov(g(U), g(1 U))) 2n = Var(S n ) + 1 Cov(g(U), g(1 U)) n Si Cov(g(U), g(1 U)) est négatif, alors la vitesse de convergence de S n est meilleure que celle de S n. Le lemme suivant donne une condition suffisante qui assure la positivité de la covariance de deux fonctions. Lemme 3 (inégalité de corrélation). Soit X une v.a. réelle et f et g deux fonctions croissantes, alors Cov(f(X), g(x)). Démonstration. Soit x et y deux réels. Ainsi pour tout couple de v.a. (X,Y ), on a d où (f(x) f(y))(g(x) g(y)). E ((f(x) f(y ))(g(x) g(y ))) E ((f(x)g(x)) + E ((f(y )g(y )) E (f(y )g(x) + f(y )g(x))). Si on choisit X et Y de même loi et indépendantes, on obtient bien le résultat annoncé. Corollaire 2. Si U U [,1] et si f est croissante alors, Cov(f(U), f(1 U)). Le lemme 3 se généralise en dimension quelconque en considérant des fonctions croissantes de chacune de leurs composantes. Exercice 4. Soit ψ(x) = (λe σx K) +. Soit G N(, 1). On cherche à calculer E(ψ(G)). Proposer une méthode de variables antithétiques et justifier que cela réduit la variance de la méthode de Monte Carlo. Solution. G et G on même loi. ψ est une fonction croissante, donc ψ( ) est une fonction décroissante. Par conséquent, l inégalité de corrélation assure que Cov(ψ(G),ψ( G)). De plus ψ étant strictement croissante sur un domaine de mesure non nulle pour la loi de G, l inégalité précédente est en fait stricte. Ainsi la variance est strictement inférieure.

17 1.4. Méthodes de réduction de variance 17 Cette technique de variables antithétiques s applique aussi pour des espérances d une fonctionnelle de toute la trajectoire d un mouvement Brownien. Par exemple, si on cherche à calculer numériquement E(f(W s, s [, T])) on peut aussi utiliser ( W s, s T) comme variable antithétique. Ceci n est possible que parce que les processus W et W ont même loi. Le fait que les lois instantanées soient les mêmes n est pas suffisant Variables de contrôle Une autre méthode pour réduire la variance de la méthode de Monte Carlo pour le calcul de E(X) consiste à trouver une v.a. Y, telle que l on sache calculer explicitement son espérance et telle que Var(X Y ) Var(X). On considère alors (X 1,...,X n ) un n échantillon selon la loi de X et (Y 1,...,Y n ) un n échantillon selon la loi de Y. On calcule ensuite S n = 1 n n X i Y i. i=1 Ainsi S n + E(Y ) converge bien vers E(X). Le calcul de E(Y ) se faisant de manière exacte, l erreur de l estimation ne vient que de S n. En particulier un intervalle de confiance pour E(X) est donné par [S n +E(Y )±a Var(S n )] où est a est le quantile d ordre 1 α de la loi N(, 1). Exercice 5 (Parité Call Put). De manière quelque peu simplifiée, le payoff d une option d achat (un Call) peut s écrire (e σg K) + où G N(, 1). En remarquant que (e σg K) + (K e σg ) + = e σg K, proposer une variable de contrôle pour le calcul de E((e σg K) + ). Solution. Voir la figure 1.1 pour la comparaison des variances des sommes Monte Carlo pour le calcul du prix du Put et du Call avec σ =.3, pour K variant entre.1 et 4. On remarque que la variance du Put est bornée. Lorsque K < 1, il vaut mieux calculer le prix du Call en utilisant la relation de parité, c est-à-dire que l on calcule le prix du Put par une méthode de Monte Carlo et ensuite on utilise la relation de parité (en réalité, le frontière ne se situe pas tout à fait à 1). Attention toutefois, si K 1 alors numériquement on n observe que des tirages de G pour lesquelles (K e σk ) + =, la variance observée vaut mais la moyenne Monte Carlo également. Il faut donc toujours se méfier lors de la simulation d un évènement rare. En effet plus que la valeur réelle de la variance, c est le rapport entre la variance et la somme Monte Carlo qui permet d apprécier l efficacité de la méthode.

18 18 1. Calcul d espérances et méthode de Monte Carlo Variance MC Call Variance MC P ut K Fig. 1.1 Variance de la somme MC en fonction du strike Conditionnement On veut calculer E(g(X, Y )) où le couple (X, Y ) a pour densité f (X,Y ) (x, y). On a évidemment l égalité E(g(X, Y )) = E(E(g(X, Y ) X)) avec g(x, y)fx,y (X, y) E(g(X, Y ) X) = dy = h(x). f X (X) On va maintenant montrer que E(h(X) 2 ) E(g(X, Y ) 2 ). E(h(X) 2 ) = h(x) 2 f X (x)dx, ( 2 g(x, y)fx,y (x, y) = f X (x) dy) dx, f X (x) ( 2 1 = g(x, y)f X,Y (x, y)dy) dx, f X (x) ( )( 1 g(x, y) 2 f X,Y (x, y)dy f X (x) ( )( 1 g(x, y) 2 f X,Y (x, y)dy f X (x) E(g(X, Y ) 2 ). ) f X,Y (x, y)dy dx, ) f X,Y (x, y)dy dx, } {{ } =1 Ainsi si l on est capable de calculer l espérance conditionnelle par rapport à l une ou l autre des variables, il vaut toujours mieux le faire et seulement ensuite utiliser une technique de type Monte Carlo.

19 1.4. Méthodes de réduction de variance 19 Exemple : modèle à volatilité stochastique. Soit (W t, t ) un mouvement Brownien, on définit la diffusion (S t, t ) par ds t = S t (rdt + σ t dw t ), S = x. On suppose de plus que le processus (σ t, t ) est continu et indépendant de (W t, t ). On cherche à calculer par Monte Carlo (E(f(S T ))) pour une fonction f donnée. On peut réécrire S t ( t σ 2 t ) s S t = S exp rt 2 ds + σ s dw s. Puisque le processus (σ t, t ) est indépendant du processus (W t, t ), on va montrer que la v.a. T σ 1 T tdw t est égale en loi à T σ2 t dt W T. En effet, soit h une fonction mesurable bornée ( ( T )) ( ( ( T ) )) E h σ t dw t = E E h σ t dw t (σ t, t T), T = E E h σt 2 dt G (σ t, t T), grâce à la proposition 8 avec G N(, 1), T = E h σt 2 dt G. Proposition 8. Soit g une fonction mesurable telle que T g(s)2 ds < et soit (W t, t T) un mouvement Brownien standard, alors on a l égalité T g(s)dws L = N ( T ), g(s) 2 ds. Démonstration. On pose Y t = t g(s)dws. On sait qu on a lim n n g(it/n) ( ) W (i+1)t/n W it/n = YT i=1 en probabilité. En effet, si on pose g n (t) = g(it/n) pour it/n t < (i + 1)T/N alors ( T T 2 ) E g n (t)dw t g(t)dw t T sup g n (t) g(t) 2. t T

20 2 1. Calcul d espérances et méthode de Monte Carlo Si on introduit (G i ) i une suite de v.a. i.i.d. selon la loi N(,1), on a l égalité n g(it/n) ( ) L= n T W (i+1)t/n W it/n g(it/n) n G i. i=1 Cette dernière somme suit en fait une loi gaussienne (combinaison linéaire de gaussiennes indépendantes) centrée de variance n i=1 g(it/n)2 T n. Or n i=1 g(it/n)2 T n converge quand n tend vers l infini vers T g(s)2 ds. Ainsi, n g(it/n) ( ) T ) L W (i+1)t/n W it/n N (, g(s) 2 ds. i=1 Puisque le membre de gauche converge également en probabilité 2 vers Y T, on obtient alors l égalité en loi annoncée dans la proposition. On peut alors conditionner par rapport au processus (σ t, t ) dans le calcul de l espérance qui se réécrit alors où i=1 E(f(S T )) = E(ψ(v t ; t T)) ( ( ψ(v) = E f x e rt R T v(t) 2 q )) R 1 dt+ T 2 T v(t)2 dtw T si v est une fonction continue définie sur [, T] à valeurs réelles. Il ne reste plus alors qu à calculer, par une méthode Monte Carlo, une espérance de la forme E f 1 T σt 2 dt. T Fonctions d importance On souhaite calculer E(g(X)) où X est une v.a. de densité f. L idée de cette méthode est d introduire une nouvelle densité de probabilité f >. On peut alors écrire ( ) g(x)f(x) f(x) g(y )f(y ) E(g(X)) = dx = E f(x) f(y ) où Y une v.a. de densité f. Calculons alors la variance de ( ) ( ) g(y )f(y ) g(y ) 2 f(y ) 2 Var = E E(g(X)) f(y ) f(y 2, ) 2 g(x) 2 f(x) 2 = dx E(g(X)) f(x) 2. g(y )f(y ). f(y ) 2 Si une suite de v.a. converge en loi vers une limite X et en probabilité vers une limite X, alors X = X p.s..

21 1.4. Méthodes de réduction de variance 21 Pour annuler la variance, il faudrait prendre f(x) = g(x)f(x) E(g(X)). En somme, il faudrait connaître ce que l on cherche à calculer. Néanmoins, dans certains cas, en particulier lorsque X est une gaussienne, on sait exhiber une famille de densités f facilement simulables. La méthode décrite ci-dessous est propre aux vecteurs gaussiens, même s il existe des techniques analogues pour d autres lois (loi de Poisson, loi exponentielle c.f. exercice 7). Soit à Calculer par une méthode Monte Carlo E(f(G)) où G N(, I d ). 1 1 P d E(f(G)) = f(x) R (2π) d d/2e 2 i=1 x2 i dx, 1 1 P d = f(x + µ) R (2π) d d/2e 2 i=1 (x i+µ i ) 2 dx, 1 1 P d = f(x + µ) R (2π) d d/2e 2 i=1 x2 i +µ2 i +2x iµ i dx, = On obtient alors l égalité suivante R d f(x + µ)e E(f(G)) = E On propose donc d utiliser la densité f définie par µ 2 2 µ x 1 1 (2π) d/2e 2 P d i=1 x2 i dx. ( f(g + µ)e µ 2 2 µ G ). (1.4) f(x) = e µ 2 2 µ x e x (2π) d/2, x Rd. Le problème est alors de déterminer µ de sorte à minimiser E ( ) f(g + µ) 2 e µ 2 2µ G. Pour ce faire, il est possible d utiliser des algorithmes stochastiques (voir Duflo [3] pour une présentation de ces algorithmes). Au passage, on notera qu en utilisant de nouveau la relation (1.4), on a l égalité ( ) E f(g + µ) 2 e µ 2 2µ G = E ( f(g) 2 e µ 2 2 µ G ). Cette méthode opère en fait une translation de la gaussienne et permet de calculer numériquement et avec une bonne précision des espérances telles que E((e σg K) + ) où K 1. Ainsi, on peut équilibrer les probabilités P((e σg K) + = ) et P((e σg K) + > ).

22 22 1. Calcul d espérances et méthode de Monte Carlo Exercice 6. Soit λ et K deux réels positifs tels que λ < K et X m la v.a. X m = ( λe σ(g+m) K ) m2 e mg 2 +. On note σm 2 sa variance. Donner une expression de la dérivée de σ2 m par rapport à m sous forme d une espérance. En déduire que σm 2 est une fonction décroissante de m quand m m = log(k/λ)/σ. L égalité (1.4) peut en fait se généraliser au cas du mouvement Brownien et est alors connue sous le nom de Théorème de Girsanov (voir Karatzas and Shreve [6] pour une démonstration du théorème). Exercice 7. Soit X une v.a. de loi exponentielle de paramètre 1. Montrer que pour tout fonction f telle E( f(x) ) < et pour tout β > on a ( ( ) ( )) X X E(f(X)) = E f g β, β β où la fonction g β est définie par g β (x) = e(β 1) x. β ( ( ) X X Calculer la variance de f )g β β et déterminer sur quel intervalle il faut optimiser le paramètre β pour réduire la β variance. 1.5 Suites à discrépance faible On cherche des suites (x i ) à valeurs dans [, 1] telles que 1 n n f(x i ) E(f(U)) i=1 où U U [,1] et telles que la convergence soit plus rapide que celle donnée par le TCL. Dans ce qui suit, on définit une relation d ordre sur R d. Si x et y sont deux points de R d, on dit que x y si et seulement si x i y i pour tout 1 i d. Cette relation d ordre n est pas totale. Définition 1. Une suite (x i ) i à valeurs dans [, 1] d est equirépartie sur [, 1] d si elle vérifie l une des propriétés suivantes : f intégrable, 1 n n i=1 f(x i) [,1] d f(x)dx.

23 1.5. Suites à discrépance faible 23 y [, 1] d 1, n n i=1 1 {x i [,y]} Vol([, y]), où [, y] = {z [, 1] d ; z y}. Dn (x) = sup y [,1] 1 n d n i=1 1 {x i [,y]} Vol([, y]). D n (x) est appelé discrépance à l origine de la suite. Remarque 5. Les suites de v.a. de loi uniforme sur [, 1] d sont équiréparties. Elles vérifient le premier critère grâce à la loi Forte des Grands Nombres. Il existe des suites équiréparties (x n ) n telles que pour une certaine classe de fonctions f, on ait le résultat suivant 1 n f(x i ) f(x)dx n [,1] c(f)log(n)d. (1.5) n d i=1 La vitesse de convergence est donc de l ordre de log(n)d, ce qui est bien meilleure n que pour les méthodes de Monte Carlo classiques qui ne peuvent faire mieux que 1 n (vitesse donnée par le TCL). Le résultat donné par l équation (1.5) est vrai en particulier si la fonction f est à variations finies et dans ce cas la constante c(f) vaut la variation de f, V (f) = 1 f (x) dx. Les suites permettant d obtenir de telles vitesses sont appelées suites à discrépance faible. Exemple de suite à discrépance faible. Nous allons tout d abord donner un exemple en dimension 1. Soit p un nombre premier. Pour tout entier n, on s intéresse à son écriture en base p. r n = a i p i où a i {,..., p 1}. Ensuite, on pose i= x n = r i= a i p i+1. La suite (x n ) n ainsi définie, connue sous le nom de suite de Van Der Corput, est une suite équirépartie sur [, 1] à discrépance faible. Si l on considère (p 1,...,p d ) d nombres premiers, alors la suite (x 1 n,...,xp n ) n est une suite équirépartie sur [, 1] d et à discrépance faible. Lorsque d > 1, cette suite s appelle suite de Halton. Les 1 premières valeurs de la suite pour p = 2 sont Le code suivant permet de calculer le n ième terme de la suite

24 24 1. Calcul d espérances et méthode de Monte Carlo // n-th element of the Van Der Corput sequence in basis base double Phi_b_n( int n, int base ) { int a; double sum = ; double p = 1.; while( n> ) { a = (div(n, base)).rem; p /= base; sum += a * p; n = (n-a) / base; } return(sum); } Attention : Ces suites ne sont pas aléatoires, il n est donc plus possible de parler d intervalles de confiance en invoquant le TCL qui, dans un contexte déterministe, perd tout son sens.

25 Chapitre 2 Méthodes d arbre Dans ce chapitre, on s intéresse à l approximation de processus stochastiques continus (S t, t T) par un processus discret (S N n, n N) qui sera souvent une chaîne de Markov à valeurs dans un espace d états discret. Les approximations que l on va considérer permettent d approcher la loi du processus S, il ne s agit en aucun cas d une approximation trajectorielle. On cherche sous quelles conditions E(f(S N n, n N)) n E(f(S t, t T)) pour une classe de fonctions f suffisamment grande, typiquement les fonctions continues et bornées. 2.1 Cox-Ross-Rubinstein : une approximation du modèle de Black-Scholes Détermination du modèle Le but de Cox Ross et Rubinstein était de proposer un modèle discret pour la dynamique du sous-jacent dans les produits dérivés en finance qui permette d approcher les prix d options calculés dans le modèle de Black-Scholes ds t = S t (rdt + σdw t ), S = x. Soit T l horizon de temps dans le modèle de Black-Scholes et N > le nombre de pas de discrétisation considérés. Le modèle CRR est défini par S N n+1 = U n+1s N n pour n 1, SN = x. où la suite (U n, n 1) est à valeurs dans {1 + d, 1 + u} avec d > 1. Soit F n la filtration engendrée par (U 1,...,U n ). On a aussi F n = σ(s N 1,...,SN n ). 25

26 26 2. Méthodes d arbre On pose h = T. Dans un tel modèle, on considère également un actif non risqué N B n = (1 +R) n. Il reste à spécifier les paramètres pour obtenir un modèle de marché complet (i.e il existe une et une seule probabilité sous laquelle les prix actualisés soient des martingales). On veut E((1 + R) (n+1) S N n+1 F n) = (1 + R) n S N n (2.1) En raisonnant par équivalence, on obtient que (2.1) est équivalent à Or S N n est F n mesurable. (2.2) est équivalent à E((1 + R) 1 S N n U n+1 F n ) = S N n. (2.2) P(U n+1 = 1 + u F n )(1 + u) + P(U n+1 = 1 + d F n )(1 + d) = 1 + R (2.3) Ainsi, le modèle CRR est un modèle de marché complet si et seulement si (U n, n 1) est i.i.d. telle que P(U n+1 = 1 + u) = 1 P(U n+1 = 1 + d) = d R d u = p en effet si on pose q n = P(U n+1 = 1 + u F n ), on a l équivalence q n (1 + u) + (1 q n )(1 + d) = 1 + R q n = p n 1. Ensuite, le caractère indépendant de la suite (U n, n 1) se montre par récurrence Convergence faible Théorème 4. En choisissant 1 + u = e σ h, 1 + d = e σ h et 1 + R = e rh, on a le résultat de convergence faible suivant Pour tout t T S N [tn/t] L N S t. Démonstration. Pour étudier la convergence en loi, on calcule la fonction caractéristique de S[tN/T] N ou plutôt de son log. Soit λ R ( E e iλ log(sn )) [tn/t] = E exp iλ log x [tn/t] 1 i= ( ) [tn/t] = e iλ log(x) E(e iλu 1 ) S N i+1 S N i = e iλ log(x) ( p e iλσ h +(1 p )e iλσ h ) [tn/t]. (2.4)

27 2.2. Résultats de convergence généraux 27 Un développement limité de p donne p = 1 2 r σ2 /2 h + O(h h). 2σ En combinant (2.4) et (2.1.2), on obtient ( E e iλ log(sn )) [tn/t] = e iλ log(x) ( 1 + (iλ(r σ 2 /2) λ 2 σ 2 /2)T/N ) [tn/t] En faisant tendre N vers l infini, on obtient ( lim E e iλ log(sn )) [tn/t] = e iλ log(x) e (iλ(r σ2 /2) λ 2 σ 2 /2)t = E(e iλst ). N 2.2 Résultats de convergence généraux Dans cette partie, nous nous intéressons à l approximation d une diffusion par une suite de chaînes de Markov sur l intervalle de temps [, T], T >. On considère (W t, t ) un mouvement Brownien standard réel. Soit (S t, t ) l unique solution de ds t = b(s t )dt + σ(s t )dw t, S = x où les fonctions b et σ vérifient K >, x, y R, b(x) b(y) + σ(x) σ(y) K x y. Considérons une suite de chaîne de Markov (Xn N, n ) de matrice de transition P N (x, y) telle que X N = x. On associe à ces chaînes de Markov une interpolation en temps continu S N définie par S N t = X N [t/h], où h = T/N. Nous allons maintenant donner des conditions qui assurent que pour tout t T, S N t converge en loi vers S t. (H1) i. P N (x, y) = sauf pour un nombre fini de valeurs, et P N (x, y) = si x y > A où A est une constante fixée indépendante de N. ii. Si on pose alors R >, b N (x) = E(S N h SN SN = x), lim sup b N (x) b(x) =. N x <R

28 28 2. Méthodes d arbre iii. Si on pose iv. alors R >, ε >, R > Théorème 5. Sous l hypothèse (H1), (S N t, t T) a N (x) = E((S N h S N ) 2 S N = x), lim sup a N (x) σ(x) 2 =. N x <R lim sup 1 N x <R h P( S N h S N L (S t, t T). N ε) =. Pour une démonstration des résultats relatifs à la convergence de méthodes d arbres, on pourra consulter Ethier and Kurtz [4], Kushner [7] or Kushner and Dupuis [8]. Remarque 6. Les hypothèses (H1-ii) et (H1-iii) assurent qu asymptotiquement le processus S N t a les mêmes espérance et variance que S t. L hypothèse (H1-iv) permet d assurer que le processus limite est continu. Corollaire 3. Le Théorème 5 implique que pour tout t T, St N loi vers S t. converge en 2.3 L arbre trinomial de Kamrad-Ritchken Kamrad et Ritchken ont proposé un arbre trinomial recombinant c est à dire symétrique pour l approximation de X h = log(s h /S ) dans le modèle de Black Scholes. v avec probabilité p 1 Sh N = avec probabilité p 2 v avec probabilité p 3 où v = λσ h avec λ > 1. Les paramètres sont choisis de telle sorte que les hypothèses (H1-ii) et (H1-iii) sur les moments d ordre 1 et 2 soient satisfaites ) v(p 1 p 3 ) = (r σ2 h (2.5) 2 et v 2 (p 1 + p 3 ) v 2 (p 1 p 3 ) 2 = σ 2 h. (2.6)

29 2.4. Application au pricing d options 29 En fait, le terme v 2 (p 1 p 3 ) 2 tend vers comme h 2 d après (2.5), on peut donc simplifier l équation (2.6) v 2 (p 1 + p 3 ) = σ 2 h. (2.7) En combinant ces équations avec p 1 + p 2 + p 3 = 1, on trouve p 1 = 1 2λ + σ2 2 h (2.8) 2 2λs p 2 = 1 1 (2.9) 2λ 2 p 1 = 1 2λ σ2 2 h 2 2λs Par ailleurs, il faut s assurer que p i pour i = 1, 2, 3, ce qui impose 1 λ σ h r σ 2 2 (2.1). (2.11) Le choix du paramètre λ est donc laissé à l appréciation de l utilisateur sous réserve de vérifier (2.11). Kamrad et Ritchken suggèrent que choisir λ tel que p 2 = 1/3 permet d améliorer la performance de l algorithme. Au passage, on remarque que le choix λ = 1 correspond à l arbre binomial de Cox Ros et Rubinstein présenté au paragraphe Application au pricing d options Principe général Considérons le modèle d arbre de Cox-Ross-Rubinsteinde pas T/N pour approcher le modèle de Black Scholes sur l interval de temps [, T]. On cherche à calculer le prix à l instant d une option de payoff φ dans le modèle de Black Scholes, c est-à-dire E(e rt φ(s T )). Pour ce faire, on va calculer E((1 + R)φ(S N N )) où (Sn N ; n N) suit le modèle de Cox-Ross-Rubinstein. On rappelle que le prix à l instant t d une telle option est donnée par P(t, S t ) = E(e r(t t) φ(s T ) F t ). On s intéresse donc à la quantité équivalente calculée dans le modèle d arbre P(n, y) = E((1 + R) n N φ(sn N ) SN n = y). Le prix à l instant est donc donné par P(, x) où x est la valeur initiale de l arbre.

30 3 2. Méthodes d arbre P(n, y) = E((1 + R) n N φ(s N N) S N n = y) = E((1 + R) n N E(φ(S N N ) F n+1 ) S N n = y) = (1 + R) n N (E(φ(SN N ) SN n+1 = y(1 + u))p + E(φ(SN N ) SN n+1 = y(1 + d))(1 p)) = (1 + R) 1 ( P(n + 1, Sn N (1 + u))p + P(n + 1, Sn N (1 + d))(1 p)). Le prix recherché se calcule donc de manière rétrograde. A chaque étape i de l algorithme, il faut calculer P(i, y) pour toutes les valeurs y atteignables par le sous-jacent discrétisé S N i à l instant i Options barrières Intéressons-nous au problème du pricing des options barrières dans le modèle de Black Scholes. Le payoff de telles options peut s écrire (S t K) + 1 {Su L, u [,T]} + H 1 { u [,T], Su<L} où H >. Une idée pour pricer une telle option est d utiliser le modèle de Cox-Ross- Rubinstein. Malheureusement, la convergence du prix de telles options est plus lente que pour les options classiques. En voici la raison : soit n L tel que S (1 + d) n L L > S (1 + d) n L+1. L algorithme calcule le même prix pour toutes les valeurs de L entre S (1+d) n L et S (1 + d) n L+1. Appelons C(L) le prix de l option barrière. L erreur commise est de l ordre de C L S ((1 + d) n L (1 + d) n L+1 ) K N. Nous allons maintenant présenter deux méthodes qui convergent à la même vitesse que pour les options classiques. La méthode de Bardhan, Derman, Ergener et Kani Soit L + = S (1 + d) n L et L = S (1 + d) n L+1. Ainsi L < L L +. Appelons C(n, x) le prix de l option à l instant n et au noeud de valeur x. On connaît C(n, L ) = H et on calcule C(n, L + ) par la formule classique C(n, L + ) = p uc(n + 1, L + (1 + u)) + p d H 1 + R

31 2.4. Application au pricing d options 31 Ensuite pour calculer C(n, L), on interpole linéairement entre L et L + C(n, L) = L L L + L H + L+ L L + L C(n, L+ ). A l itération suivante, on pose C(n, L + ) = C(n, L). Cet algorithme modifié converge à la même vitesse que le schéma proposé par Cox-Ross-Rubinstein. La méthode de Ritchken L idée de Richtken est d utiliser l arbre trinomial étudié au paragraphe 2.3 et de choisir le paramètre λ de manière à ce que la barrière soit exactement atteinte à un des noeuds de l arbre. Soit ( log S ) n L = L σ. h On en déduit λ = 1 ( log S ) L n L σ h. La vitesse de convergence est comparable à celle de l algorithme de Cox-Ross- Rubinstein Options sur maximum Considérons une option de payoff donné par f(s T, S T ) où S T = sup s T S s. Nous devons alors approcher le processus de Markov bidimensionnel (S t, S t ) à l instant T. Une méthode standard pour ce faire est d utiliser le schéma de Cox-Ross-Rubinstein { S n+1 = S n U n+1, S n+1 = max(s n, S n+1 ), où (U n, n 1) est une suite i.i.d à valeurs dans {1+d, 1+u} avec P(U 1 = 1+u) = p u et P(U 1 = 1 + d) = p d = 1 p u. Le prix d une telle option à l instant n sachant S n = x et Sn = y est donné par l équation backward suivante C(n, x, y) = p u C(n + 1, x(1 + u), max(y, x(1 + u))) + p d C(n + 1, x(1 + d), y). En général, la simulation de chaînes de Markov bidimensionnelles par modèle d arbres binaires conduit à une complexité exponentielle, puisque le nombre de noeuds de l arbre augmente à la vitesse 2 N. Néanmoins, dans le cas particulier des options sur maximum le nombre de noeud n augmente que comme N 2 puisque sachant U n+1 = 1 + d, max(s n+1, S n) = S n, on obtient donc une complexité de l ordre de N 3. Le demi-arbre inférieur n est en réalité qu un arbre unidimensionnel.

32

33 Chapitre 3 Simulation de processus et discrétisation d EDS Jusqu à présent, nous avons étudié des méthodes de simulation permettant de calculer des espérances de variables aléatoires par méthodes de Monte Carlo. Ceci n est possible que lorsque l on est capable de simuler selon la loi des dites variables aléatoires. En finance, il s agit souvent de calculer des espérances de la forme E(f(X T )) ou E(f(X t, t T)) où (X t, t ) est solution d une EDS du type dx t = σ(t, X t )dw t + b(t, X t )dt, X = x. Dans un premier temps, nous allons nous intéresser à la simulation d une trajectoire de mouvement Brownien sur un intervalle de temps [, T] pour T fixé. 3.1 Simulation d une trajectoire Brownienne Simulation récursive On considère (W t, t 1) un mouvement Brownien défini sur [, 1]. Soit = t < t 1 < < t n = 1 une subdivision de l intervalle [, 1]. On cherche à simuler une trajectoire du mouvement Brownien en les points de la subdivision, c est-à-dire que l on cherche la loi du processus discret (W ti, i =...n). Proposition 9. Soit (G i ) i=1...n une suite i.i.d selon la loi N(, 1). On définit X =, X i = i tj t j 1 G j pour i >. j=1 Les vecteurs (W t,...,w tn ) et (X,...,X n ) sont égaux en loi. 33

34 34 3. Simulation de processus et discrétisation d EDS Démonstration. Il suffit de montrer que (X 1,...,X n ) est un vecteur Gaussien centré tel que Cov(X i,x l ) = t i t l. Le vecteur (X 1,...,X n ) est une transformation linéaire du vecteur (G 1,...,G n ) qui est un vecteur gaussien car ses composantes sont des gaussiennes indépendantes. De plus, les G i sont centrées donc (X 1,...,X n ) est un vecteur gaussien centré. Calculons la covariance. i l Cov(X i,x l ) = Cov tj t j 1 G j, tj t j 1 G j, = j=1 par indépendance des G i i l j=1 = t i t l. (t j t j 1 )Cov(G j,g j ), j=1 Notons bien que cette méthode de simulation n engendre pas d erreur de discrétisation sur le processus discret, contrairement à ce que l on observe sur d autres processus. Imaginons maintenant que l on veuille ajouter un point à notre subdivision entre les instants t i et t i+1, comment faire pour simuler cette nouvelle valeur sans devoir simuler à nouveau toute la trajectoire après l instant t i? Simulation rétrograde Pour un couple (s, t) donné, on cherche alors à identifier la loi de B t+s conditionnellement à (B s, B t ) pour s < t, notée L B t+s (B s, B t ). ( ) 2 2 ( ) Proposition 1. Pour tout s < t, L (B s, B t ) = N ( B s+b t ), t s 2 4. ( Démonstration. Remarquons que B s,b t+s 2 Z α,β = B t+s 2 B t+s 2 ),B t est un vecteur gaussien. On définit αb s βb t. On cherche (α,β) tel que Z α,β soit indépendante du couple (B s,b t ). Le vecteur (B s,z α,β,b t ) est encore un vecteur gaussien. Ainsi Z α,β est indépendante du couple (B s,b t ) si et seulement si Cov(Z α,β,b s ) = et Cov(Z α,β,b t ) =. La covariance vaut ( ) Cov(Z α,β,b s ) = E B s αe(bs) 2 βe(b t B s ). B t+s 2 Or pour tout (s,t), E(B t B s ) = t s. Ainsi, on obtient Cov(Z α,β,b s ) = s αs βs.

35 3.1. Simulation d une trajectoire Brownienne 35 De même, on montre facilement que Cov(Z α,β,b t ) = t + s 2 αs βt. D où Cov(Z α,β,b s ) = Cov(Z α,β,b t ) = si et seulement si α = β = 1 2. La v.a. Z = B t+s (B s + B t ) est indépendante du couple (B s,b t ). Z est évidemment une gaussienne centrée, il ne reste donc plus qu à calculer sa variance pour déterminer entièrement sa loi. E(Z 2 ) = E [ ( B t+s 2 1 ) ] 2 2 (B s + B t ), = t + s + s t 4 + s 2 s t + s + s 2 2 = t s 4. Donc Z N (, t s ) 4. Ainsi on peut écrire Z = 1 2 t sgs,t où G s,t est une gaussienne centrée réduite indépendante de (B s,b t ). Remarque 7. En fait on peut montrer, grâce à la propriété de Markov que G s,t est indépendante de (B u,u s) et (B u,u t). Ainsi on a l égalité en loi suivante B t+s 2 = 1 2 (B s + B t ) t s Gs,t, où G s,t est une gaussienne centrée réduite indépendante de (B u ;u s) et (B u ;u t). On obtient donc bien le résultat annoncé et en plus la preuve fournit une méthode pour simuler cette valeur intermédiaire connaissant toute la trajectoire en dehors de l intervalle ]s,t[. Cette méthode peut également servir à simuler toute une trajectoire brownienne mais est nettement plus complexe à mettre en œuvre d un point de vue informatique. Exercice 8. Soit W un mouvement Brownien sur l intervalle [, 1], on définit la diffusion S par σ2 (r S t = x e 2 )t+σwt où r et σ sont deux réels positifs. Proposez une méthode pour simuler une trajectoire de la diffusion S sur la subdivision régulière de pas 1 n. Nous venons d étudier une méthode permettant de simuler une trajectoire d une diffusion s écrivant comme une fonction connue du mouvement Brownien. Malheureusement, les diffusions ne sont souvent définies que par des équations différentielles stochastiques que l on ne sait pas résoudre. Nous allons donc naturellement étudier des méthodes permettant de discrétiser de telles équations.

36 36 3. Simulation de processus et discrétisation d EDS 3.2 Discrétisation d EDS Rappels Dans cette section, (W t, t ) désigne un mouvement Brownien standard à valeurs dans R d sur (Ω, (F t ) t, P)(i.e. chaque composante est un mouvement Brownien standard réel et ces mouvements Browniens réels sont indépendants). Soit Y une v.a. F mesurable de carré intégrable. On fixe T >. On considère deux fonctions σ : [, T] R n M n d, b : [, T] R n R n. On appelle solution de l équation différentielle stochastique { dxt = σ(t, X t )dw t + b(t, X t )dt X = Y (3.1) un processus (X t ; t T) F t adapté à valeurs dans R n tel que T b(s, X s) + σ(s, X s ) 2 ds < p.s., X t = Y + t b(s, X s)ds + t σ(s, X s)dw s p.s. pour tout t [, T]. Pour énoncer un résultat d unicité de la solution de telles équations, il nous faut une hypothèse supplémentaire. (H2) i. K >, t [, T], x, y R n on ait les 2 propriétés suivantes σ(t, x) σ(t, y) + b(t, x) b(t, y) K x y, σ(t, x) + b(t, x) K(1 + x ). ii. E(Y 2 ) <. Théorème 6. Sous l Hypothèse (H2), l équation (3.1) admet une unique solution (X s ) s T. De plus, elle vérifie ( ) E sup X s 2 <. s T L unicité est à comprendre au sens suivant : si (X s ) s T et (Y s ) s T sont deux solutions alors s T, X s = Y s dt dp p.p.. Pour une preuve de ce théorème, on pourra se référer à Lamberton and Lapeyre [9, Théorème 5.3]. Exemples.

37 3.2. Discrétisation d EDS Modèle de Black-Scholes : diffusion log-normale (avec n = d = 1) { dxt = rx t dt + σx t dw t, où r > et σ >. X = x R + (3.2) Solution. La linéarité des coefficients permet d appliquer le Théorème 6 qui assure que l équation précédente admet une unique solution. Supposons que cette solution ne s annule pas, alors on peut écrire t dx t X t = rdt + σdw t, dx u X u = rt + σw t. A ce stade, il faut être extrêmement vigilant, en effet d(ln(x t )) n est pas égale à dxt X t comme nous allons le voir en utilisant la formule d Itô Ainsi Finalement, on obtient t d(ln(x t )) = dx t X t σ2 2 dt. dx u X u = ln(x t ) ln(x) + σ2 2 t. d où ln(x t ) ln(x) + σ2 2 t = rt + σw t, X t = xe r σ2 2 t+σw t. (3.3) On vérifie donc bien que S t ne s annule pas et par unicité de la solution, on est sûr que le processus défini par (3.3) est bien l unique solution de (3.2). 2. Ornstein-Ulhenbeck (avec n = d = 1) { dxt = cx t dt + σdw t, = x R où c > et σ >. X (3.4) Solution. De nouveau la linéarité des coefficients assure l unicité de la solution. On pose Y t = X t e ct. On trouve dy t = cx t e ct dt+dx t e ct. En utilisant l expression de dx t, on obtient dy t = σ e ct dw t. Ainsi Y t = x + σ t e cu dw u. Finalement, X t = xe ct +σ t e c(t u) dw u. Grâce à l unicité de la solution, on est sûr que (X t ) t ainsi défini est bien la seule solution de (3.4).

38 38 3. Simulation de processus et discrétisation d EDS Remarque 8. X t suit une loi normale de moyenne xe ct et de variance σ 2 t e2cu du. 3. Modèle à volatilité locale { dxt = rx t dt + σ(t, X t )X t dw t, X = x R où r > et la fonction σ vérifie σ(t, x) < K et x σ(t, x) < K. x En utilisant le même principe que pour l exemple 1, on peut montrer que ( t X t = x exp σ(s, X s )dw s + rt 1 t ) σ(s, X s ) 2 ds. 2 Dès que l on ne considère plus le modèle de Black-Scholes, on ne sait plus simuler directement suivant la loi de X T. On a donc besoin de discrétiser l équation différentielle stochastique, de manière à construire un processus X T N facilement simulable et qui approche X T en un sens convenable. Nous allons maintenant étudier plusieurs schémas de discrétisation possibles pour l équation (3.1) en supposant que les conditions du Théorème 6 sont vérifiées Schéma d Euler Soit N N, on pose t k = kt N pour k N. On définit la suite de v.a. XN tk pour k N 1 par { XN = x, X N t k+1 = X N t k + σ(t k, X N t k )(W tk+1 W tk ) + b(t k, X N t k ) T N. (3.5) On introduit alors une version en temps continu de ce schéma discret X N t = X N t k + σ(t k, X N t k )(W t W tk ) + b(t k, X N t k )(t t k ) pour t [t k, t k+1 ]. (3.6) (H3) α >, s t T, x R n, σ(t, x) σ(s, x) + b(t, x) b(s, x) c(1 + x )(t s) α. Théorème 7 (Convergence forte). Supposons que b et σ vérifient les Hypothèses (H2) et (H3), alors ( ) p 1, E X t 2p sup t T XN t C N 2pβ où β = min(α, 1 ). De plus, nous avons aussi 2 γ < β, N γ sup XN t t T X t p.s. N.

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Les mathématiques de la finance Université d été de Sourdun Olivier Bardou olivier.bardou@gdfsuez.com 28 août 2012 De quoi allons nous parler? des principales hypothèses de modélisation des marchés, des

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

TRAVAIL D ETUDE ET DE RECHERCHE. Utilisation des arbres binomiaux pour le pricing des options américaines

TRAVAIL D ETUDE ET DE RECHERCHE. Utilisation des arbres binomiaux pour le pricing des options américaines Ensimag - 2éme année Mai 2010 TRAVAIL D ETUDE ET DE RECHERCHE Utilisation des arbres binomiaux pour le pricing des options américaines Anne-Victoire AURIAULT 1/48 2/48 Cadre de l Étude Cette étude a été

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

Introduction au pricing d option en finance

Introduction au pricing d option en finance Introduction au pricing d option en finance Olivier Pironneau Cours d informatique Scientifique 1 Modélisation du prix d un actif financier Les actions, obligations et autres produits financiers cotés

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1 Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs

Plus en détail

Commun à tous les candidats

Commun à tous les candidats EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option

Plus en détail

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2. Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2. Techniques de correction pour les options barrières 25 janvier 2007 Exercice à rendre individuellement lors

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Modélisation et simulation

Modélisation et simulation Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

de calibration Master 2: Calibration de modèles: présentation et simulation d

de calibration Master 2: Calibration de modèles: présentation et simulation d Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

Calcul Stochastique pour la finance. Romuald ELIE

Calcul Stochastique pour la finance. Romuald ELIE Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

MARTINGALES POUR LA FINANCE

MARTINGALES POUR LA FINANCE MARTINGALES POUR LA FINANCE une introduction aux mathématiques financières Christophe Giraud Cours et Exercices corrigés. Table des matières I Le Cours 7 0 Introduction 8 0.1 Les produits dérivés...............................

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

F411 - Courbes Paramétrées, Polaires

F411 - Courbes Paramétrées, Polaires 1/43 Courbes Paramétrées Courbes polaires Longueur d un arc, Courbure F411 - Courbes Paramétrées, Polaires Michel Fournié michel.fournie@iut-tlse3.fr http://www.math.univ-toulouse.fr/ fournie/ Année 2012/2013

Plus en détail

Sur certaines séries entières particulières

Sur certaines séries entières particulières ACTA ARITHMETICA XCII. 2) Sur certaines séries entières particulières par Hubert Delange Orsay). Introduction. Dans un exposé à la Conférence Internationale de Théorie des Nombres organisée à Zakopane

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

PRIME D UNE OPTION D ACHAT OU DE VENTE

PRIME D UNE OPTION D ACHAT OU DE VENTE Université Paris VII - Agrégation de Mathématiques François Delarue) PRIME D UNE OPTION D ACHAT OU DE VENTE Ce texte vise à modéliser de façon simple l évolution d un actif financier à risque, et à introduire,

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Méthode de Monte Carlo pour le calcul d'options

Méthode de Monte Carlo pour le calcul d'options Méthode de Monte Carlo pour le calcul d'options LADIAS Elie, WANG Shuai 7 juin 2013 1 Table des matières 1 Méthode de Monte-Carlo et Calcul d'intégrales 4 1.1 Description de la méthode....................

Plus en détail

Finance, Navier-Stokes, et la calibration

Finance, Navier-Stokes, et la calibration Finance, Navier-Stokes, et la calibration non linéarités en finance 1 1 www.crimere.com/blog Avril 2013 Lignes directrices Non-linéarités en Finance 1 Non-linéarités en Finance Les équations de Fokker-Planck

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Planche n o 22. Fonctions de plusieurs variables. Corrigé Planche n o Fonctions de plusieurs variables Corrigé n o : f est définie sur R \ {, } Pour, f, = Quand tend vers, le couple, tend vers le couple, et f, tend vers Donc, si f a une limite réelle en, cette

Plus en détail

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail

EXERCICE 4 (7 points ) (Commun à tous les candidats)

EXERCICE 4 (7 points ) (Commun à tous les candidats) EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat

Plus en détail

Chapitre 7 : Intégration sur un intervalle quelconque

Chapitre 7 : Intégration sur un intervalle quelconque Universités Paris 6 et Paris 7 M1 MEEF Analyse (UE 3) 2013-2014 Chapitre 7 : Intégration sur un intervalle quelconque 1 Fonctions intégrables Définition 1 Soit I R un intervalle et soit f : I R + une fonction

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Leçon 01 Exercices d'entraînement

Leçon 01 Exercices d'entraînement Leçon 01 Exercices d'entraînement Exercice 1 Etudier la convergence des suites ci-dessous définies par leur terme général: 1)u n = 2n3-5n + 1 n 2 + 3 2)u n = 2n2-7n - 5 -n 5-1 4)u n = lnn2 n+1 5)u n =

Plus en détail

La mesure de Lebesgue sur la droite réelle

La mesure de Lebesgue sur la droite réelle Chapitre 1 La mesure de Lebesgue sur la droite réelle 1.1 Ensemble mesurable au sens de Lebesgue 1.1.1 Mesure extérieure Définition 1.1.1. Un intervalle est une partie convexe de R. L ensemble vide et

Plus en détail

Chaînes de Markov au lycée

Chaînes de Markov au lycée Journées APMEP Metz Atelier P1-32 du dimanche 28 octobre 2012 Louis-Marie BONNEVAL Chaînes de Markov au lycée Andreï Markov (1856-1922) , série S Problème 1 Bonus et malus en assurance automobile Un contrat

Plus en détail

Fonctions de plusieurs variables. Sébastien Tordeux

Fonctions de plusieurs variables. Sébastien Tordeux Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................

Plus en détail

Probabilités et statistique. Benjamin JOURDAIN

Probabilités et statistique. Benjamin JOURDAIN Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable Eo7 Fonctions de plusieurs variables Eercices de Jean-Louis Rouget Retrouver aussi cette fiche sur wwwmaths-francefr * très facile ** facile *** difficulté moenne **** difficile ***** très difficile I

Plus en détail

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v 1 1 2 t

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v 1 1 2 t 3.La méthode de Dirichlet 99 11 Le théorème de Dirichlet 3.La méthode de Dirichlet Lorsque Dirichlet, au début des années 180, découvre les travaux de Fourier, il cherche à les justifier par des méthodes

Plus en détail

BTS Groupement A. Mathématiques Session 2011. Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

BTS Groupement A. Mathématiques Session 2011. Spécialités CIRA, IRIS, Systèmes électroniques, TPIL BTS Groupement A Mathématiques Session 11 Exercice 1 : 1 points Spécialités CIRA, IRIS, Systèmes électroniques, TPIL On considère un circuit composé d une résistance et d un condensateur représenté par

Plus en détail