Cours de probabilités à Saint-Louis, Sénégal. Rhodes Rémi

Dimension: px
Commencer à balayer dès la page:

Download "Cours de probabilités à Saint-Louis, Sénégal. Rhodes Rémi"

Transcription

1 Cours de probabilités à Saint-Louis, Sénégal Rhodes Rémi

2 2

3 Table des matières 1 Chaînes de Markov Généralités Existence Propriétés de Markov faible et forte Etats récurrents et transitoires Stationnarité, réversibilité Chaînes récurrentes irréductibles Théorèmes ergodiques Condition de Doeblin Rappels de calcul stochastique Mouvement brownien Propriété de Markov forte L intégrale stochastique d Itô La formule d Itô Extension aux dimensions supérieures Les inégalités de Burkholder-Davis-Gundy Théorème de représentation des martingales Equations différentielles stochastiques 35 3

4 4 TABLE DES MATIÈRES 3.1 Introduction Estimations préliminaires Existence et unicité de la solution Dépendance par rapport aux conditions initiales Propriété de Markov des solutions La formule de Feynman-Kac Corrections de quelques exercices 47

5 Chapitre 1 Chaînes de Markov Dans tout ce chapitre, E désigne un ensemble dénombrable, et donc possiblement fini. E est muni de la tribu E de tous ses sous-ensembles. 1.1 Généralités Définition 1.1. On appelle matrice de transition sur E une famille (P (x, y)) x,y E de réels telle que, pour tout x, y E : 1. P (x, y), 2. y E P (x, y) = 1. Ainsi, pour tout x E, P (x, ) est une probabilité sur E. Définition 1.2. Un processus aléatoire à valeurs dans (E, E) est un quintuplet (Ω, F, {F n } n, (X n ) n, P) où (Ω, F, P) est un espace probabilisé, (F n ) n est une filtration sur (E, E), et X n est une variable aléatoire F n -adaptée à valeurs dans (E, E) pour tout n. Définition 1.3. Soit µ une mesure de probabilité sur E et P une matrice de transition sur E. On appelle chaîne de Markov (homogène) de loi initiale µ et de matrice de transition P, un processus aléatoire (Ω, F, {F n } n, (X n ) n, P) à valeurs dans E tel que : 1. P(X A) = µ(a) pour tout A E, 5

6 6 CHAPITRE 1. CHAÎNES DE MARKOV 2. P(X n+1 A F n ) = P (X n, A) p.s., pour tout A E et n. En particulier, la relation 2) implique que P(X n+1 A F n ) = P(X n+1 A X n ). D autre part, comme l espace E est dénombrable, la relation 2) de la définition précédente peut être remplacée par P(X n+1 = y X n = x n,..., X = x ) = P (x n, y) pour tout n et y, x,..., x n E. Exercice 1.1. Soit (U n ) n une suite de v.a. à valeurs dans un espace mesuré (G; G) indépendantes et identiquement distribuées, X une v.a. à valeurs dans E et g une application mesurable de E G dans E. On pose, pour tout n X n+1 = g(x n, U n+1 ). Montrer que (X n ) n est une chaîne de Markov de loi initiale P X et de matrice de transition P (x, y) = P(g(x, U 1 ) = y). Théorème 1.4. Soit (Ω, F, {F n } n, (X n ) n, P) une chaîne de Markov à valeurs dans (E, E) de loi initiale µ et de matrice de transition P. On a P(X = x, X 1 = x 1,..., X n = x n ) = µ(x )P (x, x 1 )... P (x n 1, x n ) (1.1) pour tous n et x,..., x n E. Réciproquement, si un processus aléatoire (Ω, F, {F n } n, (X n ) n, P) à valeurs dans (E, E) vérife (1.1) pour une loi de probabilité µ et une matrice de transition P alors c est une chaîne de Markov de probabilité initiale µ et matrice de transition P. Preuve : On a : P(X = x, X 1 = x 1,..., X n = x n ) =E [ ] 1I {X =x,x 1 =x 1,...,X n=x n} =E [ 1I {X =x,x 1 =x 1,...,X n 1 =x n 1 }E[X n = x n F n ] ] et le résultat suit. =E [ 1I {X =x,x 1 =x 1,...,X n 1 =x n 1 }] P (xn 1, x n )

7 1.2. EXISTENCE 7 En conséquence, pour toute fonction f : E n+1 R positive ou bornée, on a : E[f(X,..., X n )] = f(x,..., x n )µ(x )P (x, x 1 )... P (x n 1, x n ). x,...,x n E Dans ce qui suit, étant données deux matrices positives P, Q sur E, on note P Q la matrice produit définie par P Q(x, y) = z E P (x, z)q(z, y). Si f est une fonction positive ou bornée et si P est une matrice de transition, on définit la fonction P f par P f(x) = y E P (x, y)f(y). Similairement, si ν est une mesure positive sur E et P une matrice de transition, on définit la mesure νp sur E par νp (y) = x E ν(x)p (x, y). Une conséquence facile du théorème 1.4 est : Corollaire 1.5. Soit (Ω, F, {F n } n, (X n ) n, P) une chaîne de Markov à valeurs dans (E, E) de loi initiale µ et de matrice de transition P. Pour tout n, la loi de X n est µp n, i.e pour tout y E P(X n = y) = µp n (y). 1.2 Existence Théorème 1.6. Pour toute loi de probabilité µ et matrice de transition P sur E, il existe une chaîne de Markov (Ω, F, {F n } n, (X n ) n, P) à valeurs dans (E, E) de loi initiale µ et de matrice de transition P. Preuve : en exercice. Utiliser le théorème de Kolmogorov ainsi que le théorème 1.4.

8 8 CHAPITRE 1. CHAÎNES DE MARKOV 1.3 Propriétés de Markov faible et forte Dans ce qui suit, à chaque fois que l on considèrera une chaîne de Markov (Ω, F, {F n } n, (X n ) n, P) à valeurs dans (E, E), on supposera que pour tout n, F n = σ(x,..., X n ). Théorème 1.7. (Propriété de Markov faible) Soit (Ω, F, {F n } n, (X n ) n, P) une chaîne de Markov à valeurs dans (E, E) de loi initiale µ et de matrice de transition P. Pour tous k, n, pour tous B E k et A E n+1, on a : P ( (X n+1,..., X n+k ) B (X,..., X n ) A, X n = i ) = P ( (X 1,..., X k ) B X = i ). Preuve : D après le théorème 1.4, pour tous éléments y 1,..., y k, x,..., x n E, on a P(X n+1 = y 1,..., X n+k = y k X = x,..., X n = x n ) = P (x n, y 1 )P (y 1, y 2 )... P (y k 1, y k ). Ceci se traduit par P ( X n+1 = y 1,..., X n+k = y k X = x,..., X n = x n ) = P (xn, y 1 )P (y 1, y 2 )... P (y k 1, y k ). Or, le théorème 1.4 donne encore Le résultat suit. P (i, y 1 )P (y 1, y 2 )... P (y k 1, y k ) = P ( X 1 = y 1,..., X k = y k X = x n ). Théorème 1.8. (Propriété de Markov forte) Soit (Ω, F, {F n } n, (X n ) n, P) une chaîne de Markov à valeurs dans (E, E) de loi initiale µ et de matrice de transition P, et τ un temps d arrêt. Pour tout k 1, B E k, on a p.s. : P ( (X τ+1,..., X τ+k ) B, τ < + F τ ) = 1I{τ<+ } P ( (X 1,..., X k ) B X = X τ ). Preuve : Soit n N. Calculons 1I {τ=n} P ( (X τ+1,..., X τ+k ) B, τ < + F τ ). Soit A F τ, on a A {τ = n} F n. Donc, en utilisant la propriété de Markov faible, E [ 1I A 1I {τ=n} P ( )] (X τ+1,..., X τ+k ) B, τ < + F τ =E [ ] 1I A 1I {τ=n} 1I {(Xτ+1,...,X τ+k ) B} =E [ 1I A 1I {τ=n} P ( )] (X n+1,..., X n+k ) B F n =E [ 1I A 1I {τ=n} P ( (X 1,..., X k ) B X = X n )] =E [ 1I A 1I {τ=n} P ( (X 1,..., X k ) B X = X τ )]

9 1.4. ETATS RÉCURRENTS ET TRANSITOIRES 9 Ainsi 1I {τ=n} P ( ) (X τ+1,..., X τ+k ) B, τ < + F τ = 1I{τ=n} P ( ) (X 1,..., X k ) B X = X τ, d où le résultat. 1.4 Etats récurrents et transitoires Soit (Ω, F, {F n } n, (X n ) n, P) une chaîne de Markov à valeurs dans (E, E) de loi initiale µ et de matrice de transition P. Dans le cas où la loi initiale µ est donnée par δ x (masse de Dirac au point x) on note P x la loi de la chaîne (X n ) n ayant δ x pour loi initiale. On définit le temps d arrêt T x T x = inf{n 1; X n = x}. Définition 1.9. L état x E est dit récurrent si P x (T x < + ) = 1 et transitoire dans le cas contraire, i.e. si P x (T x < + ) < 1. On définit le nombre de retours à l état x : Proposition 1.1. N x = + 1I {Xn=x}. n=1 1. Si x est récurrent alors P x (N x = + ) = Si x est transitoire alors P x (N x < + ) = 1 et k, P x (N x = k) = (1 π x )π k x où π x = P x (T x < + ). Preuve : On définit par récurrence Tx k = inf{n > Tx k 1 ; X n = x} = inf{n > ; X n+t k 1 = x} x le k-ième temps de passage au point x. On a P x (N x k) = P x (T k x < + ) = P x (T k x < + T k 1 x < + )P x (T k 1 x < + ).

10 1 CHAPITRE 1. CHAÎNES DE MARKOV D après la propriété de Markov forte, on a P x (Tx k donc et par récurrence on montre P x (N x k) = π x P x (T k 1 x P x (N x k) = π k x. < + T k 1 x Les 2 résultats voulus s obtiennent à partir de cette relation. Corollaire L état x est récurrent si et seulement si Preuve : On a E x (N x ) = + n= + n=1 P n (x, x) = +. E x [1I {Xn=x}] = D autre part, la proposition précédente montre que : < + ) + n=1 P n (x, x). x est récurrent E x (N x ) = +. < + ) = P x (T x < + ), et Définition On dit que l état y est accessible à partir de x (noté x y) s il existe n tel que P n (x, y) >. On dit que les états x et y communiquent (noté x y) si x y et y x. La relation x y est une relation d équivalence sur les éléments de E. On peut donc partitionner E suivant les classes d équivalence de cette relation. Théorème Soit C E une classe d équivalence pour la relation. Alors, ou bien tous les états de C sont transitoires, ou bien tous les éléments de C sont récurrents. Preuve : Il est clair que, ou bien tous les états de C sont récurrents ou bien il existe x C transitoire. Soit y C. On va montrer que y est transitoire. Comme x y, il existe r, n > tels que P n (x, y) > et P r (y, x) >. On a alors pour k P n+k+r (x, x) P n (x, y)p k (y, y)p r (y, x), d où l on tire facilement P k (y, y) < +. k

11 1.5. STATIONNARITÉ, RÉVERSIBILITÉ 11 Définition Une chaîne de Markov (Ω, F, {F n } n, (X n ) n, P) est dite irréductible si E est constitué d une seule classe d équivalence. Elle est dite récurrente irréductible si elle est irréductible et si tous les états sont récurrents. Proposition Si E est fini, toute chaîne de Markov (Ω, F, {F n } n, (X n ) n, P) irréductible est récurrente irréductible. Preuve : Comme E est fini, il y a forcément un état qui, avec probabilité non nulle, est visité une infinité de fois par la chaîne. Cet état est récurrent. 1.5 Stationnarité, réversibilité Soit (Ω, F, {F n } n, (X n ) n, P) une chaîne de Markov à valeurs dans (E, E) de loi initiale µ et de matrice de transition P. Définition Une chaîne de Markov est dite stationnaire si, pour tous k, n N, la loi de (X,..., X n ) est égale à la loi du vecteur (X k,..., X n+k ). 2. Une chaîne de Markov est dite réversible si, pour tout entier T 1, la loi du vecteur (X,..., X T ) est identique à la loi du vecteur retourné (X T, X T 1,..., X ). Définition On dit qu une mesure positive λ sur E est invariante si λ = λp. 2. On dit qu une mesure positive λ sur E est réversible si, pour tous x, y E λ(x)p (x, y) = λ(y)p (y, x). Proposition Toute mesure réversible est stationnaire. Proposition Si λ est une probabilité invariante, la chaîne (X n ) n de loi initiale λ est stationnaire. Proposition 1.2. Si λ est une probabilité réversible, la chaîne (X n ) n de loi initiale λ est réversible. Exercice 1.2. Prouver les trois propositions précédentes.

12 12 CHAPITRE 1. CHAÎNES DE MARKOV 1.6 Chaînes récurrentes irréductibles Dans toute cette section, on considère une chaîne de Markov (Ω, F, {F n } n, (X n ) n, P) récurrente irréductible. On va s intéresser à l existence de mesures invariantes, dont l intérêt est principalement l obtention de théorèmes ergodiques. Théorème La chaîne (X n ) n admet une mesure invariante µ, unique à une constante multiplicative près. De plus, pour tout y E, on a < µ(y) < +. Enfin, pour x E, la mesure invariante µ x telle que µ x (x) = 1 est donnée par Preuve : On fixe x E. On pose On a µ x (x) = µ x(x) = 1 et De plus, pour f positive sur E, µ x (f) = y E µ x (y)f(y) = y E Or, comme X Tx = x = X P x p.s., Donc µ x = µ x. [ Tx 1 µ x (f) = E x [ Tx 1 µ x (y) = E x k= 1I {Xk =y}]. [ Tx µ x(y) = E x 1I {Xk =y}]. k=1 µ x (E) = E x [T x ] = µ x(e). k= [ Tx 1 E x k= Montrons maintenant que µ x est invariante. On a : [ Tx 1 (µ x P )(f) = µ x (P f) = E x 1I {Xk =y}f(y) ] [ Tx 1 = E x k= f(x k ) ] [ Tx = E x f(x k ) ] = µ x(f). k= k=1 = k E x [ 1I{k<Tx}E Xk [f(x 1 )] ]. P f(x k ) ] [ Tx 1 = E x k= f(x k ) ]. E Xk [f(x 1 )] ]

13 1.6. CHAÎNES RÉCURRENTES IRRÉDUCTIBLES 13 Comme {k < T x } F k, d après la propriété de Markov, (µ x P )(f) = k On a donc montré l invariance de µ x. [ E x 1I{k<Tx}f(X k+1 ) ] [ Tx = E x f(x k ) ] = µ x(f) = µ x (f). Soit µ une mesure invariante. En utilisant la relation µp n = µ pour tout n N et l irréductibilité, on en déduit facilement : 1) si y E, µ(y) = alors y E, µ(y) =. 2) si y E, µ(y) < + alors y E, µ(y) < +. Ceci montre que, pour tout y E, on a < µ(y) < +. Il reste à montrer l unicité. Soit λ une autre mesure invariante vérifiant pour tout y E, et λ(x) = 1. On a < λ(y) < + λ(y) = λp (y) = P (x, y) + z 1 x λ(z 1 )P (z 1, y) = P (x, y) + z 1 x = P (x, y) + z 1 x =... = + n= z 1,...,z n x + n= k=1 z 2 λ(z 2 )P (z 1, y)p (z 2, z 1 ) P (x, z 1 )P (z 1, y) + z 1 x λ(z 2 )P (z 1, y)p (z 2, z 1 ) z 2 x P (x, z n )P (z n, z n 1 )... P (z 1, y) E x [ 1I{Xn+1 =y}1i n+1 Tx ] [ Tx 1 = E x 1I {Xn+1 =y}] = µx (y) n= Ainsi λ µ x est aussi une mesure (positive) invariante qui vérifie (λ µ x )(x) =. Vu la propriété 1) ci-dessus, λ µ x =.

14 14 CHAPITRE 1. CHAÎNES DE MARKOV Définition Soit x E. On pose π(x) = E x [T x ]. Si π(x) < +, l état x est dit récurrent positif. Sinon, il est dit récurrent nul. Dans la cas d une chaîne récurrente irréductible, on est donc en présence de la dichotomie suivante : Théorème ) ou bien il existe un état récurrent positif, alors tous les états sont récurrents positifs et les mesures invariantes sont de masse finie, 2) ou bien il existe un état récurrent nul, alors tous les états sont récurrents nuls et les mesures invariantes sont de masse infinie. 1.7 Théorèmes ergodiques Dans toute cette section, on considère une chaîne de Markov (Ω, F, {F n } n, (X n ) n, P) récurrente irréductible. Théorème Soit µ une mesure invariante pour la chaîne (X n ) n. Soient f, g L 1 (µ) avec µ(g). Alors n k= p.s., f(x k) n k= g(x k) µ(f) lorsque n. µ(g) Preuve : Soit x E, f L 1 (µ) et Tx k le k-ième temps de retour de la chaîne en x. Soit λ la loi initiale de la chaîne. On pose et Z = Z p = Tx 1 1 k= Tx p+1 1 k=t p x f(x k ) f(x k ). On a déjà vu que E x [Z ] = µ(f) et par la propriété de Markov, E λ [Z p ] = E λ [E[Z p F T p x ]] = E x [Z ] = µ(f). Il résulte de la propriété de Markov forte que, sous P λ, les variables Z, Z 1,..., Z p,... sont indépendantes, identiquement distribuées et d espérance µ(f). D après la loi forte des grands nombres, 1 n T n x k= f(x k ) = 1 n (Z = + Z n 1 ) + 1 f(x) µ(f) n

15 1.7. THÉORÈMES ERGODIQUES 15 quand n P λ ps. A m N, on associe l unique entier ν(m) tel que Tx ν(m) On a ν(m) quand m et m < T ν(m)+1 x. ν(m) m 1I{X k = x} < ν(m) + 1I{X = x} ν(m) + 1. k= Si on suppose f on a ν(m) ν(m) + 1 T ν(m) x k= f(x k ) ν(m) m k= f(x k) m k= 1I{X k = x} ν(m) + 1 ν(m) T ν(m) x +1 k= f(x k ) ν(m) + 1. En passant à la limite en m, on en déduit m k= f(x k) m k= 1I{X k = x} µ(f) quand m P λ ps. En écrivant f = f + f, on en déduit que la convergence précédente a lieu si f L 1 (µ). Si f, g L 1 (µ) avec µ(g), on a m k= f(x k) m k= 1I{X k = x} µ(f), m k= g(x k) m k= 1I{X k = x} µ(g) et on en déduit le théorème en faisant le quotient. Si µ(e) < +, on peut choisir g = 1 dans le théorème précédent et on obient : Corollaire Supposons la chaîne (X n ) n irréductible récurrente positive. Soit µ son unique probabilité invariante. Pour tout f L 1 (µ), on a p.s., 1 n n f(x k ) µ(f) lorsque n. k= Corollaire Supposons la chaîne (X n ) n irréductible récurrente positive. Soit µ son unique probabilité invariante. Pour tout x E, on a p.s., 1 n n 1I {Xk =x} µ(x) lorsque n. k=

16 16 CHAPITRE 1. CHAÎNES DE MARKOV Proposition Supposons la chaîne (X n ) n irréductible récurrente nulle. Pour tout x E, on a 1 n p.s., 1I {Xk =x} lorsque n. n k= Preuve : On choisit µ mesure invariante telle que µ(x) = 1. Pour F E fini, on a (th??) ps n k= 1I n {X k =x} k= 1I {X k =x} n + 1 n k= 1I F (X k ) µ(x) n µ(f ) = 1 µ(f ). Donc on a ps n k= lim sup 1I {X k =x} n n + 1 Il suffit donc de prendre F arbitrairement grand. 1 µ(f ). 1.8 Condition de Doeblin Définition On dit qu une probabilité de transition P vérifie la condition de Doeblin s il existe une mesure de probabilité ν sur E et α > avec pour tout B E et x E. P (x, B) αν(b) La constante α est alors nécessairement 1. On suppose qu elle est strictement plus petite que 1 pour éliminer le cas trivial ν = P et on pose β = 1 α. Il existe alors une matrice de transition Q telle que P (x, ) = αν( ) + βq(x, ). Soit M b (E) l espace des mesures bornées sur E et B(E) l espace des fonctions mesurables et bornées sur E. On munit l espace M b (E) de la norme duale µ = sup{ µ(f) ; f B(E), f 1}. L espace M b (E) est alors un espace de Banach réel et une matrice de transition définit un opérateur positif de norme 1 sur M b (E) de la manière suivante : µ M b (E) µp M b (E).

17 1.8. CONDITION DE DOEBLIN 17 Théorème Soit P une probabilité de transition vérifiant la condition de Doeblin pour < α < 1. Il existe une unique probabilité invariante λ. De plus, pour toute mesure de probabilité µ sur E, on a : µp n λ 2β n, et λ est donnée par λ = α + n= β n νq n. Preuve : Une probabilité λ est invariante si et seulement si λ = λp, ce qui est encore équivalent à λ = αν + βλq ou λ(i βq) = αν. Comme Q est un opérateur de norme 1, (I βq) est inversible dand M b (E) et d inverse + β n Q n. n= Ceci fournit l existence et l unicité de λ, ainsi que la relation λ = α + n= β n νq n. Il reste à prouver la décroissance exponentielle. Pour cela, montrons par récurrence la formule n 1 P n (x, ) = αν β k Q k + β n Q n (x, ) (1.2) k= Bien sûr, la formule ci-dessus est vraie pour n = 1. Supposons qu elle est vraie au rang n et montrons qu elle l est alors au rang n + 1 : P n+1 (x, z) =P P n (x, z) = y E = y E P (x, y)p n (y, z) = P (x, y) ( n 1 αν β k Q k (z) + β n Q n (y, z) ) y E k= ( )( n 1 αν(y) + βq(x, y) αν β k Q k (z) + β n Q n (y, z) ) k= n 1 n 1 = α 2 ν β k Q k (z) + αβν β k Q k (z) + αβ n νq n (z) + β n+1 Q n+1 (x, z) = αν k= k= n β k Q k (z) + β n+1 Q n+1 (x, z). k=

18 18 CHAPITRE 1. CHAÎNES DE MARKOV Ceci prouve la formule (1.2). Donc λ µp n =αν et le résultat suit. + k=n β k Q k β n µq n (x, ) = ανβ n( + β k Q k) S n β n µq n (x, ) =β n (λ µ)q n ( ) Corollaire 1.3. Soit P une probabilité de transition et k 1 tel que P k satisfait la condition de Doeblin. Il existe alors une unique probabilité invariante λ. De plus, il existe des constantes C < et < β < 1 telles que, pour toute mesure de probabilité µ : Preuve : en exercice. µp n λ Cβ n. Exercice 1.3. Soit (A n, B n, C n ) n suite de variables aléatoires toutes indépendantes entre elles et telles que : 1. les variables aléatoires (A n ) n prennent les valeurs 1 et avec les probabilités α et 1 α (avec < α < 1), 2. les variables aléatoires (B n ) n sont à valeurs dans un espace F de loi µ, 3. les variables aléatoires (C n ) n sont à valeurs dans un espace E de loi ν. On se donne de plus une fonction f mesurable de E F dans E et on considère la suite (X n ) n de variables aléatoires à valeurs dans E vérifiant { Cn+1 si A X n+1 = n+1 = 1 f(x n, B n+1 ) si A n+1 =. On note Q la matrice de transition de la chaîne Z définie par Z n+1 = f(z n, B n+1 ). Montrer que (X n ) n est une chaîne de Markov de matrice de transition P = αν + (1 α)q, et en déduire que (X n ) n satisfait la condition de Doeblin. Exercice 1.4. Montrer que les 2 assertions suivantes sont équivalentes : 1. il existe k tel que P k satisfait la condition de Doeblin. k= 2. il existe k et il existe y E tels que inf x E P k (x, y) >.

19 1.8. CONDITION DE DOEBLIN 19 Proposition Si P est irréductible et apériodique et si E est fini, alors il existe k tel que P k satisfait la condition de Doeblin. Preuve : utiliser l exercice 1.4. Théorème Soit (X n ) n une chaîne de Markov de matrice de transition P irréductible et telle que P k satisfait la condition de Doeblin, pour un k 1. Soit λ l unique probabilité invariante de la chaîne et f : E R telle que f 2 dλ < +, et f dλ =. Alors, quand n, E 1 n n f(x k ) converge en loi vers σ f Z k=1 où Z N(, 1), σ 2 f = Var λ(qf) et Qf(x) = + n= E P n f(x).

20 2 CHAPITRE 1. CHAÎNES DE MARKOV

21 Chapitre 2 Rappels de calcul stochastique Ce chapitre ne constitue qu un rappel sur les propriétés du mouvement brownien et sur les propriétés principales des Equations Différentielles Stochastiques (EDS). 2.1 Mouvement brownien Définition 2.1. Un processus stochastique réel {B t : t }, défini sur un espace probabilisé (Ω, F, P), est appelé mouvement brownien (standard) issu de si les trois conditions suivantes sont satisfaites : 1. Le processus B est à accroissements indépendants, c est-à-dire que pour toute famille finie d instants < t 1 < < t n, les variables aléatoires B t1, B t2 B t1,..., B tn B tn 1 sont indépendantes. 2. Pour chaque t la v.a.r B t suit la loi N (, t). 3. Pour presque tout ω Ω, les trajectoires t B t (ω) sont continues. De manière équivalente, on peut définir un mouvement brownien de la façon suivante : Proposition 2.2. Un processus {B t : t }, dont les trajectoires sont p.s. continues, est un mouvement brownien (issu de ) ssi c est un processus gaussien centré de covariance inf(s, t). De plus les accroissements B t B s, s < t, d un mouvement brownien suivent la loi N (, t s). Proposition 2.3. Si {B t : t } est un mouvement brownien alors : 21

22 22 CHAPITRE 2. RAPPELS DE CALCUL STOCHASTIQUE 1. les accroisseements de B sont stationnaires, c est-à-dire que pour toute famille finie d instants < t 1 < < t n et pour tout s >, les vecteurs aléatoires (B t1, B t2 B t1,..., B tn B tn 1 ) et (B t1 +s B s, B t2 +s B t1 +s,..., B tn+s B tn 1 +s) ont même loi. 2. Pour tout < s < t, la v.a. B t B s suit une loi normale N(, t s). Définition 2.4. Soit B = {B t ; t } un processus stochastique d dimensionel. On dit que B est un mouvement brownien si ses composantes B 1,..., B d sont des mouvements browniens indépendants. Exercice 2.1. Prouver les 2 propositions précédentes. Exercice 2.2. Montrer que les processus suivants sont des (F t )-martingales : ( (B t ) t, (Bt 2 t) t, exp ( λb t λ 2 t/2 )) t où λ est un réel quelconque. Exercice 2.3. Si {B t : t } est un mouvement brownien et < t 1 < < t n, montrer que le vecteur (B t1,..., B tn ) admet pour densité f(x 1,..., x n ) = 1 1 (2π) n 2 t1 (t 2 t 1 ) (t n t n 1 ) e 2 par rapport à la mesure de Lebesgue sur R n. x 2 «1 t1 + (x 2 x 1 )2 + + (xn x n 1 )2 t 2 t 1 tn t n 1 Exercice 2.4. Dans cet exercice, B = (B t ) t désigne un mouvement brownien à valeurs dans R d, d N. Soit U une matrice carrée réelle de taille d d orthogonale (i.e. U t U = I d ). Montrer que W t = UB t définit un mouvement brownien. Exercice 2.5. Montrer le résultat suivant (loi des grands nombres pour un mouvement brownien standard) : p.s., B t lim t t =. Exercice 2.6. Soit A = {lim sup n B n n x}, où x > est fixé. 1. Montrer que pour tout m N, l événement A est indépendant de F m. En déduire que P(A) vaut ou Montrer que P(A) = 1. En déduire que lim sup t B t t = + et lim inf t B t t =, P p.s..

23 2.2. PROPRIÉTÉ DE MARKOV FORTE Propriété de Markov forte Soit {B t : t } est un mouvement brownien et (F B t ) t sa filtration naturelle complétée, c est-à-dire t, F B t = σ(x s ; s t) σ(n ) où N désigne l ensemble des sous-ensembles négligeables de (Ω, F, P). C est la plus petite filtration complète qui rende B adapté. Définition 2.5. Soit (F t ) t une filtration. Un temps d arrêt pour la filtration (F t ) t est une variable aléatoire τ : Ω [, + ] telle que pour tout t Si τ est p.s. fini, on définit la tribu {T t} F t. F τ = {A F; t, A {τ t} F t }. Exercice 2.7. Si ς et τ sont deux (F t ) t temps d arrêt p.s. finis tels que ς τ, montrer que l on a : F ς F τ. Théorème 2.6. (Propriété de Markov forte) Si τ est un temps d arrêt p.s. fini alors le processus {B t+τ B τ ; t } est un mouvement brownien indépendant de la tribu F B τ. Exercice 2.8. Pour tout a R, on note T a = inf{t > ; B t = a} le premier temps d atteinte de a par le mouvement brownien B, avec la convention inf = Montrer que T a < presque sûrement. 2. Soit a >. En appliquant soigneusement le théorême d arrêt de Doob, montrer que la transformée de Laplace de T a est donnée par : λ >, E [ e λta] = e a 2λ. 3. En calculant la transformée de Laplace de la loi sur R + de densité f(x) = a 2πx 3 e a2 /(2x) 1I {x>}, montrer que T a admet f pour densité par rapport à la mesure de Lebesgue sur R. Quelle est la densité de T a si a <?

24 24 CHAPITRE 2. RAPPELS DE CALCUL STOCHASTIQUE Exercice 2.9. Soit a un réel strictement positif fixé. 1. Pour tout t, on note M t = sup s t B s. En utilisant la propriété de Markov forte du mouvement brownien, montrer que pour tout t, P(M t a) = P(T a t) = 2P(B t a) = P( B t a) 2. La propriété précédente est appelée «principe de réflexion». Justifier ce nom. 3. En utilisant le principe de réflexion, déterminer la densité de T a. 4. Les processus M = (M t ) t et B = ( B t ) t ont-ils même loi? ( ) 2 ( ) a 5. Montrer que T a a même loi que M 1 et que a 2. B 1 Retrouver une nouvelle fois la densité de T a. 2.3 L intégrale stochastique d Itô On suppose à partir de maintenant que l on dispose d un espace probabilisé (Ω; F; P) muni d une filtration (F t, t ), sur lequel est défini un F t -mouvement brownien {B t, t }. On suppose de plus que F contient tous les ensembles de P-mesure nulle. Définissons alors une première classe d intégrands. Définition 2.7. Un processus stochastique ϕ t (ω) défini sur R + Ω (resp sur [, T ] Ω ) est dit progressivement mesurable si t R + (resp t [, T ]) l application : (s, ω) ϕ s (ω) de [, t] Ω dans R est B([, t]) F t mesurable. On notera par la suite Λ 2 (R + ) (resp. Λ 2 ([, T ])) le sous-espace de L 2 (Ω R +, P dt ) (resp. L 2 (Ω [, T ], P dt)) constitué des classes de processus progressivement mesurables. Muni du produit scalaire [ ] (ϕ, ψ) = E ϕ t ψ t dt R + c est un espace de Hilbert. Pour finir, on définit Λ 2 = T > Λ 2 ([, T ]). [ T ] (resp = E ϕ t ψ t dt ),

25 2.3. L INTÉGRALE STOCHASTIQUE D ITÔ 25 Soit E l ensemble des classes de processus de la forme : n 1 ϕ t (ω) = X i (ω)1i ]ti,t i+1 ](t), t i= avec n N, < t 1 <..., < t n. pour i n 1, X i est une v.a. F ti -mesurable et de carré intégrable. Alors ϕ est progressivement mesurable. Soit ϕ E. On définit le processus stochastique B(ϕ) t = n 1 ϕ s db s = X i (B t ti+1 B t ti )., t i= Théorème 2.8. (Construction de l intégrale d Itô) Pour tout ϕ Λ 2, il existe une suite (ϕ n ) n E N telle que pour tout t > ϕ n 1I [,t] ϕ1i [,t] dans Λ 2 ([, T ]). La limite B(ϕ) t = lim B(ϕ n 1I [,t] ) n existe dans l espace L 2 (Ω) et ne dépend pas de la suite (ϕ n ) n E N choisie. Le processus ainsi défini B(ϕ) t = ϕ s db s, t admet une version continue (et l on ne considèrera que cette version-là par la suite), et vérifie E(B(ϕ) t ) = et E [ [ ] t ] B(ϕ) 2 t = E ϕ 2 s ds, t. Plus généralement, si < s < t et ϕ, ψ Λ 2 alors Si de plus ϕ Λ 2 (R + ), alors E [( B(ϕ) t B(ϕ) s )( B(ψ)t B(ψ) s ) Fs ] = E [ P p.s. et dans L 2 (Ω) lorsque t. B(ϕ) t B(ϕ) = ϕ s dbs R + s ϕ r ψ r dr F s ].

26 26 CHAPITRE 2. RAPPELS DE CALCUL STOCHASTIQUE 2.4 La formule d Itô Considérons tout d abord x C 1 (R + ), et Φ C 1 (R). Alors la formule de dérivation des fonctions composées donne Φ(x(t)) = Φ(x()) + Φ (x(s)) dx(s). Notre objectif dans cette section va être d obtenir une formule analogue si l on remplace x par un mouvement brownien, ou plus généralement des processus d Itô. Théorème 2.9. Première formule d Itô Soit Φ C 2 (R). Alors Φ(B t ) = Φ() + Φ (s) db s Φ (B s ) ds. Nous généralisons maintenant la formule d Itô ci-dessus en remplaçant le mouvement brownien par une classe plus générale de processus. Définition 2.1. Un processus {X t ; t } est appelé processus d Itô s il est de la forme X t = X + ψ s ds + ϕ s db s (2.1) où X est une variable aléatoire F -mesurable, ψ et ϕ sont des processus progressivement mesurables qui vérifient t, P p.s., ψ s ds < et ϕ Λ 2. Il en résulte qu un processus d Itô est presque sûrement continu et progressivement mesurable. Théorème Deuxième formule d Itô Soit {X t ; t } un processus d Itô de la forme (2.1) et Φ C 2 (R). Alors P p.s., pour tout t : Φ(X t ) = Φ(X ) + Φ (X s )ψ s ds + Φ (X s )ϕ s db s + 1 Φ (X s )ϕ 2 s ds, t. 2 L expression ci-dessus peut être réécrite sous la forme plus concise suivante : dφ(x t ) = Φ (X t ) dx t Φ (X t )ϕ 2 t dt.

27 2.4. LA FORMULE D ITÔ 27 Théorème (Formule d Iô avec dépendance en t) Soit {X t ; t } un processus d Itô et Φ C 1,2 (R + R). Alors P p.s. Φ t Φ(t, X t ) = Φ(, X ) + s (s, X Φ t s) ds + x (s, X Φ s)ψ s ds + x (s, X s)ϕ s db s Φ 2 x (s, X s)ϕ 2 2 s ds. Exercice 2.1. Le processus d Ornstein-Ulhenbeck On considère le processus X à valeurs dans R solution de l EDS linéaire à coefficients constants : dx t = αx t dt + βdb t, X = ξ (2.2) où α et β sont des constantes, B est un F t -mouvement brownien et ξ est une variable F - mesurable. On suppose que α >. 1) Montrer que la solution de (2.2) est donnée par X t = e tα ξ + e (t s)α β db s, t 2) En déduire que si ξ est une variable gaussienne, alors X est un processus gaussien d espérance et de fonction de covariance données par E [X t ] = e tα E [ξ] Cov(X s, X t ) = e α(t+s) Var(ξ) + β 2 s e α(t+s 2u) du 3) Si E [ξ] = et Var = β2 alors le processus X est centré et de covariance stationnaire, ie 2α En particulier, t R +, X t N (, β 2 /2α). Cov(X s, X t ) = β2 2α e α t s, s, t. 4) Si ξ est une variable gaussienne, alors quand t, l espérance et la fonction de covariance du processus {X t+δ ; δ } tendent vers celle du cas stationnaire : E [X t ], Cov(X s, X t ) β2 2α e δα.

28 28 CHAPITRE 2. RAPPELS DE CALCUL STOCHASTIQUE Exercice Mouvement brownien avec dérive : Soit B un F t -mouvement brownien, et X t T = inf {t ; X t a}. 1) Montrer que pour tout λ R, le processus est une martingale. = B t + µt, où µ R. Pour a >, on définit Z t = e λxt λ 2 t 2 +µλ 2) Montrer que E [Z t T ] = 1 pour tout t. En déduire que si λ > ( 2µ) +, [ ] E 1I {T < } e λ 2 T 2 +µλ = e λa. 3) Montrer que P (T < ) = 1 e 2µa. 2.5 Extension aux dimensions supérieures Soit {B t, t } un mouvement brownien de dimension k et {ϕ t, t } un processus à valeurs dans l ensemble des matrices d k. Supposons que pour tous 1 i d et 1 j k, on a ϕ ij Λ 2. On peut alors définir B(ϕ) i t = k j=1 ϕ ij s db j s, 1 i d, t, et B(ϕ) t est alors le vecteur d-dimensionnel dont les composantes sont égales à B(ϕ) i t. Nous avons alors Proposition Soit ϕ, ψ (Λ 2 ) d k. Alors s, s < t, i) B(ϕ) t = ϕ s db s est une L 2 -martingale continue, à valeurs dans R d et F t -adaptée. [ ] ii) E [(B(ϕ) t B(ϕ) s )(B(ψ) t B(ψ) s ) t F s ] = E ϕ s rψr dr F s [ ] t iii) E [ B(ϕ) t B(ϕ) t, B(ψ) t B(ψ) s F s ] = E T r(ϕ s rψr) dr F s On va maintenant généraliser la formule d Itô au cas vectoriel.

29 2.6. LES INÉGALITÉS DE BURKHOLDER-DAVIS-GUNDY 29 Définition Un processus stochastique {X t ; t } est un processus d Itô d-dimensionnel s il est de la forme X t = X + ψ s ds + ϕ s db s, (2.3) où X est un vecteur aléatoire d-dimensionnel F -mesurable, ψ est un processus d-dimensionnel progressivement mesurable satisfaisant t, P p.s., ψ s ds <, et ϕ Λ 2 est un processus progressivement mesurable à valeurs dans les matrices d k. On notera C 1,2 b (R + R d ) l espace des fonctions continues qui sont une fois continûment différentiable par rapport à la première variable et qui le sont deux fois par rapport à la deuxième variable, possédant des dérivées bornées. Théorème (Formule d Itô vectorielle) Soit {X t ; t } un processus d Itô d-dimensionnel de la forme (2.3), et Φ C 1,2 b (R + R d ). Alors P p.s. Φ(t, X t ) = Φ(, X ) + + Φ s (s, X s) ds + x Φ(s, X s ), ϕ s db s x Φ(s, X s ), ψ s ds 2.6 Les inégalités de Burkholder-Davis-Gundy T r[ 2 xxφ(s, X s )ϕ s ϕ s] ds. On s intéresse maintenant au contrôle des intégrales stochastiques à l aide des variations quadratiques. Théorème Soit {B t, t } un mouvement brownien d-dimensionnel. Pour chaque p > et T >, il existe une constante c p 1 telle que ϕ Λ 2 [ ( 1 T ) p/2 ] [ p] [ ( T ) p/2 ] E ϕ t 2 dt E c p ϕ s db s c p E ϕ t 2 dt. sup t T [ ( Corollaire Soit ϕ Λ 2 tel que E est une martingale uniformément intégrable. ϕ t 2 dt ) 1/2 ] <. Alors le processus { } t ϕ s db s, t

30 3 CHAPITRE 2. RAPPELS DE CALCUL STOCHASTIQUE 2.7 Théorème de représentation des martingales Nous avons vu que le mouvement brownien ainsi que les intégrales stochastiques d éléments de Λ 2 sont des martingales adaptées à la filtration brownienne. Dans cette section, nous nous intéressons à la question : la réciproque est-elle vraie? Théorème (Théorème de représentation des martingales de Paul Lévy) Soit {M t, t } une martingale continue d-dimensionnelle telle que M = P p.s. et {M t M t ti; t } est une martingale à valeurs dans les matrices d d. Alors {M t, t } est un F t -mouvement brownien. Nous supposerons maintenant que {B t, t } est un mouvement brownien d-dimensionnel et que la filtration {F t, t } est la filtration naturelle de {B t, t } ie F t = σ(b s, s t) (aux ensembles de P mesure nulle près). Théorème Soit {M t, t } une martingale telle que M = P p.s. et Alors il existe un unique ϕ Λ 2 tel que t, E [ M t 2] <. P p.s., t, M t = ϕ s db s. Preuve : L unicité de ϕ résulte du fait que si ϕ, ϕ satisfont le théorème alors [ T ] E ϕ t ϕ t 2 dt =, T >. Pour prouver l existence de ϕ il suffit de montrer que pour tout T >, il existe ϕ Λ 2 ([, T ]) tel que M T = T ϕ s db s. Ceci résulte du fait que l ensemble { T } H = c + ϕ t db t ; c R, ϕ Λ 2 ([, T ]) coïncide avec L 2 (Ω, F T, P). Il est facile de voir que H L 2 (Ω, F T, P). Il suffit alors de montrer que H est à la fois dense et fermé dans L 2 (Ω, F T, P).

31 2.7. THÉORÈME DE REPRÉSENTATION DES MARTINGALES 31 a) H est fermé : Soit {c n, n N} R et {ϕ n, n N} Λ 2 ([, T ]). Pour n N, on pose ξ n = c n + T ϕ n s db s. On suppose que ξ n ξ dans L 2 (Ω, F T, P). Alors E [ξ n ] E [ξ] et ainsi c n c. D autre part : [ T ] V ar(ξ n ξ m ) = E ϕ n s ϕ m s 2 ds, lorsque m, n. Ainsi la suite {ϕ n, n N} est une suite de Cauchy dans Λ 2 ([, T ]) et il existe ϕ Λ 2 ([, T ]) tel que [ T ] E ϕ n s ϕ s 2 ds. Par suite ξ = c + T ϕ t, db t. b) H est dense dans L 2 (Ω, F T, P) : Soit ϕ L 2 ([, T ], R d ), on pose X = t ϕ s db s 1 2 ϕ s 2 ds, ε t = exp(x t ). En appliquant la formule d Itô au processus X t et à la fonction Φ(x) = exp(x) on obtient ε T = 1 + = 1 + De plus on a T T exp(x s ) ( 1 2 ϕ s 2) ds + exp(x s )ϕ s db s. [ T ] E ε t ϕ t 2 dt = T T T exp(x s )ϕ s db s ϕ t 2 E [ ε t 2] dt T ( ) = ϕ t 2 exp ϕ s 2 ds dt < + car ϕ L 2 ([, T ], R d ) T r(ϕ s ϕ s) exp(x s ) ds

32 32 CHAPITRE 2. RAPPELS DE CALCUL STOCHASTIQUE et donc ε T H. Pour ϕ L 2 ([, T ]; R d ), nous notons maintenant ε(ϕ) T la fonction ε T définie précédemment pour rendre explicite la dépendance par rapport à la fonction ϕ choisie. Nous allons montrer que pour Z L 2 (Ω, F T, P), Ceci terminera la preuve. Or E [Zε(ϕ) T ] =, ϕ L 2 ([, T ], R d ) Z =. [ ( T )] E [Zε(ϕ) T ] = c ρ E Z exp ϕ s db s. En choisissant ρ = n λ i 1I ]ti 1 ;t i ](t) où i, λ i R d, = t < t 1 < < t n T, nous avons : i=1 E [ Z exp ( λ 1, B t1 + λ 2, B t2 B t1 + + λ n, B tn B tn 1 )] =, et quitte à changer les notations, on a µ 1,..., µ n R d, < t 1 < t 2 < < t n T, E [Z exp (i µ 1, B t1 + i µ 2, B t2 + + i µ n, B tn )] =. Pour simplifier les notations, posons µ = µ 1. µ n et Y = Nous avons E [ Ze i<µ,y >] =, µ (R d ) n. Nous allons montrer que E [Z Y ] =. Il suffit pour cela de montrer que pour toute fonction f C ((R d ) n ), E [f(y )Z] = et, par densité, il suffit de le montrer pour les fonctions f étant des transformées de Fourier de fonctions de L 1 ((R d ) n ). Soit donc f(x) = e i<x,t> g(t) dt R dn on a alors B t1. B tn. [ ] E [f(y )Z] = E Ze i<y,t> g(t) dt R dn = g(t)e [ Ze i<y,t>] dt R dn =

33 2.7. THÉORÈME DE REPRÉSENTATION DES MARTINGALES 33 Ainsi, n N, t 1 < t 2 < < t n T Le résultat suit. E [Z B t1,..., B tn ] =. Corollaire 2.2. Soit T > et ξ L 2 (Ω, F T, P ). Alors il existe un unique ϕ Λ 2 ([, T ]) tel que ξ = E [ξ] + T ϕ s db s. Exercice Soit T > et ξ L p (Ω, F T, P ) où p > 1. Montrer qu il existe un unique ϕ tel que [ ( T ) p/2 ] T E ϕ t 2 dt < +, et ξ = E [ξ] + ϕ s db s.

34 34 CHAPITRE 2. RAPPELS DE CALCUL STOCHASTIQUE

35 Chapitre 3 Equations différentielles stochastiques 3.1 Introduction Le but de ce chapitre est d étudier les équations différentielles stochastiques de la forme : X t = x + f(s, X s ) ds + g(s, X s ) db s (3.1) où {B t ; t } est un mouvement brownien k-dimensionnel. Le coefficient f(t, X t ) de dt est appelé dérive et le coefficient g(t, X t ) de db t est appelé terme de diffusion. Nous appellerons solution sur [, T ] tout processus d-dimensionnel {X t ; t } Λ 2 ([, T ]) qui satisfait P p.s., T ainsi que l équation (3.1) P p.s. f(s, X s ) ds < et E[ g(s, X s ) 2 ] ds < + Remarque 3.1. Il est important de noter que, généralement, on utilise une définition plus faible de solution en imposant seulement sur g P p.s., T g(s, X s ) 2 ds < +. Toutefois, la définition donnée ci-dessus sera suffisante pour ce cours. 35

36 36 CHAPITRE 3. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES Les fonctions f, g sont supposées vérifier les conditions de Lipschitz suivantes (ces hypothèses ne sont pas minimales). Il existe deux constantes M, K telles que x, y R d f(t, x) + g(t, x) M(1 + x ) (3.2) f(t, x) f(t, y) + g(t, x) g(t, y) K x y. (3.3) 3.2 Estimations préliminaires Lemme 3.2. (Lemme de Gronwall) Soit f une application localement intégrable de R + dans R, a et b deux applications croissantes et non négatives telles que t T Alors on a t [; T ], f(t) a(t) + b(t) f(t) a(t)e b(t)t. f(s) ds. Proposition 3.3. Supposons que le couple de fonctions (f, g) vérifie la condition (3.2), que U Λ 2 ([, T ]) et que le processus X vérifie X t = U + f(s, U s ) ds + g(s, U s ) db s. Alors X Λ 2 ([, T ]) il existe une constante C = C(T, M) telle que pour t T on ait E [ sup X t 2] C(1 + E[ sup U t 2 ]). t [,T ] t [,T ] Preuve : Appliquons la formule d Itô au processus X et à la fonction Φ(x) = x 2, puis en utilisant l inégalité ab a 2 /2 + b 2 /2, on a : X s 2 = U s U 2 + 2M s X u, f(u, U u ) du + 2 (1 + MT + 2M 2 T ) sup +2 sup t [,s] s X u (1 + U u ) du + 2 sup t [,s] t [,T ] X u, g(u, U u ) db u X u, g(u, U u ) db u + s T r(gg )(u, U u ) du X u, g(u, U u ) db u + M 2 U t 2 + (M + 2M 2 )T + (2M)T sup X t 2 t [,s] s (1 + U u ) 2 du

37 3.3. EXISTENCE ET UNICITÉ DE LA SOLUTION 37 En prenant l espérance et en utilisant les inégalités de Burkholder-Davies-Gundy, on obtient : [ E sup t [,s] X u, g(u, U u ) db u ] [( s CE [( s CME ) 1/2 ] X u 2 g(u, U u ) 2 du [( s CME [( s CME [( s CME ) 1/2 ] X u 2 (1 + U u ) 2 du ) 1/2 ] X u 2 (2 + 2 U u 2 ) du ) 1/2 ] 2 X u U u 4 du ) 1/2 ] 2 X u 4 du [ CMT 1/2 + C(2T ) 1/2 E sup t [,s] [( s + CMT 1/2 + CME ] [ X u 2 + C(2T ) 1/2 E sup t [,s] ) 1/2 ] U u 4 du U u 2 ], où la constante C est celle provenant des inégalités BDG. En rassemblant les inégalités précédentes, on en déduit l existence d une constante C (dépendant de M et T ) telle que [ E ] [ sup X u 2 C + CE [,t] Le lemme de Gronwall permet de conclure. ] [ sup X u 2 + CE [,t] sup [,T ] U u 2 ]. 3.3 Existence et unicité de la solution On définit l espace S T des processus progressivement mesurables X sur [, T ] vérifiant [ E sup [,T ] X t 2 ] < +. Théorème 3.4. Sous les hypothèses 3.2 et 3.3, pour toute condition initiale F -mesurable X L 2 (Ω), il existe une unique solution {X t ; t } S T de l EDS (3.1). Preuve :

38 38 CHAPITRE 3. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES 1) Considèrons l application Φ de S T dans lui-même (vu Prop 3.3) définie par U (Λ 2 ) d, Φ(U) t = x + f(s, U s ) ds + g(s, U s ) db s. Une solution de l équation 3.1 est un point fixe de Φ. L existence et l unicité d un point fixe vont résulter du fait que pour tout T >, Φ est strictement contractante sur S T muni de la norme X β = ( E [ sup e βt X t 2]) 1/2 t [,T ] pour β choisi convenablement. Soit U, U S T. On note, on pose U = U U, f t = f(t, U t ) f(t, U t), g t = g(t, U t ) g(t, U t), Φ t = Φ(U) t Φ(U ) t. Il résulte de la formule d Itô vectorielle appliquée au processus d Itô Φ et à la fonction Γ(t, x) = e βt x 2 que pour chaque β R + : e βt Φ t 2 = + + βe βs Φ s 2 ds + 2 e βs T r(g s g s) ds βe βs Φ s 2 ds + 2 e βs K 2 Ūs 2 ds (T β + KT ) sup [,t] e t βs Φ s, f s ds + 2 e βs Φ s, g s db s e βs K Φ s Ūs ds + 2 sup [,t] e βs Φ s 2 + (T K + T K 2 ) sup [,t] s e βr Φ r, g r db r e βs U s sup [,t] s e βr Φ r, g r db r En prenant l espérance, on obtient E [ sup [,t] e βs Φ s 2] (T β + KT )E [ sup + E [ 2 sup [,t] [,t] s e βs Φ s 2] + (T K + T K 2 )E [ sup e βs U s 2] [,t] e ] βr Φ r, g r db r

39 3.3. EXISTENCE ET UNICITÉ DE LA SOLUTION 39 D après les inégalités de Burkholder-Davies-Gundy, on a E [ sup [,t] s Finalement, on obtient e ] [( βr Φ r, g r db r CE e 2βr Φ r 2 g r 2 dr ) 1/2] E [ sup [,t] ce qui est équivalent à CE [( e 2βr Φ r 2 K 2 U r 2 dr ) 1/2] Ct 1/2 KE [ sup [,t] Ct 1/2 K/2E [ sup [,t] e βs/2 Φ s sup e βs/2 U s ] [,t] e βs Φ s 2] + Ct 1/2 K/2E [ sup e βs U s 2] [,t] e βs Φ s 2] (T β + KT + CT 1/2 K/2)E [ sup e βs Φ s 2] [,t] + (T K + T K 2 + CT 1/2 K/2)E [ sup e βs U s 2], [,t] E [ sup e βs Φ s 2] T K + T K2 + CT 1/2 K/2 [,t] 1 (T β + KT + CT 1/2 K/2) E[ sup e βs U s 2]. [,t] Fixons T > quelconque. Il est clair que l on peut choisir β R tel que le terme T K+T K2 +CT 1/2 K/2 1 (T β+kt +CT 1/2 K/2) soit strictement compris entre et 1. Ceci assure alors que Φ est une contraction. L existence et l unicité résultent alors du théorème du point fixe. En fait, en choisissant un autre espace, on peut montrer l existence et l unicité avec de moindres calculs. On peut notamment se passer des inégalités de Burkholder-Davies-Gundy. Néanmoins, la convergence que l on a obtenue permet d obtenir des estimations fortes sur le processus (en particulier, on contrôle son sup). A l aide de temps d arrêts, on peut étendre l existence et l unicité des solutions pour des coefficients f, g satisfaisant seulement des hypothèses de Lipschitz locales { r >, Kr >, x, y B(; r), t, f(t, x) f(t, y) + g(t, x) g(t, y) C r x y On a montré que si X et X, définis sur le même espace de probabilité (i.e. par rapport au même mouvement brownien), sont solutions de la même EDS alors ils ont mêmes trajectoires. Ceci est appelé unicité trajectorielle. En utilisant ce résultat sur l espace canonique des trajectoires, on peux montrer le résultat suivant d unicité en loi des solutions des EDS :

40 4 CHAPITRE 3. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES Théorème 3.5. Soient (Ω, F, P) et (Ω, F, P ) deux espaces de probabilité sur lesquels sont définis deux mouvements browniens B t et B t et deux variables aléatoires de même loi H et H. Supposons que les hypothèses du théorème 3.4 soient vérifées pour chacune des deux conditions initiales. Alors la solution X sur (Ω, F, P) et la solution X sur (Ω, F, P ) de l EDS (3.1) ont même loi trajectorielle. Exercice 3.1. (Processus d Ornstein-Uhlenbeck) On considère l EDS suivante en dimension un. { dxt = σdb t cx t dt X = H indépendant de (B t ) t (3.4) Montrer que l on a X t = He ct + σe ct e cs db s. L Èquation (3.4) porte le nom d équation de Langevin et X est le processus d Ornstein-Uhlenbeck. Exercice 3.2. (Processus de Black et Scholes) On considère l EDS suivante : { dxt = X t (σdb t + cdt) X = H (indépendant de (B t ) t ). (3.5) Montrer que X t = He σbt 1 2 σ2 t+ct. 3.4 Dépendance par rapport aux conditions initiales Définissons maintenant pour (t, x) R + R d, {Xs x,t, s } comme étant la solution de l EDS suivante qui part du point x au temps t : X x,t s = x + s t f(r, X x,t r ) dr + s t g(r, X x,t r ) db r. En modifiant légèrement la preuve du théorème 3.4, on peut montrer le résultat suivant de dépendance par rapport au conditions initiales : Proposition 3.6. Supposons que f et g vérifient les conditions (3.2) et (3.3). Pour chaque T > et pour p 2, il existe une constante c(p, T, K) telle que [ ] E Xs x,t X x,t s p c(p, T, K)(1 + x p + x p )( t t p/2 + s s p/2 + x x p )

41 3.5. PROPRIÉTÉ DE MARKOV DES SOLUTIONS 41 On en déduit que, pour chaque (t, x), les trajectoires du processus X t,x sont continues (en fait hölderiennes pour un exposant de Hölder convenablement choisi). On peut le démontrer à l aide du critère suivant : Théorème 3.7. Soit { Z v ; v [; a] k} un processus à valeurs dans un espace de Banach pour lequel il existe trois constantes strictement positives γ, c, ε telle que E [ Z v Z u γ ] c v u k+ε, u, v [; a] k. { } Alors il existe un processus Zv ; v [; a] k tel que i) Z est une modification de Z [( ) ii) E sup Z u Z γ ] v v u <, u v [ [ α pour tout α ; ε, ce qui implique en particulier que les trajectoires de Z sont α-hölderiennes. γ Mais le critère précédent nous donne un résultat plus fort : il permet également de montrer que toute solution de l EDS (3.1) admet une modification qui soit continue (et même hölderienne) par rapport au conditions initiales, c est-à-dire telle que, presque sûrement, l application (t, x, s) X x,t s soit continue. On choisira toujours par la suite une telle modification pour la solution d une EDS. 3.5 Propriété de Markov des solutions Nous supposons, dans cette section, que les coefficients f, g ne dépendent pas de t. Pour une condition initiale F t -mesurable H L 2 (Ω) On note X H,t la solution de l équation et X x,t = H si s < t. s t, X x,t s = H + s f(x x,t r ) dr + s g(xr x,t ) db r Proposition 3.8. On a P presque sûrement pour tout t s u. X x,t u = X Xx,t s,s u

42 42 CHAPITRE 3. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES Preuve : Remarquons que u t, X x,t u = x + u t f(x x,t r ) dr + u t g(x x,s r ) db r. En particulier, on a : u s t, X x,t u = X x,t s + u s f(x x,t r ) dr + u s g(x x,s r ) db r. D autre part, le processus X Xx,t s,s est solution de l EDS u s t, X Xx,t s,s u = X x,t s + u f(x Xx,t s,s s r ) dr + u g(x Xx,t s,s s r ) db r. Comme les processus X Xx,t s,s et X x,t sont solutions de la même EDS, on en déduit que, presque sûrement, ces 2 processus sont égaux. Notons B b (R d ) l ensemble des fonctions boréliennes bornées sur R d. Notons P t l opérateur défini sur B b (R d ) par P t f(x) = E[f(X x, t )]. Proposition 3.9. Pour toute f B b (R d ), on a P ps On dit que X est un processus de Markov. E [ f(x x, t+u) F u ] = Pt f(x x, u ). Preuve : Pour la preuve, nous utiliserons le lemme suivant Lemme 3.1. Soit B une sous-tribu de F. Si g : R k Ω R est mesurable et E [g(x, ω) B] = h(x, ω), alors pour toute variable aléatoire H B-mesurable, on a E [g(h, ω) B] = h(h, ω).

43 3.5. PROPRIÉTÉ DE MARKOV DES SOLUTIONS 43 Utilisons le lemme avec et avec g(x, ω) = f(x x,u t+u(ω)). h(x, ω) = E [f(x x,u t+u(ω)) F u ]. On obtient alors d après le lemme et la proposition 3.8 h(x x, u, ω) = E [ f(x x, t+u) F u ]. Mais X x,u t+u est σ(b r B u, r u)-mesurable, donc est indépendant de F u. Par suite h(x, ω) = E [f(x x,u t+u) F u ] = E [f(x x,u t+u)]. Remarquons alors (vu le théorème 3.5) que (Xr+u) x,u r et (X x, ) r ont même loi et donc que Finalement on obtient ce qui donne le résultat. h(x, ω) = E [ f(x x, t ) ]. E [ f(x x, t+u) F u ] = Pt f(x x, u ) Preuve du lemme : Vu le théorème de la classe monotone, il suffit de montrer le résultat pour les fonctions H étagées. Supposons que H puisse s écrire H = n k=1 λ k1i Ak pour des ensembles (A k ) k disjoints. On a [ ( n ) ] [ n ] E [g(h, ω) B] =E g λ k 1I Ak, ω B = E 1I Ak g (λ k, ω) B = k=1 n 1I Ak E [g (λ k, ω) B] = k=1 ( n ) =h 1I Ak λ k, ω k=1 =h(h, ω) r k=1 n 1I Ak h(λ k, ω) k=1 En fait, on peut démontrer : Proposition La famille d opérateurs (P t ) t définit un semi-groupe conjointement continu de contractions sur C (espace des fonctions continues tendant vers à l infini), c est-à-dire :

44 44 CHAPITRE 3. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES 1. P t f f 2. P t+s f = P t (P s f) 3. P f = f 4. (t, f) P t f est continu de R + C C. 3.6 La formule de Feynman-Kac Nous allons maintenant expliquer le lien entre les EDS du type { dxt = f(x t )dt + g(x t )db t X = x R d et les équations aux dérivées partielles (EDP). Soit ϕ C 1,2 b (R + R d ) l ensemble des fonctions ϕ : R + R d R 1 fois dérivable par rapport à la première variable, 2 fois dérivables par rapport à la deuxième variable, ces dérivées étant continues et bornées. On définit l opérateur A sur C 1,2 b (R + R d ) Aϕ(t, x) = 1 2 d i,j=1 où la matrice d d a(x) est donnée par a(x) = g(x)g (x) et est donc semi-définie positive. a ij (x) 2 ϕ x i x j (t, x) + ( a ij (x) = d i=1 f i (x) ϕ x i (t, x) ) d g ik (x)g jk (x) On va maintenant donner une introduction à une formule due originellement à Feynman et Kac, qui donne une expression probabiliste des solutions de certaines EDP paraboliques linéaires. Fixons un certain temps T >. Soit c, h : [; T ] R d R et Φ : R d R des applications continues qui sont telles qu il existe une constante L > telles que c(t, x) + h(t, x) + Φ(x) L(1 + x ) 2, (t, x) [; T ] R d Considérons alors l EDP parabolique suivante pour t T, x R d k=1 { u t (t, x) + (Au)(t, x) + c(t, x)u(t, x) + h(t, x) = u(t, x) = Φ(x). (3.6)

45 3.6. LA FORMULE DE FEYNMAN-KAC 45 On définit, pour s, t T, X x,t s comme la solution de l EDS partant de x à l instant t : X x,t s = x + s t f(x x,t r ) dr + s t g(x x,t r ) db r. Proposition Soit u C 1,2 ([; T ] R d ) une solution de (3.6) qui satisfait aussi la condition g(x) x u(t, x) L (1 + x ), (t, x) [; T ] R d pour une constante L >. Alors u(t, x) satisfait la formule de Feynman-Kac, c est-à-dire que u(t, x) est donnée par [ u(t, x) = E Φ(X x,t T T )er t T c(s,xs x,t ) ds + t h(s, Xs x,t )e R t s c(r,xx,t r ) dr ds ]. (3.7) Remarque : les hypothèses sont loin d être optimales mais ont été choisies pour pouvoir n utiliser que les résultats présents dans ce cours. Preuve : Appliquons une première fois la formule d Itô à la fonction u(s, x) et au processus d Itô, on obtient X x,t s du(s, X x,t s ) = u s = (s, Xx,t s ( u s + Au )ds + x u(s, Xs x,t ), f(xs x,t ) ds + x u(s, Xs x,t ), g(xs x,t )db s + Au(s, X x,t s )ds ) (s, Xs x,t )ds + x u(s, Xs x,t ), g(s, Xs x,t )db s Puis utilisons la formule d Itô d intégration par parties, on a : ( d u(s, Xs x,t )e R s t c(r,xx,t r ) dr En utilisant (3.6), on obtient : ( d u(s, Xs x,t )e R s t c(r,xx,t r ) dr ) ) = u(s, Xs x,t )d (e R s = u(s, X x,t s t c(r,xx,t r )c(s, X x,t )e R s s ) dr ( +e R s t c(r,xx,t r ) dr u s + Lu +e R s t c(r,xx,t r = h(s, Xs x,t )e R s ) + e R s t c(r,xx,t r ) dr ds ) t c(r,xx,t r (s, Xs x,t )ds ) dr x u(s, X x,t ), g(s, Xs x,t )db s t c(r,xx,t r s ) dr + e R s t c(r,xx,t r ) dr du(s, X x,t s ) ) dr x u(s, X x,t ), g(s, Xs x,t )db s, s

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Mesures gaussiennes et espaces de Fock

Mesures gaussiennes et espaces de Fock Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Ecole Nationale de la Statistique et de l Administration Economique Théorie de la Mesure et Intégration Xavier MARY 2 Table des matières I Théorie de la mesure 11 1 Algèbres et tribus de parties d un ensemble

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Équation de Langevin avec petites perturbations browniennes ou

Équation de Langevin avec petites perturbations browniennes ou Équation de Langevin avec petites perturbations browniennes ou alpha-stables Richard Eon sous la direction de Mihai Gradinaru Institut de Recherche Mathématique de Rennes Journées de probabilités 215,

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours MSUR T INTÉGRATION N UN DIMNSION Notes de cours André Giroux Département de Mathématiques et Statistique Université de Montréal Mai 2004 Table des matières 1 INTRODUCTION 2 1.1 xercices.............................

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Commun à tous les candidats

Commun à tous les candidats EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Les mathématiques de la finance Université d été de Sourdun Olivier Bardou olivier.bardou@gdfsuez.com 28 août 2012 De quoi allons nous parler? des principales hypothèses de modélisation des marchés, des

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Université Pierre & Marie Curie (Paris 6) Licence de Mathématiques L3 UE LM364 Intégration 1 & UE LM365 Intégration 2 Année 2010 11 Théorie de la Mesure et Intégration Responsable des cours : Amaury LAMBERT

Plus en détail

La mesure de Lebesgue sur la droite réelle

La mesure de Lebesgue sur la droite réelle Chapitre 1 La mesure de Lebesgue sur la droite réelle 1.1 Ensemble mesurable au sens de Lebesgue 1.1.1 Mesure extérieure Définition 1.1.1. Un intervalle est une partie convexe de R. L ensemble vide et

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

Calcul Stochastique pour la finance. Romuald ELIE

Calcul Stochastique pour la finance. Romuald ELIE Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

EXERCICE 4 (7 points ) (Commun à tous les candidats)

EXERCICE 4 (7 points ) (Commun à tous les candidats) EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

Intégrale de Lebesgue

Intégrale de Lebesgue Intégrale de Lebesgue L3 Mathématiques Jean-Christophe Breton Université de Rennes 1 Septembre Décembre 2014 version du 2/12/14 Table des matières 1 Tribus (σ-algèbres) et mesures 1 1.1 Rappels ensemblistes..............................

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Chapitre 7 : Intégration sur un intervalle quelconque

Chapitre 7 : Intégration sur un intervalle quelconque Universités Paris 6 et Paris 7 M1 MEEF Analyse (UE 3) 2013-2014 Chapitre 7 : Intégration sur un intervalle quelconque 1 Fonctions intégrables Définition 1 Soit I R un intervalle et soit f : I R + une fonction

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail

Modélisation de séries financières par un modèle multifractal. Céline Azizieh

Modélisation de séries financières par un modèle multifractal. Céline Azizieh Modélisation de séries financières par un modèle multifractal Céline Azizieh Mémoire présenté à l Université Libre de Bruxelles en vue d obtenir le diplôme d actuaire Supervision: W. Breymann (RiskLab,

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Planche n o 22. Fonctions de plusieurs variables. Corrigé Planche n o Fonctions de plusieurs variables Corrigé n o : f est définie sur R \ {, } Pour, f, = Quand tend vers, le couple, tend vers le couple, et f, tend vers Donc, si f a une limite réelle en, cette

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

Chapitre VI Fonctions de plusieurs variables

Chapitre VI Fonctions de plusieurs variables Chapitre VI Fonctions de plusieurs variables 6. 1 Fonctions différentiables de R 2 dans R. 6. 1. 1 Définition de la différentiabilité Nous introduisons la différentiabilité sous l angle des développements

Plus en détail

Suites numériques 4. 1 Autres recettes pour calculer les limites

Suites numériques 4. 1 Autres recettes pour calculer les limites Suites numériques 4 1 Autres recettes pour calculer les limites La propriété suivante permet de calculer certaines limites comme on verra dans les exemples qui suivent. Propriété 1. Si u n l et fx) est

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

Intégration sur des espaces produits

Intégration sur des espaces produits Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option

Plus en détail

Approximations variationelles des EDP Notes du Cours de M2

Approximations variationelles des EDP Notes du Cours de M2 Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie

Plus en détail

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples 45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et

Plus en détail

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc Cours de Calcul stochastique Master 2IF EVRY Monique Jeanblanc Septembre 26 2 Contents 1 Généralités 7 1.1 Tribu............................................... 7 1.1.1 Définition d une tribu.................................

Plus en détail

RO04/TI07 - Optimisation non-linéaire

RO04/TI07 - Optimisation non-linéaire RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 I Motivations et notions fondamentales 4 I1 Motivations 5 I2 Formes quadratiques 13 I3 Rappels

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

Fonctions de plusieurs variables. Sébastien Tordeux

Fonctions de plusieurs variables. Sébastien Tordeux Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................

Plus en détail

Problème 1 : applications du plan affine

Problème 1 : applications du plan affine Problème 1 : applications du plan affine Notations On désigne par GL 2 (R) l ensemble des matrices 2 2 inversibles à coefficients réels. Soit un plan affine P muni d un repère (O, I, J). Les coordonnées

Plus en détail

Construction de l'intégrale de Lebesgue

Construction de l'intégrale de Lebesgue Université d'artois Faculté des ciences Jean Perrin Mesure et Intégration (Licence 3 Mathématiques-Informatique) Daniel Li Construction de l'intégrale de Lebesgue 10 février 2011 La construction de l'intégrale

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Cours de mathématiques

Cours de mathématiques DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

Module 7: Chaînes de Markov à temps continu

Module 7: Chaînes de Markov à temps continu Module 7: Chaînes de Markov à temps continu Patrick Thiran 1 Introduction aux chaînes de Markov à temps continu 1.1 (Première) définition Ce module est consacré aux processus à temps continu {X(t), t R

Plus en détail

Suites numériques 3. 1 Convergence et limite d une suite

Suites numériques 3. 1 Convergence et limite d une suite Suites numériques 3 1 Convergence et limite d une suite Nous savons que les termes de certaines suites s approchent de plus en plus d une certaine valeur quand n augmente : par exemple, les nombres u n

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Mesures et Intégration

Mesures et Intégration Mesures et Intégration Marc Troyanov - EPFL - Octobre 2005 30 avril 2008 Ce document contient les notes du cours de Mesure et Intégration enseigné à l EPFL par Marc Troyanov, version 2005-2006. Table des

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

Équations non linéaires

Équations non linéaires Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail