Equations différentielles stochastiques et application à la simulation moléculaire Florian Bouguet Ecole Normale Supérieure de Cachan - Antenne de Bretagne Stage encadré par Frédéric Legoll Ecole des Ponts ParisTech 1
Table des matières 1 Intégration stochastique 3 1.1 Mouvement brownien.................................. 3 1.2 Intégrale d Itô..................................... 4 1.3 Résolution d une EDS................................. 5 2 Cas d une EDS simple 6 2.1 Présentation de l EDS................................. 6 2.2 Résolution de l EDS.................................. 7 2.3 Moment d ordre 1................................... 7 2.4 Moment d ordre 2................................... 8 2.5 Espérance des incréments............................... 8 3 Calcul d une intégrale héritée de la physique 1 3.1 Présentation....................................... 1 3.2 Utilisation des EDS.................................. 1 3.3 Quelques résultats graphiques............................. 11 3.4 A propos de l équation de Fokker-Planck..................... 16 2
Introduction Les équations différentielles stochastiques (ou EDS) sont la généralisation des équations différentielles ordinaires (EDO), auxquelles on a rajouté un terme de bruit : EDO : dx t = b(t, X t )dt EDS : dx t = b(t, X t )dt + σ(t, X t )db t db t sera défini rigoureusement plus loin dans l exposé ; il s agit du terme de bruit. Dans tout l exposé, nous nous limiterons à la dimension 1, mais le concept d EDS peut-être facilement généralisé à la dimension d > 1. Le bruit est un terme aléatoire interférant dans l équation différentielle. Un excellent exemple en est la température : celle-ci représente l agitation dans la matière, les collisions entre les atomes. Ces collisions sont innombrables et aléatoires, et pour représenter ce phénomène on utilise un mouvement brownien. Il s agit d une notion mathématique très importante, que nous allons présenter dans la prochaine partie. 1 Intégration stochastique 1.1 Mouvement brownien Le mouvement brownien est la description mathématique de la trajectoire aléatoire d une particule dans un fluide, c est à dire soumise à l échelle atomique à des chocs avec d autres particules. Cette description ne peut donc se faire que de manière probabiliste. Le premier à l avoir mis en évidence est le botaniste Robert Brown en 1827. Il a ensuite été défini rigoureusement par Louis Bachelier en 19. De grands scientifiques ont travaillé dessus au XX ème siècle, comme Paley, Zygmund, Wiener ou encore Einstein. Il possède de nombreuses propriétés intéressantes, et sert notamment à poser et résoudre des EDS, qui sont importantes dans de nombreux domaines : physique, biologie, écologie, finance... Définition 1 (Processus aléatoire). Un processus aléatoire est une fonction réelle à valeurs aléatoires. C est-à-dire, si (Ω, A, P ) est un espace de probabilités, B : Ω R R On notera B t = B(ω, t) pour tous les processus aléatoires. 3
Définition 2 (Mouvement brownien). Considérons B : Ω R + R un processus aléatoire. B est appelé mouvement brownien si B est continu p.s. B = ( ) ) t 1, t 2 R + B t2 B t1 (B t2 t 1 N (, t 2 t 1 ) ) < t < t (B t B t {B s } s t p.s. signifie presque sûrement, c est-à-dire avec une probabilité de 1. N (, t 2 t 1 ) est la loi gaussienne d espérance et de variance t 2 t 1. le symbole signifie indépendant. Définition 3 (Processus adapté). Soit H un processus aléatoire. H est dit adapté à B si t H t {B t B t } t t Cette notion de processus aléatoire adapté va nous permettre de définir l intégrale d Itô, qui est l homologue probabiliste de l intégrale de Lebesgue. On définit cette intégrale de la même manière que celle de Lebesgue, pour des processus adaptés en escalier puis on généralise à des processus adaptés quelconques. 1.2 Intégrale d Itô Définition 4 (Intégrale d Itô). On considère donc B un mouvement brownien et H un processus adapté. L intégrale d Itô de H est T H s db s = lim n k= n 1 H tk (B tk+1 B tk ) avec t k = kt n Théorème 1. Soit H un processus adapté et T >. T Si H2 s ds < + p.s. Alors t H sdb s est adapté et continu sur [, T ] Théorème 2. Soient H un processus adapté et T >. Si { T ( H2 s ds < + p.s. ) T E H2 s ds < + Alors ( T E E ) H sdb s = [ ( ) ] T 2 H sdb s = E ( ) T H2 s ds Ces deux théorèmes sont extrêmements importants. Le premier assure un comportement régulier de l intégrale, tandis que le second permet de calculer l espérance d une intégrale d Itô et celle de son carré en se ramenant au calcul d une intégrale de Lebesgue. 4
Définition 5 (Processus d Itô). Soit X un processus aléatoire. X est dit processus d Itô si t X t = X + X o {B t } t H et K sont adaptés à B t H2 s ds < + p.s. H s db s + et K s ds K s ds < + p.s. On a unicité de la décomposition d Itô, c est à dire unicité des processus H et K. On peut aussi utiliser la formulation dite différentielle : dx t = H t db t + K t dt X t = X + H s db s + K s ds Théorème 3 (Formule d Itô). Soient dx t = H t db t +K t dt un processus d Itô et f : R + R R Si f est C 1,2 Alors f t t f(t, X t ) = f(, X ) + s (s, X f s)ds + x (s, X s)dx s + 1 2 f 2 x 2 (s, X s)hs 2 ds Le terme quadratique est très important, puisqu il s agit d un terme n apparaissant pas lorsque l on travaille avec des intégrales de Lebesgue déterministes. Corollaire 1. Soient dx t = H X t db t + K X t dt et dy t = H Y t db t + K Y t dt deux processus d Itô. On a alors la formule d intégration par parties : t X t Y t = X Y + X s dy s + Y s dx s + H X s H Y s ds Ce théorème et son corollaire sont des outils de calcul puissants lorsque l on cherche à résoudre des EDS... 1.3 Résolution d une EDS Théorème 4 (Existence et unicité). Considérons l EDS suivante : Si Alors!X processus d Itô vérifiant dx t = σ(t, X t )db t + b(t, X t )dt X B K > vérifiant t [, T ] et x, x R : σ(t, x ) + b(t, x ) K(1 + x ) σ(t, x) σ(t, x ) + b(t, x) b(t, x ) K x x t [, T ] X t = X + σ(s, X s )db s + b(s, X s )ds 5
Ce théorème est l équivalent stochastique du théorème de Cauchy-Lipschitz déterministe (et se démontre lui aussi grâce au théorème du point fixe). Théorème 5. Considérons l EDS suivante : dx t = σ(t, X t )db t + b(t, X t )dt Soit X l unique processus d Itô solution de l EDS. Si { t [, T ] Xt a pour densité x ψ(t, x) ψ, σ et b sont respectivement C 1,2, C,2 et C,1 Alors ψ est solution de l équation aux dérivées partielles suivante : ψ t = 1 2 (σ 2 ψ) 2 x 2 (bψ) x Cette équation est appelée équation de Fokker-Planck de l équation différentielle stochastique. Nous verrons dans la dernière partie en quoi il peut être intéressant de chercher à la résoudre... 2 Cas d une EDS simple 2.1 Présentation de l EDS Considérons l EDS suivante : dx t = db t + ax t dt ( Cette équation a pour unique solution X t = e at X + ) t e as db s ; on l appelle processus d Ornstein-Ulhenbeck. Après avoir montré comment résoudre cette EDS, nous allons calculer les moments d ordre 1 et 2, ainsi que l espérance des incréments du processus d Ornstein-Ulhenbeck, c est-à-dire E(X t ),E(X 2 t ) et E(X t X t+t ) à t fixé. Nous ferons ceci de deux manières : en utilisant l EDS et en utilisant la solution. Ceci constitue une excellente application des théorèmes précédemment énoncés. D ailleurs, il s agit de l une des seules EDS que l on peut résoudre sans avoir à utiliser de méthodes numériques. 6
2.2 Résolution de l EDS dx t = db t + ax t dt Nous allons utiliser la méthode de variation de la constante : X t = U t e at dx t = (du t + au t ) e at = db t + ax t dt du t e at = db t En intégrant sur [, t], on obtient U t = U + e as db s = X + ( e as db s Donc X t = e at X + ) t e as db s qui est bien le processus d Ornstein-Ulhenbeck. 2.3 Moment d ordre 1 Moment d ordre 1 par l EDS : Supposons ( que X soit de densité f intégrable. Par le théorème de Fubini, on obtient alors ) t que E X sds = E (X s) ds. Donc ( E(X t ) = E(X ) + ae = E(X ) + a Donc t E(X t ) vérifie l équation différentielle u = au Donc E(X t ) = E(X )e at ) X s ds + E(B t ) E (X s ) ds Moment( d ordre 1 par la solution : X t = e at X + e as db s ). ( )) Donc E(X t ) = e (E(X at t ) + E e as db s ( t a = E ( ) t Donc E (e as ) 2 ds < + ( ) t Donc E e as db s = Donc E(X t ) = E(X )e at a E ( e 2as ds e 2as ds ) = t < + ) = 1 e 2at 2a < + 7
2.4 Moment d ordre 2 Moment d ordre 2 par l EDS : Par la formule d intégration par parties on obtient : X 2 t = X 2 + 2 X sdx s + ds = X2 + 2 X sdb s + 2a X2 s ds + t Y t = Y + 2 X sdb s + 2a Y sds + t en posant Y t = Xt 2 ) X est adapté et on a vu que E ( X2 s ds Donc E(Y t ) = E(Y ) + t + 2a E(Y s)ds < + donc E ( X sdb s ) =. Donc t E(Y t ) = E(Xt 2 ) vérifie l équation différentielle u = 1 + 2au. u(t) = 1 2a en est une solution particulière. Donc E(Xt 2 ) = ( ) E(X 2 ) + 1 2a e 2at 1 2a Moment( d ordre 2 par la solution : X t = e at X + e as db s ). ( ) Xt 2 = e (X 2at 2 t 2 + e as db s + 2X e as db s ). X ) t e as db s donc E (X e as db s = E(X )E [ ( ) X 2 t 2 + e as db s ]. Donc E(Xt 2 ) = e 2at E ( ) t E (e as ) 2 ds < + [ ( ) ] t 2 e as db s = E Donc E ( e 2as ds Donc E(Xt 2 ) = ( ) E(X 2 ) + 1 2a e 2at 1 2a 2.5 Espérance des incréments ) = 1 e 2at 2a Espérance des incréments par l EDS : dx T = db T + ax T dt donc dx t+t = db t+t + ax t+t dt Donc X t dx t+t = X t db t+t + ax t X t+t dt ( e as db s ) = On intègre alors par rapport à T (X t est ici un scalaire indépendant de T ) : Donc X t X t+t = X t (B T +t B t ) + a T X tx t+s ds E(B T +t B t ) = E(B T ) = Donc E(Z T ) = E(Z ) + a T E(Z s)ds en posant Z T = X t X t+t 8
Donc T E(Z T ) = E(X t X t+t ) vérifie l équation différentielle u (T ) = au(t ). Donc E(X t X t+t ) = e at E(X 2 t ) Espérance des incréments par la solution : Z T = e 2at+aT [ ] t E [X e as db s E ] t+t X 2 + 2X e as db s [ ( ) ( )] t+t +e 2at+aT e as db s e as db s = e 2at+aT [ [( e as db s ) ( +T Donc E(X 2 t ) = e at e 2at E ] t+t X 2 + 2X e as db s + 2X e as db s [ ( ) 2 ( ) ( )] t+t +e 2at+aT e as db s + e as db s e as db s [ +T = E X t e as db s ] = )] e as db t s = E [ X 2 + t [ ] [ t ] t+t e as db s E e as db t s = ( e as db s ) 2 ]. On reconnait alors E(X 2 t ) (voir section 2.4) : Donc E(X t X t+t ) = e at E(X 2 t ) t 9
3 Calcul d une intégrale héritée de la physique 3.1 Présentation En dernière partie de cet exposé, nous allons nous intéresser à un problème récurrent hérité de la physique. Nous possédons maintenant toutes les bases qui nous permettront de traiter ce problème de manière numérique. Des problèmes issus de la physique demandent donc de calculer A(x)e βv (x) dx R < A >= d e R βv (x) dx d A : R d R est une fonction quelconque appelée observable. V : R d R représente l énergie potentielle du système à l état x. x R d est l ensemble des coordonnées des atomes composant le système. β est l inverse de la température (donc β > ). En physique statistique, on considère qu un système ne minimise pas toujours son énergie potentielle : tous les états sont accessibles, mais avec différentes probabilités. Cette loi de probabilité suit la densité suivante : (x) e βv ϕ(x ) = e R βv (x) dx d On remarque que V (x 1 ) < V (x 2 ) ϕ(x 1 ) > ϕ(x 2 ) c est-à-dire que les minima d énergie potentielle ont plus de probabilité d être atteints. Malheureusement, de telles intégrales sont concrètement difficiles à calculer du fait de la dimension. Il n est pas rare de voir d de l ordre de 1 5 ou 1 6. En effet, si on se fixe une précision ε, cela impose un nombre de points minimal N ε à calculer par dimension, et donc un coût total supérieur à N d ε... 3.2 Utilisation des EDS Considérons l EDS suivante : On pose S t = 1 t A(X s)ds dx t = V (X t )dt + 2 β db t Proposition 1. Si V est globalement lipschitz Alors pour presque tout X, S t converge presque sûrement vers < A > quand t + L équation de Fokker-Planck de cette EDS est : ψ t = x (ψv ) + 1 2 ψ β x 2 1
On remarque que ϕ : x e βv (x ) est une solution stationnaire de l équation de Fokker- R e βv (x) dx Planck ; il s agit de la fonction de répartition théorique du système. Ceci permet de faire le lien entre la résolution de l EDS et le calcul de l intégrale... Pour résoudre cette EDS, nous allons devoir la discrétiser et utiliser des méthodes numériques. On fixe un pas de temps t > X (n+1) t X n t = (n+1) t V (X n t s )ds + 2 β (B (n+1) t B n t ) B (n+1) t B n t N (, t) tn (, 1) Jusqu ici tout est exact ; on peut alors procéder à une approximation en créant une suite (X n ) telle que : X n+1 = X n tv 2 t (X n ) + β G n où (G n ) est une suite i.i.d suivant N (, 1) On pose alors S N = 1 N N k=1 A(X k), qui est une version approchée de S t définie précédemment. On va donc étudier la convergence de (S N ) quand N +... 3.3 Quelques résultats graphiques Evolution de S N en fonction de N V (x) = x 2 A(x) = x t =.1 β = 1 < A >= Dans le cas présent, on peut calculer directement < A >=. On remarque alors que (S N ) converge vers < A > quand N +. 11
Evolution de S N en fonction de N V (x) = x 2 A(x) = x 2 t =.1 β = 1 < A >= 1 2 Ici on peut calculer < A >= 1/2. On remarque donc que S N converge, mais on peut voir un biais (ou erreur systématique, comme nous le verrons plus loin), c est-à-dire que les paramètres utilisés ne sont pas assez précis. Nous allons donc voir que ce biais diminue avec t. Pour cela, on va générer un intervalle de confiance de la variable aléatoire S N à N fixé, ceci grâce à la méthode de Monte-Carlo. On commence par générer M fois la variable S N. On notera S (k) N la kème réalisation de S N. On peut alors en faire la moyenne empirique et une approximation de la variance : µ M = 1 M σ M = M k=1 1 M 1 S (k) N M k=1 ( ) 2 S (k) N µ M Y M = M V ar(s N ) (µ M E(S N )) converge en loi vers N (, 1) d après le théorème de la limite centrale. Numériquement, on a donc une probabilité de 95% d avoir E(S N ) [ µ M 1.96 σ MM, µ M + 1.96 σ MM ] 12
Evolution de l intervalle de confiance en fonction du nombre de réalisations V (x) = x 2 A(x) = x t =.1 N = 1 β = 1 < A >= On remarque donc que l intervalle de confiance s affine quand le nombre de réalisations de la variable aléatoire augmente. Evolution de l intervalle de confiance en fonction de t V (x) = x 2 A(x) = x 2 N adapté β = 1 3 réalisations < A >= 1 2 13
Il est à noter qu il existe deux erreurs lorsqu on utilise la méthode de Monte-Carlo : L erreur statistique est due à la réalisation aléatoire : elle est représentée par la taille de l intervalle de confiance. L erreur systématique, ou biais, est due à de mauvais paramètres : elle est représentée par le centrage de l intervalle de confiance. On peut facilement corriger l erreur systématique en choisissant un t plus petit, mais l erreur statistique évolue en 1 M (où M est le nombre de réalisations) et est donc très coûteuse à corriger... Nous allons maintenant regarder l évolution de S N en fonction de β, c est à dire l inverse de la température. Les résultats sont très intéressants en prenant deux fonctions V différentes... On va garder pour le moment A(x) = x, ce qui signifie que S N n est autre que la moyenne de (X n ) n N et S =< A >=. Evolution de S N en fonction de N V (x) = V 1(x) : puit simple 14
On remarque ici que l augmentation de β, c est à dire la diminution de la température, n a pas beaucoup d influence sur la vitesse de convergence de (S N ) ; elle semble simplement converger un peu plus vite. Evolution des X N en fonction de N β =.5 V (x) = V 2(x) : double puit Evolution des X N en fonction de N β = 5 V (x) = V 2(x) : double puit 15
Evolution des X N en fonction de N β = 1 V (x) = V 2(x) : double puit Les trois graphes précédents montrent qu à l inverse du premier cas, l augmentation de β (et donc la diminution de la température) tend à diminuer la vitesse de convergence de (S N ) (qui représente ici la moyenne de Cesàro de (X N )). On peut donc voir que la question de la vitesse de convergence en fonction de β est difficile, et on ne peut pas vraiment en tirer de conclusion. 3.4 A propos de l équation de Fokker-Planck Nous avons donc vu le comportement de (S N ) en fonction de N et de t. On va s intéresser en dernière partie à la résolution de l équation de Fokker-Planck de l EDS. 2 dx t = V (X t ) + β db t Son équation de Fokker-Planck est donc : ψ t = x (ψv ) + 1 2 ψ β x 2 Ici, A n intervient pas, et on pose V (x) = V 2 (x) = (2x 1) 2 (x + 1) 2. où ψ(t, ) est la fonction de répartition de X t 16
On rappelle que ϕ : x e βv (x ) est une solution stationnaire de l équation de Fokker- R e βv (x) dx Planck et est aussi la fonction de répartition théorique du système. On fixe N et t, et on peut tracer la répartition des X N pour un certain nombre de réalisations... Définissons Ω = [ 3, 3]. La fonction de répartition de X N dehors de Ω. Discrétisation de l EDP selon le temps : et ϕ sont à peu près nulles en Ω Ω ψ t g ψ t g ψ t = x (ψv ) + 1 2 ψ β x 2 = g Ω x (ψv ) + 1 β = g ψv 1 Ω β Ω Ω g 2 ψ x 2 g ψ x pour g nulle au bord de Ω Ceci s obtient en fixant ψ( 3) = ψ(3) = (ce qu on appelle conditions de Dirichlet) 17
De la même manière que précédemment, nous obtenons une suite (ψ n ) en discrétisant : 1 g(ψ n+1 ψ n ) = g ψ n+1 V 1 g (ψ n+1 ) t Ω Ω β Ω Discrétisation de l EDP selon l espace : On introduit alors (x i ) i r+1 une partition de Ω et on pose, pour i [[ 1, r ], θ i affine par morceaux telle que θ i (x i 1 ) = θ i (x i+1 ) = et θ i (x i ) = 1. On pose alors g(x) = r i=1 g iθ i (x) et ψ k (x) = r j=1 ψk j θ j(x) On peut alors à nouveau discrétiser i [[ 1, r ] r j=1 [ ] 1 θ i θ j (ψ n+1 j ψj n ) t Ω = r [ On obtient donc une équation matricielle à résoudre : [ B t (U n+1 U n ) = A K ] U n+1 β U k j j=1 = ψk j Ω A i,j = Ω θ i θ jv B i,j = Ω θ iθ j K i,j = Ω θ i θ j θ iθ j ψ n+1 j V 1 ] θ β iθ j(ψ n+1 j ) Ω On se fixe alors des conditions aux limites de Ω : ψ( 3) = ψ(3) = et on fixe ψ = 1 6 1I [ 3,3] 18
Evolution de ψ N N = 2, 5, 2, 1 t = 1 3 β = 3 On remarque que lorsque N augmente, la forme de ψ N s affine pour finir par ressembler à ϕ, qui est la distribution théorique que l on attend en temps long. 19
Evolution de ψ N N = 2, 5, 2, 1 t = 1 3 β = 3 Répartition des X N et tracé de ψ N N = 1 4 t = 1 3 β = 3 Pour N grand, la forme de ψ N est effectivement très proche de celle de ϕ. Résoudre l équation de Fokker-Planck peut donc permettre de trouver la fonction de répartition du système, et donc de calculer S t et < A >. 2
Il est cependant nécéssaire de revenir sur les conditions de Dirichlet imposées à la fonction ψ. Nous avons posé qu elle s annulait en dehors et aux bornes de Ω. Il peut être plus intéressant de rajouter de fonctions de type θ aux bords pour enlever cette restriction et spécifier des conditions sur ψ. Ceci s appelle les conditions de Neumann. Conclusion En conclusion, nous avons vu que pour calculer < A >, un outil majeur est la résolution de l EDS (éventuellement pour cela résoudre l équation de Fokker-Planck associée). En dimension 1, il est généralement plus rapide de résoudre l équation de Fokker-Planck de manière numérique. En dimension d, il est généralement préférable d essayer de résoudre l EDS... 21
Références [1] Eric Cances, Frédéric Legoll, and Gabriel Stoltz. Theoretical and numerical comparison of some sampling methods for molecular dynamics. Mathematical Modelling and Numerical Analysis, 27. [2] Martin Haugh. Simulating stochastic differential equations. 24. [3] Benjamin Jourdain. Notes de cours : Stochastic differential equations and interpretation of parabolic partial differential equations. 26. [4] Davar Khoshnevisan. Probability. American Mathematical Society, 27. 22