Equations différentielles stochastiques et application à la simulation moléculaire

Documents pareils

Probabilités III Introduction à l évaluation d options

Chapitre 2 Le problème de l unicité des solutions

Le modèle de Black et Scholes

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

3. Conditionnement P (B)

Équation de Langevin avec petites perturbations browniennes ou

Calcul Stochastique pour la finance. Romuald ELIE

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

MATHS FINANCIERES. Projet OMEGA

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Résolution d équations non linéaires

3 Approximation de solutions d équations

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Résumé des communications des Intervenants

Espérance conditionnelle

Décomposition de Föllmer-Schweizer. explicite d un passif d assurance vie. au moyen du calcul de Malliavin

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Introduction à l analyse numérique : exemple du cloud computing

Finance, Navier-Stokes, et la calibration

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Continuité d une fonction de plusieurs variables

Introduction au pricing d option en finance

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Commun à tous les candidats

Chapitre 7 : Intégration sur un intervalle quelconque

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Continuité et dérivabilité d une fonction

Moments des variables aléatoires réelles

I. Polynômes de Tchebychev

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Chp. 4. Minimisation d une fonction d une variable

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Programmes des classes préparatoires aux Grandes Ecoles

3. Caractéristiques et fonctions d une v.a.

Approximations variationelles des EDP Notes du Cours de M2

TD1 Signaux, énergie et puissance, signaux aléatoires

ÉVALUATION FORMATIVE. On considère le circuit électrique RC représenté ci-dessous où R et C sont des constantes strictement positives.

TSTI 2D CH X : Exemples de lois à densité 1

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Simulation de variables aléatoires

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Les travaux doivent être remis sous forme papier.

Limite de champ moyen

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v t

BTS Groupement A. Mathématiques Session Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

DYNAMIQUE DE FORMATION DES ÉTOILES

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Sur certaines séries entières particulières

Loi binomiale Lois normales

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc

Continuité en un point

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Génération de scénarios économiques

Analyse en Composantes Principales

Chapitre 1 Cinématique du point matériel

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Construction de l'intégrale de Lebesgue

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Modèles et Méthodes de Réservation

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation

Texte Agrégation limitée par diffusion interne

Méthodes de Simulation

Modélisation et simulation

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Cours Fonctions de deux variables

Première partie. Introduction à la méthodes des différences finies

Travaux dirigés d introduction aux Probabilités

Fonctions de plusieurs variables. Sébastien Tordeux

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Techniques de Lyapunov en contrôle quantique pour le couplage dipolaire et polarisabilité

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Mesures gaussiennes et espaces de Fock

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

OM 1 Outils mathématiques : fonction de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Quantification Scalaire et Prédictive

Etude de fonctions: procédure et exemple

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

Évaluation de la régression bornée

Module d Electricité. 2 ème partie : Electrostatique. Fabrice Sincère (version 3.0.1)

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Image d un intervalle par une fonction continue

Principe de symétrisation pour la construction d un test adaptatif

Intégration et probabilités TD1 Espaces mesurés Corrigé

Introduction. aux équations différentielles. et aux dérivées partielles

CCP PSI Mathématiques 1 : un corrigé

Théorème du point fixe - Théorème de l inversion locale

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Cours d Analyse. Fonctions de plusieurs variables

La fonction exponentielle

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Soutenance de stage Laboratoire des Signaux et Systèmes

Transcription:

Equations différentielles stochastiques et application à la simulation moléculaire Florian Bouguet Ecole Normale Supérieure de Cachan - Antenne de Bretagne Stage encadré par Frédéric Legoll Ecole des Ponts ParisTech 1

Table des matières 1 Intégration stochastique 3 1.1 Mouvement brownien.................................. 3 1.2 Intégrale d Itô..................................... 4 1.3 Résolution d une EDS................................. 5 2 Cas d une EDS simple 6 2.1 Présentation de l EDS................................. 6 2.2 Résolution de l EDS.................................. 7 2.3 Moment d ordre 1................................... 7 2.4 Moment d ordre 2................................... 8 2.5 Espérance des incréments............................... 8 3 Calcul d une intégrale héritée de la physique 1 3.1 Présentation....................................... 1 3.2 Utilisation des EDS.................................. 1 3.3 Quelques résultats graphiques............................. 11 3.4 A propos de l équation de Fokker-Planck..................... 16 2

Introduction Les équations différentielles stochastiques (ou EDS) sont la généralisation des équations différentielles ordinaires (EDO), auxquelles on a rajouté un terme de bruit : EDO : dx t = b(t, X t )dt EDS : dx t = b(t, X t )dt + σ(t, X t )db t db t sera défini rigoureusement plus loin dans l exposé ; il s agit du terme de bruit. Dans tout l exposé, nous nous limiterons à la dimension 1, mais le concept d EDS peut-être facilement généralisé à la dimension d > 1. Le bruit est un terme aléatoire interférant dans l équation différentielle. Un excellent exemple en est la température : celle-ci représente l agitation dans la matière, les collisions entre les atomes. Ces collisions sont innombrables et aléatoires, et pour représenter ce phénomène on utilise un mouvement brownien. Il s agit d une notion mathématique très importante, que nous allons présenter dans la prochaine partie. 1 Intégration stochastique 1.1 Mouvement brownien Le mouvement brownien est la description mathématique de la trajectoire aléatoire d une particule dans un fluide, c est à dire soumise à l échelle atomique à des chocs avec d autres particules. Cette description ne peut donc se faire que de manière probabiliste. Le premier à l avoir mis en évidence est le botaniste Robert Brown en 1827. Il a ensuite été défini rigoureusement par Louis Bachelier en 19. De grands scientifiques ont travaillé dessus au XX ème siècle, comme Paley, Zygmund, Wiener ou encore Einstein. Il possède de nombreuses propriétés intéressantes, et sert notamment à poser et résoudre des EDS, qui sont importantes dans de nombreux domaines : physique, biologie, écologie, finance... Définition 1 (Processus aléatoire). Un processus aléatoire est une fonction réelle à valeurs aléatoires. C est-à-dire, si (Ω, A, P ) est un espace de probabilités, B : Ω R R On notera B t = B(ω, t) pour tous les processus aléatoires. 3

Définition 2 (Mouvement brownien). Considérons B : Ω R + R un processus aléatoire. B est appelé mouvement brownien si B est continu p.s. B = ( ) ) t 1, t 2 R + B t2 B t1 (B t2 t 1 N (, t 2 t 1 ) ) < t < t (B t B t {B s } s t p.s. signifie presque sûrement, c est-à-dire avec une probabilité de 1. N (, t 2 t 1 ) est la loi gaussienne d espérance et de variance t 2 t 1. le symbole signifie indépendant. Définition 3 (Processus adapté). Soit H un processus aléatoire. H est dit adapté à B si t H t {B t B t } t t Cette notion de processus aléatoire adapté va nous permettre de définir l intégrale d Itô, qui est l homologue probabiliste de l intégrale de Lebesgue. On définit cette intégrale de la même manière que celle de Lebesgue, pour des processus adaptés en escalier puis on généralise à des processus adaptés quelconques. 1.2 Intégrale d Itô Définition 4 (Intégrale d Itô). On considère donc B un mouvement brownien et H un processus adapté. L intégrale d Itô de H est T H s db s = lim n k= n 1 H tk (B tk+1 B tk ) avec t k = kt n Théorème 1. Soit H un processus adapté et T >. T Si H2 s ds < + p.s. Alors t H sdb s est adapté et continu sur [, T ] Théorème 2. Soient H un processus adapté et T >. Si { T ( H2 s ds < + p.s. ) T E H2 s ds < + Alors ( T E E ) H sdb s = [ ( ) ] T 2 H sdb s = E ( ) T H2 s ds Ces deux théorèmes sont extrêmements importants. Le premier assure un comportement régulier de l intégrale, tandis que le second permet de calculer l espérance d une intégrale d Itô et celle de son carré en se ramenant au calcul d une intégrale de Lebesgue. 4

Définition 5 (Processus d Itô). Soit X un processus aléatoire. X est dit processus d Itô si t X t = X + X o {B t } t H et K sont adaptés à B t H2 s ds < + p.s. H s db s + et K s ds K s ds < + p.s. On a unicité de la décomposition d Itô, c est à dire unicité des processus H et K. On peut aussi utiliser la formulation dite différentielle : dx t = H t db t + K t dt X t = X + H s db s + K s ds Théorème 3 (Formule d Itô). Soient dx t = H t db t +K t dt un processus d Itô et f : R + R R Si f est C 1,2 Alors f t t f(t, X t ) = f(, X ) + s (s, X f s)ds + x (s, X s)dx s + 1 2 f 2 x 2 (s, X s)hs 2 ds Le terme quadratique est très important, puisqu il s agit d un terme n apparaissant pas lorsque l on travaille avec des intégrales de Lebesgue déterministes. Corollaire 1. Soient dx t = H X t db t + K X t dt et dy t = H Y t db t + K Y t dt deux processus d Itô. On a alors la formule d intégration par parties : t X t Y t = X Y + X s dy s + Y s dx s + H X s H Y s ds Ce théorème et son corollaire sont des outils de calcul puissants lorsque l on cherche à résoudre des EDS... 1.3 Résolution d une EDS Théorème 4 (Existence et unicité). Considérons l EDS suivante : Si Alors!X processus d Itô vérifiant dx t = σ(t, X t )db t + b(t, X t )dt X B K > vérifiant t [, T ] et x, x R : σ(t, x ) + b(t, x ) K(1 + x ) σ(t, x) σ(t, x ) + b(t, x) b(t, x ) K x x t [, T ] X t = X + σ(s, X s )db s + b(s, X s )ds 5

Ce théorème est l équivalent stochastique du théorème de Cauchy-Lipschitz déterministe (et se démontre lui aussi grâce au théorème du point fixe). Théorème 5. Considérons l EDS suivante : dx t = σ(t, X t )db t + b(t, X t )dt Soit X l unique processus d Itô solution de l EDS. Si { t [, T ] Xt a pour densité x ψ(t, x) ψ, σ et b sont respectivement C 1,2, C,2 et C,1 Alors ψ est solution de l équation aux dérivées partielles suivante : ψ t = 1 2 (σ 2 ψ) 2 x 2 (bψ) x Cette équation est appelée équation de Fokker-Planck de l équation différentielle stochastique. Nous verrons dans la dernière partie en quoi il peut être intéressant de chercher à la résoudre... 2 Cas d une EDS simple 2.1 Présentation de l EDS Considérons l EDS suivante : dx t = db t + ax t dt ( Cette équation a pour unique solution X t = e at X + ) t e as db s ; on l appelle processus d Ornstein-Ulhenbeck. Après avoir montré comment résoudre cette EDS, nous allons calculer les moments d ordre 1 et 2, ainsi que l espérance des incréments du processus d Ornstein-Ulhenbeck, c est-à-dire E(X t ),E(X 2 t ) et E(X t X t+t ) à t fixé. Nous ferons ceci de deux manières : en utilisant l EDS et en utilisant la solution. Ceci constitue une excellente application des théorèmes précédemment énoncés. D ailleurs, il s agit de l une des seules EDS que l on peut résoudre sans avoir à utiliser de méthodes numériques. 6

2.2 Résolution de l EDS dx t = db t + ax t dt Nous allons utiliser la méthode de variation de la constante : X t = U t e at dx t = (du t + au t ) e at = db t + ax t dt du t e at = db t En intégrant sur [, t], on obtient U t = U + e as db s = X + ( e as db s Donc X t = e at X + ) t e as db s qui est bien le processus d Ornstein-Ulhenbeck. 2.3 Moment d ordre 1 Moment d ordre 1 par l EDS : Supposons ( que X soit de densité f intégrable. Par le théorème de Fubini, on obtient alors ) t que E X sds = E (X s) ds. Donc ( E(X t ) = E(X ) + ae = E(X ) + a Donc t E(X t ) vérifie l équation différentielle u = au Donc E(X t ) = E(X )e at ) X s ds + E(B t ) E (X s ) ds Moment( d ordre 1 par la solution : X t = e at X + e as db s ). ( )) Donc E(X t ) = e (E(X at t ) + E e as db s ( t a = E ( ) t Donc E (e as ) 2 ds < + ( ) t Donc E e as db s = Donc E(X t ) = E(X )e at a E ( e 2as ds e 2as ds ) = t < + ) = 1 e 2at 2a < + 7

2.4 Moment d ordre 2 Moment d ordre 2 par l EDS : Par la formule d intégration par parties on obtient : X 2 t = X 2 + 2 X sdx s + ds = X2 + 2 X sdb s + 2a X2 s ds + t Y t = Y + 2 X sdb s + 2a Y sds + t en posant Y t = Xt 2 ) X est adapté et on a vu que E ( X2 s ds Donc E(Y t ) = E(Y ) + t + 2a E(Y s)ds < + donc E ( X sdb s ) =. Donc t E(Y t ) = E(Xt 2 ) vérifie l équation différentielle u = 1 + 2au. u(t) = 1 2a en est une solution particulière. Donc E(Xt 2 ) = ( ) E(X 2 ) + 1 2a e 2at 1 2a Moment( d ordre 2 par la solution : X t = e at X + e as db s ). ( ) Xt 2 = e (X 2at 2 t 2 + e as db s + 2X e as db s ). X ) t e as db s donc E (X e as db s = E(X )E [ ( ) X 2 t 2 + e as db s ]. Donc E(Xt 2 ) = e 2at E ( ) t E (e as ) 2 ds < + [ ( ) ] t 2 e as db s = E Donc E ( e 2as ds Donc E(Xt 2 ) = ( ) E(X 2 ) + 1 2a e 2at 1 2a 2.5 Espérance des incréments ) = 1 e 2at 2a Espérance des incréments par l EDS : dx T = db T + ax T dt donc dx t+t = db t+t + ax t+t dt Donc X t dx t+t = X t db t+t + ax t X t+t dt ( e as db s ) = On intègre alors par rapport à T (X t est ici un scalaire indépendant de T ) : Donc X t X t+t = X t (B T +t B t ) + a T X tx t+s ds E(B T +t B t ) = E(B T ) = Donc E(Z T ) = E(Z ) + a T E(Z s)ds en posant Z T = X t X t+t 8

Donc T E(Z T ) = E(X t X t+t ) vérifie l équation différentielle u (T ) = au(t ). Donc E(X t X t+t ) = e at E(X 2 t ) Espérance des incréments par la solution : Z T = e 2at+aT [ ] t E [X e as db s E ] t+t X 2 + 2X e as db s [ ( ) ( )] t+t +e 2at+aT e as db s e as db s = e 2at+aT [ [( e as db s ) ( +T Donc E(X 2 t ) = e at e 2at E ] t+t X 2 + 2X e as db s + 2X e as db s [ ( ) 2 ( ) ( )] t+t +e 2at+aT e as db s + e as db s e as db s [ +T = E X t e as db s ] = )] e as db t s = E [ X 2 + t [ ] [ t ] t+t e as db s E e as db t s = ( e as db s ) 2 ]. On reconnait alors E(X 2 t ) (voir section 2.4) : Donc E(X t X t+t ) = e at E(X 2 t ) t 9

3 Calcul d une intégrale héritée de la physique 3.1 Présentation En dernière partie de cet exposé, nous allons nous intéresser à un problème récurrent hérité de la physique. Nous possédons maintenant toutes les bases qui nous permettront de traiter ce problème de manière numérique. Des problèmes issus de la physique demandent donc de calculer A(x)e βv (x) dx R < A >= d e R βv (x) dx d A : R d R est une fonction quelconque appelée observable. V : R d R représente l énergie potentielle du système à l état x. x R d est l ensemble des coordonnées des atomes composant le système. β est l inverse de la température (donc β > ). En physique statistique, on considère qu un système ne minimise pas toujours son énergie potentielle : tous les états sont accessibles, mais avec différentes probabilités. Cette loi de probabilité suit la densité suivante : (x) e βv ϕ(x ) = e R βv (x) dx d On remarque que V (x 1 ) < V (x 2 ) ϕ(x 1 ) > ϕ(x 2 ) c est-à-dire que les minima d énergie potentielle ont plus de probabilité d être atteints. Malheureusement, de telles intégrales sont concrètement difficiles à calculer du fait de la dimension. Il n est pas rare de voir d de l ordre de 1 5 ou 1 6. En effet, si on se fixe une précision ε, cela impose un nombre de points minimal N ε à calculer par dimension, et donc un coût total supérieur à N d ε... 3.2 Utilisation des EDS Considérons l EDS suivante : On pose S t = 1 t A(X s)ds dx t = V (X t )dt + 2 β db t Proposition 1. Si V est globalement lipschitz Alors pour presque tout X, S t converge presque sûrement vers < A > quand t + L équation de Fokker-Planck de cette EDS est : ψ t = x (ψv ) + 1 2 ψ β x 2 1

On remarque que ϕ : x e βv (x ) est une solution stationnaire de l équation de Fokker- R e βv (x) dx Planck ; il s agit de la fonction de répartition théorique du système. Ceci permet de faire le lien entre la résolution de l EDS et le calcul de l intégrale... Pour résoudre cette EDS, nous allons devoir la discrétiser et utiliser des méthodes numériques. On fixe un pas de temps t > X (n+1) t X n t = (n+1) t V (X n t s )ds + 2 β (B (n+1) t B n t ) B (n+1) t B n t N (, t) tn (, 1) Jusqu ici tout est exact ; on peut alors procéder à une approximation en créant une suite (X n ) telle que : X n+1 = X n tv 2 t (X n ) + β G n où (G n ) est une suite i.i.d suivant N (, 1) On pose alors S N = 1 N N k=1 A(X k), qui est une version approchée de S t définie précédemment. On va donc étudier la convergence de (S N ) quand N +... 3.3 Quelques résultats graphiques Evolution de S N en fonction de N V (x) = x 2 A(x) = x t =.1 β = 1 < A >= Dans le cas présent, on peut calculer directement < A >=. On remarque alors que (S N ) converge vers < A > quand N +. 11

Evolution de S N en fonction de N V (x) = x 2 A(x) = x 2 t =.1 β = 1 < A >= 1 2 Ici on peut calculer < A >= 1/2. On remarque donc que S N converge, mais on peut voir un biais (ou erreur systématique, comme nous le verrons plus loin), c est-à-dire que les paramètres utilisés ne sont pas assez précis. Nous allons donc voir que ce biais diminue avec t. Pour cela, on va générer un intervalle de confiance de la variable aléatoire S N à N fixé, ceci grâce à la méthode de Monte-Carlo. On commence par générer M fois la variable S N. On notera S (k) N la kème réalisation de S N. On peut alors en faire la moyenne empirique et une approximation de la variance : µ M = 1 M σ M = M k=1 1 M 1 S (k) N M k=1 ( ) 2 S (k) N µ M Y M = M V ar(s N ) (µ M E(S N )) converge en loi vers N (, 1) d après le théorème de la limite centrale. Numériquement, on a donc une probabilité de 95% d avoir E(S N ) [ µ M 1.96 σ MM, µ M + 1.96 σ MM ] 12

Evolution de l intervalle de confiance en fonction du nombre de réalisations V (x) = x 2 A(x) = x t =.1 N = 1 β = 1 < A >= On remarque donc que l intervalle de confiance s affine quand le nombre de réalisations de la variable aléatoire augmente. Evolution de l intervalle de confiance en fonction de t V (x) = x 2 A(x) = x 2 N adapté β = 1 3 réalisations < A >= 1 2 13

Il est à noter qu il existe deux erreurs lorsqu on utilise la méthode de Monte-Carlo : L erreur statistique est due à la réalisation aléatoire : elle est représentée par la taille de l intervalle de confiance. L erreur systématique, ou biais, est due à de mauvais paramètres : elle est représentée par le centrage de l intervalle de confiance. On peut facilement corriger l erreur systématique en choisissant un t plus petit, mais l erreur statistique évolue en 1 M (où M est le nombre de réalisations) et est donc très coûteuse à corriger... Nous allons maintenant regarder l évolution de S N en fonction de β, c est à dire l inverse de la température. Les résultats sont très intéressants en prenant deux fonctions V différentes... On va garder pour le moment A(x) = x, ce qui signifie que S N n est autre que la moyenne de (X n ) n N et S =< A >=. Evolution de S N en fonction de N V (x) = V 1(x) : puit simple 14

On remarque ici que l augmentation de β, c est à dire la diminution de la température, n a pas beaucoup d influence sur la vitesse de convergence de (S N ) ; elle semble simplement converger un peu plus vite. Evolution des X N en fonction de N β =.5 V (x) = V 2(x) : double puit Evolution des X N en fonction de N β = 5 V (x) = V 2(x) : double puit 15

Evolution des X N en fonction de N β = 1 V (x) = V 2(x) : double puit Les trois graphes précédents montrent qu à l inverse du premier cas, l augmentation de β (et donc la diminution de la température) tend à diminuer la vitesse de convergence de (S N ) (qui représente ici la moyenne de Cesàro de (X N )). On peut donc voir que la question de la vitesse de convergence en fonction de β est difficile, et on ne peut pas vraiment en tirer de conclusion. 3.4 A propos de l équation de Fokker-Planck Nous avons donc vu le comportement de (S N ) en fonction de N et de t. On va s intéresser en dernière partie à la résolution de l équation de Fokker-Planck de l EDS. 2 dx t = V (X t ) + β db t Son équation de Fokker-Planck est donc : ψ t = x (ψv ) + 1 2 ψ β x 2 Ici, A n intervient pas, et on pose V (x) = V 2 (x) = (2x 1) 2 (x + 1) 2. où ψ(t, ) est la fonction de répartition de X t 16

On rappelle que ϕ : x e βv (x ) est une solution stationnaire de l équation de Fokker- R e βv (x) dx Planck et est aussi la fonction de répartition théorique du système. On fixe N et t, et on peut tracer la répartition des X N pour un certain nombre de réalisations... Définissons Ω = [ 3, 3]. La fonction de répartition de X N dehors de Ω. Discrétisation de l EDP selon le temps : et ϕ sont à peu près nulles en Ω Ω ψ t g ψ t g ψ t = x (ψv ) + 1 2 ψ β x 2 = g Ω x (ψv ) + 1 β = g ψv 1 Ω β Ω Ω g 2 ψ x 2 g ψ x pour g nulle au bord de Ω Ceci s obtient en fixant ψ( 3) = ψ(3) = (ce qu on appelle conditions de Dirichlet) 17

De la même manière que précédemment, nous obtenons une suite (ψ n ) en discrétisant : 1 g(ψ n+1 ψ n ) = g ψ n+1 V 1 g (ψ n+1 ) t Ω Ω β Ω Discrétisation de l EDP selon l espace : On introduit alors (x i ) i r+1 une partition de Ω et on pose, pour i [[ 1, r ], θ i affine par morceaux telle que θ i (x i 1 ) = θ i (x i+1 ) = et θ i (x i ) = 1. On pose alors g(x) = r i=1 g iθ i (x) et ψ k (x) = r j=1 ψk j θ j(x) On peut alors à nouveau discrétiser i [[ 1, r ] r j=1 [ ] 1 θ i θ j (ψ n+1 j ψj n ) t Ω = r [ On obtient donc une équation matricielle à résoudre : [ B t (U n+1 U n ) = A K ] U n+1 β U k j j=1 = ψk j Ω A i,j = Ω θ i θ jv B i,j = Ω θ iθ j K i,j = Ω θ i θ j θ iθ j ψ n+1 j V 1 ] θ β iθ j(ψ n+1 j ) Ω On se fixe alors des conditions aux limites de Ω : ψ( 3) = ψ(3) = et on fixe ψ = 1 6 1I [ 3,3] 18

Evolution de ψ N N = 2, 5, 2, 1 t = 1 3 β = 3 On remarque que lorsque N augmente, la forme de ψ N s affine pour finir par ressembler à ϕ, qui est la distribution théorique que l on attend en temps long. 19

Evolution de ψ N N = 2, 5, 2, 1 t = 1 3 β = 3 Répartition des X N et tracé de ψ N N = 1 4 t = 1 3 β = 3 Pour N grand, la forme de ψ N est effectivement très proche de celle de ϕ. Résoudre l équation de Fokker-Planck peut donc permettre de trouver la fonction de répartition du système, et donc de calculer S t et < A >. 2

Il est cependant nécéssaire de revenir sur les conditions de Dirichlet imposées à la fonction ψ. Nous avons posé qu elle s annulait en dehors et aux bornes de Ω. Il peut être plus intéressant de rajouter de fonctions de type θ aux bords pour enlever cette restriction et spécifier des conditions sur ψ. Ceci s appelle les conditions de Neumann. Conclusion En conclusion, nous avons vu que pour calculer < A >, un outil majeur est la résolution de l EDS (éventuellement pour cela résoudre l équation de Fokker-Planck associée). En dimension 1, il est généralement plus rapide de résoudre l équation de Fokker-Planck de manière numérique. En dimension d, il est généralement préférable d essayer de résoudre l EDS... 21

Références [1] Eric Cances, Frédéric Legoll, and Gabriel Stoltz. Theoretical and numerical comparison of some sampling methods for molecular dynamics. Mathematical Modelling and Numerical Analysis, 27. [2] Martin Haugh. Simulating stochastic differential equations. 24. [3] Benjamin Jourdain. Notes de cours : Stochastic differential equations and interpretation of parabolic partial differential equations. 26. [4] Davar Khoshnevisan. Probability. American Mathematical Society, 27. 22