Modélisation et simulation d événements rares. Josselin Garnier (Université Paris Diderot)



Documents pareils
Méthodes de Simulation

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Moments des variables aléatoires réelles

Probabilités III Introduction à l évaluation d options

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

MÉTHODE DE MONTE CARLO.

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Simulation de variables aléatoires

Texte Agrégation limitée par diffusion interne

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

MCMC et approximations en champ moyen pour les modèles de Markov

TSTI 2D CH X : Exemples de lois à densité 1

Modèles et Méthodes de Réservation

Programmes des classes préparatoires aux Grandes Ecoles

Quantification Scalaire et Prédictive

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Soutenance de stage Laboratoire des Signaux et Systèmes

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Précision d un résultat et calculs d incertitudes

La fonction exponentielle

4 Distributions particulières de probabilités

PROBABILITES ET STATISTIQUE I&II

Le modèle de Black et Scholes

Économetrie non paramétrique I. Estimation d une densité

Processus aléatoires avec application en finance

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Feuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Résumé des communications des Intervenants

3. Conditionnement P (B)

3 Approximation de solutions d équations

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

I. Polynômes de Tchebychev

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Introduction à la statistique non paramétrique

!-.!#- $'( 1&) &) (,' &*- %,!

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Probabilités et statistique. Benjamin JOURDAIN

OUTILS STATISTIQUES ET NUMÉRIQUES

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

NON-LINEARITE ET RESEAUX NEURONAUX

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Estimation et tests statistiques, TD 5. Solutions

Cours de Tests paramétriques

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TABLE DES MATIERES. C Exercices complémentaires 42

Modélisation et simulation

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

Correction du Baccalauréat S Amérique du Nord mai 2007

3. Caractéristiques et fonctions d une v.a.

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

MESURE ET PRECISION. Il est clair que si le voltmètre mesure bien la tension U aux bornes de R, l ampèremètre, lui, mesure. R mes. mes. .

Loi binomiale Lois normales

Value at Risk. CNAM GFN 206 Gestion d actifs et des risques. Grégory Taillard. 27 février & 13 mars 20061

FIMA, 7 juillet 2005

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Chapitre 3 : INFERENCE

Table des matières. I Mise à niveau 11. Préface

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN

CAPTEURS - CHAINES DE MESURES

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

IFT3245. Simulation et modèles

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Cours de méthodes de scoring

M2 IAD UE MODE Notes de cours (3)

Le modèle de régression linéaire

Mesure et gestion des risques d assurance

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction de l examen de la première session

Cours d Analyse. Fonctions de plusieurs variables

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

4. Martingales à temps discret

Application de la méthode de surface de réponse stochastique à l analyse de stabilité d un tunnel pressurisé

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Théorie des sondages : cours 5

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Introduction à l approche bootstrap

Attitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014

Théorie de l estimation et de la décision statistique

PROJET MODELE DE TAUX

Espérance conditionnelle

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Projet de Traitement du Signal Segmentation d images SAR

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Résolution d équations non linéaires

Etude des propriétés empiriques du lasso par simulations

Introduction au pricing d option en finance

Transcription:

Modélisation et simulation d événements rares Josselin Garnier (Université Paris Diderot)

2 Traitement des incertitudes En anglais : uncertainty quantification. Problème général : Comment modéliser les incertitudes et leur propagation dans les modèles physiques ou numériques? Comment estimer (quantifier) la dispersion de la sortie d un code ou d une expérience en fonction de la dispersion des paramètres d entrée? Comment estimer (quantifier) la sensibilité de la sortie d un code ou d une expérience vis-à-vis d un paramètre d entrée particulier?

3 Étape Quantification des sources d incertitudes Loi de X Étape 0 Définition du modèle Y = f(x) Entrées X Sortie Y Étape 3 Analyse de sensibilité Approche variationnelle locale Approche stochastique globale Étape 2 Propagation d incertitudes Tendances centrales, probabilité de dépassement de seuil

4 Problème Contexte : code de calcul ou expérience modélisé par Y = f(x) avec Y =variable de sortie X = (X i ) i=,...,d variables d entrée, de loi donnée (à densité p(x)) f = boîte plus ou moins noire But : estimation d une quantité E[ψ(Y)] avec une barre d erreur et le minimum de simulations/expériences. Exemples (pour Y à valeurs réelles) : ψ(y) = y moyenne de Y, i.e. E[Y] ψ(y) = y 2 variance de Y, i.e. Var(Y) = E[(Y E[Y]) 2 ] = E[Y 2 ] E[Y] 2 ψ(y) = [a, [ probabilité de dépasser le seuil a, i.e. P(Y a)

5 Méthode analytique La quantité à estimer est une intégrale d-dimensionnelle : I = E[ψ(Y)] = E[F(X)] = F(x)p(x)dx R d où p(x) est la densité de probabilité de X et F(x) = ψ(f(x)). Dans des cas simples (quand la densité p et la fonction F sont connues de manière analytique), on peut parfois évaluer l intégrale de manière exacte. Situation exceptionnelle.

6 Méthodes de quadrature La quantité à estimer est une intégrale d-dimensionnelle : I = E[ψ(Y)] = E[F(X)] = F(x)p(x)dx R d où p(x) est la densité de probabilité de X et F(x) = ψ(f(x)). Si p(x) = d i= p 0(x i ), alors on peut appliquer une méthode de quadrature gaussienne avec grille pleine de n d points : Î = n n ρ j ρ jd F(ξ j,...,ξ jd ) j = j d = avec (ρ j ) j=,...,n poids et (ξ j ) j=,...,n nœuds de quadrature gaussienne associée à la densité p 0. Il existe aussi des méthodes de quadrature avec des grilles creuses (Smolyak). Les méthodes de quadrature sont efficaces avec : - des conditions de régularité sur x F(x) (et pas seulement f), - une dimension d petite (même avec des grilles creuses de type Smolyak). Elles réclament sinon beaucoup d appels au code.

7 Méthode de Monte Carlo On tire un n-échantillon (X (k) ) k=,...,n (des réalisations indépendantes de X). Estimateur de I = E[F(X)] : Î n = n n F(X (k) ) k= Estimation non-biaisée : E[În] = I pour tout n Convergence : Î n n I avec probabilité Erreur (risque quadratique) : E [ (În I) 2] = Var(În) = n Var(F(X)) Erreur relative : Caractéristiques : E [ (În I) 2] /2 I = n Var(F(X)) /2 E[F(X)] ) possibilité d obtenir des intervalles de confiance, 2) pas de régularité requise sur F (avec F(x) = ψ(f(x))), 3) vitesse de convergence indépendante de la dimension (mais lente).

8 Intervalles de confiance Question : A partir de l échantillon (X (k) ) k=,...,n, l estimateur În donne une valeur approchée de I, d autant meilleure que n est grand. Comment quantifier précisément l erreur? Réponse : On construit un intervalle de confiance au niveau 0.95, i.e. un intervalle [â n,ˆb n ] tel que P ( ) I [â n,ˆb n ] 0.95 Construction basée sur le théorème central limite : ) P( Î n I < c Var(F(X))/2 n 2 c e x2 /2 dx n 2π Le membre de droite vaut 0.95 si c =.96. Donc ( P I [Î n.96 Var(F(X))/2 n,în +.96 Var(F(X))/2 n ]) 0.95 0

9 ( P I [Î n.96 Var(F(X))/2 n,în +.96 Var(F(X))/2 n ]) 0.95 Les bornes sont encore inconnues car on ne connaît pas Var(F(X))! Deux solutions : - solution conservatrice, du type Var(F(X)) F 2, et alors ( [ P I Î n.96 F,În +.96 F ]) 0.95 n n - asymptotiquement, on remplace Var(F(X)) dans les bornes par son estimateur empirique ˆσ 2 n : P ( I [ Î n.96 ˆσ n n,în +.96 ˆσ n n ]) 0.95 où ˆσ n = ( n n F(X (k) ) 2 Î2 n k= ) /2 Conclusion : Il n y a aucun intervalle borné de R dont on puisse dire avec certitude qu il contient I, mais il y a des intervalles, dits intervalle de confiance, dont on peut dire qu ils contiennent I avec une probabilité proche de.

0 Estimation particulière : probabilité d un événement rare On cherche à estimer P = P(f(X) a) avec a grand si bien que P. Possible par Monte Carlo : n ˆP n = n k= f(x (k) ) a Erreur relative : E[(ˆP n P) 2 ] /2 P = n Var( f(x) a ) /2 P = n P P P np Il faut donc np > pour avoir une erreur relative plus petite que (pas étonnant...). La constante est pénalisante.

Propagation d incertitudes par métamodèles On remplace f par un métamodèle (modèle réduit) f r et on applique une des techniques précédentes (analytique, quadrature, Monte Carlo). On peut faire beaucoup d appels au métamodèle. Le choix du métamodèle est critique. Le contrôle de l erreur n est pas simple.

2 Développements de Taylor On approche la sortie Y = f(x) par un développement de Taylor Y r = f r (X). Exemple : - On souhaite estimer E[Y] et Var(Y) pour Y = f(x) avec X i décorrélées, E[X i ] = µ i et Var(X i ) = σi 2 connus, σi 2 petits. - On approche Y = f(x) par Y r = f r (X) = f(µ)+ f(µ) (X µ). On trouve : E[Y] E[Y r ] = f(µ), Var(Y) Var(Y r ) = d xi f(µ) 2 σi 2 i= On a juste besoin de calculer f(µ) et f(µ) (calcul du gradient par différences finies ou par différenciation automatique, donc en gros d+ appels à f). Rapide, analytique, permet de calculer approximativement des tendances centrales de la sortie (moyenne, variance). Convenable pour des petites variations des paramètres d entrée et un modèle régulier (qu on peut linéariser). Approche locale. En général, pas de contrôle de l erreur.

3 Probabilité à évaluer : P = P(f(X) a) = P(X F) = F p(x)dx, F = {x R d, f(x) a} Méthode FORM-SORM, analytique mais approchée, sans contrôle d erreur. on suppose que les X i sont indépendants et de loi gaussienne de moyenne zéro et de variance un (ou on se ramène à ce cas par transformation isoprobabiliste). on trouve par optimisation (sous contrainte) le point x a de dépassement de seuil (i.e. f(x a ) = a) le plus proche de l origine. on approche la surface de défaillance {x R d,f(x) = a} par une surface régulière ˆF qui permette de faire un calcul analytique ˆP = ˆF p(x)dx : - un hyperplan pour FORM (et alors ˆP = 2 erfc( x a 2 ) ), - une forme quadratique pour SORM (et alors ˆP = formule de Breitung). Cf: O. Ditlevsen et H.O. Madsen, Structural reliability methods, Wiley, 996. 0 2 4 6 5 4 3 2 0 FORM f(x)<a SORM x a f(x)>a

4 Techniques de réduction de variance Objectif : réduire la variance de l estimateur de Monte Carlo classique : E [ (În I) 2] = n Var(F(X)) Les méthodes - Echantillonnage préférentiel - Variables de contrôle - Variables antithétiques - Stratification ont pour but de réduire la constante, en restant proches de l esprit Monte Carlo (parallélisable). Les méthodes - Quasi-Monte Carlo ont pour but de changer le /n. Les méthodes - Systèmes de particules en interaction s éloignent de l esprit Monte Carlo (séquentielle).

5 Echantillonnage préférentiel (importance sampling) Observation : la représentation de I comme espérance n est pas unique. Si X est à densité p : F(x)p(x) [ F(X)p(X) ] I = E p [F(X)] = F(x)p(x)dx = q(x)dx = E q q(x) q(x) L utilisateur est libre dans le choix de la densité q. Idée : Dans la situation où on sait que F(X) est surtout sensible à certaines valeurs de X, au lieu de tirer les X (k) selon la densité originale p(x) de X, on les tire selon une densité biaisée q(x) qui favorise les valeurs de X dans la zone d importance. En considérant la représentation on propose l estimateur : I = E p [F(X)] = E q [ F(X) p(x) q(x) Î n = n n k= F(X (k) ) p(x(k) ) q(x (k) ) où (X (k) ) k=,...,n est un n-échantillon tiré selon q. Estimateur non-biaisé : E q [În] = I. ]

6 Estimateur convergent : Î n = n n k= F(X (k) ) p(x(k) ) q(x (k) ) [ n E q F(X) p(x) ] q(x) = E p [ F(X) ] = I Variance de l estimateur : Var(În) = ( n Var q F(X) p(x) ) q(x) = n [ ) (E p F(X) 2 p(x) ] E p [F(X)] 2 q(x) En choisissant bien q, on peut fortement réduire la variance. En fait, en choisissant (en supposant F 0) on trouve q opt (x) = F(x)p(x) I Var(În) = 0 Mais q opt (x) dépend de I! ( méthodes séquentielles/adaptatives). Points pratiques importants pour pouvoir implémenter la méthode : - Il faut savoir simuler X de loi de densité q. - Il faut savoir calculer le rapport de vraisemblance p(x) q(x).

7 Exemple : On veut estimer I = E[F(X)] avec X N(0,) et F(x) = [4, [ (x). I = 2π [4, [ (x)e x2 2 dx = 2 erfc( 4 2 ) 3.70 5 Monte Carlo : Î n = n On a Var(În) = n 3.70 5. n Xk 4, X k N(0,) k= Echantillonnage préférentiel : on tire X k selon la loi N(4,). Î n = n n k= Xk 4 e X 2 k 2 e (X k 4)2 2 = n n Xk 4e 4Xk+8, X k N(4,) k= On a Var(În) = n 5.530 8. Il faut 000 fois moins de simulations avec la méthode IS pour atteindre la même précision!

8 Attention cependant, il ne faut pas trop pousser. Echantillonnage préférentiel : on tire X k selon la loi N(µ,). Î n = n n k= Xk 4 2 e X k 2 e (X k µ)2 2 = n n k= Xk 4e µx k+ µ2 2, Xk N(µ,) On a Var(În) = e µ2 erfc( ) 4+µ n 2 2 n I2, ce qui donne pour l erreur relative normalisée ne[(în I) 2 ] /2 /I : 0 3 n /2 relative error 0 2 0 0 0 0 2 4 6 8 µ Si on pousse trop, les fluctuations des rapports de vraisemblance deviennent trop grandes.

9 Exemple : On veut estimer I = E[f(X)] avec X N(0,) et f(x) = exp(x). I = 2π e x e x2 2 dx = e 2 Ce sont les grandes valeurs de X qui sont importantes. Echantillonnage préférentiel : on tire X (k) selon la loi N(µ,), µ > 0. Î n = n n k= [X (k) ] 2 f(x (k) ) e 2 e [X(k) µ] 2 2 = N n k= (e µ2 2µ+2 e ) f(x (k) )e µx(k) + µ2 2 Var(În) = n Monte Carlo µ = 0 : Var(În) = n ( e 2 e ) Echantillonnnage préférentiel optimal µ = : Var(În) = 0.

20 Variables de contrôle Rappel : Le but est d estimer I = E[F(X)] pour X un vecteur aléatoire et F(x) = ψ(f(x)) une fonction déterministe. Dans la situation où on dispose d un modèle réduit f r (x). Méthode d échantillonnnage préférentielle : on calcule (on approche) la densité optimale q opt,r (x) = ψ(f r(x))p(x) I r, avec I r = ψ(f r (x))p(x)dx, puis on l utilise comme densité d importance. Méthode de variables de contrôle : On note F(x) = ψ(f(x)), F r (x) = ψ(f r (x)). On suppose qu on connaît I r = E[F r (X)]. En considérant la représentation on propose l estimateur : I = E[F(X)] = I r +E[F(X) F r (X)] Î n = I r + n n F(X (k) ) F r (X (k) ), k= où (X (k) ) k=,...,n est un n-échantillon (tiré selon p).

2 Estimateur : Î n = I r + n n F(X (k) ) F r (X (k) ) k= Cet estimateur est sans biais et convergent. Sa variance est : Var(În) = n Var( F(X) F r (X) ) Cette méthode peut réduire la variance.

22 Exemple : on souhaite estimer I = E[f(X)] avec X U(0,), f(x) = exp(x). Résultat : I = e.72. Monte Carlo. Î n = n n exp[x (k) ] k= Variance de l estimateur MC = n (2e ) n 4.44. Variable de contrôle. Modèle réduit : f r (x) = +x (ici I r = 3 ). Estimateur 2 VC : Î n = I r + n {exp[x (k) ] X (k)} n k= Variance de l estimateur VC = n (3e e2 2 53 2 ) n 0.044. Il faut donc 00 fois moins de simulations avec l estimateur VC!

23 Application : Méthodes de Romberg statistiques pour l estimation de I = E[ψ(f(X))] On dispose d un code léger f r en plus du code lourd f. Le rapport du coût calcul entre un appel à f et un appel à f r est q >. Estimateur Î n = n r n r i= F r ( X (k) )+ n n F(X (k) ) F r (X (k) ) i= avec n r n, F(x) = ψ(f(x)), F r (x) = ψ(f r (x)). Allocation entre appels au code lourd et appels au code léger à optimiser sous la contrainte n r /q +n(+/q) = n tot. Compromis classique entre erreur d approximation et erreur d estimation. Utilisé dans le cas où f(x) est la solution d une équation différentielle discrétisée finement, avec f r (X) la solution avec un schéma de discrétisation grossier (MultiLevel Monte Carlo).

24 Pas très utile pour l estimation de probabilité d événement rare. Exemple : on souhaite estimer I = P(f(X) 2.7) avec X U(0,), f(x) = exp(x). Résultat : I = ln(2.7) 6.70 3. Le modèle réduit f r (x) = +x ne sert à rien dans ce cas. Il faudrait que le modèle réduit soit quantitativement bon dans la zone d importance.

25 Suite à discrépance faible (quasi Monte Carlo) on tire l échantillon de manière moins aléatoire que MC, pour combler les trous qui se forment naturellement dans un échantillon aléatoire. Cette technique - réduit la variance si f a un peu de régularité et/ou de monotonie; on peut aller jusqu à une variance en C d (logn) s(d) /n 2, - marche en dimension pas trop grande, - représente un intermédiaire entre MC et quadrature usuelle, - en compétition avec des méthodes de quadrature creuse (Smolyak). Attention : - il n est pas facile de rajouter des points, - on n a pas d estimée d erreur (sans hypothèse supplémentaire), - la méthode n est pas adaptée pour l estimation de probabilité d événement rare.

26 Exemple : échantillon Monte Carlo. 0.9 0.9 0.9 0.8 0.8 0.8 0.7 0.7 0.7 0.6 0.6 0.6 0.5 0.5 0.5 0.4 0.4 0.4 0.3 0.3 0.3 0.2 0.2 0.2 0. 0. 0. 0 0 0. 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 0 0 0. 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 0 0 0. 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 n = 00 n = 000 n = 0000

27 Exemple : suites de Sobol en dimension 2. n = 00 n = 000 n = 0000

28 Systèmes de particules en interaction Problème : estimation de la probabilité d un événement rare. Deux versions : - un événement rare pour un problème dynamique, s exprimant en termes de l état final d une chaîne de Markov, - un événement rare pour un problème statique, s exprimant en termes d une variable aléatoire, dont la loi est vue comme la loi stationnaire d une chaîne de Markov.

29 Evénements rares pour un problème dynamique Problème : estimation de la probabilité P = P(V(X M ) a) quand a est grand = P. Description du système : (X p ) 0 p M : une chaîne de Markov à valeurs dans E : X p = Φ p (X p,θ p ), p =,...,M, X 0 = x 0 où Θ p : variables indépendantes, Φ p : fonction déterministe, V : E R : fonction de risque. a R : niveau de risque. Exemple : X p = X p +θ p, X 0 = 0, où θ p est une suite de variables gaussiennes indépendantes de moyenne zéro et de variance un. Ici E = R, Φ p (X,θ) = X +θ, V(x) = x, solution connue : X M = V(X M ) N(0,M).

30 Second exemple : Fibre optique avec des défauts aléatoires. u 0 (t) = impulsion initiale. u(z, t) = impulsion finale = impulsion après une distance de propagation Z. Propagation régie par deux équations de Schrödinger Non-Linéaires couplées avec des coefficients aléatoires variant en z. Troncation fictive en M segments [z p,z p ), z p = pz/m, p M. X p = (u(z p,t) t R ) satisfait la relation de récurrence aléatoire X p = Φ p (X p,θ p ) où Θ p modélise les défauts du p-ème segment, Φ p (X p,θ p ) est la solution à z = z p de l équation de Schrödinger avec conditions initiales X p à z = z p. Ici E = H0(R,C 2 2 ) L 2 2(R,C 2 ) E R V : V(X) = t 2 X(t) 2 dt/ X(t) 2 dt Problème : estimation de la probabilité P = P(V(X M ) a)

3 Système de particules-chemins Particule-chemin: Y p = (X 0,...,X p ) à valeurs dans E p+, 0 p M. Système de n particules-chemins: Y p = (Y (k) p ) k n à valeurs dans (E p+ ) n. Initialisation : p = 0: Y (k) 0 = x 0 pour k =,...,n. Dynamique : Evolution de la génération p à la génération p+ : Y p (E p ) n selection Ŷp (E p ) n mutation Y p (E p+ ) n La sélection dépend de fonctions potentiels positives G p (Y p ), choisies par l utilisateur, par exemple G p (Y p ) = exp(v(x p )).

32 5 n=3 particules 4 G(Y) 3 2 3 particules a la generation p 0 p p+ p+2 generation 3 particules Y p (),Y p (2),Y p (3) à la génération p, de potentiels G(Y p () ) =, G(Y p (2) ) = 2, G(Y p (3) ) = 3.

33 5 n=3 particules 4 G(Y) 3 2 selection 0 p p+ p+2 generation Probabilité de sélectionner la particule j : 3 k= G(Y p (j) ) (k) G(Y p ) = 6 si j = 3 si j = 2 2 si j = 3

34 5 n=3 particules 4 G(Y) 3 2 selection 0 p p+ p+2 generation Probabilité de sélectionner la particule j : 3 k= G(Y p (j) ) (k) G(Y p ) = 6 si j = 3 si j = 2 2 si j = 3

35 5 n=3 particules 4 G(Y) 3 2 selection terminee 3 particules selectionnees 0 p p+ p+2 generation Probabilité de sélectionner la particule j : 3 k= G(Y p (j) ) (k) G(Y p ) = 6 si j = 3 si j = 2 2 si j = 3

36 5 n=3 particules 4 G(Y) 3 2 mutation 0 p p+ p+2 generation Chaque particule évolue de manière indépendante de p à p+.

37 5 n=3 particules 4 G(Y) 3 2 selection 0 p p+ p+2 generation 3 particules sont sélectionnées à la génération p+.

38 5 n=3 particules 4 G(Y) 3 2 selection 0 p p+ p+2 generation Chaque particule évolue de manière indépendante de p+ à p+2.

39 A chaque génération p = 0,...,M : Sélection : à partir du système Y p = (Y (k) p ) k n, on choisit aléatoirement et indépendamment n particules-chemins Ŷ (k) p = ( X (k) 0,p (k) (k), X,p,..., X p,p) E p+ selon la loi de Boltzmann-Gibbs n k= G p (Y p (k) ) n j= G p(y p (j) ) δ Y p (k) Mutation : chaque particule-chemin sélectionnée Ŷ i p est prolongée par une transition non-biaisée : où X (k) p+,p+ = Φ p+( Y (k) p+ = (( (k) (k) X 0,p,..., X p,p), X (k) p+,p+ ) Ep+ (k) X p,p,θ (k) p+ ). Les mutations sont indépendantes.

40 Estimateur de la probabilité de l événement rare Soit ˆP n = p<m [ n n k= ] [ G p (X (k) 0,p,...,X(k) p,p) n n k= V (X (k) M,M ) a p<m ] G p (X (k) 0,p,...,X(k) p,p) ˆP n est un estimateur sans biais de P : E[ˆP n ] = P et convergent : ˆP n n P p.s.

4 Théorème de la limite centrale L estimateur ˆP n satisfait le théorème de la limite centrale n [ˆPn P] n N(0,σ 2 ) avec la variance normalisée [ M p ] [ p σ 2 = E G j (X 0,...,X j ) E p= j= j= G j (X 0,...,X j )(P a p) 2 (X p ) ] P 2 Ici les fonctions Pp a sont définies par x p E Pp(x a p ) = P(V(X M ) a X p = x p ) Utile pour ) le choix de bons potentiels G p (réduction de variance), 2) la mise au point d un estimateur de la variance.

42 Comparaisons de variances pour le modèle gaussien X p = X p +θ p où (θ p ) p M indépendants, gaussiens, de moyenne 0, de variance, V(x) = x. Ici X M est gaussien, de moyenne 0 et de variance M : ) P = P(X M a) = exp ( s2 ds exp 2πM 2M On considère a M de telle sorte que P. Premier choix pour le potentiel : a G p (x 0,...,x p ) = exp(αx p ), pour un certain α > 0 ) ( a2 2M Les calculs montrent M σ 2 [e a2 p n e M(M+p) [a αm(p )/2]2 + 2 α2 (p )p(p+) P 2 ] p= En optimisant, on prend α = 2a/[M(M )] et on trouve σ 2 e a2 M 2 3( M ) la variance est d ordre P 4/3 /n (rappel pour Monte Carlo: P/n) l erreur relative est / np 2/3 (rappel pour Monte Carlo: / np).

43 On considère le même modèle. Second choix pour le potentiel : G p (x 0,...,x p ) = exp[α(x p x p )], pour un certain α > 0 On obtient : σ 2 0 p<m [ [e a2 p+ a α M e Mp ] 2+α 2 p M(M+p+) p+ p+ P 2 ] En optimisant, on prend α = a/m et on trouve σ 2 e a2 M( M) la variance normalisée est d ordre P 2 /n. l erreur relative est / n. En comparant avec le cas précédent : une sélection dépendant de l état n est pas efficace!

44 Simulations avec le modèle gaussien 0 0 0 6 MC empir. MC theo. IPS empir. IPS theo. p(x) 0 5 0 0 p 2 (X)/p(X) 0 4 0 2 MC IPS α= 0 5 30 20 0 0 0 20 30 X 0 0 30 20 0 0 0 20 30 X M = 5, n = 2 0 4 particules, α =.

45 Exemple de la fibre optique : (u(z,t) t R ) = champ électrique après la distance de propagation z. τ(z) 2 = u(z,t) 2 t 2 dt/ u(z,t) 2 dt largeur rms de l impulsion. Propagation régie par deux équations de Schrödinger couplées avec des coefficients variant aléatoirement en z (défauts de la fibre). ) modèle asymptotique (technique de séparation d échelles) La largeur de l impulsion τ(z) est un processus de diffusion la pdf de τ(z) est : L = 8σ 2 τ 2 τ 2 +2σ2 τ p z (τ) = τ /2 ( 2π(4σ2 z) exp τ ) 3/2 8σ 2 [0, ) (τ) z 2) modèle réaliste : pdf impossible à calculer théoriquement. Observations expérimentales : la queue de la pdf de τ(z) à la sortie de la fibre z = Z ne suit pas la distribution Maxwellienne dans des configurations réelles.

46 Simulations numériques 0 0 0 2 MC IPS α=.0 IPS α=3.0 0 2 MC IPS α=.0 IPS α=3.0 0 4 p(τ) 0 6 p 2 (τ)/p(τ) 0 0 8 0 0 0 2 0 2 4 6 8 0 τ 0 0 0 2 4 6 8 0 τ n = 5, M = 2 0 4 particules, α = et α = 3. Trait plein : pdf Maxwellienne prédite par le modèle asymptotique.

47 Conclusions Echantillonnage préférentiel: on biaise l entrée. Système de particules en interaction: on sélectionne les particules selon la sortie. L échantillonnage préférentiel est à privilégier quand on a une bonne connaissance du système, mais il faut changer les lois des entrées (méthode intrusive). La méthode est facilement parallélisable. Le système est simulé sous sa loi originale (méthode non-intrusive). - Aucune intuition (ou étude) n est nécessaire pour deviner une bonne loi biaisée. - Pas besoin de changer le code de simulation. - Nombre de particules fixé, coût calcul fixé. - La méthode permet de simuler des lois conditionnelles. - La méthode est partiellement parallélisable.