Estimation de la probabilité d événements rares par méthodes de krigeage pour des fonctions boîtes noires coûteuses

Documents pareils
Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Moments des variables aléatoires réelles

Fonctions de deux variables. Mai 2011

Probabilités III Introduction à l évaluation d options

Cours de méthodes de scoring

Résumé des communications des Intervenants

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Modèles et Méthodes de Réservation

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

Principe de symétrisation pour la construction d un test adaptatif

Simulation de variables aléatoires

Espérance conditionnelle

MÉTHODE DE MONTE CARLO.

Texte Agrégation limitée par diffusion interne

MA6.06 : Mesure et Probabilités

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Variables Aléatoires. Chapitre 2

Capes Première épreuve

Résolution d équations non linéaires

Modélisation et simulation

3. Caractéristiques et fonctions d une v.a.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

4. Martingales à temps discret

IFT3245. Simulation et modèles

Couples de variables aléatoires discrètes

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Raisonnement probabiliste

3. Conditionnement P (B)

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

K. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre Palaiseau

Méthodes de Simulation

CALCUL DES PROBABILITES

Tests semi-paramétriques d indépendance

Liste des notes techniques... xxi Liste des encadrés... xxiii Préface à l édition internationale... xxv Préface à l édition francophone...

Ecran : Processeur : OS : Caméra : Communication : Mémoire : Connectique : Audio : Batterie : Autonomie : Dimensions : Poids : DAS :

CHAPITRE IV Oscillations libres des systèmes à plusieurs degrés de liberté


Programmes des classes préparatoires aux Grandes Ecoles

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Soutenance de stage Laboratoire des Signaux et Systèmes

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Travaux dirigés d introduction aux Probabilités

Exercice : la frontière des portefeuilles optimaux sans actif certain

aux différences est appelé équation aux différences d ordre n en forme normale.

Économetrie non paramétrique I. Estimation d une densité

Évaluation de la régression bornée

Cours IV Mise en orbite

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

MARTINGALES POUR LA FINANCE

TD1 Signaux, énergie et puissance, signaux aléatoires

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Chapitre 3. Les distributions à deux variables

Loi d une variable discrète

EI - EXERCICES DE PROBABILITES CORRIGES

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Systèmes de transmission

La mesure de Lebesgue sur la droite réelle

Incertitude et variabilité : la nécessité de les intégrer dans les modèles

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Température corporelle d un castor (une petite introduction aux séries temporelles)

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

Apprentissage non paramétrique en régression

Lois de probabilité. Anita Burgun

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Calcul Stochastique pour la finance. Romuald ELIE

Image d un intervalle par une fonction continue

Dérivées d ordres supérieurs. Application à l étude d extrema.

Intégration et probabilités TD1 Espaces mesurés Corrigé

Théorie des sondages : cours 5

FIMA, 7 juillet 2005

Théorie de l estimation et de la décision statistique

Probabilités conditionnelles Loi binomiale

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Mathématiques I Section Architecture, EPFL

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

4.2 Unités d enseignement du M1

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

NON-LINEARITE ET RESEAUX NEURONAUX

I. Polynômes de Tchebychev

Introduction au Data-Mining

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Chp. 4. Minimisation d une fonction d une variable

1 Définition de la non stationnarité

Intégration sur des espaces produits

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation

CAPTEURS - CHAINES DE MESURES

Module 7: Chaînes de Markov à temps continu

Produits de crédit en portefeuille

Programmation linéaire

Pair-à-Pair: Architectures et Services

TSTI 2D CH X : Exemples de lois à densité 1

Transcription:

Estimation de la probabilité d événements rares par méthodes de krigeage pour des fonctions boîtes noires coûteuses Yves AUFFRAY 1, Pierre BARBILLON 2, Jean-Michel MARIN 3 Université Paris-Sud 11 Projet SELECT (Inria Saclay -île-de-france) pierre.barbillon@math.u-psud.fr 1 Dassault Aviation, Université Paris-sud 11 2 Université Paris-Sud 11, INRIA Saclay 3 Université Montpellier 2

Problématique Soient X une variable aléatoire à valeurs dans E R d de loi connue, simulable g sa densité par rapport à la mesure de Lebesgue, f : E R d R + une fonction boîte noire coûteuse, R = {x E R d : f (x) ρ} où ρ > 0 est fixé. {X R} est un événement redouté et rare. Objectif : Borner supérieurement t ρ = P(X R) = P(f (X) < ρ) avec un bon niveau de confiance. Compte tenu de son coût d évaluation, on dispose d un budget maximal de N appels à f.

Limite de l estimateur de Monte-Carlo Pour un N-échantillon (X 1,..., X N ) de copies de X, l estimateur de Monte-Carlo est NX ˆt ρ MC = 1/N I R (X i ). i=1 E(ˆt MC ρ ) = P(X R) = t ρ, Var(ˆt ρ MC ) = 1 tρ(1 tρ). N Si t ρ << 1/N, ˆt ρ MC sera nul, très probablement et l intervalle de confiance associé à l estimateur, de forme [0, t ρ + ] pourra ne pas être assez précis. Exemple : si t ρ = 4.7 10 4 et N = 100, ˆt MC ρ = 0 avec probabilité (1 t ρ) N = 0.95, le cas échéant, l intervalle de confiance à 99% est [0; 1 (1/100) 1/N ] = [0; 0.045].

Plan 1 2 3

Plan 1 2 3

Modèle La fonction f est considérée comme la réalisation d un processus gaussien (Y x) x E : px Y x = β i h i (x) + Z (x) = H(x) T β + Z (x), avec i=1 h i des fonctions de régression choisies, β i des paramètres réels, Z un processus gaussien centré caractérisé par sa fonction de covariance cov(z (x), Z (x )) = σ 2 K (x, x ) où K est un noyau symétrique positif tel que pour tout x, K (x, x) = 1.

Loi conditionnelle On dispose des évaluations {y 1 = f (x 1 ),..., y n = f (x n)} aux points du plan d expérience fixé D = {x 1,..., x n} E n. Processus a posteriori On note (Y D x ) x E le processus gaussien correspondant au processus gaussien a priori (Y x) x E conditionné à l observation de y x1,..., y xn. x, E(Y D x ) = ˆf (x; y x1,..., y xn ) = H(x) T β + Σ T xdσ 1 DD (Y D H D β), x, x, cov(y D x, Y D x ) = σ2 `K (x, x ) Σ T xdσ 1 DD Σ x D, où H D = (H(x 1 ),... H(x n)) T, (Σ DD ) 1 i,j n = K (x i, x j ) = corr(y xi, Y xj ) 1 i,j n et Σ xd = (corr(y x1, Y x)) T 1 i n. Remarque x, cov(y D x, Y D x ) = MSE(x)

Validation Jones et al. (1998) proposent une méthode de validation croisée loo afin de valider le modèle réduit. On note ˆf i l approximation de f par krigeage construite sur {x 1,..., x i 1, x i+1,..., x n} et s i (.) = p MSE i (.) la fonction racine carrée des erreurs quadratiques de prédiction correspondante. On vérifie pour tout 1 i n, f (x i ) ˆf i(xi ) s i (x i ) [ 3, 3].

Plan 1 2 3

Paradigme bayésien On souhaite effectuer une estimation ensembliste de Z t ρ = P X (f (X) < ρ) = I {f (x)<ρ} g(x)dx = P ω ({ω f (X(ω)) < ρ}). R d Le processus (Y x) x E est une loi a priori pour f ( ). On suppose que le processus (Y x) x E est indépendant de X. On considère ainsi que ((Y x) x E, X) est une application mesurable de (Ω Γ, A B, P ω P γ) sur (F E, F B E, P Yx P X ). Dans ce cadre bayésien, t ρ est une variable aléatoire : t ρ = P X (Y X < ρ). Objectif : construire un intervalle de crédibilité sur t ρ. On cherche la valeur 0 < a < 1 fixée telle que la probabilité que t ρ < a soit égale à 1 α (avec α petit).

Estimateur L estimation bayésienne de t ρ associée à la fonction de perte quadratique est donnée par la moyenne de la loi a posteriori de t ρ : E (Yx) x E (t ρ y x1,..., y xn ) = E (Yx) x E (P X (Y X < ρ) y x1,..., y xn ) = E (Yx) x E (E X (I YX <ρ) y x1,..., y xn ) = E X `E(Yx) x E (I YX <ρ y x1,..., y xn ) = E X E (Y D x ) x E I Y D X <ρ = E X P YX D < ρ = E X Φ ρ ˆf!! (X; y x1,..., y xn ) p, MSE(X) où Φ est le fonction de répartition de la loi normale centrée réduite.

Calcul de l estimateur Une intégration numérique sur la variable X est possible par une méthode de Monte-Carlo. Il n est pas nécessaire d appeler la fonction f. Remarque D après l inégalité Markov, nous avons P (t ρ < a y x1,..., y xn ) 1 E (Yx) x E (t ρ y x1,..., y xn ) a. Ainsi avec une probabilité supérieure à 1 α, nous avons t ρ < E (Yx) x E (t ρ y x1,..., y xn ) α.

Réalisations de t ρ Nous pouvons simuler des réalisations de t ρ suivant sa loi a posteriori. Nous utilisons ces trois étapes pour obtenir une réalisation de t ρ = P X (Y X < ρ) : 1 Simulation de points du champ gaussien Y. D : (y xi ) 1 i ñ est simulé suivant la loi du processus a posteriori Y. D où les points x 1,..., x n forment une grille dans E. 2 Reconstruction du champ gaussien : Grâce à une méthode de krigeage, nous interpolons les points (y xi ) 1 i ñ (y xi ) 1 i n c est à dire les réalisations du processus a posteriori et les évalutions de la fonction f. Nous considérons que cette interpolation est la réalisation du processus Y. D sur E. 3 Intégration numérique : Nous pouvons alors calculer t ρ pour cette trajectoire grâce à une méthode de Monte-Carlo massive sur X.

Essai sur une fonction jouet On utilise la fonction f : [ 10, 10] 2 R + suivante : f (x 1, x 2 ) = sin(x 1) sin(x 2 + 2) + 2; x 1 x 2 + 2 On veut estimer la probabilité t ρ = P(f (X) < ρ) pour ρ = 0.01. Par Monte-Carlo intensif, on obtient t ρ = P(f (X) < ρ) = 4.7 10 4.

Exemple n = 100 1 Moyenne estimée : 5.3 10 4 avec 10 5 copies de X. 2 ñ = 50, 10 4 trajectoires simulées, 10 5 copies de X simulées. Moyenne estimée : 5.9 10 4, Variance estimée : 1.3 10 7, Quantile à 99% : 1.8 10 3. L estimateur de Monte-Carlo proposait au mieux l intervalle de confiance [0; 0.045].

Exemple n = 20 1 Moyenne estimée : 1.3 10 2 avec 10 5 copies de X. 2 ñ = 144, 10 4 trajectoires simulées, 10 5 copies de X simulées. Moyenne estimée : 1.3 10 2, Variance estimée : 2.0 10 4, Quantile à 99% : 5.4 10 2. L estimateur de Monte-Carlo proposait au mieux l intervalle de confiance [0; 0.21].

Plan 1 2 3

f est une fonction déterministe. t ρ = P X (X R) = P X (f (X) < ρ) n est plus considérée comme une variable aléatoire.

Principe On propose une méthode d échantillonnage préférentiel (Kahn and Marshall, 1953). Cela consiste : à considérer la loi de probabilité sur R d définie par le biais d une densité instrumentale h produire un N échantillon (Z 1,..., Z N ) selon cette loi à proposer l estimateur : ˆt IS ρ = La densité instrumentale idéale serait NX i=1 I R (Z i ) g(z i) h(z i ). x I R (x)g(x)p X (X R) 1, puisqu elle permettrait d obtenir un estimateur de variance nulle. Elle est évidemment inaccessible car elle dépend de P X (X R) inconnue.

Echantillonnage préférentiel grâce au modèle réduit Modèle réduit construit sur N/2 points : ˆf. On note b R = {x : ˆf (x) < ρ + 3 p MSE(x)}. P X (X b R) est calculée grâce à un Monte-Carlo intensif. On propose d utiliser la distribution instrumentale h : x 1I br (x)g(x)p X (X b R) 1. Si (Z 1,..., Z N/2 ) est un N/2-échantillon simulé suivant h, ˆt IS ρ = 2 N/2 X I R (Z i ) g(z i) N h(z i ) = 2P X(X R) b N/2 X I R (Z i ). N i=1 i=1

Propriétés de l estimateur E X (ˆt IS ρ ) = P X (X b R R) Var X (ˆt IS ρ ) = 2 N P X(X b R R)(P X (X b R) P X (X b R R)) Notre estimateur souffre d un biais négatif biais = P X (X R b R) P X (X R) = P X (X R X b R C ). Inégalité de concentration Avec probabilité 1 δ t ρ b δ,n (ˆt IS ρ ) biais. (1) Il faut contrôler le biais!

Contrôle du biais f est considérée comme une réalisation du processus gaussien Y. pour un ω 0 donné, dont on a obversé les valeurs y 1,..., y N/2 prises en des points x 1..., x N/2. Ainsi x, f (x) = Y x(ω 0 ) = Y D x (ω 0 ). On définit la variable aléatoire B : (ω, A) (R, B(R)) B = P X X R YX D < ˆf (X) 3 p MSE(X) = E X I X R I Y D. X <ˆf (X) 3 MSE(X) A une réalisation du processus Y D. est associée une réalisation de B.

On obtient l espérance : E (Y D x ) x E (B) = 0.23%t ρ. Par l inégalité de Markov, B étant presque sûrement positive ou nulle, on a P (Y D x ) x E (B 1/2t ρ) 0.23%tρ 1/2t ρ = 0.46%.

On rappelle que R est défini ainsi R = {x : f (x) < ρ} = {x : Yx D (ω 0 ) < ρ}. On a alors l inégalité, P X X R ρ < ˆf (X) 3 p MSE(X) P X X R f (X) < ˆf (X) 3 p MSE(X) P X X R X R bc P X X R YX D (ω 0) < ˆf (X) 3 p MSE(X) P X X R X b R C B(ω 0 ). Avec probabilité 99.54%, ω 0 {ω : B(ω) 1/2t ρ}, donc on a Avec une confiance de 99.54%, biais = P X X R X b R C 1/2P X (X R).

Conclusion Par conséquent, il y a deux niveaux de confiance 1 Avec probabilité 99.54%, biais 1/2P X (X R) = 1/2t ρ, 2 le cas échéant, avec probabilité 1 δ, d après l inégalité (1), t ρ b δ,n (ˆt IS ρ ) biais b δ,n (ˆt IS ρ ) + 1/2t ρ t ρ 2b δ,n (ˆt IS ρ ).

100 estimations 50 points pour construire le modèle réduit, 50 points pour l estimateurs ˆt IS ρ. En rouge le domaine R, En bleu le domaine R. b En rouge la probabilité t ρ = P X (X R), En bleu les estimations ˆt ρ IS En cyan, les bornes supérieures.

Conclusion On a présenté 2 méthodes pour estimer la probabilité d un événement rare : 1 Estimation bayésienne : Une seule série d appels à f ; Richesse donnée par la loi a posteriori ; Résulats intéressants avec peu de points tant que le modèle a priori est validé ; Simulation coûteuse de processus en grande dimension ; 2 : Simulation de l échantillon simple (possible en dimension plus grande) ; Deux niveaux de confiance ; Deux séries d appels à f ;