Introduction d un biais près d une borne (pour x = ph, 0 p < 1 ) si f(x) 0. Rectification : utilisation des "boundary kernels", par exemple :



Documents pareils
Économetrie non paramétrique I. Estimation d une densité

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Simulation de variables aléatoires

3. Conditionnement P (B)

Amphi 3: Espaces complets - Applications linéaires continues

Apprentissage non paramétrique en régression

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Programmation linéaire

TSTI 2D CH X : Exemples de lois à densité 1

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Quantification Scalaire et Prédictive

Moments des variables aléatoires réelles

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Méthodes de Simulation

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

Probabilités sur un univers fini

1 TD1 : rappels sur les ensembles et notion de probabilité

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Travaux dirigés d introduction aux Probabilités

Chapitre 3. Les distributions à deux variables

Modèles et Méthodes de Réservation

Couples de variables aléatoires discrètes

Classification non supervisée

Que faire lorsqu on considère plusieurs variables en même temps?

4 Distributions particulières de probabilités

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

4. Martingales à temps discret

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Probabilités sur un univers fini

Cours d introduction à la théorie de la détection

ILT. Interfacultair Instituut voor Levende Talen. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Probabilités III Introduction à l évaluation d options

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Température corporelle d un castor (une petite introduction aux séries temporelles)

3. Caractéristiques et fonctions d une v.a.

Les algorithmes de base du graphisme

Structures algébriques

FORMULAIRE DE STATISTIQUES

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

EI - EXERCICES DE PROBABILITES CORRIGES

3 Approximation de solutions d équations

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

MA6.06 : Mesure et Probabilités

Loi d une variable discrète

Introduction à la Statistique Inférentielle

Soutenance de stage Laboratoire des Signaux et Systèmes

Corrigé du baccalauréat S Asie 21 juin 2010

Programmes des classes préparatoires aux Grandes Ecoles

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #12

Fonctions de deux variables. Mai 2011

Cours de méthodes de scoring

Capes Première épreuve

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Espérance conditionnelle

Cours d analyse numérique SMI-S4

Introduction au pricing d option en finance

Probabilités et statistique. Benjamin JOURDAIN

Tests semi-paramétriques d indépendance

Les travaux doivent être remis sous forme papier.

FONCTIONS À CROISSANCE RÉGULIÈRE

La boucle for La boucle while L utilisation du if else. while (condition) { instruction(s) }

Calcul différentiel sur R n Première partie

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

Equations différentielles linéaires à coefficients constants

Sujet 4: Programmation stochastique propriétés de fonction de recours

Al attention du praticien et des étudiants, nous avons développé

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

23. Interprétation clinique des mesures de l effet traitement

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Modélisation et simulation

STATISTIQUES. UE Modélisation pour la biologie

Tout ce qu il faut savoir en math

Le modèle de Black et Scholes

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

NOTES DE COURS STT1700. Introduction à la statistique. David Haziza

Modélisation géostatistique des débits le long des cours d eau.

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Fonctions de plusieurs variables

Précision d un résultat et calculs d incertitudes

Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

1 Comment faire un document Open Office /writer de façon intelligente?

Analyse en Composantes Principales

Théorie de l estimation et de la décision statistique

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Cours d Analyse. Fonctions de plusieurs variables

Cours de Tests paramétriques

Transcription:

Problème d estimation aux bornes Introduction d un biais près d une borne (pour x = ph, 0 p < 1 ) si f(x) 0. Soit a l (p) = p 1 ul K(u) du, notons que a 0 (p) < 1 E[ f(x)] = a 0 (p)f(x) h a 1 (p)f (x)+ h2 2 a 2(p)f (x)+o (h 2 ) Rectification : utilisation des "boundary kernels", par exemple : B(x) = a 2(p) a 1 (p)x a 0 (p)a 2 (p) a 2 1(p) K(x), ou, plus généralement, pour un autre noyau L K, B(x) = c 1(p)K(x) a 1 (p)l(x) a 0 (p)c 1 (p) a 1 (p)c 0 (p), (avec c l (p) = p 1 ul L(u) du ), ce qui implique E[ f B (x)] = f(x) + O (h 2 ). Prix : augmentation de la variance. Recherches recentes : "beta-kernels",... 40

"Higher order kernels" But : réduction du biais Hypothèse : f (r) (x) = dr dx r f(x) continue en x Définition : Kernel K est de l ordre r si 1, j = 0 u j K(u) du = 0, j = 1,...,r 1 µ r < j = r Si K est de l ordre r, f est r fois continûment différentiable, et sous les conditions "habituelles" au kernel, Biais( f(x)) = hr r! µ r f (r) (x) + O (h r+1 ), mais la variance de f(x) ne change pas. Car pour n grand, h r < h 2 si r > 2, le biais peut être réduit ainsi. Minimisation de l AMISE par rapport à h donne et h opt = O(n 1/(2r+1) ) AMISE( ˆf) = O(n 2r/(2r+1) ) Note : Plus r est choisi grand, plus on s approche au taux "paramétrique" n 1. Mais, f(x) doit être très régulière et l estimateur f peut devenir négative. 41

Régression non paramétrique : Introduction Considérer le modèle de régression Y = m(x) + ε où ε i.i.d.(0,σ 2 ), X variable (aléatoire) explicative and Y la response. La fonction m( ) est de forme inconnue. Ceci est une généralisation de la régression linéaire avec m(x) = IE[Y X = x]. Comment estimer m, en observant l échantillon (X i,y i ) n? Dans la suite, distinguez deux cas: - le design fixé (souvent equidistant) - le design stochastique (aléatoire) 42

43

Régression non paramétrique avec "fixed design" Y i = m(x i ) + ε i i = 1,...,n, où x 1,...,x n sont non aléatoires (fixés par l utilisateur) et ε 1,...,ε n sont des v.a. indépendantes avec E(ε i ) = 0 et var(ε i ) = σ 2 (x i ). Variance : cas homoscédastique σ 2 (x i ) = σ 2 i sinon hétéroscédastique Cas particulaire : "design régulaire" avec densité f X connue x i = F 1 X (i/n) où F X(x) = et x 1... x n,x i [0, 1]. x f X (t) dt, Souvent, f X densité uniforme, donc x i = F 1 X (i/n) = i/n (donc x i+1 x i constante pour tout i) : "design équidistant" 44

Régression non paramétrique avec "stochastic design" Y i = m(x i ) + σ(x i ) ε i i = 1,...,n, où {ε i } sont indépendantes conditionellement aux X 1,...X n avec E(ε i X = x) = 0 et var(ε i X = x) = 1. Donc, m(x) est l espérance conditionnelle de Y sachant X E[Y X = x] = m(x) + σ(x) E(ε X = x) = m(x), et σ 2 (X) est la variance conditionnelle sachant X : var(y X = x) = E[Y 2 X = x] m 2 (x) =... = σ 2 (x). L évaluation d un estimateur m(x) via MSE conditionnelle MSE( m(x) X 1,...,X n ) = E[( m(x) m(x)) 2 X 1,...,X n ] (ou avec la MISE, intégrale de MSE( m(x)) par rapport à x). 45

Régression np: Deux estimateurs à noyau L estimateur Nadaraya Watson : n m NW (x) = K ( X i x h n K ( ) X i x h ) Yi proposé Nadaraya (1964) et Watson (1964). On peut écrire cet estimateur sous forme m NW (x) = W i (x) Y i, avec des "poids" W i (x) = K ( ) X i x h n K ( X i ) x h et donc "une règle de lissage linéaire". Sa motivation provient de m(x) = E[Y X = x] = y f Y X (y x) dy = 1 f X (x) avec un estimateur pour le numérateur 1 ( ) Xi x K nh h et un estimateur à noyau de densité pour le dénominateur 1 ( ) Xi x K. nh h Y i y f X,Y (x,y) dy 46

Comment interpréter cet estimateur? Moyenne locale Moindres carrés pondérés Vraisemblance locale Moyenne locale Soit n nombres d observations X i proche de x (c.à.d. d une distance h de x) et I x l ensemble des indices de ces observations. On peut écrire n = et Y i = i I x I(x h < X i < x + h) I(x h < X i < x + h) Y i Ceci résulte en l estimateur NW avec noyau uniforme : m(x) = 1 n Y n i = I(x h < X i < x + h) Y i n i I x I(x h < X i < x + h) Observez que n nh "taille d échantillonage effective" 47

Moindres carrés pondérés L estimateur NW peut être obtenu comme minimisation du critère ( ) (Y i m) 2 Xi x K h par rapport à m pour un x donné. Vraisemblance locale Sous l hypothèse de normalité, l estimateur NW peut être obtenu comme maximisation d une fonction log vraisemblance locale : ( ) L(m, σ 2,x) = l(m,σ 2 Xi x ) K h par rapport à m pour un x donné, avec la log vraisemblance gaussienne l( ) l(m,σ 2 ) = 1 2 log σ2 n (Y i m) 2 2σ 2. 48

Exemple : Food expenditure (Y) en fonction du net-income (X) en Royaume-Uni, 1973. Estimator NW avec quatre bandwidths différentes : h=0.05 h=0.2 Food 0.5 1 1.5 0.5 1 1.5 2 2.5 Net-income h=0.1 Food 0.5 1 1.5 Food 0.5 1 1.5 0.5 1 1.5 2 2.5 Net-income h=0.5 Food 0.5 1 1.5 0.5 1 1.5 2 2.5 Net-income 0.5 1 1.5 2 2.5 Net-income 49

Exemple : Food expenditure (Y) en fonction du net-income (X) en Royaume-Uni, 1973. valeurs des poids effectifs W i (x) pour l estimateur NW: 50

L estimateur Gasser-Müller a) L estimateur de Priestley et Chao (1972) m PC (x) = K h (x X (i) ) (X (i) X (i 1) ) Y [i], où Y [i] est la valeur associée à X (i) (échantillon ordonné). b) L estimateur de Gasser et Müller (1979) m GM (x) = si s i 1 K h (x u) du Y [i] =: W i (x)y [i], avec s 0 =, s n =, (pour que n W i(x) = 1) et X (i) s i X (i+1), i = 1,...,n 1. Meilleur choix de s i : s i = 1/2 (X (i) + X (i+1) ), i = 1,...,n 1. Comparaison avec l estimateur NW : NW : les poids W i sont proportionnels à l hauteur du noyau normalisé GM : les poids sont proportionnels à la surface (air en dessous du noyau intégré) 51

Biais et variance pour la régression np (1) Design stochastique - estimateur NW : Biais[ m NW (x)] = 1 2 var[ m NW (x)] = σ2 (x) f(x) nh ( ) m (x) + 2 m (x)f (x) f(x) (2) Design stochastique - estimateur GM : µ 2 h 2 +o (h 2 ). K 2 (u) du + o ( 1 nh ). Biais[ m GM (x)] = 1 2 m (x) µ 2 h 2 + o (h 2 ). var[ m GM (x)] = 3/2 σ2 (x) f(x) nh K 2 (u) du + o ( 1 nh ). Donc, l estimateur GM à un meilleur comportement quant au biais mais une variance (asymptotique) plus élevée (facteur 3/2) au cas du "design stochastique". (3) Le cas du design fixe équidistant : Biais[ m NW (x)] = Biais[ m GM (x)] = 1 2 m (x) µ 2 h 2 +o (h 2 ). var[ m NW (x)] = var[ m GM (x)] = σ2 (x) nh MSE[ m ( x)] = h 4 /4 µ 2 2 (m (x)) 2 + σ2 (x) nh K 2 (u) du + o ( 1 nh ). K 2 (u) du +o (h 4 +(nh) 1 ) 52