Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée



Documents pareils
PROBABILITES ET STATISTIQUE I&II

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

Méthodes de Simulation

UNIVERSITÉ DU QUÉBEC À MONTRÉAL TESTS EN ÉCHANTILLONS FINIS DU MEDAF SANS LA NORMALITÉ ET SANS LA CONVERGENCE

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Modélisation aléatoire en fiabilité des logiciels

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

TABLE DES MATIERES. C Exercices complémentaires 42

Econométrie et applications

Programmation linéaire

Économetrie non paramétrique I. Estimation d une densité

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

FIMA, 7 juillet 2005

Principe de symétrisation pour la construction d un test adaptatif

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

Modèles et Méthodes de Réservation

Gestion obligataire passive

NON-LINEARITE ET RESEAUX NEURONAUX

Programmation linéaire

Feuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Modèle GARCH Application à la prévision de la volatilité

Simulation de variables aléatoires

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

1 Complément sur la projection du nuage des individus

Le Modèle Linéaire par l exemple :

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Introduction à la Statistique Inférentielle

Classification non supervisée

Table des matières. I Mise à niveau 11. Préface

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

Exercice : la frontière des portefeuilles optimaux sans actif certain

Exercices Corrigés Premières notions sur les espaces vectoriels

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Théorie et codage de l information

Tests de comparaison de moyennes. Dr Sahar BAYAT MASTER 1 année UE «Introduction à la biostatistique»

La classification automatique de données quantitatives

Cours 02 : Problème général de la programmation linéaire

STATISTIQUES. UE Modélisation pour la biologie

Cours d introduction à la théorie de la détection

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Correction de l examen de la première session

Espérance conditionnelle

Programmes des classes préparatoires aux Grandes Ecoles

Calculs et Certificats de Quantités d Intérêts Non Linéaires d un Mousqueton Cédric Bellis

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Représentation des Nombres

La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

Introduction au Data-Mining

Cours de méthodes de scoring

Formations EViews FORMATIONS GENERALES INTRODUCTIVES INTRO : INTRODUCTION A LA PRATIQUE DE L ECONOMETRIE AVEC EVIEWS

Théorie de l estimation et de la décision statistique

PRIME D UNE OPTION D ACHAT OU DE VENTE

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Analyse en Composantes Principales

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Statistique inférentielle TD 1 : Estimation

Arbres binaires de décision

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.


Température corporelle d un castor (une petite introduction aux séries temporelles)

Mathématiques appliquées à l'économie et à la Gestion

Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien

ANALYSE DU RISQUE DE CRÉDIT

Durées d utilisation des facteurs et fonction de production : une estimation par la méthode des moments généralisés en système

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

L Econométrie des Données de Panel

MODELE A CORRECTION D ERREUR ET APPLICATIONS

Plus courts chemins, programmation dynamique

Le théorème des deux fonds et la gestion indicielle

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Chapitre 3. Les distributions à deux variables

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria

Programmation linéaire et Optimisation. Didier Smets

LES MÉTHODES DE POINT INTÉRIEUR 1

CHAPITRE 5. Stratégies Mixtes

Processus aléatoires avec application en finance

Soutenance de stage Laboratoire des Signaux et Systèmes

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Représentation géométrique d un nombre complexe

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Probabilités III Introduction à l évaluation d options

Optimisation Discrète

Dérivés Financiers Contrats à terme

Apprentissage par renforcement (1a/3)

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

Modélisation des carrières salariales. dans Destinie

Allocation Robuste et Restrictions sur les Contributions au Risque

Zazie : Être et avoir

Cours Marché du travail et politiques d emploi

Probabilités conditionnelles Exercices corrigés

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Les imperfections de concurrence dans l industrie bancaire : spécificités et conséquences

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Transcription:

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Philippe Gagnepain Université Paris 1 Ecole d Economie de Paris Centre d économie de la Sorbonne-UG 4-Bureau 405 philippe.gagnepain@univ-paris1.fr Tel : 01 44 07 82 07

Introduction On s intéresse maintenant aux estimateurs des modèles non linéaires. Modèles structurels qui permettent de représenter de façon plus satisfaisante le comportement des agents économiques. Deux estimateurs: Maximum de vraisemblance et Méthode des moments généralisée. Les MCO et la méthode des Variables Instrumentales sont des cas particuliers de ces deux estimateurs.

Maximum de vraisemblance L estimateur par maximum de vraisemblance consiste à choisir la valeur de qui maximise la vraisemblance (probabilité) d observer l échantillon étudié. Pour spécifier la vraisemblance, il est nécessaire de déterminer la densité conditionnelle de y sur x. On considère un échantillon où les observations sont indépendantes et générées selon la densité. On écrit donc la probabilité d observer la réalisation y i. On détermine ensuite la densité conditionnelle jointe

Maximum de vraisemblance Et la fonction de log-vraisemblance Exemples

Maximum de vraisemblance L estimateur par maximum de vraisemblance maximise la fonction de log-vraisemblance. Les conditions de premier ordre sont Exemple : distribution Weibull. Elle est utilisée pour les modèles de durée (chômage par exemple). La densité correspondante est où y et les paramètres sont tous positifs.

Maximum de vraisemblance

Maximum de vraisemblance On sait également que On suppose que La fonction de log-vraisemblance est donc Conditions de premier ordre:

Maximum de vraisemblance Exemple : loi exponentielle, également utilisée pour les modèles de durée. avec moyenne et variance : et. On suppose La log-vraisemblance est:

Maximum de vraisemblance Les conditions de premier ordre sont:

Méthode des moments La méthode des moments propose une stratégie simple pour la construction d estimateurs qui s avèrent consistants sous des hypothèses diverses. Le principe de base est que les conditions sur les moments d une population conduisent à des conditions sur les moments d un échantillon qui peuvent être utilisées pour estimer des paramètres. Cette méthode englobe d autres classes d estimateurs comme les MCO, les variables instrumentales, ou le maximum de vraisemblance. Avantage : pas besoin d hypothèse sur la distribution du terme d erreur. Difficulté : pour que la loi des grands nombres s applique, il est nécessaire que la taille de l échantillon soit conséquente.

Méthode des moments En statistique, on appelle moments les moyennes d une variable ou du produit de variables. et sont tous des exemples de moments. L économètres fait constamment des hypothèses sur les moments associés à une base de données. Par exemple: et.

Exemple 1 Estimer la moyenne d une population lorsque y est iid. Dans la population On remplace la moyenne de la population par la moyenne de l échantillon afin d obtenir le moment suivant: On obtient alors l estimateur : L estimateur par la méthode des moments de la moyenne de la population est alors la moyenne de l échantillon.

Exemple 2 On considère le modèle, et les moments et. Pour estimer les paramètres et, on résout donc le système: La méthode est similaire au principe des MCO. Que faire si on estime le même modèle sans?

Exemple 3 Considérons une variable distribuée selon une loi de Student à degrés de liberté, dont la densité est: où est la loi gamma. On dispose d un échantillon de T réalisations et on souhaite estimer. Une estimation par maximum de vraisemblance est possible:

Exemple 3 suite et l estimateur serait alors: On peut se contenter d utiliser un nombre limité de moments: Si on connait la valeur de,, on peut en déduire celle de.

Exemple 3 suite On utilise pour cela la moyenne empirique d ordre deux sachant que Il s agit d un estimateur de la méthode des moments classique. Donc de manière générale:

Méthode des moments classique Si on considère un vecteur de paramètres qui caractérise la densité d une variable Y t, et si on suppose que K moments distincts dépendent de : Alors est obtenu par la résolution d un système à K équations et K inconnues. où:

Méthode des moments généralisée (GMM) Dans le précédent exemple, on estime un paramètre avec un seul moment empirique (moment d ordre deux ). On aurait pu utiliser n importe quel autre moment de. Par exemple, avec On résout alors

Méthode des moments généralisée (GMM) On améliore l efficacité de l estimateur si on utilise plusieurs moments. Problème : suridentification (plusieurs équations pour une seule inconnue). On ne peut pas trouver une valeur unique permettant de résoudre L estimateur GMM détermine la valeur du paramètre qui minimise la distance de chaque moment à 0.

Méthode des moments généralisée (GMM) Dans notre exemple, l estimateur minimise une fonction critère de la forme avec où la matrice W est une matrice de poids qui reflète l importance attribuée à chacun des deux moments.

Méthode des moments généralisée (GMM) Un estimateur est alors obtenu par le programme On doit principalement cet estimateur à Hansen (1982). De manière plus générale, on appelle conditions d orthogonalité les r conditions définies par le système et le vecteur est des moments empiriques correspondants

Méthode des moments généralisée (GMM) L idée des GMM est donc de déterminer une valeur de telle que les r moments empiriques soient aussi proches que possible de 0. L estimateur GMM minimise la fonction critère avec

Méthode des moments généralisée (GMM) Exemple : la méthode classique de moments de notre exemple précédent est un cas particulier de cette formule avec L équivalent empirique est En posant classique:, on retrouve le programme de la méthode

Méthode des moments généralisée (GMM) La plus petite valeur admissible de est 0, et est obtenue pour: soit

Méthode des moments généralisée (GMM) Règle générale: - S il existe autant de conditions d orthogonalité que de paramètres, le système est juste identifié, et l estimateur GMM se ramène au vecteur de dimension qui résout le système à r équations - S il existe plus de conditions d orthogonalité que de paramètres, le système est suridentifié, et l estimateur GMM dépend alors du choix de la matrice de poids. Comment déterminer W T?

Méthode des moments généralisée (GMM) On procède à une estimation en deux étapes: On construit un estimateur convergent mais non efficace de : On donne le même poids aux différentes conditions d orthogonalité en posant. A partir de cet estimateur, on construit un estimateur de la matrice de poids optimale

Méthode des moments généralisée (GMM) On dérive alors un estimateur convergent et efficace des paramètres : La méthode des GMM est une méthode englobante qui permet de retrouver comme cas particuliers un grand nombre d estimateurs usuels comme les MCO, les VI, les Doubles MC, et le maximum de vraisemblance.

Cas particulier: MCO On considère un modèle de régression standard: est un vecteur de dimension qui justifie l emploi des MCO est:. L hypothèse centrale Dans nos notations:

Cas particulier: MCO Le vecteur des moments empiriques correspond aux k conditions d orthogonalité: On résout donc le système suivant: ou

Références bibliographiques L. P. Hansen (1982), Large Sample Properties of Generalized Method of Moments Estimators, Econometrica, 50, 1029-1054.