Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Philippe Gagnepain Université Paris 1 Ecole d Economie de Paris Centre d économie de la Sorbonne-UG 4-Bureau 405 philippe.gagnepain@univ-paris1.fr Tel : 01 44 07 82 07
Introduction On s intéresse maintenant aux estimateurs des modèles non linéaires. Modèles structurels qui permettent de représenter de façon plus satisfaisante le comportement des agents économiques. Deux estimateurs: Maximum de vraisemblance et Méthode des moments généralisée. Les MCO et la méthode des Variables Instrumentales sont des cas particuliers de ces deux estimateurs.
Maximum de vraisemblance L estimateur par maximum de vraisemblance consiste à choisir la valeur de qui maximise la vraisemblance (probabilité) d observer l échantillon étudié. Pour spécifier la vraisemblance, il est nécessaire de déterminer la densité conditionnelle de y sur x. On considère un échantillon où les observations sont indépendantes et générées selon la densité. On écrit donc la probabilité d observer la réalisation y i. On détermine ensuite la densité conditionnelle jointe
Maximum de vraisemblance Et la fonction de log-vraisemblance Exemples
Maximum de vraisemblance L estimateur par maximum de vraisemblance maximise la fonction de log-vraisemblance. Les conditions de premier ordre sont Exemple : distribution Weibull. Elle est utilisée pour les modèles de durée (chômage par exemple). La densité correspondante est où y et les paramètres sont tous positifs.
Maximum de vraisemblance
Maximum de vraisemblance On sait également que On suppose que La fonction de log-vraisemblance est donc Conditions de premier ordre:
Maximum de vraisemblance Exemple : loi exponentielle, également utilisée pour les modèles de durée. avec moyenne et variance : et. On suppose La log-vraisemblance est:
Maximum de vraisemblance Les conditions de premier ordre sont:
Méthode des moments La méthode des moments propose une stratégie simple pour la construction d estimateurs qui s avèrent consistants sous des hypothèses diverses. Le principe de base est que les conditions sur les moments d une population conduisent à des conditions sur les moments d un échantillon qui peuvent être utilisées pour estimer des paramètres. Cette méthode englobe d autres classes d estimateurs comme les MCO, les variables instrumentales, ou le maximum de vraisemblance. Avantage : pas besoin d hypothèse sur la distribution du terme d erreur. Difficulté : pour que la loi des grands nombres s applique, il est nécessaire que la taille de l échantillon soit conséquente.
Méthode des moments En statistique, on appelle moments les moyennes d une variable ou du produit de variables. et sont tous des exemples de moments. L économètres fait constamment des hypothèses sur les moments associés à une base de données. Par exemple: et.
Exemple 1 Estimer la moyenne d une population lorsque y est iid. Dans la population On remplace la moyenne de la population par la moyenne de l échantillon afin d obtenir le moment suivant: On obtient alors l estimateur : L estimateur par la méthode des moments de la moyenne de la population est alors la moyenne de l échantillon.
Exemple 2 On considère le modèle, et les moments et. Pour estimer les paramètres et, on résout donc le système: La méthode est similaire au principe des MCO. Que faire si on estime le même modèle sans?
Exemple 3 Considérons une variable distribuée selon une loi de Student à degrés de liberté, dont la densité est: où est la loi gamma. On dispose d un échantillon de T réalisations et on souhaite estimer. Une estimation par maximum de vraisemblance est possible:
Exemple 3 suite et l estimateur serait alors: On peut se contenter d utiliser un nombre limité de moments: Si on connait la valeur de,, on peut en déduire celle de.
Exemple 3 suite On utilise pour cela la moyenne empirique d ordre deux sachant que Il s agit d un estimateur de la méthode des moments classique. Donc de manière générale:
Méthode des moments classique Si on considère un vecteur de paramètres qui caractérise la densité d une variable Y t, et si on suppose que K moments distincts dépendent de : Alors est obtenu par la résolution d un système à K équations et K inconnues. où:
Méthode des moments généralisée (GMM) Dans le précédent exemple, on estime un paramètre avec un seul moment empirique (moment d ordre deux ). On aurait pu utiliser n importe quel autre moment de. Par exemple, avec On résout alors
Méthode des moments généralisée (GMM) On améliore l efficacité de l estimateur si on utilise plusieurs moments. Problème : suridentification (plusieurs équations pour une seule inconnue). On ne peut pas trouver une valeur unique permettant de résoudre L estimateur GMM détermine la valeur du paramètre qui minimise la distance de chaque moment à 0.
Méthode des moments généralisée (GMM) Dans notre exemple, l estimateur minimise une fonction critère de la forme avec où la matrice W est une matrice de poids qui reflète l importance attribuée à chacun des deux moments.
Méthode des moments généralisée (GMM) Un estimateur est alors obtenu par le programme On doit principalement cet estimateur à Hansen (1982). De manière plus générale, on appelle conditions d orthogonalité les r conditions définies par le système et le vecteur est des moments empiriques correspondants
Méthode des moments généralisée (GMM) L idée des GMM est donc de déterminer une valeur de telle que les r moments empiriques soient aussi proches que possible de 0. L estimateur GMM minimise la fonction critère avec
Méthode des moments généralisée (GMM) Exemple : la méthode classique de moments de notre exemple précédent est un cas particulier de cette formule avec L équivalent empirique est En posant classique:, on retrouve le programme de la méthode
Méthode des moments généralisée (GMM) La plus petite valeur admissible de est 0, et est obtenue pour: soit
Méthode des moments généralisée (GMM) Règle générale: - S il existe autant de conditions d orthogonalité que de paramètres, le système est juste identifié, et l estimateur GMM se ramène au vecteur de dimension qui résout le système à r équations - S il existe plus de conditions d orthogonalité que de paramètres, le système est suridentifié, et l estimateur GMM dépend alors du choix de la matrice de poids. Comment déterminer W T?
Méthode des moments généralisée (GMM) On procède à une estimation en deux étapes: On construit un estimateur convergent mais non efficace de : On donne le même poids aux différentes conditions d orthogonalité en posant. A partir de cet estimateur, on construit un estimateur de la matrice de poids optimale
Méthode des moments généralisée (GMM) On dérive alors un estimateur convergent et efficace des paramètres : La méthode des GMM est une méthode englobante qui permet de retrouver comme cas particuliers un grand nombre d estimateurs usuels comme les MCO, les VI, les Doubles MC, et le maximum de vraisemblance.
Cas particulier: MCO On considère un modèle de régression standard: est un vecteur de dimension qui justifie l emploi des MCO est:. L hypothèse centrale Dans nos notations:
Cas particulier: MCO Le vecteur des moments empiriques correspond aux k conditions d orthogonalité: On résout donc le système suivant: ou
Références bibliographiques L. P. Hansen (1982), Large Sample Properties of Generalized Method of Moments Estimators, Econometrica, 50, 1029-1054.