Francesco Quatraro M1 EFM 2010/2011 1
La violation des hypothèses Le modèle des MCO considère que les hypothèses suivantes sont toutes respectées: H1: le modèle est linéaire en x i,t H2: les valeurs x i,t sont observés sans erreur H3: E( )=0, l espérance mathématique de l erreur est nulle H4: E( ²)= ², la variance de l erreur est constante (homoscédasticité) H5: E( t t+1 ), les erreurs sont non corrélées (ou indépendants) H6: Cov(x i,t t ), l erreur est indépendante de la variable explicative 2
La violation de l hypothèse H5 concerne des sériés temporelles où les éléments hors diagonale de la matrice de covariance de l erreur est différente de 0 Dans ce cas les estimateurs obtenus par la méthode des MCP sont sans biais mais ne sont plus à variance minimale Il faut donc identifier des nouveaux estimateurs et des techniques pour détecter une éventuelle autocorrélation des erreurs 3
Considérons le modèle linéaire général: Y = X a + (n,1) (n,k+1) (k+1,1) (n,1) Dans lequel E( ) ² I Nous désirons déterminer un estimateur de a qui ait le mêmes propriétés que l estimateur MCO: sans biais et à variance minimale 4
Il est démontré que cet estimateur est donné par: Cet estimateur est appelé estimateur des Moindres Carrés Généralisés (MCG) Lorsque les hypothèses classiques sont satisfaites, nous retrouvons l estimateur MCO 5
On a une autocorrélation des erreurs lorsque les erreurs sont liées par un processus de reproduction. On peut distinguer l autocorrélation positive de l autocorrélation négative. 6
L autocorrélation des erreurs peut être observée pour plusieurs raisons: Absence d une variable explicative importante dont l explication résiduelle permettrait de blanchir les erreurs Mauvaise spécification du modèle: les relations entre les variables explicatives et la variable à expliquer ne sont pas linéaires Un lissage par moyenne mobile ou une interpolation crée un autocorrélation artificielle 7
L autocorrélation des erreurs se rencontre essentiellement dans les modèles en série temporelle où l influence d une erreur d une période sur l autre est plausible Dans le cas de modèle spécifié en coupe instantanée, on ne peut pas concevoir un autocorrélation des erreurs que si les observations ont été préalablement triées en fonction de la variable à expliquer 8
La détection d une éventuelle dépendance des erreurs ne peut s effectuer qu à partir de l analyse des résidus. L analyse graphique des résidus permet le plus souvent de détecter un processus de reproduction des erreurs lorsque: Les résidus sont pendant plusieurs périodes consécutives soit positifs, soit négatifs (autocorrélation positive) Les résidus sont alternés (autocorrélation négative) 9
Le test de Durbin et Watson permet de détecter une autocorrélation des erreurs d ordre 1 selon la forme: Le test d hypothèse est le suivant: H0: =0 H1: 0 10
Pour tester l hypothèse nulle H0, nous calculons la statistique de Durbin et Watson: Ou e t sont les résidus de l estimation du modèle Par sa construction, cette statistique varie entre 0 et 4, et nous avons DW=2 lorsque Afin de tester l hypothèse H0, ils ont tabulé les valeurs critiques de DW au seuil de 5% en fonction de la taille de l échantillon et du nombre de variables explicatives (n, k) 11
La lecture de la table permet de déterminer deux valeurs d1 et d2 comprises entre 0 et 2 qui délimitent l espace entre 0 et 4 Selon la position du DW empirique dans cet espace, nous pouvons coclure: d 2 <DW<4-d 2 on accepte H0 0<DW<d 1 on rejette H0; >0 4-d 1 <DW<4 on rejette H0; <0 d 1 <DW<d 2 ; 4-d 2 <DW<4-d 1 : indeterminé 12
Pour utiliser ce test, le modèle doit comporter impérativement un terme constant La variable à expliquer ne doit pas figurer parmi les variables explicatives Pour les modèles en coupe instantanée, les observation doivent être ordonnées en fonction de la variable à expliquer Toutefois, le test de Durbin et Watson est un test présomptif d indépendance des erreurs de fait qu il utilise les résidus 13
Le test de Breusch-Godfrey est fondé sur un test de Fisher de nullité de coefficient ou de Multiplicateur de Lagrange Il permet de tester une autocorrélation d un ordre supérieur à 1, et il reste valide en presence de la variable à expliquer retardée parmi les variables explicatives L idée générale de ce test réside dans la recherche d une relation significative entre le résidu et ce même résidu décalé 14
Le test est mené en trois étapes Estimation par les MCO du modèle et calcul du résidu Estimation par les MCO de l équation intermédiaire: Test d hypothèse sur l équation intermédiaire, dont l hypothèse H0: 1= 2 = = p =0 15
Si nous retenons l hypothèse d une autocorrélation d ordre 1, le modèle s écrit: Processus autorégressif d ordre 1 : AR(1) En procédant par substitution successive du modèle autorégressif, on obtient: 16
Nous avons E( t )=0 En général: 17
On a déjà vu que l estimateur des MCG est égal à: Cependant, nous ne connaissons ni le terme ni la variance ² ; Nous allons donc chercher une transformation matricielle M telle que le modèle MY=MXa+M ait ses erreurs indépendantes et homoscédastiques 18
Soit: Dans ce cas on peut déterminer l estimateur BLUE de a par la méthode des MCO: En comparant les deux spécifications de l estimateur de a, M M= -1 L égalité est vérifiée pour chaque transformation de la matrice de covariance 19
Donc on peut écrire: La matrice M que remplit cette condition est la suivante: Ainsi, nous pouvons substituer à la méthode des MCG la méthode MCO appliquée au modèle linéaire MY = MXa + M 20
Puisque nous n observons pas, il convient de trouver des procédures pour l estimer Il y a différentes procédures. Considérons le cas où a) estimation directe de à partir des résidus de la regression: Estimation de ou Transformation des variables et MCO 21
(b) Estimation itérative du vecteur a et (Cochrane-Orcutt) Valeur initiale: Régression sur le quasi-différences Réestimation de en utilisant les résidus obtenus en appliquant les coefficients estimés dans l étape précédent Régression sur les quasi-différences Et ainsi de suite jusqu à la stabilisation des coefficients 22
c) méthode du balayage (Hildreth-Lu) Determination du type de autocorrélation au travers du test de Durbin-Watson Régression pour l intervalle des valeurs possibles de d) Maximum de vraisemblance Consiste à estimer conjointement le vecteur a e la valeur par maximisation d une fonction de vraisemblance 23
Hétéroscédasticité On dit que le modèle est hétéroscédastique quand le variances des erreurs ne sont constantes le longue de la diagonale de la matrice de covariance Ce problème se rencontre plus fréquemment pour les modèles spécifiés en coupe instantanée, ou bien que les observations sont représentatives de moyennes La variance de l erreur est alors liée aux valeurs de la variable explicative 24
Hétéroscédasticité 25
Hétéroscédasticité Les conséquences de l hétéroscédasticité sont identiques à celles de l autocorrélation des erreurs, c.à.d.: Estimateur sans biais Estimateur n est plus à variance minimale Les causes de l hétéroscédasticité sont multiples: Les observations représentent des moyennes calculés sur des échantillons différentes Répétition du même valeur de la variable à expliquer pour différentes valeurs de la variable explicative Les erreurs sont liées aux valeurs prises pare une variable explicative 26
Hétéroscédasticité L estimateur BLUE du modèle hétéroscédastique est alors celui des MCG Il n existe pas une méthodologie unique de correction La règle générale consiste à déterminer une transformation concernant les données afin de se ramener à un modèle à variances constantes 27
Erreurs sur les variables La méthode des MCO porte sur l hypothèse que la variable endogène et les variables exogènes sont mesurés sans erreur Toutefois, dans certains modèles, les variables économiques peuvent être entachées d une erreur relative importante C est le cas pour exemple des données collectés par d enquêtes Dans ce cas il convient de distinguer les valeurs vrais (y*,x*) des valeurs observés (y,x) 28
Erreurs sur les variables Soit le modèle Y* = X*a + Posons: X = X* + ; Y = Y* + En substituant dans le modèle initial: Y - = (X - )a + Y = Xa - a + + Y = Xa + ; = - a + 29
Erreurs sur les variables Les propriétés stochastiques de suivantes: E( ) = 0 E(X* ) = 0 E (X ) = -E( )a 0 sont les Donc, l hypothèse H6 du modèle général n est pas vérifiée L estimateur est biaisé 30
Erreurs sur les variables Lorsqu on se trouve en présence d un modèle à erreurs sur les variables Y = Xa +, l estimateur ne converge pas vers la valeur vraie a. Le but de la technique des variables instrumentales est de déterminer k variables z 1, z 2,,z k telles que E(Z ) = 0 où Z=(z 1, z 2,,z k ) Cov(Z X) 0 31
Erreurs sur les variables Nous avons alors: E(Z Y)=E{Z (Xa+ )}=E(Z X)a+E(Z )=E(Z X)a La difficulté de mise en ouvre de cette méthode réside dans la sélection des variables instrumentales Z qui doivent être non corrélées avec et fortement corrélées avec X. 32