Méthodes d analyse empirique
|
|
- Geneviève Dumouchel
- il y a 8 ans
- Total affichages :
Transcription
1 Méthodes d analyse empirique Partie Quantitative Michel Beine (suppl. S. Laurent) michel.beine@uni.lu Université du Luxembourg Méthodes d analyse empirique p. 1/?
2 Méthodes d analyse empirique p. 2/161 Manuel Ce cours est basé sur le livre Introductory Econometrics, a Modern Approach (second or third editions) de Jeffrey M. Wooldridge, édition Thomson South-Western.
3 Méthodes d analyse empirique p. 2/161 Manuel Ce cours est basé sur le livre Introductory Econometrics, a Modern Approach (second or third editions) de Jeffrey M. Wooldridge, édition Thomson South-Western. Logiciel économétrique : Ox et PcGive.
4 Méthodes d analyse empirique p. 2/161 Manuel Ce cours est basé sur le livre Introductory Econometrics, a Modern Approach (second or third editions) de Jeffrey M. Wooldridge, édition Thomson South-Western. Logiciel économétrique : Ox et PcGive. Evaluation: examen à livre fermé.
5 Méthodes d analyse empirique p. 3/161 Plan du cours Chapitre 17. Modèles de choix discret et maximum de vraissemblance.
6 Méthodes d analyse empirique p. 3/161 Plan du cours Chapitre 17. Modèles de choix discret et maximum de vraissemblance. Chapitre 15. Variables instrumentales et MCO en 2 étapes.
7 Méthodes d analyse empirique p. 3/161 Plan du cours Chapitre 17. Modèles de choix discret et maximum de vraissemblance. Chapitre 15. Variables instrumentales et MCO en 2 étapes. Chapitre 16. Modèles à équations simultanées.
8 Méthodes d analyse empirique p. 3/161 Plan du cours Chapitre 17. Modèles de choix discret et maximum de vraissemblance. Chapitre 15. Variables instrumentales et MCO en 2 étapes. Chapitre 16. Modèles à équations simultanées. Les processus modérateurs et médiateurs, ANOVA,...
9 Maximum de vraissemblance et modèles à choix discrets Méthodes d analyse empirique p. 4/161
10 Méthodes d analyse empirique p. 5/161 Motivation Le maximum de vraisemblance (MV) est une méthode d estimation utile quand les paramètres d un modèle ne peuvent pas être estimés par MCO. Des tests de restrictions sont également disponibles (principe du test de rapport des vraisemblances).
11 Méthodes d analyse empirique p. 5/161 Motivation Le maximum de vraisemblance (MV) est une méthode d estimation utile quand les paramètres d un modèle ne peuvent pas être estimés par MCO. Des tests de restrictions sont également disponibles (principe du test de rapport des vraisemblances). La méthode nécessite la spécification entière de la distribution de probabilité de l échantillon observé, pas uniquement la moyenne conditionnelle de l échantillon (tel le modèle de régression linéaire estimé par MCO).
12 Méthodes d analyse empirique p. 5/161 Motivation Le maximum de vraisemblance (MV) est une méthode d estimation utile quand les paramètres d un modèle ne peuvent pas être estimés par MCO. Des tests de restrictions sont également disponibles (principe du test de rapport des vraisemblances). La méthode nécessite la spécification entière de la distribution de probabilité de l échantillon observé, pas uniquement la moyenne conditionnelle de l échantillon (tel le modèle de régression linéaire estimé par MCO). L estimation par MV du modèle de régression linéaire demande de spécifier aussi la structure de la dépendance de l échantillon via les erreurs (i.i.d. par exemple) et la distribution du terme d erreurs (comme ǫ t N(0,σ 2 ), mais une autre distribution est possible).
13 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile.
14 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience.
15 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience. Avant de lancer la pièce, nous savons que le nombre de piles sera un nombre de 0 à 10.
16 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience. Avant de lancer la pièce, nous savons que le nombre de piles sera un nombre de 0 à 10. Une variable aléatoire est une variable qui prend des valeurs numériques et a un résultat qui est déterminé par une expérience.
17 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience. Avant de lancer la pièce, nous savons que le nombre de piles sera un nombre de 0 à 10. Une variable aléatoire est une variable qui prend des valeurs numériques et a un résultat qui est déterminé par une expérience. le nombre de fois que l on obtient pile est un exemple de variable aléatoire.
18 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience. Avant de lancer la pièce, nous savons que le nombre de piles sera un nombre de 0 à 10. Une variable aléatoire est une variable qui prend des valeurs numériques et a un résultat qui est déterminé par une expérience. le nombre de fois que l on obtient pile est un exemple de variable aléatoire. 7 piles sur 10 est un exemple de réalisation de cette variable aléatoire pour une expérience donnée.
19 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X.
20 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6.
21 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6. Notons que le lancer d une pièce de monnaie peut être considéré comme une variable aléatoire suivant une distribution de Bernoulli où X = 1 est appelé succes et X = 0 échec.
22 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6. Notons que le lancer d une pièce de monnaie peut être considéré comme une variable aléatoire suivant une distribution de Bernoulli où X = 1 est appelé succes et X = 0 échec. Une variable aléatoire de Bernoulli est le plus simple exemple de variable aléatoire discrète.
23 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6. Notons que le lancer d une pièce de monnaie peut être considéré comme une variable aléatoire suivant une distribution de Bernoulli où X = 1 est appelé succes et X = 0 échec. Une variable aléatoire de Bernoulli est le plus simple exemple de variable aléatoire discrète. La seule chose que nous devons décrire pour une telle variable est la probabilité de succes: P(X = 1).
24 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6. Notons que le lancer d une pièce de monnaie peut être considéré comme une variable aléatoire suivant une distribution de Bernoulli où X = 1 est appelé succes et X = 0 échec. Une variable aléatoire de Bernoulli est le plus simple exemple de variable aléatoire discrète. La seule chose que nous devons décrire pour une telle variable est la probabilité de succes: P(X = 1). Dans le cas d une pièce équilibrée, P(X = 1) = 0.5 et comme P(X = 1) + P(X = 0) = 1,P(X = 0) = 0.5. Méthodes d analyse empirique p. 7/161
25 Méthodes d analyse empirique p. 8/161 Variable aléatoire discrère Il n y a pas de raison de penser que la probabilité de succes de toute variable binaire (0-1) est 0.5.
26 Méthodes d analyse empirique p. 8/161 Variable aléatoire discrère Il n y a pas de raison de penser que la probabilité de succes de toute variable binaire (0-1) est 0.5. De manière générale disons que P(X = 1) = θ et comme P(X = 1) + P(X = 0) = 1,P(X = 0) = 1 θ.
27 Méthodes d analyse empirique p. 8/161 Variable aléatoire discrère Il n y a pas de raison de penser que la probabilité de succes de toute variable binaire (0-1) est 0.5. De manière générale disons que P(X = 1) = θ et comme P(X = 1) + P(X = 0) = 1,P(X = 0) = 1 θ. Comment estimer θ sur base d un échantillon, c-à-d une expérience?
28 Méthodes d analyse empirique p. 8/161 Variable aléatoire discrère Il n y a pas de raison de penser que la probabilité de succes de toute variable binaire (0-1) est 0.5. De manière générale disons que P(X = 1) = θ et comme P(X = 1) + P(X = 0) = 1,P(X = 0) = 1 θ. Comment estimer θ sur base d un échantillon, c-à-d une expérience? Plus généralement encore si X peut prendre des valeurs {x 1,x 2,...,x k }, alors les probabilités p 1,p 2,...,p k sont définies par avec p 1 + p p k = 1. p j = P(X = x j ),j = 1, 2,...,k
29 Méthodes d analyse empirique p. 9/161 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }.
30 Méthodes d analyse empirique p. 9/161 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }. La fonction de distribution jointe de n variables aléatoires discrètes X j,j = 1, 2,...,n est notée f(x 1,x 2,...,x n ) = P(X 1 = x 1,X 2 = x 2,...,X n = x n ).
31 Méthodes d analyse empirique p. 9/161 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }. La fonction de distribution jointe de n variables aléatoires discrètes X j,j = 1, 2,...,n est notée f(x 1,x 2,...,x n ) = P(X 1 = x 1,X 2 = x 2,...,X n = x n ). Ces n variables aléatoires sont indépendantes si f(x 1,x 2,...,x n ) = f(x 1 )f(x 2 )...f(x n ).
32 Méthodes d analyse empirique p. 9/161 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }. La fonction de distribution jointe de n variables aléatoires discrètes X j,j = 1, 2,...,n est notée f(x 1,x 2,...,x n ) = P(X 1 = x 1,X 2 = x 2,...,X n = x n ). Ces n variables aléatoires sont indépendantes si f(x 1,x 2,...,x n ) = f(x 1 )f(x 2 )...f(x n ). Ceci s étend évidemement aux variables aléatoires continues.
33 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }. La fonction de distribution jointe de n variables aléatoires discrètes X j,j = 1, 2,...,n est notée f(x 1,x 2,...,x n ) = P(X 1 = x 1,X 2 = x 2,...,X n = x n ). Ces n variables aléatoires sont indépendantes si f(x 1,x 2,...,x n ) = f(x 1 )f(x 2 )...f(x n ). Ceci s étend évidemement aux variables aléatoires continues. Un exemple courant est la distribution normale. Méthodes d analyse empirique p. 9/161
34 Méthodes d analyse empirique p. 10/161 MV pour une régression linéaire Posons y t = β x t + ǫ t, (t = 1,...,n) avec ǫ t i.n(0,σ 2 ). Par l indépendance, la distribution jointe des ǫ t est f(ǫ 1,ǫ 2,...,ǫ n β,σ 2 ) = n t=1 f(ǫ t β,σ 2 ), (1) où f(ǫ t β,σ 2 ) = 1 2πσ 2 exp( ǫ2 t 2σ 2 ). ǫ t n étant pas observé, on peut le remplacer par y t β x t. Autrement dit, y t x t N(β x t,σ 2 ), et la distribution de probabilité jointe de l échantillon est : f(y 1,y 2,...,y n β,σ 2 ) = n t=1 1 ( exp 2πσ 2 (y t β x t ) 2 2σ 2 ). (2)
35 Méthodes d analyse empirique p. 11/161 Fonction de vraisemblance : idée La fonction de vraisemblance (FV) d un échantillon y 1,y 2,...,y n est la distribution de probabilité jointe de cet échantillon, vue comme fonction des paramètres du modèle (β et σ 2 ).
36 Méthodes d analyse empirique p. 11/161 Fonction de vraisemblance : idée La fonction de vraisemblance (FV) d un échantillon y 1,y 2,...,y n est la distribution de probabilité jointe de cet échantillon, vue comme fonction des paramètres du modèle (β et σ 2 ). Pour une valeur donnée de β et σ 2, on peut calculer (2) : le résultat nous donne la "probabilité" d observer l échantillon en question y 1,y 2,...,y n pour une valeur donnée des paramètres.
37 Méthodes d analyse empirique p. 11/161 Fonction de vraisemblance : idée La fonction de vraisemblance (FV) d un échantillon y 1,y 2,...,y n est la distribution de probabilité jointe de cet échantillon, vue comme fonction des paramètres du modèle (β et σ 2 ). Pour une valeur donnée de β et σ 2, on peut calculer (2) : le résultat nous donne la "probabilité" d observer l échantillon en question y 1,y 2,...,y n pour une valeur donnée des paramètres. Pour une valeur différente de β et σ 2, on obtiendra une probabilité différente.
38 Méthodes d analyse empirique p. 11/161 Fonction de vraisemblance : idée La fonction de vraisemblance (FV) d un échantillon y 1,y 2,...,y n est la distribution de probabilité jointe de cet échantillon, vue comme fonction des paramètres du modèle (β et σ 2 ). Pour une valeur donnée de β et σ 2, on peut calculer (2) : le résultat nous donne la "probabilité" d observer l échantillon en question y 1,y 2,...,y n pour une valeur donnée des paramètres. Pour une valeur différente de β et σ 2, on obtiendra une probabilité différente. L ESTIMATEUR MV (EMV) est la valeur des paramètres qui maximise la FV; càd que ce sont les valeurs de β et σ 2 pour lesquelles l échantillon à la plus grande probabilité d être observé.
39 Méthodes d analyse empirique p. 12/161 Fonction de vraisemblance : notations L expression L(β,σ 2 y 1,y 2,...,y n ) désigne la FV, où les arguments de la fonction sont β et σ 2, et non les données observées y 1,y 2,...,y n. Formellement : L(β,σ 2 y 1,y 2,...,y n ) = f(y 1,y 2,...,y n β,σ 2 ). (3) L(β,σ 2 y 1,y 2,...,y n ) : IR k (0, ) IR +, alors que f(y 1,y 2,...,y n β,σ 2 ) : IR n IR +. Quand on peut identifier la nature exacte des données, on écrit même L(β,σ 2 ) au lieu de L(β,σ 2 y 1,y 2,...,y n ). On utilise aussi les notations plus synthétiques et génériques L(θ) et L(θ y) : θ pour les paramètres (donc θ = (β, σ 2 ) dans une régression), et y pour l échantillon de taille n.
40 Méthodes d analyse empirique p. 13/161 Etapes de l estimation MV Estimer les paramètres d un modèle par MV demande deux étapes : étape 1 : obtenir l expression de la FV à partir de la formulation du modèle et des hypothèses.
41 Méthodes d analyse empirique p. 13/161 Etapes de l estimation MV Estimer les paramètres d un modèle par MV demande deux étapes : étape 1 : obtenir l expression de la FV à partir de la formulation du modèle et des hypothèses. étape 2 : trouver la valeur des paramètres maximisant cette fonction. Il faut donc solutionner le problème de maximisation : max θ Θ L(θ y), où Θ est l ensemble des valeurs des paramètres acceptables θ.
42 Méthodes d analyse empirique p. 14/161 Solutionner la maximisation Il est beaucoup plus aisé, et équivalent de résoudre max θ Θ l(θ y), où l(θ y) = log L(θ y) (logarithme népérien). Puisque L(θ y) = n t=1 f(y t θ), l expression donne en logarithme l(θ y) = n t=1 log f(y t θ) = n t=1 l t(θ).
43 Méthodes d analyse empirique p. 14/161 Solutionner la maximisation Il est beaucoup plus aisé, et équivalent de résoudre max θ Θ l(θ y), où l(θ y) = log L(θ y) (logarithme népérien). Puisque L(θ y) = n t=1 f(y t θ), l expression donne en logarithme l(θ y) = n t=1 log f(y t θ) = n t=1 l t(θ). Pour l exemple de la régression linéaire, on doit résoudre ( max β IR k,σ 2 >0 n 2 log σ2 1 2σ 2 n (y t β x t ) 2), t=1 où le terme n log( 2π) fut négligé car il ne dépend ni de β ni de σ 2.
44 Méthodes d analyse empirique p. 15/161 Conditions de premier ordre Si l(θ) est différentiable, θ, l EMV, est la solution du système des conditions de premier ordre (CPO) q(θ) = 0 où q(θ) = l(θ) θ, pour autant que les conditions de second ordre sont satisfaites, càd que la matrice des dérivées secondes, évaluée à la solution des CPO, est définie négative. NB: q(θ) est appelé la fonction score. Appelons ˆθ la solution des CPO : alors, ˆθ est l EMV si q(ˆθ) = 0 et H(ˆθ) < 0. où H(ˆθ) est la matrice Hessienne l(θ) θ θ évaluée à ˆθ.
45 Méthodes d analyse empirique p. 16/161 CPO pour β Dans l exemple de la régression linéaire, les CPO sont 1 σ 2 n x t (y t β x t ) = 0 (k équations) (4) t=1 n 2σ (σ 2 ) 2 n (y t β x t ) 2 = 0 (1 equation) (5) t=1 La solution de (4) ne dépend pas de σ 2 et est la solution de n t=1 x t(y t β x t ) = 0 : c est le système des "équations normales" de l estimation MCO. Donc, ˆβ = b: l EMV, en supposant la normalité du terme d erreurs, est identique à celui des MCO.
46 Méthodes d analyse empirique p. 18/161 CPO pour σ 2 Ayant résolu (4), il reste à solutionner n 2σ (σ 2 ) 2 n (y t ˆβ x t ) 2 = 0, t=1 qui donne ˆσ 2 = 1 n n (y t ˆβ x t ) 2 = 1 n n e 2 t. (6) t=1 t=1 L EMV de σ 2 n est pas l estimateur habituel s 2 = 1 n k n t=1 e2 t, mais si n est grand, la différence est petite.
47 Méthodes d analyse empirique p. 19/161 Conditions de second ordre Les calculs donnent ( P n ) H(ˆβ, ˆσ 2 t=1 x tx t ) = ˆσ ˆσ n 4 = ( ) X X ˆσ ˆσ n, 4 qui est définie négative puisque X X est définie positive (si X est de rang k).
48 Méthodes d analyse empirique p. 19/161 Conditions de second ordre Les calculs donnent ( P n ) H(ˆβ, ˆσ 2 t=1 x tx t ) = ˆσ ˆσ n 4 = ( ) X X ˆσ ˆσ n, 4 qui est définie négative puisque X X est définie positive (si X est de rang k). b et ˆσ 2 sont les EMV de β et σ 2.
49 Méthodes d analyse empirique p. 20/161 Propriétés de l EMV On note l EMV de θ par ˆθ n pour insister sur sa dépendance à la taille de l échantillon. Les propriétés générales sont vérifiées asymptotiquement (càd qu on laisse n tendre vers ). Pour rappel, ˆθ n à une distribution d échantillon puisqu il dépend d un échantillon de v.a. qui suivent un processus stochastique (le PGD). NB : les propriétés exactes en échantillon fini dépendent du modèle considéré et sont obtenues sur une base de cas par cas quand c est possible.
50 Propriétés de l EMV On note l EMV de θ par ˆθ n pour insister sur sa dépendance à la taille de l échantillon. Les propriétés générales sont vérifiées asymptotiquement (càd qu on laisse n tendre vers ). Pour rappel, ˆθ n à une distribution d échantillon puisqu il dépend d un échantillon de v.a. qui suivent un processus stochastique (le PGD). NB : les propriétés exactes en échantillon fini dépendent du modèle considéré et sont obtenues sur une base de cas par cas quand c est possible. Les propriétés asymptotiques générales sont satisfaites sous un ensemble de "conditions de régularité". Elles assurent soit l existence de l estimateur, soit la convergence et la normalité asymptotique. Pour les séries temporelles, ces conditions sont du type : le DGP est stationnaire et faiblement dépendant. Méthodes d analyse empirique p. 20/161
51 Méthodes d analyse empirique p. 21/161 Propriétés de l EMV Convergence : ˆθ n p θ où θ est la valeur du paramètre dans le PGD (appelé "vraie valeur").
52 Méthodes d analyse empirique p. 21/161 Propriétés de l EMV Convergence : ˆθ n p θ où θ est la valeur du paramètre dans le PGD (appelé "vraie valeur"). Normalité asymptotique : on procède comme si ˆθ n N(θ, ˆV ) si n est grand, sachant que plus n est grand, meilleure est l approximation.
53 Méthodes d analyse empirique p. 21/161 Propriétés de l EMV Convergence : ˆθ n p θ où θ est la valeur du paramètre dans le PGD (appelé "vraie valeur"). Normalité asymptotique : on procède comme si ˆθ n N(θ, ˆV ) si n est grand, sachant que plus n est grand, meilleure est l approximation. ˆV est un estimateur de la matrice de variance-covariances exacte V car cette dernière dépend généralement de paramètres inconnus (en particulier, mais pas exclusivement, du vrai θ). Il n existe pas de choix unique pour ˆV mais les choix habituels (slide suivant) sont fournis dans les logiciels économétriques (comme OxMetrics, TSP, EVIEWS, RATS, SAS, STATA, etc.).
54 Méthodes d analyse empirique p. 22/161 Formules pour ˆV Basée sur la matrice Hessienne : ˆV H = [H(ˆθ)] 1 = [ n t=1 H t (ˆθ)] 1, où H t (ˆθ) = l t(θ) θ θ est évalué à ˆθ.
55 Méthodes d analyse empirique p. 22/161 Formules pour ˆV Basée sur la matrice Hessienne : ˆV H = [H(ˆθ)] 1 = [ n t=1 H t (ˆθ)] 1, où H t (ˆθ) = l t(θ) θ θ est évalué à ˆθ. Basée sur la contribution aux scores : ˆV G = [ n t=1 q t (ˆθ)q t (ˆθ) ] 1, où q t (ˆθ) = l t(θ) θ est évalué à ˆθ et constitue la contribution de l observation t à la fonction score. NB: q(θ) = n t=1 q t(θ).
56 Méthodes d analyse empirique p. 23/161 Test de Wald avec l EMV Etant donné que ˆθ n N(θ, ˆV ), on peut tester des restrictions (linéaires ou non) par des tests de Wald en χ 2. Par exemple : H 0 : Rθ = r est testé par la statistique (Rˆθ r) (RˆV R ) 1 (Rˆθ r) χ 2 (m) sous H 0.
57 Méthodes d analyse empirique p. 23/161 Test de Wald avec l EMV Etant donné que ˆθ n N(θ, ˆV ), on peut tester des restrictions (linéaires ou non) par des tests de Wald en χ 2. Par exemple : H 0 : Rθ = r est testé par la statistique (Rˆθ r) (RˆV R ) 1 (Rˆθ r) χ 2 (m) sous H 0. La statistique de test pour H 0 : θ 3 = 0 est ˆθ 2 3 /ˆv 33 χ 2 (1). Elle peut être remplacée par ˆθ 3 / ˆv 33 N(0, 1) si on désire un test unilatéral.
58 Méthodes d analyse empirique p. 24/161 Test du rapport des vraisemblances Sous les conditions de régularité, une manière alternative de tester les restrictions, disons H 0 : Rθ = r existe : Etape 1 : estimer le modèle par MV sans imposer les contraintes. Sauver l(ˆθ), la valeur de la FV à l optimum.
59 Méthodes d analyse empirique p. 24/161 Test du rapport des vraisemblances Sous les conditions de régularité, une manière alternative de tester les restrictions, disons H 0 : Rθ = r existe : Etape 1 : estimer le modèle par MV sans imposer les contraintes. Sauver l(ˆθ), la valeur de la FV à l optimum. Etape 2 : estimer le modèle (par MV) en imposant les restrictions. Sauver l( θ), la valeur de la FV à l optimum contraint. Donc, θ = arg max θ l(θ) sous contraintes Rθ = r.
60 Méthodes d analyse empirique p. 24/161 Test du rapport des vraisemblances Sous les conditions de régularité, une manière alternative de tester les restrictions, disons H 0 : Rθ = r existe : Etape 1 : estimer le modèle par MV sans imposer les contraintes. Sauver l(ˆθ), la valeur de la FV à l optimum. Etape 2 : estimer le modèle (par MV) en imposant les restrictions. Sauver l( θ), la valeur de la FV à l optimum contraint. Donc, θ = arg max θ l(θ) sous contraintes Rθ = r. Calculer le rapport des vraisemblances (RV) LR = 2[l(ˆθ) l( θ)]. Rejeter H 0 au seuil α si la p-valeur du RV est inférieure à α, où la p-valeur est obtenue en utilisant la χ 2 (m). Par construction, RV 0.
61 Méthodes d analyse empirique p. 25/161 Problèmes possibles avec MV Résoudre analytiquement les CPO, comme dans l exemple de la régression linéaire, n est généralement pas possible. Des méthodes numériques sont implémentées dans les logiciels.
62 Méthodes d analyse empirique p. 25/161 Problèmes possibles avec MV Résoudre analytiquement les CPO, comme dans l exemple de la régression linéaire, n est généralement pas possible. Des méthodes numériques sont implémentées dans les logiciels. L EMV n est pas toujours unique : le système des CPO peut avoir plusieurs solutions. Si ce problème est suspecté, on doit chercher numériquement plusieurs maxima et choisir le global.
63 Méthodes d analyse empirique p. 25/161 Problèmes possibles avec MV Résoudre analytiquement les CPO, comme dans l exemple de la régression linéaire, n est généralement pas possible. Des méthodes numériques sont implémentées dans les logiciels. L EMV n est pas toujours unique : le système des CPO peut avoir plusieurs solutions. Si ce problème est suspecté, on doit chercher numériquement plusieurs maxima et choisir le global. Cas extrême : l EMV n existe pas (ou infinité de solutions : problème d identification). Exemple : la régression linéaire quand X n est pas de rang plein.
64 Méthodes d analyse empirique p. 25/161 Problèmes possibles avec MV Résoudre analytiquement les CPO, comme dans l exemple de la régression linéaire, n est généralement pas possible. Des méthodes numériques sont implémentées dans les logiciels. L EMV n est pas toujours unique : le système des CPO peut avoir plusieurs solutions. Si ce problème est suspecté, on doit chercher numériquement plusieurs maxima et choisir le global. Cas extrême : l EMV n existe pas (ou infinité de solutions : problème d identification). Exemple : la régression linéaire quand X n est pas de rang plein. L EMV peut être à la frontière de l espace des paramètres. Normalité asymptotique non valable RV non asymptotiquement distribué selon une χ 2.
65 Méthodes d analyse empirique p. 26/161 Forces et faiblesses du MV Forces : si les hypothèses sont correctes, l EMV est l estimateur le plus efficient asymptotiquement, au sens qu il est non-biaisé asymptotiquement et possède la plus petite variance. Intuitivement, MV utilise au mieux l information des données pour estimer les paramètres.
66 Méthodes d analyse empirique p. 26/161 Forces et faiblesses du MV Forces : si les hypothèses sont correctes, l EMV est l estimateur le plus efficient asymptotiquement, au sens qu il est non-biaisé asymptotiquement et possède la plus petite variance. Intuitivement, MV utilise au mieux l information des données pour estimer les paramètres. Faiblesses : MV nécessite de choisir la distribution de probabilité. Quelles sont donc les conséquences d une hypothèse erronée sur la distribution de probabilité des y t?
67 Méthodes d analyse empirique p. 26/161 Forces et faiblesses du MV Forces : si les hypothèses sont correctes, l EMV est l estimateur le plus efficient asymptotiquement, au sens qu il est non-biaisé asymptotiquement et possède la plus petite variance. Intuitivement, MV utilise au mieux l information des données pour estimer les paramètres. Faiblesses : MV nécessite de choisir la distribution de probabilité. Quelles sont donc les conséquences d une hypothèse erronée sur la distribution de probabilité des y t? La réponse à cette question est : - dans certains cas, l EMV n est même pas convergent, - dans d autres cas, il est toujours convergent et asymptotiquement normal mais la matrice ˆV est différente de celle fournie précédemment.
68 Modèles à choix discrets Méthodes d analyse empirique p. 27/161
69 Méthodes d analyse empirique p. 28/161 Modèles Logit et Probit y i = 0 si le ménage i ne possède pas de voiture, y i = 1 sinon.
70 Méthodes d analyse empirique p. 28/161 Modèles Logit et Probit y i = 0 si le ménage i ne possède pas de voiture, y i = 1 sinon. Dans ce cas un modèle linéaire n est pas approprié pour étudier les déterminants de y.
71 Méthodes d analyse empirique p. 28/161 Modèles Logit et Probit y i = 0 si le ménage i ne possède pas de voiture, y i = 1 sinon. Dans ce cas un modèle linéaire n est pas approprié pour étudier les déterminants de y. Dans un modèle de choix discret, l intérêt se porte sur l estimation de P(y = 1 x) = P(y = 1 x 1,x 2,...,x k ), où par exemple x 1 est le niveau d éducation, x 2 le nombre d enfants, etc.
72 Méthodes d analyse empirique p. 29/161 Modèles Logit et Probit Pour s assurer que cette probabilité est toujours entre 0 et 1, on considère le plus souvent une classe de modèles du type suivant: P(y = 1 x) = G(β 0 +β 1 x 1 +β 2 x β k x k ) = G(β 0 +xb), où G est une fonction prenant des valeurs entre 0 et 1, c-à-d 0 < G(z) < 1 pour tout nombre réel z.
73 Méthodes d analyse empirique p. 29/161 Modèles Logit et Probit Pour s assurer que cette probabilité est toujours entre 0 et 1, on considère le plus souvent une classe de modèles du type suivant: P(y = 1 x) = G(β 0 +β 1 x 1 +β 2 x β k x k ) = G(β 0 +xb), où G est une fonction prenant des valeurs entre 0 et 1, c-à-d 0 < G(z) < 1 pour tout nombre réel z. Modèle logit: G(z) = exp(z) 1+exp(z) = Λ(z), c-à-d la fonction cumulative d une variable aléatoire logistique de variance unitaire.
74 Méthodes d analyse empirique p. 29/161 Modèles Logit et Probit Pour s assurer que cette probabilité est toujours entre 0 et 1, on considère le plus souvent une classe de modèles du type suivant: P(y = 1 x) = G(β 0 +β 1 x 1 +β 2 x β k x k ) = G(β 0 +xb), où G est une fonction prenant des valeurs entre 0 et 1, c-à-d 0 < G(z) < 1 pour tout nombre réel z. Modèle logit: G(z) = exp(z) 1+exp(z) = Λ(z), c-à-d la fonction cumulative d une variable aléatoire logistique de variance unitaire. Modèle Probit: G(z) = Φ(z) z φ(v)dv, où φ(z) est la densité normale standard φ(z) = (2π) 1/2 exp( z 2 /2).
75 Modèles Logit et Probit Pour s assurer que cette probabilité est toujours entre 0 et 1, on considère le plus souvent une classe de modèles du type suivant: P(y = 1 x) = G(β 0 +β 1 x 1 +β 2 x β k x k ) = G(β 0 +xb), où G est une fonction prenant des valeurs entre 0 et 1, c-à-d 0 < G(z) < 1 pour tout nombre réel z. Modèle logit: G(z) = exp(z) 1+exp(z) = Λ(z), c-à-d la fonction cumulative d une variable aléatoire logistique de variance unitaire. Modèle Probit: G(z) = Φ(z) z φ(v)dv, où φ(z) est la densité normale standard φ(z) = (2π) 1/2 exp( z 2 /2). Pour les deux modèles, G(z) 0 quand z et G(z) 1 quand z. Méthodes d analyse empirique p. 29/161
76 Méthodes d analyse empirique p. 30/161 G(z) 1.00 Logit Probit
77 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente.
78 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0]
79 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice.
80 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice. y = 1 si y > 0, 0 sinon.
81 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice. y = 1 si y > 0, 0 sinon. Nous supposons que e est indépendant de x et que e a une distribution logistique standard ou N(0, 1).
82 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice. y = 1 si y > 0, 0 sinon. Nous supposons que e est indépendant de x et que e a une distribution logistique standard ou N(0, 1). e est symmétriquement distribué autour de 0.
83 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice. y = 1 si y > 0, 0 sinon. Nous supposons que e est indépendant de x et que e a une distribution logistique standard ou N(0, 1). e est symmétriquement distribué autour de 0. 1 G( z) = G(z).
84 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb).
85 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb). Dans la plupart des analyses impliquant des modèles Logit ou Probit, l objet premier est d expliquer l effet d une variation de x j sur P(y = 1 x).
86 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb). Dans la plupart des analyses impliquant des modèles Logit ou Probit, l objet premier est d expliquer l effet d une variation de x j sur P(y = 1 x). Il est important de noter que la direction de l effet de x j sur E(y x) = β 0 + xb et sur E(y x) = P(y = 1 x) = G(β 0 + xb) est toujours la même.
87 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb). Dans la plupart des analyses impliquant des modèles Logit ou Probit, l objet premier est d expliquer l effet d une variation de x j sur P(y = 1 x). Il est important de noter que la direction de l effet de x j sur E(y x) = β 0 + xb et sur E(y x) = P(y = 1 x) = G(β 0 + xb) est toujours la même. Par contre l amplitude de β j n est pas vraiment parlante.
88 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb). Dans la plupart des analyses impliquant des modèles Logit ou Probit, l objet premier est d expliquer l effet d une variation de x j sur P(y = 1 x). Il est important de noter que la direction de l effet de x j sur E(y x) = β 0 + xb et sur E(y x) = P(y = 1 x) = G(β 0 + xb) est toujours la même. Par contre l amplitude de β j n est pas vraiment parlante. Pour trouver l effet partiel d une variation d une unité de x j sur la probabilité de succes, c-à-d P(y = 1 x), il faut effectuer quelques calculs.
89 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z).
90 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z). Comme G est la cdf d une variable aléatoire continue, g est une fonction de densité de probabilité (pdf).
91 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z). Comme G est la cdf d une variable aléatoire continue, g est une fonction de densité de probabilité (pdf). Comme G(.) est strictement croissante pour les modèles Logit et Probit, g(z) > 0 z.
92 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z). Comme G est la cdf d une variable aléatoire continue, g est une fonction de densité de probabilité (pdf). Comme G(.) est strictement croissante pour les modèles Logit et Probit, g(z) > 0 z. Donc l effet partiel de x j sur p(x) dépend de x de part la quantité g(β 0 + xb).
93 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z). Comme G est la cdf d une variable aléatoire continue, g est une fonction de densité de probabilité (pdf). Comme G(.) est strictement croissante pour les modèles Logit et Probit, g(z) > 0 z. Donc l effet partiel de x j sur p(x) dépend de x de part la quantité g(β 0 + xb). Par contre l effet a toujours de même signe que β j.
94 Méthodes d analyse empirique p. 34/161 p(x) x j = g(β 0 + xb)β j La conséquence est que l effet relatif de deux variables explicatives continues ne dépend pas de x.
95 Méthodes d analyse empirique p. 34/161 p(x) x j = g(β 0 + xb)β j La conséquence est que l effet relatif de deux variables explicatives continues ne dépend pas de x. En effet le ratio des effets partiels pour x j et x h est β j β h.
96 Méthodes d analyse empirique p. 34/161 p(x) x j = g(β 0 + xb)β j La conséquence est que l effet relatif de deux variables explicatives continues ne dépend pas de x. En effet le ratio des effets partiels pour x j et x h est β j β h. L effet partiel est maximum lorsque β 0 + xb = 0. Pour le modèle Probit, g(z) = φ(z) et donc g(0) = φ(0) = 1 2π 0.40.
97 Méthodes d analyse empirique p. 34/161 p(x) x j = g(β 0 + xb)β j La conséquence est que l effet relatif de deux variables explicatives continues ne dépend pas de x. En effet le ratio des effets partiels pour x j et x h est β j β h. L effet partiel est maximum lorsque β 0 + xb = 0. Pour le modèle Probit, g(z) = φ(z) et donc g(0) = φ(0) = 1 2π Pour le Logit, g(z) = exp(z) [1+exp(z)] 2 et donc g(0) = 0.25.
98 Méthodes d analyse empirique p. 35/161 Variables binaires x j Le calcul de l effet partiel pour une variable binaire est différent.
99 Méthodes d analyse empirique p. 35/161 Variables binaires x j Le calcul de l effet partiel pour une variable binaire est différent. Si x 1 est une variable explicative binaire, l effet partiel d un changement de x 1 de 0 à 1, toutes choses restant égales par ailleurs est simplemement G(β 0 + β 1 + β 2 x β k x k ) G(β 0 + β 2 x β k x k ).
100 Méthodes d analyse empirique p. 35/161 Variables binaires x j Le calcul de l effet partiel pour une variable binaire est différent. Si x 1 est une variable explicative binaire, l effet partiel d un changement de x 1 de 0 à 1, toutes choses restant égales par ailleurs est simplemement G(β 0 + β 1 + β 2 x β k x k ) G(β 0 + β 2 x β k x k ). Encore une fois, l effet dépend de x mais connaitre le signe de β 1 donne une indication parfaire sur le signe de l effet (et sa significativité).
101 Méthodes d analyse empirique p. 35/161 Variables binaires x j Le calcul de l effet partiel pour une variable binaire est différent. Si x 1 est une variable explicative binaire, l effet partiel d un changement de x 1 de 0 à 1, toutes choses restant égales par ailleurs est simplemement G(β 0 + β 1 + β 2 x β k x k ) G(β 0 + β 2 x β k x k ). Encore une fois, l effet dépend de x mais connaitre le signe de β 1 donne une indication parfaire sur le signe de l effet (et sa significativité). Egalement, si x 1 est une variable discrète, comme le nombre d enfants, le passage de la valeur c 1 à 1 + c 1 (exemple 1 à 2) à un effet de G(β 0 + β 1 (1 + c 1 ) + β 2 x β k x k ) G(β 0 + β 1 c 1 + β 2 x β k x k ).
102 Méthodes d analyse empirique p. 36/161 Variables du type log(x j ) et x 2 j Soit le modèle P(y = 1 x) = G(β 0 + β 1 x 1 + β 2 x β 3log(x 3 )).
103 Méthodes d analyse empirique p. 36/161 Variables du type log(x j ) et x 2 j Soit le modèle P(y = 1 x) = G(β 0 + β 1 x 1 + β 2 x β 3log(x 3 )). L effet partiel de x 1 sur P(y = 1 x) est P(y = 1 x) x 1 = g(β 0 + xb)(β 1 + 2β 2 x 1 ).
104 Méthodes d analyse empirique p. 36/161 Variables du type log(x j ) et x 2 j Soit le modèle P(y = 1 x) = G(β 0 + β 1 x 1 + β 2 x β 3log(x 3 )). L effet partiel de x 1 sur P(y = 1 x) est P(y = 1 x) x 1 = g(β 0 + xb)(β 1 + 2β 2 x 1 ). L effet partiel de x 3 sur P(y = 1 x) est P(y = 1 x) x 3 = g(β 0 + xb) ( β3 x 3 ).
105 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV.
106 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations.
107 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations. La distribution de y i conditionnelle à x i est: f(y x i ; B) = [G(x i B)] y [1 G(x i B)] 1 y avec y = 0, 1.
108 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations. La distribution de y i conditionnelle à x i est: f(y x i ; B) = [G(x i B)] y [1 G(x i B)] 1 y avec y = 0, 1. Pour simplifier, l intercept est inclus dans x.
109 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations. La distribution de y i conditionnelle à x i est: f(y x i ; B) = [G(x i B)] y [1 G(x i B)] 1 y avec y = 0, 1. Pour simplifier, l intercept est inclus dans x. Quand y = 1 f(y x i ; B) = G(x i B) et quand y = 0 f(y x i ; B) = 1 G(x i B).
110 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations. La distribution de y i conditionnelle à x i est: f(y x i ; B) = [G(x i B)] y [1 G(x i B)] 1 y avec y = 0, 1. Pour simplifier, l intercept est inclus dans x. Quand y = 1 f(y x i ; B) = G(x i B) et quand y = 0 f(y x i ; B) = 1 G(x i B). La fonction de log-vraissemblance pour l observation i est une fonction des parametres B est des données x i, c-à-d l i (B) = y i log[g(x i B)] + (1 y i )log[1 G(x i B)].
111 Méthodes d analyse empirique p. 38/161 Estimation La log-vraissemblance pour l échantillon de taille n est simplement L(B) = n i=1 l i(b).
112 Méthodes d analyse empirique p. 38/161 Estimation La log-vraissemblance pour l échantillon de taille n est simplement L(B) = n i=1 l i(b). L estimateur du MV est celui qui maximise L(B).
113 Méthodes d analyse empirique p. 38/161 Estimation La log-vraissemblance pour l échantillon de taille n est simplement L(B) = n i=1 l i(b). L estimateur du MV est celui qui maximise L(B). De part la non-linéarité de G(.), il n est pas possible de dériver des formules donnant la solution à ce problème de maximisation. On utilisera donc des outils d optimisation numérique.
114 Méthodes d analyse empirique p. 38/161 Estimation La log-vraissemblance pour l échantillon de taille n est simplement L(B) = n i=1 l i(b). L estimateur du MV est celui qui maximise L(B). De part la non-linéarité de G(.), il n est pas possible de dériver des formules donnant la solution à ce problème de maximisation. On utilisera donc des outils d optimisation numérique. Chaque ˆβ j est reporté avec un écart-type (asymptotique).
115 Méthodes d analyse empirique p. 39/161 Estimation Nous cherchons à savoir si une nouvelle méthode d enseignement de l économie, le système personnalisé d instruction (PSI), influait significativement sur les performances dans les cours de gestion.
116 Méthodes d analyse empirique p. 39/161 Estimation Nous cherchons à savoir si une nouvelle méthode d enseignement de l économie, le système personnalisé d instruction (PSI), influait significativement sur les performances dans les cours de gestion. Variable dépendante: GRADE = 1 si le résultat de l étudiant dans un cours intermédiaire de gestion financière est plus élevé que dans un cours de base.
117 Méthodes d analyse empirique p. 39/161 Estimation Nous cherchons à savoir si une nouvelle méthode d enseignement de l économie, le système personnalisé d instruction (PSI), influait significativement sur les performances dans les cours de gestion. Variable dépendante: GRADE = 1 si le résultat de l étudiant dans un cours intermédiaire de gestion financière est plus élevé que dans un cours de base. Autres variables: GPA = note moyenne de l étudiant, TUCE = score à un pré-test qui renseigne sur la connaissance de l étudiant et PSI = 1 si l étudiant a suivi la nouvelle méthode d apprentissage.
118 Méthodes d analyse empirique p. 40/161 Output LOGIT CS( 1) Modelling GRADE by LOGIT The estimation sample is 1-32 Coefficient Std.Error t-value t-prob Constant GPA TUCE PSI log-likelihood no. of states 2 no. of observations 32 no. of parameters 4 baseline log-lik Test: Chiˆ2( 3) [0.0015]** AIC AIC/n mean(grade) var(grade) Newton estimation (eps1=0.0001; eps2=0.005): Strong convergence Count Frequency Probability loglik State State Total
119 Méthodes d analyse empirique p. 41/161 Output PROBIT CS( 2) Modelling GRADE by PROBIT The estimation sample is 1-32 Coefficient Std.Error t-value t-prob Constant GPA TUCE PSI log-likelihood no. of states 2 no. of observations 32 no. of parameters 4 zeroline log-lik Test: Chiˆ2( 4) [0.0009]** AIC AIC/n mean(grade) var(grade) Newton estimation (eps1=0.0001; eps2=0.005): Strong convergence Count Frequency Probability loglik State State Total
120 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches.
121 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents.
122 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale.
123 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale. Notons que nous avons vu que g(0) = φ(0) = 0.4 pour exp(0) la normale et [1+exp(0)] = 0.25 pour la logistique. 2
124 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale. Notons que nous avons vu que g(0) = φ(0) = 0.4 pour exp(0) la normale et [1+exp(0)] = 0.25 pour la logistique. 2 Donc pour avoir des effet marginaux equivalents il faut φ(0)β p j exp(0) [1+exp(0)] 2 β l j = 1.
125 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale. Notons que nous avons vu que g(0) = φ(0) = 0.4 pour exp(0) la normale et [1+exp(0)] = 0.25 pour la logistique. 2 Donc pour avoir des effet marginaux equivalents il faut φ(0)β p j exp(0) [1+exp(0)] 2 β l j = 1. C-à-d 0.4βp j 0.25β l j = 1 ou encore β l j = 1.6βp j.
126 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale. Notons que nous avons vu que g(0) = φ(0) = 0.4 pour exp(0) la normale et [1+exp(0)] = 0.25 pour la logistique. 2 Donc pour avoir des effet marginaux equivalents il faut φ(0)β p j exp(0) [1+exp(0)] 2 β l j = 1. C-à-d 0.4βp j 0.25β l j = 1 ou encore β l j = 1.6βp j. Exemple pour PSI: = Méthodes d analyse empirique p. 42/161
127 Méthodes d analyse empirique p. 43/161 Exemple de LRT sur PSI CS( 2) Modelling GRADE by PROBIT The estimation sample is 1-32 Coefficient Std.Error t-value t-prob Constant GPA TUCE log-likelihood no. of states 2 no. of observations 32 no. of parameters 3 zeroline log-lik Test: Chiˆ2( 3) [0.0072]** AIC AIC/n mean(grade) var(grade) LRT = 2[ ( )] = = 6.66 >> 3.86(χ 2 5% (1)). Mais χ 2 (1) = % Attention ce test est asymptotique alors que n = 32.
128 Méthodes d analyse empirique p. 44/161 Exemple de test de Wald Test for linear restrictions (Rb=r): R matrix Constant GPA TUCE PSI r vector LinRes Chiˆ2(1) = [0.0151] * Attention ce test est également asymptotique alors que n = 32.
129 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes.
130 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire.
131 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5.
132 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5. Etant donné {ỹ i : i = 1, 2,...,n}, on peut voir la qualité de la prévision de y i.
133 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5. Etant donné {ỹ i : i = 1, 2,...,n}, on peut voir la qualité de la prévision de y i. Pour chaque i, la paire (ỹ i,y i ) peut prendre quatres valeurs: (0, 0), (0, 1), (1, 0) et (1, 1).
134 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5. Etant donné {ỹ i : i = 1, 2,...,n}, on peut voir la qualité de la prévision de y i. Pour chaque i, la paire (ỹ i,y i ) peut prendre quatres valeurs: (0, 0), (0, 1), (1, 0) et (1, 1). Pour les paires (0, 0) et (1, 1), la prévision est correcte.
135 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5. Etant donné {ỹ i : i = 1, 2,...,n}, on peut voir la qualité de la prévision de y i. Pour chaque i, la paire (ỹ i,y i ) peut prendre quatres valeurs: (0, 0), (0, 1), (1, 0) et (1, 1). Pour les paires (0, 0) et (1, 1), la prévision est correcte. Le pourcentage de prédictions correctes est le %age de valeurs ỹ i = y i.
136 Méthodes d analyse empirique p. 46/161 Output PROBIT and LOGIT Table of actual and predicted State 0 State 1 Sum actual State State Sum pred =
137 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse.
138 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit.
139 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit. Exemple: n = 200, 160 observations ont y i = 0 et hors de ces 160 observations 140 ont ỹ i = 0. Donc on prédit correctement dans 87.5% des cas les valeurs de y i = 0.
140 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit. Exemple: n = 200, 160 observations ont y i = 0 et hors de ces 160 observations 140 ont ỹ i = 0. Donc on prédit correctement dans 87.5% des cas les valeurs de y i = 0. Même si aucune prévision n est correcte pour y i = 1, on prédit toujours correctement 70% des observations (140/200).
141 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit. Exemple: n = 200, 160 observations ont y i = 0 et hors de ces 160 observations 140 ont ỹ i = 0. Donc on prédit correctement dans 87.5% des cas les valeurs de y i = 0. Même si aucune prévision n est correcte pour y i = 1, on prédit toujours correctement 70% des observations (140/200). Il est souvant utile de pouvoir également prédire les évènements les moins probables.
142 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit. Exemple: n = 200, 160 observations ont y i = 0 et hors de ces 160 observations 140 ont ỹ i = 0. Donc on prédit correctement dans 87.5% des cas les valeurs de y i = 0. Même si aucune prévision n est correcte pour y i = 1, on prédit toujours correctement 70% des observations (140/200). Il est souvant utile de pouvoir également prédire les évènements les moins probables. Il est donc important de calculer ce %age pour chaque valeur de y i, c-à-d 0 et 1.
143 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden.
144 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden. Ce pseudo-r 2 = 1 L nc L 0, où L nc est la log-vraissemblance du modèle (non contraint) et L 0 est celle du modèle contraint ne comportant qu une constante.
145 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden. Ce pseudo-r 2 = 1 L nc L 0, où L nc est la log-vraissemblance du modèle (non contraint) et L 0 est celle du modèle contraint ne comportant qu une constante. Pourqui est-ce que cette mesure a du sens?
146 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden. Ce pseudo-r 2 = 1 L nc L 0, où L nc est la log-vraissemblance du modèle (non contraint) et L 0 est celle du modèle contraint ne comportant qu une constante. Pourqui est-ce que cette mesure a du sens? L < 0 donc L nc L 0 = L nc L 0.
147 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden. Ce pseudo-r 2 = 1 L nc L 0, où L nc est la log-vraissemblance du modèle (non contraint) et L 0 est celle du modèle contraint ne comportant qu une constante. Pourqui est-ce que cette mesure a du sens? L < 0 donc L nc L 0 = L nc L 0. De plus L nc L 0.
148 Méthodes d analyse empirique p. 49/161 Goodness-of-fit Si les variables explicatives n ont pas de pouvoir explicatif L nc L 0 = 1 et donc pseudo-r 2 = 0.
149 Méthodes d analyse empirique p. 49/161 Goodness-of-fit Si les variables explicatives n ont pas de pouvoir explicatif L nc L 0 = 1 et donc pseudo-r 2 = 0. Généralement L nc < L 0 et donc 1 L nc L 0 > 0
150 Méthodes d analyse empirique p. 49/161 Goodness-of-fit Si les variables explicatives n ont pas de pouvoir explicatif L nc L 0 = 1 et donc pseudo-r 2 = 0. Généralement L nc < L 0 et donc 1 L nc L 0 > 0 Si L nc = 0 le pseudo-r 2 = 1.
151 Méthodes d analyse empirique p. 50/161 Goodness-of-fit: Alternative Soit ŷ i = G(ˆβ 0 + x i ˆB) les prévisions de probabilité du modèle Logit ou Probit.
152 Méthodes d analyse empirique p. 50/161 Goodness-of-fit: Alternative Soit ŷ i = G(ˆβ 0 + x i ˆB) les prévisions de probabilité du modèle Logit ou Probit. Comme ces prévisions sont aussi des prévisions de E(y i x i ), on peut calculer un genre de R 2 en comparant ŷ i et y i.
153 Méthodes d analyse empirique p. 50/161 Goodness-of-fit: Alternative Soit ŷ i = G(ˆβ 0 + x i ˆB) les prévisions de probabilité du modèle Logit ou Probit. Comme ces prévisions sont aussi des prévisions de E(y i x i ), on peut calculer un genre de R 2 en comparant ŷ i et y i. reporter corr(ŷ i,y i ) 2.
154 Méthodes d analyse empirique p. 51/161 Output Descriptive Statistics Means, standard deviations and correlations The sample is: 1-32 Means P(State 1) GRADE Standard deviations (using T-1) P(State 1) GRADE Correlation matrix: P(State 1) GRADE P(State 1) GRADE Exportez d abord les probabilités estimées. corr(grade, P(State 1 )) =
155 Méthodes d analyse empirique p. 52/161 Reporter des effets partiels On a vu que si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: où g(z) dg dz (z). p(x) x j = g(β 0 + xb)β j,
156 Méthodes d analyse empirique p. 52/161 Reporter des effets partiels On a vu que si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: où g(z) dg dz (z). Par conséquent p(x) x j = g(β 0 + xb)β j, ˆ p(x) g(ˆβ 0 + xˆb)ˆβ j x j, pour des petites variations de x j.
157 Méthodes d analyse empirique p. 52/161 Reporter des effets partiels On a vu que si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: où g(z) dg dz (z). Par conséquent p(x) x j = g(β 0 + xb)β j, ˆ p(x) g(ˆβ 0 + xˆb)ˆβ j x j, pour des petites variations de x j. Mais l effet partiel dépend de x, où g(ˆβ 0 + xˆb) est appelé facteur d échelle. Que reporter?
158 Méthodes d analyse empirique p. 53/161 Reporter des effets partiels Les logiciels économétriques reportent souvant des effets partiels ou le facteur d échelle est évalué en x, c-à-d g(ˆβ 0 + xˆb) = g(ˆβ 0 + ˆβ 1 x 1 + ˆβ 2 x ˆβ k x k ).
159 Méthodes d analyse empirique p. 53/161 Reporter des effets partiels Les logiciels économétriques reportent souvant des effets partiels ou le facteur d échelle est évalué en x, c-à-d g(ˆβ 0 + xˆb) = g(ˆβ 0 + ˆβ 1 x 1 + ˆβ 2 x ˆβ k x k ). En multipliant ce facteur d échelle par β j on obtient l effet partiel de x j pour la personne moyenne.
160 Méthodes d analyse empirique p. 53/161 Reporter des effets partiels Les logiciels économétriques reportent souvant des effets partiels ou le facteur d échelle est évalué en x, c-à-d g(ˆβ 0 + xˆb) = g(ˆβ 0 + ˆβ 1 x 1 + ˆβ 2 x ˆβ k x k ). En multipliant ce facteur d échelle par β j on obtient l effet partiel de x j pour la personne moyenne. Qu est-ce que l individu moyen si par exemple x 1 = Male (1 si homme et 0 pour femme).
161 Méthodes d analyse empirique p. 53/161 Reporter des effets partiels Les logiciels économétriques reportent souvant des effets partiels ou le facteur d échelle est évalué en x, c-à-d g(ˆβ 0 + xˆb) = g(ˆβ 0 + ˆβ 1 x 1 + ˆβ 2 x ˆβ k x k ). En multipliant ce facteur d échelle par β j on obtient l effet partiel de x j pour la personne moyenne. Qu est-ce que l individu moyen si par exemple x 1 = Male (1 si homme et 0 pour femme). Si on a 52.5% d hommes x 1 = En quoi cela représente la presonne moyenne?
162 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier.
163 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier. Une approche différente pour calculer le facteur d échelle qui premettrait de régler ces problèmes est la suivante.
164 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier. Une approche différente pour calculer le facteur d échelle qui premettrait de régler ces problèmes est la suivante. n 1 n i=1 g(ˆβ 0 + x i ˆB)
165 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier. Une approche différente pour calculer le facteur d échelle qui premettrait de régler ces problèmes est la suivante. n n 1 g(ˆβ 0 + x i ˆB) i=1 on prend la moyenne de la fonction linéaire et non la fonction linéaire évaluée en la moyenne.
166 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier. Une approche différente pour calculer le facteur d échelle qui premettrait de régler ces problèmes est la suivante. n n 1 g(ˆβ 0 + x i ˆB) i=1 on prend la moyenne de la fonction linéaire et non la fonction linéaire évaluée en la moyenne. Les deux méthodes puvent donner des facteurs d échelle assez différents.
167 Méthodes d analyse empirique p. 55/161 Reporter des effets partiels Si les variables explicatives comprennent des variables discrètes, ces formules ne sont pas valables.
168 Méthodes d analyse empirique p. 55/161 Reporter des effets partiels Si les variables explicatives comprennent des variables discrètes, ces formules ne sont pas valables. Pour un changement de x 1 de c 1 à 1 + c 1, l analogue discret de l effet partiel est G(ˆβ 0 + ˆβ 1 (1 + c 1 ) ˆβ k x k ) G(ˆβ 0 + ˆβ 1 c ˆβ k x k ).
169 Méthodes d analyse empirique p. 55/161 Reporter des effets partiels Si les variables explicatives comprennent des variables discrètes, ces formules ne sont pas valables. Pour un changement de x 1 de c 1 à 1 + c 1, l analogue discret de l effet partiel est G(ˆβ 0 + ˆβ 1 (1 + c 1 ) ˆβ k x k ) G(ˆβ 0 + ˆβ 1 c ˆβ k x k ). La moyenne des effets partiels est quant à elle donnée par n n 1 { G(ˆβ 0 + ˆβ 1 (1 + c 1 ) + ˆβ 2 x i ˆβ k x ik ) i=1 G(ˆβ 0 + ˆβ 1 c 1 + ˆβ 2 x i ˆβ k x ik )}.
170 Méthodes d analyse empirique p. 56/161 Exemple: GRADE et PROBIT Summary statistics for explanatory variables State 0: #obs min mean max std.dev Constant GPA TUCE PSI State 1: #obs min mean max std.dev Constant GPA TUCE PSI All States: #obs min mean max std.dev Constant GPA TUCE PSI GPA = et TUCE =
171 Méthodes d analyse empirique p. 57/161 Exemple: GRADE et PROBIT G( GPA TUCE ) G( GPA TUCE) = =
172 Méthodes d analyse empirique p. 57/161 Exemple: GRADE et PROBIT G( GPA TUCE ) G( GPA TUCE) = = Comment évalue ce différentiel en fonction de GPA?
173 Méthodes d analyse empirique p. 57/161 Exemple: GRADE et PROBIT G( GPA TUCE ) G( GPA TUCE) = = Comment évalue ce différentiel en fonction de GPA? G( GPA TUCE ) G( GPA TUCE)
174 Méthodes d analyse empirique p. 57/161 Exemple: GRADE et PROBIT G( GPA TUCE ) G( GPA TUCE) = = Comment évalue ce différentiel en fonction de GPA? G( GPA TUCE ) G( GPA TUCE) GRADE_prob.xls
175 Méthodes d analyse empirique p. 58/161 Output Strong convergence using numerical derivatives Function value = Coefficient Std.Error t-value t-prob Constant NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE
176 Méthodes d analyse empirique p. 59/161 PcGive CS( 2) Modelling INLF by Probit The estimation sample is Coefficient Std.Error t-value t-prob Constant NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE log-likelihood no. of states 2 no. of observations 753 no. of parameters 8 zeroline log-lik Test: Chiˆ2( 8) [0.0000]** AIC AIC/n mean(inlf) var(inlf) BFGS estimation (eps1=0.0001; eps2=0.005): Strong convergence
177 Méthodes d analyse empirique p. 60/161 H 0 : KIDSLT6 = 0, KIDSGE6 = 0 LR test Strong convergence using numerical derivatives Function value = Coefficient Std.Error t-value t-prob Constant NWIFEINC EDUC EXPER EXPERSQ AGE LRT = 2 ( ) = >> χ 2 (2). Indeed, Chiˆ2(2) = [0.0000] **
178 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup?
179 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus.
180 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation.
181 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts.
182 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts achats de Heintz contre 265 pour Hunts.
183 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts achats de Heintz contre 265 pour Hunts. Variable endogène: Heintz = 1 si achat de Heintz, 0 sinon.
184 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts achats de Heintz contre 265 pour Hunts. Variable endogène: Heintz = 1 si achat de Heintz, 0 sinon. Variables explicatives: Display (tête de gondole) only, feature (folder) only, feature and display et la difference du log du prix de Heintz et Hunts.
185 Heintz1.in7 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts achats de Heintz contre 265 pour Hunts. Variable endogène: Heintz = 1 si achat de Heintz, 0 sinon. Variables explicatives: Display (tête de gondole) only, feature (folder) only, feature and display et la difference du log du prix de Heintz et Hunts.
186 Méthodes d analyse empirique p. 62/161 Output Logit sur HEINZ Coefficient Std.Error t-value t-prob Constant DISPLHEINZ DISPLHUNTS FEATHEINZ FEATHUNTS FEATDISPLHEINZ FEATDISPLHUNTS LPRICEHEINZ log-likelihood no. of states 2 no. of observations 2498 no. of parameters 8 baseline log-lik Test: Chiˆ2( 7) [0.0000]** mean(heinz) var(heinz)
187 Méthodes d analyse empirique p. 63/161 Output Logit sur HEINZ Table of actual and predicted State 0 State 1 Sum actual State State Sum pred
188 Méthodes d analyse empirique p. 64/161 Output Probit sur HEINZ Coefficient Std.Error t-value t-prob Constant DISPLHEINZ DISPLHUNTS FEATHEINZ FEATHUNTS FEATDISPLHEINZ FEATDISPLHUNTS LPRICEHEINZ log-likelihood no. of states 2 no. of observations 2498 no. of parameters 8 zeroline log-lik Test: Chiˆ2( 8) [0.0000]** mean(heinz) var(heinz)
189 Méthodes d analyse empirique p. 65/161 Output Probit sur HEINZ Table of actual and predicted State 0 State 1 Sum actual State State Sum pred
190 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) =
191 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) = Donc la probabilité d achat de Heintz si les variables explicatives sont 0 est de 96.4%.
192 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) = Donc la probabilité d achat de Heintz si les variables explicatives sont 0 est de 96.4%. Notons que la probabilité inconditionnelle d acaht de Heintz est de 89.1%.
193 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) = Donc la probabilité d achat de Heintz si les variables explicatives sont 0 est de 96.4%. Notons que la probabilité inconditionnelle d acaht de Heintz est de 89.1%. Les trois variables relatives a Hunts sont d ampleur plus importantes que celles de Heintz, sont négatives et largement significatives.
194 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) = Donc la probabilité d achat de Heintz si les variables explicatives sont 0 est de 96.4%. Notons que la probabilité inconditionnelle d acaht de Heintz est de 89.1%. Les trois variables relatives a Hunts sont d ampleur plus importantes que celles de Heintz, sont négatives et largement significatives. Une politique de marketing aggressive de la part de Hunts peut faire gagner des parts de marché même si Heintz reste le leader dans le domaine.
195 Méthodes d analyse empirique p. 67/161 Une application en marketing L effet est le plus fort pour une promotion couplant la mise en évidence du produit Hunts (tête de gondole) et un affichage dans le folder promotionel.
196 Méthodes d analyse empirique p. 67/161 Une application en marketing L effet est le plus fort pour une promotion couplant la mise en évidence du produit Hunts (tête de gondole) et un affichage dans le folder promotionel. Les variables promotion de Heintz ne sont pas très significatives (uniquement display mais au seuil de 4%).
197 Méthodes d analyse empirique p. 67/161 Une application en marketing L effet est le plus fort pour une promotion couplant la mise en évidence du produit Hunts (tête de gondole) et un affichage dans le folder promotionel. Les variables promotion de Heintz ne sont pas très significatives (uniquement display mais au seuil de 4%). Le coefficient de LP RICEHEIN Z est significativement négatif et donc une augmentation de prix de Heintz réduit les ventes et donc une diminution du prix de Hunts permet d augmenter les ventes de Hunts.
198 Méthodes d analyse empirique p. 68/161 p(x) x j = g( ˆβ 0 + xˆb) ˆβ j pour le Logit Derivatives of probabilities at regressor means Probabilities: State State Derivatives: mean State 0 State 1 Constant DISPLHEINZ DISPLHUNTS FEATHEINZ FEATHUNTS FEATDISPLHEINZ FEATDISPLHUNTS LPRICEHEINZ
199 Méthodes d analyse empirique p. 69/161 Prévisions (Logit) avec 1 si ˆp(x) > 0.5 Predictions: Table of actual and predicted State 0 State 1 Sum actual State State Sum pred % de bonnes prévisions de 1,1.3% de bonnes prévisions de % de mauvaises prévisions de 0 et 0.33% de mauvaises prévisions de 1. Pour ˆp(x) > c avec c 0.5 (par exemple E(Heintz) = 0.891) exportez les prévisions et faites le calcul en excel.
200 Estimation par variables instrumentales et doubles moindres carrés : Chapitre 15 Méthodes d analyse empirique p. 70/161
201 Méthodes d analyse empirique p. 71/161 Utilisation des variables instrumentales L utilisation de la méthode des variables instrumentales (VI) se justifie dans différents contextes : Variables explicatives endogènes.
202 Méthodes d analyse empirique p. 71/161 Utilisation des variables instrumentales L utilisation de la méthode des variables instrumentales (VI) se justifie dans différents contextes : Variables explicatives endogènes. Problème d erreurs de mesures sur certaines variables. Exemple : revenu déclaré.
203 Méthodes d analyse empirique p. 71/161 Utilisation des variables instrumentales L utilisation de la méthode des variables instrumentales (VI) se justifie dans différents contextes : Variables explicatives endogènes. Problème d erreurs de mesures sur certaines variables. Exemple : revenu déclaré. Problème d omission de variables explicatives appropriées.
204 Méthodes d analyse empirique p. 72/161 Variables explicatives endogènes Dans ce contexte, l utilisation de VI donne lieu à une nouvelle méthode d estimation : les doubles moindres carrés.
205 Méthodes d analyse empirique p. 72/161 Variables explicatives endogènes Dans ce contexte, l utilisation de VI donne lieu à une nouvelle méthode d estimation : les doubles moindres carrés. Méthode très populaire, notamment pour estimer des modèles macroéconomiques à plusieurs équations.
206 Méthodes d analyse empirique p. 72/161 Variables explicatives endogènes Dans ce contexte, l utilisation de VI donne lieu à une nouvelle méthode d estimation : les doubles moindres carrés. Méthode très populaire, notamment pour estimer des modèles macroéconomiques à plusieurs équations. Des exemples spécifiques seront développés dans le Chapitre 16 : modèles à équations simultanées.
207 Méthodes d analyse empirique p. 72/161 Variables explicatives endogènes Dans ce contexte, l utilisation de VI donne lieu à une nouvelle méthode d estimation : les doubles moindres carrés. Méthode très populaire, notamment pour estimer des modèles macroéconomiques à plusieurs équations. Des exemples spécifiques seront développés dans le Chapitre 16 : modèles à équations simultanées. Exemple : Relation entre le taux de criminalité (meurtres) et la taille des forces de police. Le taux de criminalité dépend de la taille des forces de polices et la taille des forces de police dépend du taux de criminalité. Problème de simultanéité.
208 Méthodes d analyse empirique p. 73/161 Erreurs de mesure Problème d erreurs de mesures sur certaines variables explicatives.
209 Méthodes d analyse empirique p. 73/161 Erreurs de mesure Problème d erreurs de mesures sur certaines variables explicatives. Exemple : revenu déclaré.
210 Méthodes d analyse empirique p. 74/161 Omission de variables explicatives L omission de variables explicatives appropriées mène à un biais d estimation des coefficients de régression.
211 Méthodes d analyse empirique p. 74/161 Omission de variables explicatives L omission de variables explicatives appropriées mène à un biais d estimation des coefficients de régression. Ce biais peut être éliminé si l on dispose de variables proxy. Quid si pas de proxy.
212 Méthodes d analyse empirique p. 74/161 Omission de variables explicatives L omission de variables explicatives appropriées mène à un biais d estimation des coefficients de régression. Ce biais peut être éliminé si l on dispose de variables proxy. Quid si pas de proxy. Dans un contexte de données de panel, élimination du biais par différenciation si variable omise est indépendante du temps.
213 Méthodes d analyse empirique p. 74/161 Omission de variables explicatives L omission de variables explicatives appropriées mène à un biais d estimation des coefficients de régression. Ce biais peut être éliminé si l on dispose de variables proxy. Quid si pas de proxy. Dans un contexte de données de panel, élimination du biais par différenciation si variable omise est indépendante du temps. Quid si la variable omise dépend du temps, si l intérêt se porte sur des variables qui ne varient pas dans le temps (éliminées par différenciation) ou si on ne dispose pas de données de panel?
214 Illustration : variables omises Méthodes d analyse empirique p. 75/161
215 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e.
216 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e. Problème : on n observe pas abil (compétence).
217 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e. Problème : on n observe pas abil (compétence). On peut utiliser le QI comme variable proxy de abil. Quid si indisponible?
218 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e. Problème : on n observe pas abil (compétence). On peut utiliser le QI comme variable proxy de abil. Quid si indisponible? Si on ignore abil, le modèle de régression devient : wage = β 0 + β 1 educ + u.
219 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e. Problème : on n observe pas abil (compétence). On peut utiliser le QI comme variable proxy de abil. Quid si indisponible? Si on ignore abil, le modèle de régression devient : wage = β 0 + β 1 educ + u. u = β 2 abil + e. abil u. Si abil est corrélé avec educ, E(u x) 0. Estimateur de β 1 par MCO biaisé car violation de l hypothèse SLR.3.
220 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u.
221 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u. A cause de l omission de certaines variables : Cov(x,u) 0. Les MCO donnent des estimateurs biaisés.
222 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u. A cause de l omission de certaines variables : Cov(x,u) 0. Les MCO donnent des estimateurs biaisés. Idée des VI utiliser une information additionnelle sous la forme d une variable observable z qui remplit 2 conditions.
223 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u. A cause de l omission de certaines variables : Cov(x,u) 0. Les MCO donnent des estimateurs biaisés. Idée des VI utiliser une information additionnelle sous la forme d une variable observable z qui remplit 2 conditions. Condition 1 : Cov(z,u) = 0.
224 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u. A cause de l omission de certaines variables : Cov(x,u) 0. Les MCO donnent des estimateurs biaisés. Idée des VI utiliser une information additionnelle sous la forme d une variable observable z qui remplit 2 conditions. Condition 1 : Cov(z,u) = 0. Condition 2 : Cov(z,x) 0.
225 Méthodes d analyse empirique p. 78/161 Conditions 1 des VI Condition 1. Dans la population, Cov(z,u) = 0.
226 Méthodes d analyse empirique p. 78/161 Conditions 1 des VI Condition 1. Dans la population, Cov(z,u) = 0. z est dite exogène dans le modèle de régression.
227 Méthodes d analyse empirique p. 78/161 Conditions 1 des VI Condition 1. Dans la population, Cov(z,u) = 0. z est dite exogène dans le modèle de régression. Il est difficile de tester cette hypothèse. Faire d abord appel à la théorique économique.
228 Méthodes d analyse empirique p. 79/161 Conditions 2 des VI Condition 2. Cov(z,x) 0.
229 Méthodes d analyse empirique p. 79/161 Conditions 2 des VI Condition 2. Cov(z,x) 0. z est corrélée avec la variable explicative x.
230 Méthodes d analyse empirique p. 79/161 Conditions 2 des VI Condition 2. Cov(z,x) 0. z est corrélée avec la variable explicative x. On peut tester cette hypothèse : x = π 0 + π 1 z + ν.
231 Méthodes d analyse empirique p. 79/161 Conditions 2 des VI Condition 2. Cov(z,x) 0. z est corrélée avec la variable explicative x. On peut tester cette hypothèse : x = π 0 + π 1 z + ν. Comme π 1 = Cov(z,x)/V ar(z), la Condition 2 tient ssi on rejette l hypothèse H 0 : π 1 = 0 contre l hypothèse alternative H 1 : π 1 0.
232 Méthodes d analyse empirique p. 80/161 Exemples et contre-exemples de VI Revenons à la relation salaire-éducation. Regardons quelques candidats de VI pour educ. trouver z tel que Cov(z,abil) = 0 et Cov(z,educ) 0.
233 Méthodes d analyse empirique p. 80/161 Exemples et contre-exemples de VI Revenons à la relation salaire-éducation. Regardons quelques candidats de VI pour educ. trouver z tel que Cov(z,abil) = 0 et Cov(z,educ) 0. Derniers numéros de sécurité sociale de l individu : Condition 1 OK; Condition 2 non remplie.
234 Méthodes d analyse empirique p. 80/161 Exemples et contre-exemples de VI Revenons à la relation salaire-éducation. Regardons quelques candidats de VI pour educ. trouver z tel que Cov(z,abil) = 0 et Cov(z,educ) 0. Derniers numéros de sécurité sociale de l individu : Condition 1 OK; Condition 2 non remplie. QI : Condition 2 OK mais Condition 1 violée car QI corrélé avec abil et donc u.
235 Méthodes d analyse empirique p. 81/161 Exemples et contre-exemples de VI Condition 1 : Cov(z,abil) = 0 et Condition 2 : Cov(z,educ) 0. Education de la mère : Condition 2 OK (les parents éduqués ont plus de chance d avoir des enfants éduqués); Condition 1 moins évidente car corrélation compétence-éducation de la mère pas claire. Voir la théorie économique.
236 Méthodes d analyse empirique p. 81/161 Exemples et contre-exemples de VI Condition 1 : Cov(z,abil) = 0 et Condition 2 : Cov(z,educ) 0. Education de la mère : Condition 2 OK (les parents éduqués ont plus de chance d avoir des enfants éduqués); Condition 1 moins évidente car corrélation compétence-éducation de la mère pas claire. Voir la théorie économique. Nombre de frères et soeurs pendant l enfance. Condition 1 vraisemblable. Condition 2 aussi car certaines études ont montré que les familles nombreuses avaient un niveau d éducation significativement plus faible.
237 Estimation et Inférence par la méthode des variables instrumentales Méthodes d analyse empirique p. 82/161
238 Méthodes d analyse empirique p. 83/161 Estimateurs des VI Si l on dispose d une bonne VI, on peut estimer de manière consistante l équation y = β 0 + β 1 x + u. Les 2 conditions des VI permettent d identifier β 1, c est-à-dire d écrire β 1 en termes de moments des variables observables : Cov(z,y) = Cov(z,β 0 +β 1 x+u) = β 1 Cov(z,x)+Cov(z,u).
239 Méthodes d analyse empirique p. 83/161 Estimateurs des VI Si l on dispose d une bonne VI, on peut estimer de manière consistante l équation y = β 0 + β 1 x + u. Les 2 conditions des VI permettent d identifier β 1, c est-à-dire d écrire β 1 en termes de moments des variables observables : Cov(z,y) = Cov(z,β 0 +β 1 x+u) = β 1 Cov(z,x)+Cov(z,u). Voir pages pour les propriétés de calcul des covariances.
240 Méthodes d analyse empirique p. 83/161 Estimateurs des VI Si l on dispose d une bonne VI, on peut estimer de manière consistante l équation y = β 0 + β 1 x + u. Les 2 conditions des VI permettent d identifier β 1, c est-à-dire d écrire β 1 en termes de moments des variables observables : Cov(z,y) = Cov(z,β 0 +β 1 x+u) = β 1 Cov(z,x)+Cov(z,u). Voir pages pour les propriétés de calcul des covariances. Si Cov(z,u) = 0, alors β 1 = Cov(z,y) Cov(z,x) Cov(z,x) 0. qui existe ssi
241 Méthodes d analyse empirique p. 84/161 Estimateurs des VI L estimateur par VI de β 1 : ˆβ 1 = n i=1 (z i z)(y i y) n i=1 (z i z)(x i x).
242 Méthodes d analyse empirique p. 84/161 Estimateurs des VI L estimateur par VI de β 1 : ˆβ 1 = n i=1 (z i z)(y i y) n i=1 (z i z)(x i x). Remarque : si x = z (cas de x exogène), alors on retrouve l estimateur des MCO. Dans ce cas, x est son propre instrument.
243 Méthodes d analyse empirique p. 84/161 Estimateurs des VI L estimateur par VI de β 1 : ˆβ 1 = n i=1 (z i z)(y i y) n i=1 (z i z)(x i x). Remarque : si x = z (cas de x exogène), alors on retrouve l estimateur des MCO. Dans ce cas, x est son propre instrument. L estimateur de l intercept est simplement : ˆβ 0 = y ˆβ 1 x.
244 Méthodes d analyse empirique p. 84/161 Estimateurs des VI L estimateur par VI de β 1 : ˆβ 1 = n i=1 (z i z)(y i y) n i=1 (z i z)(x i x). Remarque : si x = z (cas de x exogène), alors on retrouve l estimateur des MCO. Dans ce cas, x est son propre instrument. L estimateur de l intercept est simplement : ˆβ 0 = y ˆβ 1 x. Sous les conditions 1 et 2, plim(ˆβ 1 ) = β 1 ˆβ 1 est convergent.
245 Méthodes d analyse empirique p. 85/161 Inférence avec les estimateurs des VI Les estimateurs VI sont, comme les estimateurs MCO, asymptotiquement distribués normalement. Pour faire de l inférence, on a donc besoin d un estimateur de la variance de ˆβ 0 et ˆβ 1.
246 Méthodes d analyse empirique p. 85/161 Inférence avec les estimateurs des VI Les estimateurs VI sont, comme les estimateurs MCO, asymptotiquement distribués normalement. Pour faire de l inférence, on a donc besoin d un estimateur de la variance de ˆβ 0 et ˆβ 1. On fait l hypothèse d homoscédasticité : E(u 2 z) = V ar(u) = σ 2.
247 Méthodes d analyse empirique p. 85/161 Inférence avec les estimateurs des VI Les estimateurs VI sont, comme les estimateurs MCO, asymptotiquement distribués normalement. Pour faire de l inférence, on a donc besoin d un estimateur de la variance de ˆβ 0 et ˆβ 1. On fait l hypothèse d homoscédasticité : E(u 2 z) = V ar(u) = σ 2. Sous les conditions 1 et 2 des VI et cette hypothèse, alors la variance asymptotique de ˆβ 1 est égale à σ 2 nσ 2 xρ 2 x,z où ρ xz est la corrélation entre x et z.
248 Méthodes d analyse empirique p. 85/161 Inférence avec les estimateurs des VI Les estimateurs VI sont, comme les estimateurs MCO, asymptotiquement distribués normalement. Pour faire de l inférence, on a donc besoin d un estimateur de la variance de ˆβ 0 et ˆβ 1. On fait l hypothèse d homoscédasticité : E(u 2 z) = V ar(u) = σ 2. Sous les conditions 1 et 2 des VI et cette hypothèse, alors la variance asymptotique de ˆβ 1 est égale à σ 2 nσ 2 xρ 2 x,z où ρ xz est la corrélation entre x et z. Un estimateur consistent de σ 2 peut s obtenir comme pour les MCO, c-à-d ˆσ 2 = 1 n 2 n i=1 û2 i.
249 Méthodes d analyse empirique p. 86/161 Inférence avec les Estimateurs des VI La variance asymptotique de β 1 peut également ˆσ s écrire : 2 SCT x R, où SCT x,z 2 x = n i=1 x2 i.
250 Méthodes d analyse empirique p. 86/161 Inférence avec les Estimateurs des VI La variance asymptotique de β 1 peut également ˆσ s écrire : 2 SCT x R, où SCT x,z 2 x = n i=1 x2 i. Comparons avec la variance asymptotique de β 1 estimé par MCO : ˆσ 2 SCT x.
251 Méthodes d analyse empirique p. 86/161 Inférence avec les Estimateurs des VI La variance asymptotique de β 1 peut également ˆσ s écrire : 2 SCT x R, où SCT x,z 2 x = n i=1 x2 i. Comparons avec la variance asymptotique de β 1 estimé par MCO : ˆσ 2 SCT x. On voit que plus R 2 x,z (R 2 de la régression de X i sur Z i ) est faible (instruments faibles), plus la précision de l estimateur des VI est faible.
252 Méthodes d analyse empirique p. 86/161 Inférence avec les Estimateurs des VI La variance asymptotique de β 1 peut également ˆσ s écrire : 2 SCT x R, où SCT x,z 2 x = n i=1 x2 i. Comparons avec la variance asymptotique de β 1 estimé par MCO : ˆσ 2 SCT x. On voit que plus R 2 x,z (R 2 de la régression de X i sur Z i ) est faible (instruments faibles), plus la précision de l estimateur des VI est faible. Comme R 2 x,z < 1, la variance des estimateurs VI et des DMC est toujours plus élevée que celle des MCO : le coût de l estimation des VI se paye en termes de précision de l estimateur.
253 Méthodes d analyse empirique p. 87/161 Illustration : mroz.in7 EQ(1) Modelling LWAGE by OLS-CS (using mroz.in7) The estimation sample is: 1 to 428 Coefficient Std.Error t-value t-prob Constant EDUC sigma RSS Rˆ F(1,426) = [0.000]** log-likelihood DW 1.98 no. of observations 428 no. of parameters 2 mean(lwage) var(lwage) log(wage) = β 0 + β 1 educ + u. Hors si abil u et Cov(abil, educ) 0 Rejet SLR.3. VI : Education du père (fathereduc)?
254 Méthodes d analyse empirique p. 88/161 Tester la Condition 2 EQ( 2) Modelling EDUC by OLS-CS (using mroz.in7) The estimation sample is: 1 to 428 Coefficient Std.Error t-value t-prob Part.Rˆ2 Constant FATHEDUC sigma RSS Rˆ F(1,426) = [0.000]** log-likelihood DW 1.92 no. of observations 428 no. of parameters 2 mean(educ) var(educ) x = π 0 + π 1 z + ν. R 2 = t-stat de ˆπ 1 = 9.43 rejet de H 0 : π 1 = 0.
255 Méthodes d analyse empirique p. 89/161 PcGive : Sélection des variables Sélectionner y en premier lieu. EDUC : Y.
256 PcGive : Méthode Méthodes d analyse empirique p. 90/161
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
Plus en détailAnalyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailUNIVERSITÉ DU QUÉBEC À MONTRÉAL TESTS EN ÉCHANTILLONS FINIS DU MEDAF SANS LA NORMALITÉ ET SANS LA CONVERGENCE
UNIVERSITÉ DU QUÉBEC À MONTRÉAL TESTS EN ÉCHANTILLONS FINIS DU MEDAF SANS LA NORMALITÉ ET SANS LA CONVERGENCE MÉMOIRE PRÉSENTÉ COMME EXIGENCE PARTIELLE DE LA MAÎTRISE EN ÉCONOMIE PAR MATHIEU SISTO NOVEMBRE
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailLes modèles de choix binaire
Chapitre 4 Les modèles de choix binaire Les modèles de régression linéaire développés ci-dessus concernent une variable dépendante continue (comme par exemple le salaire ou le taux de chômage). Ce chapitre
Plus en détailchoisir H 1 quand H 0 est vraie - fausse alarme
étection et Estimation GEL-64943 Hiver 5 Tests Neyman-Pearson Règles de Bayes: coûts connus min π R ( ) + ( π ) R ( ) { } Règles Minimax: coûts connus min max R ( ), R ( ) Règles Neyman Pearson: coûts
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailTests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA
Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailLEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,
Plus en détailTESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION
TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailEstimation et tests statistiques, TD 5. Solutions
ISTIL, Tronc commun de première année Introduction aux méthodes probabilistes et statistiques, 2008 2009 Estimation et tests statistiques, TD 5. Solutions Exercice 1 Dans un centre avicole, des études
Plus en détailLe modèle de régression linéaire
Chapitre 2 Le modèle de régression linéaire 2.1 Introduction L économétrie traite de la construction de modèles. Le premier point de l analyse consiste à se poser la question : «Quel est le modèle?». Le
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailIntroduction à l approche bootstrap
Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailThéorie de l estimation et de la décision statistique
Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory
Plus en détailMODELE A CORRECTION D ERREUR ET APPLICATIONS
MODELE A CORRECTION D ERREUR ET APPLICATIONS Hélène HAMISULTANE Bibliographie : Bourbonnais R. (2000), Econométrie, DUNOD. Lardic S. et Mignon V. (2002), Econométrie des Séries Temporelles Macroéconomiques
Plus en détailImage d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailContents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes
Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire
Plus en détailNON-LINEARITE ET RESEAUX NEURONAUX
NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail
Plus en détailPrécision d un résultat et calculs d incertitudes
Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................
Plus en détailÉconometrie non paramétrique I. Estimation d une densité
Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer
Plus en détailIFT3245. Simulation et modèles
IFT 3245 Simulation et modèles DIRO Université de Montréal Automne 2012 Tests statistiques L étude des propriétés théoriques d un générateur ne suffit; il estindispensable de recourir à des tests statistiques
Plus en détailMCMC et approximations en champ moyen pour les modèles de Markov
MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:
Plus en détailCorrection de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Plus en détailSuites numériques 4. 1 Autres recettes pour calculer les limites
Suites numériques 4 1 Autres recettes pour calculer les limites La propriété suivante permet de calculer certaines limites comme on verra dans les exemples qui suivent. Propriété 1. Si u n l et fx) est
Plus en détailEXERCICE 4 (7 points ) (Commun à tous les candidats)
EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat
Plus en détailLa fonction exponentielle
DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction
Plus en détailIntroduction à la Statistique Inférentielle
UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique
Plus en détailCours 9 : Plans à plusieurs facteurs
Cours 9 : Plans à plusieurs facteurs Table des matières Section 1. Diviser pour regner, rassembler pour saisir... 3 Section 2. Définitions et notations... 3 2.1. Définitions... 3 2.2. Notations... 4 Section
Plus en détailLicence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7
Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détail4 Distributions particulières de probabilités
4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli
Plus en détailPrincipe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailM2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Plus en détailAttitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014
Attitude des ménages face au risque - M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014 Plan du cours 1. Introduction : demande de couverture et comportements induits pa 2. Représentations
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailCalcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Plus en détailChapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme
Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailModèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes
de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes Zohra Guessoum 1 & Farida Hamrani 2 1 Lab. MSTD, Faculté de mathématique, USTHB, BP n 32, El Alia, Alger, Algérie,zguessoum@usthb.dz
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailNotes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières
Plus en détailEconométrie et applications
Econométrie et applications Ecole des Ponts ParisTech Département Sciences Economiques Gestion Finance Nicolas Jacquemet (nicolas.jacquemet@univ-paris1.fr) Université Paris 1 & Ecole d Economie de Paris
Plus en détailDe même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Plus en détailUniversité Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au
Plus en détailAICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678
Sélection prédictive d un modèle génératif par le critère AICp Vincent Vandewalle To cite this version: Vincent Vandewalle. Sélection prédictive d un modèle génératif par le critère AICp. 41èmes Journées
Plus en détailIntroduction à la statistique non paramétrique
Introduction à la statistique non paramétrique Catherine MATIAS CNRS, Laboratoire Statistique & Génome, Évry http://stat.genopole.cnrs.fr/ cmatias Atelier SFDS 27/28 septembre 2012 Partie 2 : Tests non
Plus en détailLe modèle de Black et Scholes
Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailLimites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailFORMULAIRE DE STATISTIQUES
FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)
Plus en détailAnalyse statistique de données qualitatives et quantitatives en sciences sociales : TP RÉGRESSION LOGISTIQUE (MODÈLES CHAPITRE 1)
Analyse statistique de données qualitatives et quantitatives en sciences sociales : TP RÉGRESSION LOGISTIQUE (MODÈLES CHAPITRE 1) Modèles de régression logistique à réaliser Une explicative catégorielle
Plus en détailExercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,
Plus en détailFOAD COURS D ECONOMETRIE 1 CHAPITRE 2 : Hétéroscédasicité des erreurs. 23 mars 2012.
FOAD COURS D ECONOMETRIE CHAPITRE 2 : Hétéroscédasicité des erreurs. 23 mars 202. Christine Maurel Maître de conférences en Sciences Economiques Université de Toulouse - Capitole Toulouse School of Economics-ARQADE
Plus en détailFeuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.
Université de Nantes Année 2013-2014 L3 Maths-Eco Feuille 6 : Tests Exercice 1 On cherche à connaître la température d ébullition µ, en degrés Celsius, d un certain liquide. On effectue 16 expériences
Plus en détailDonnées longitudinales et modèles de survie
ANALYSE DU Données longitudinales et modèles de survie 5. Modèles de régression en temps discret André Berchtold Département des sciences économiques, Université de Genève Cours de Master ANALYSE DU Plan
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailExemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions
Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions HQ = He 1 He 2 He 3 He 4 HQ e 5 comme anneaux (avec centre Re 1 Re 2 Re 3 Re 4
Plus en détailModélisation du risque opérationnel Approche Bâle avancée
Modélisation du risque opérationnel Approche Bâle avancée Université Laval Conférence LABIFUL Département de Finance et Assurance 1 Mars, 2013. Ridha Mahfoudhi, Ph.D. Senior Manager Quantitative Analytics,
Plus en détailActuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.
Actuariat I ACT2121 septième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailLois de probabilité. Anita Burgun
Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage
Plus en détailCours d introduction à la théorie de la détection
Olivier J.J. MICHEL Département EEA, UNSA v1.mars 06 olivier.michel@unice.fr Laboratoire LUAN UMR6525-CNRS Cours d introduction à la théorie de la détection L ensemble du document s appuie très largement
Plus en détailNotes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Fausto Errico Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2012 Table des matières
Plus en détailModèle GARCH Application à la prévision de la volatilité
Modèle GARCH Application à la prévision de la volatilité Olivier Roustant Ecole des Mines de St-Etienne 3A - Finance Quantitative Décembre 2007 1 Objectifs Améliorer la modélisation de Black et Scholes
Plus en détailProgrammation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Plus en détailESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring
ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring Les méthodes d évaluation du risque de crédit pour les PME et les ménages Caractéristiques Comme les montants des crédits et des
Plus en détailProbabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Plus en détailRappels sur les suites - Algorithme
DERNIÈRE IMPRESSION LE 14 septembre 2015 à 12:36 Rappels sur les suites - Algorithme Table des matières 1 Suite : généralités 2 1.1 Déition................................. 2 1.2 Exemples de suites............................
Plus en détailTests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision
Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailModélisation et simulation
Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.
Plus en détailÉquations non linéaires
Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détail«Cours Statistique et logiciel R»
«Cours Statistique et logiciel R» Rémy Drouilhet (1), Adeline Leclercq-Samson (1), Frédérique Letué (1), Laurence Viry (2) (1) Laboratoire Jean Kuntzmann, Dép. Probabilites et Statistique, (2) Laboratoire
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailCalcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailLe financement adossé de l immobilier en gestion de patrimoine : une modélisation simple
Le financement adossé de l immobilier en gestion de patrimoine : une modélisation simple Laurent Batsch ahier de recherche n 2005-01 Le financement adossé est une des modalités de financement de l investissement
Plus en détailTABLE DES MATIERES. C Exercices complémentaires 42
TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence
Plus en détailPremière partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Plus en détailContinuité en un point
DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à
Plus en détailEtude de fonctions: procédure et exemple
Etude de fonctions: procédure et exemple Yves Delhaye 8 juillet 2007 Résumé Dans ce court travail, nous présentons les différentes étapes d une étude de fonction à travers un exemple. Nous nous limitons
Plus en détail1 Définition de la non stationnarité
Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles
Plus en détail