Méthodes d analyse empirique

Dimension: px
Commencer à balayer dès la page:

Download "Méthodes d analyse empirique"

Transcription

1 Méthodes d analyse empirique Partie Quantitative Michel Beine (suppl. S. Laurent) michel.beine@uni.lu Université du Luxembourg Méthodes d analyse empirique p. 1/?

2 Méthodes d analyse empirique p. 2/161 Manuel Ce cours est basé sur le livre Introductory Econometrics, a Modern Approach (second or third editions) de Jeffrey M. Wooldridge, édition Thomson South-Western.

3 Méthodes d analyse empirique p. 2/161 Manuel Ce cours est basé sur le livre Introductory Econometrics, a Modern Approach (second or third editions) de Jeffrey M. Wooldridge, édition Thomson South-Western. Logiciel économétrique : Ox et PcGive.

4 Méthodes d analyse empirique p. 2/161 Manuel Ce cours est basé sur le livre Introductory Econometrics, a Modern Approach (second or third editions) de Jeffrey M. Wooldridge, édition Thomson South-Western. Logiciel économétrique : Ox et PcGive. Evaluation: examen à livre fermé.

5 Méthodes d analyse empirique p. 3/161 Plan du cours Chapitre 17. Modèles de choix discret et maximum de vraissemblance.

6 Méthodes d analyse empirique p. 3/161 Plan du cours Chapitre 17. Modèles de choix discret et maximum de vraissemblance. Chapitre 15. Variables instrumentales et MCO en 2 étapes.

7 Méthodes d analyse empirique p. 3/161 Plan du cours Chapitre 17. Modèles de choix discret et maximum de vraissemblance. Chapitre 15. Variables instrumentales et MCO en 2 étapes. Chapitre 16. Modèles à équations simultanées.

8 Méthodes d analyse empirique p. 3/161 Plan du cours Chapitre 17. Modèles de choix discret et maximum de vraissemblance. Chapitre 15. Variables instrumentales et MCO en 2 étapes. Chapitre 16. Modèles à équations simultanées. Les processus modérateurs et médiateurs, ANOVA,...

9 Maximum de vraissemblance et modèles à choix discrets Méthodes d analyse empirique p. 4/161

10 Méthodes d analyse empirique p. 5/161 Motivation Le maximum de vraisemblance (MV) est une méthode d estimation utile quand les paramètres d un modèle ne peuvent pas être estimés par MCO. Des tests de restrictions sont également disponibles (principe du test de rapport des vraisemblances).

11 Méthodes d analyse empirique p. 5/161 Motivation Le maximum de vraisemblance (MV) est une méthode d estimation utile quand les paramètres d un modèle ne peuvent pas être estimés par MCO. Des tests de restrictions sont également disponibles (principe du test de rapport des vraisemblances). La méthode nécessite la spécification entière de la distribution de probabilité de l échantillon observé, pas uniquement la moyenne conditionnelle de l échantillon (tel le modèle de régression linéaire estimé par MCO).

12 Méthodes d analyse empirique p. 5/161 Motivation Le maximum de vraisemblance (MV) est une méthode d estimation utile quand les paramètres d un modèle ne peuvent pas être estimés par MCO. Des tests de restrictions sont également disponibles (principe du test de rapport des vraisemblances). La méthode nécessite la spécification entière de la distribution de probabilité de l échantillon observé, pas uniquement la moyenne conditionnelle de l échantillon (tel le modèle de régression linéaire estimé par MCO). L estimation par MV du modèle de régression linéaire demande de spécifier aussi la structure de la dépendance de l échantillon via les erreurs (i.i.d. par exemple) et la distribution du terme d erreurs (comme ǫ t N(0,σ 2 ), mais une autre distribution est possible).

13 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile.

14 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience.

15 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience. Avant de lancer la pièce, nous savons que le nombre de piles sera un nombre de 0 à 10.

16 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience. Avant de lancer la pièce, nous savons que le nombre de piles sera un nombre de 0 à 10. Une variable aléatoire est une variable qui prend des valeurs numériques et a un résultat qui est déterminé par une expérience.

17 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience. Avant de lancer la pièce, nous savons que le nombre de piles sera un nombre de 0 à 10. Une variable aléatoire est une variable qui prend des valeurs numériques et a un résultat qui est déterminé par une expérience. le nombre de fois que l on obtient pile est un exemple de variable aléatoire.

18 Méthodes d analyse empirique p. 6/161 Variable aléatoire Supposons que nous lançons une pièce 10 fois et comptons le nombre de fois que nous obtenons pile. Ceci est un exemple d expérience. Avant de lancer la pièce, nous savons que le nombre de piles sera un nombre de 0 à 10. Une variable aléatoire est une variable qui prend des valeurs numériques et a un résultat qui est déterminé par une expérience. le nombre de fois que l on obtient pile est un exemple de variable aléatoire. 7 piles sur 10 est un exemple de réalisation de cette variable aléatoire pour une expérience donnée.

19 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X.

20 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6.

21 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6. Notons que le lancer d une pièce de monnaie peut être considéré comme une variable aléatoire suivant une distribution de Bernoulli où X = 1 est appelé succes et X = 0 échec.

22 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6. Notons que le lancer d une pièce de monnaie peut être considéré comme une variable aléatoire suivant une distribution de Bernoulli où X = 1 est appelé succes et X = 0 échec. Une variable aléatoire de Bernoulli est le plus simple exemple de variable aléatoire discrète.

23 Méthodes d analyse empirique p. 7/161 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6. Notons que le lancer d une pièce de monnaie peut être considéré comme une variable aléatoire suivant une distribution de Bernoulli où X = 1 est appelé succes et X = 0 échec. Une variable aléatoire de Bernoulli est le plus simple exemple de variable aléatoire discrète. La seule chose que nous devons décrire pour une telle variable est la probabilité de succes: P(X = 1).

24 Variable aléatoire Nous notons une variable aléatoire par une lettre majuscule: X. Nous notons une valeur particulière que peut prendre cette variable aléatoire par une minuscule: x. Exemple: x = 6. Notons que le lancer d une pièce de monnaie peut être considéré comme une variable aléatoire suivant une distribution de Bernoulli où X = 1 est appelé succes et X = 0 échec. Une variable aléatoire de Bernoulli est le plus simple exemple de variable aléatoire discrète. La seule chose que nous devons décrire pour une telle variable est la probabilité de succes: P(X = 1). Dans le cas d une pièce équilibrée, P(X = 1) = 0.5 et comme P(X = 1) + P(X = 0) = 1,P(X = 0) = 0.5. Méthodes d analyse empirique p. 7/161

25 Méthodes d analyse empirique p. 8/161 Variable aléatoire discrère Il n y a pas de raison de penser que la probabilité de succes de toute variable binaire (0-1) est 0.5.

26 Méthodes d analyse empirique p. 8/161 Variable aléatoire discrère Il n y a pas de raison de penser que la probabilité de succes de toute variable binaire (0-1) est 0.5. De manière générale disons que P(X = 1) = θ et comme P(X = 1) + P(X = 0) = 1,P(X = 0) = 1 θ.

27 Méthodes d analyse empirique p. 8/161 Variable aléatoire discrère Il n y a pas de raison de penser que la probabilité de succes de toute variable binaire (0-1) est 0.5. De manière générale disons que P(X = 1) = θ et comme P(X = 1) + P(X = 0) = 1,P(X = 0) = 1 θ. Comment estimer θ sur base d un échantillon, c-à-d une expérience?

28 Méthodes d analyse empirique p. 8/161 Variable aléatoire discrère Il n y a pas de raison de penser que la probabilité de succes de toute variable binaire (0-1) est 0.5. De manière générale disons que P(X = 1) = θ et comme P(X = 1) + P(X = 0) = 1,P(X = 0) = 1 θ. Comment estimer θ sur base d un échantillon, c-à-d une expérience? Plus généralement encore si X peut prendre des valeurs {x 1,x 2,...,x k }, alors les probabilités p 1,p 2,...,p k sont définies par avec p 1 + p p k = 1. p j = P(X = x j ),j = 1, 2,...,k

29 Méthodes d analyse empirique p. 9/161 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }.

30 Méthodes d analyse empirique p. 9/161 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }. La fonction de distribution jointe de n variables aléatoires discrètes X j,j = 1, 2,...,n est notée f(x 1,x 2,...,x n ) = P(X 1 = x 1,X 2 = x 2,...,X n = x n ).

31 Méthodes d analyse empirique p. 9/161 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }. La fonction de distribution jointe de n variables aléatoires discrètes X j,j = 1, 2,...,n est notée f(x 1,x 2,...,x n ) = P(X 1 = x 1,X 2 = x 2,...,X n = x n ). Ces n variables aléatoires sont indépendantes si f(x 1,x 2,...,x n ) = f(x 1 )f(x 2 )...f(x n ).

32 Méthodes d analyse empirique p. 9/161 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }. La fonction de distribution jointe de n variables aléatoires discrètes X j,j = 1, 2,...,n est notée f(x 1,x 2,...,x n ) = P(X 1 = x 1,X 2 = x 2,...,X n = x n ). Ces n variables aléatoires sont indépendantes si f(x 1,x 2,...,x n ) = f(x 1 )f(x 2 )...f(x n ). Ceci s étend évidemement aux variables aléatoires continues.

33 Fonction de densité de probabilité La fonction de densité de probabilité (pdf) de X résume l information concernant les différents résultats possibles de X et ses probabilités correspondantes: f(x j ) = p j,j = 1, 2,...,k avec f(x) = 0 pour toutes les valeurs de x hors de {x 1,x 2,...,x k }. La fonction de distribution jointe de n variables aléatoires discrètes X j,j = 1, 2,...,n est notée f(x 1,x 2,...,x n ) = P(X 1 = x 1,X 2 = x 2,...,X n = x n ). Ces n variables aléatoires sont indépendantes si f(x 1,x 2,...,x n ) = f(x 1 )f(x 2 )...f(x n ). Ceci s étend évidemement aux variables aléatoires continues. Un exemple courant est la distribution normale. Méthodes d analyse empirique p. 9/161

34 Méthodes d analyse empirique p. 10/161 MV pour une régression linéaire Posons y t = β x t + ǫ t, (t = 1,...,n) avec ǫ t i.n(0,σ 2 ). Par l indépendance, la distribution jointe des ǫ t est f(ǫ 1,ǫ 2,...,ǫ n β,σ 2 ) = n t=1 f(ǫ t β,σ 2 ), (1) où f(ǫ t β,σ 2 ) = 1 2πσ 2 exp( ǫ2 t 2σ 2 ). ǫ t n étant pas observé, on peut le remplacer par y t β x t. Autrement dit, y t x t N(β x t,σ 2 ), et la distribution de probabilité jointe de l échantillon est : f(y 1,y 2,...,y n β,σ 2 ) = n t=1 1 ( exp 2πσ 2 (y t β x t ) 2 2σ 2 ). (2)

35 Méthodes d analyse empirique p. 11/161 Fonction de vraisemblance : idée La fonction de vraisemblance (FV) d un échantillon y 1,y 2,...,y n est la distribution de probabilité jointe de cet échantillon, vue comme fonction des paramètres du modèle (β et σ 2 ).

36 Méthodes d analyse empirique p. 11/161 Fonction de vraisemblance : idée La fonction de vraisemblance (FV) d un échantillon y 1,y 2,...,y n est la distribution de probabilité jointe de cet échantillon, vue comme fonction des paramètres du modèle (β et σ 2 ). Pour une valeur donnée de β et σ 2, on peut calculer (2) : le résultat nous donne la "probabilité" d observer l échantillon en question y 1,y 2,...,y n pour une valeur donnée des paramètres.

37 Méthodes d analyse empirique p. 11/161 Fonction de vraisemblance : idée La fonction de vraisemblance (FV) d un échantillon y 1,y 2,...,y n est la distribution de probabilité jointe de cet échantillon, vue comme fonction des paramètres du modèle (β et σ 2 ). Pour une valeur donnée de β et σ 2, on peut calculer (2) : le résultat nous donne la "probabilité" d observer l échantillon en question y 1,y 2,...,y n pour une valeur donnée des paramètres. Pour une valeur différente de β et σ 2, on obtiendra une probabilité différente.

38 Méthodes d analyse empirique p. 11/161 Fonction de vraisemblance : idée La fonction de vraisemblance (FV) d un échantillon y 1,y 2,...,y n est la distribution de probabilité jointe de cet échantillon, vue comme fonction des paramètres du modèle (β et σ 2 ). Pour une valeur donnée de β et σ 2, on peut calculer (2) : le résultat nous donne la "probabilité" d observer l échantillon en question y 1,y 2,...,y n pour une valeur donnée des paramètres. Pour une valeur différente de β et σ 2, on obtiendra une probabilité différente. L ESTIMATEUR MV (EMV) est la valeur des paramètres qui maximise la FV; càd que ce sont les valeurs de β et σ 2 pour lesquelles l échantillon à la plus grande probabilité d être observé.

39 Méthodes d analyse empirique p. 12/161 Fonction de vraisemblance : notations L expression L(β,σ 2 y 1,y 2,...,y n ) désigne la FV, où les arguments de la fonction sont β et σ 2, et non les données observées y 1,y 2,...,y n. Formellement : L(β,σ 2 y 1,y 2,...,y n ) = f(y 1,y 2,...,y n β,σ 2 ). (3) L(β,σ 2 y 1,y 2,...,y n ) : IR k (0, ) IR +, alors que f(y 1,y 2,...,y n β,σ 2 ) : IR n IR +. Quand on peut identifier la nature exacte des données, on écrit même L(β,σ 2 ) au lieu de L(β,σ 2 y 1,y 2,...,y n ). On utilise aussi les notations plus synthétiques et génériques L(θ) et L(θ y) : θ pour les paramètres (donc θ = (β, σ 2 ) dans une régression), et y pour l échantillon de taille n.

40 Méthodes d analyse empirique p. 13/161 Etapes de l estimation MV Estimer les paramètres d un modèle par MV demande deux étapes : étape 1 : obtenir l expression de la FV à partir de la formulation du modèle et des hypothèses.

41 Méthodes d analyse empirique p. 13/161 Etapes de l estimation MV Estimer les paramètres d un modèle par MV demande deux étapes : étape 1 : obtenir l expression de la FV à partir de la formulation du modèle et des hypothèses. étape 2 : trouver la valeur des paramètres maximisant cette fonction. Il faut donc solutionner le problème de maximisation : max θ Θ L(θ y), où Θ est l ensemble des valeurs des paramètres acceptables θ.

42 Méthodes d analyse empirique p. 14/161 Solutionner la maximisation Il est beaucoup plus aisé, et équivalent de résoudre max θ Θ l(θ y), où l(θ y) = log L(θ y) (logarithme népérien). Puisque L(θ y) = n t=1 f(y t θ), l expression donne en logarithme l(θ y) = n t=1 log f(y t θ) = n t=1 l t(θ).

43 Méthodes d analyse empirique p. 14/161 Solutionner la maximisation Il est beaucoup plus aisé, et équivalent de résoudre max θ Θ l(θ y), où l(θ y) = log L(θ y) (logarithme népérien). Puisque L(θ y) = n t=1 f(y t θ), l expression donne en logarithme l(θ y) = n t=1 log f(y t θ) = n t=1 l t(θ). Pour l exemple de la régression linéaire, on doit résoudre ( max β IR k,σ 2 >0 n 2 log σ2 1 2σ 2 n (y t β x t ) 2), t=1 où le terme n log( 2π) fut négligé car il ne dépend ni de β ni de σ 2.

44 Méthodes d analyse empirique p. 15/161 Conditions de premier ordre Si l(θ) est différentiable, θ, l EMV, est la solution du système des conditions de premier ordre (CPO) q(θ) = 0 où q(θ) = l(θ) θ, pour autant que les conditions de second ordre sont satisfaites, càd que la matrice des dérivées secondes, évaluée à la solution des CPO, est définie négative. NB: q(θ) est appelé la fonction score. Appelons ˆθ la solution des CPO : alors, ˆθ est l EMV si q(ˆθ) = 0 et H(ˆθ) < 0. où H(ˆθ) est la matrice Hessienne l(θ) θ θ évaluée à ˆθ.

45 Méthodes d analyse empirique p. 16/161 CPO pour β Dans l exemple de la régression linéaire, les CPO sont 1 σ 2 n x t (y t β x t ) = 0 (k équations) (4) t=1 n 2σ (σ 2 ) 2 n (y t β x t ) 2 = 0 (1 equation) (5) t=1 La solution de (4) ne dépend pas de σ 2 et est la solution de n t=1 x t(y t β x t ) = 0 : c est le système des "équations normales" de l estimation MCO. Donc, ˆβ = b: l EMV, en supposant la normalité du terme d erreurs, est identique à celui des MCO.

46 Méthodes d analyse empirique p. 18/161 CPO pour σ 2 Ayant résolu (4), il reste à solutionner n 2σ (σ 2 ) 2 n (y t ˆβ x t ) 2 = 0, t=1 qui donne ˆσ 2 = 1 n n (y t ˆβ x t ) 2 = 1 n n e 2 t. (6) t=1 t=1 L EMV de σ 2 n est pas l estimateur habituel s 2 = 1 n k n t=1 e2 t, mais si n est grand, la différence est petite.

47 Méthodes d analyse empirique p. 19/161 Conditions de second ordre Les calculs donnent ( P n ) H(ˆβ, ˆσ 2 t=1 x tx t ) = ˆσ ˆσ n 4 = ( ) X X ˆσ ˆσ n, 4 qui est définie négative puisque X X est définie positive (si X est de rang k).

48 Méthodes d analyse empirique p. 19/161 Conditions de second ordre Les calculs donnent ( P n ) H(ˆβ, ˆσ 2 t=1 x tx t ) = ˆσ ˆσ n 4 = ( ) X X ˆσ ˆσ n, 4 qui est définie négative puisque X X est définie positive (si X est de rang k). b et ˆσ 2 sont les EMV de β et σ 2.

49 Méthodes d analyse empirique p. 20/161 Propriétés de l EMV On note l EMV de θ par ˆθ n pour insister sur sa dépendance à la taille de l échantillon. Les propriétés générales sont vérifiées asymptotiquement (càd qu on laisse n tendre vers ). Pour rappel, ˆθ n à une distribution d échantillon puisqu il dépend d un échantillon de v.a. qui suivent un processus stochastique (le PGD). NB : les propriétés exactes en échantillon fini dépendent du modèle considéré et sont obtenues sur une base de cas par cas quand c est possible.

50 Propriétés de l EMV On note l EMV de θ par ˆθ n pour insister sur sa dépendance à la taille de l échantillon. Les propriétés générales sont vérifiées asymptotiquement (càd qu on laisse n tendre vers ). Pour rappel, ˆθ n à une distribution d échantillon puisqu il dépend d un échantillon de v.a. qui suivent un processus stochastique (le PGD). NB : les propriétés exactes en échantillon fini dépendent du modèle considéré et sont obtenues sur une base de cas par cas quand c est possible. Les propriétés asymptotiques générales sont satisfaites sous un ensemble de "conditions de régularité". Elles assurent soit l existence de l estimateur, soit la convergence et la normalité asymptotique. Pour les séries temporelles, ces conditions sont du type : le DGP est stationnaire et faiblement dépendant. Méthodes d analyse empirique p. 20/161

51 Méthodes d analyse empirique p. 21/161 Propriétés de l EMV Convergence : ˆθ n p θ où θ est la valeur du paramètre dans le PGD (appelé "vraie valeur").

52 Méthodes d analyse empirique p. 21/161 Propriétés de l EMV Convergence : ˆθ n p θ où θ est la valeur du paramètre dans le PGD (appelé "vraie valeur"). Normalité asymptotique : on procède comme si ˆθ n N(θ, ˆV ) si n est grand, sachant que plus n est grand, meilleure est l approximation.

53 Méthodes d analyse empirique p. 21/161 Propriétés de l EMV Convergence : ˆθ n p θ où θ est la valeur du paramètre dans le PGD (appelé "vraie valeur"). Normalité asymptotique : on procède comme si ˆθ n N(θ, ˆV ) si n est grand, sachant que plus n est grand, meilleure est l approximation. ˆV est un estimateur de la matrice de variance-covariances exacte V car cette dernière dépend généralement de paramètres inconnus (en particulier, mais pas exclusivement, du vrai θ). Il n existe pas de choix unique pour ˆV mais les choix habituels (slide suivant) sont fournis dans les logiciels économétriques (comme OxMetrics, TSP, EVIEWS, RATS, SAS, STATA, etc.).

54 Méthodes d analyse empirique p. 22/161 Formules pour ˆV Basée sur la matrice Hessienne : ˆV H = [H(ˆθ)] 1 = [ n t=1 H t (ˆθ)] 1, où H t (ˆθ) = l t(θ) θ θ est évalué à ˆθ.

55 Méthodes d analyse empirique p. 22/161 Formules pour ˆV Basée sur la matrice Hessienne : ˆV H = [H(ˆθ)] 1 = [ n t=1 H t (ˆθ)] 1, où H t (ˆθ) = l t(θ) θ θ est évalué à ˆθ. Basée sur la contribution aux scores : ˆV G = [ n t=1 q t (ˆθ)q t (ˆθ) ] 1, où q t (ˆθ) = l t(θ) θ est évalué à ˆθ et constitue la contribution de l observation t à la fonction score. NB: q(θ) = n t=1 q t(θ).

56 Méthodes d analyse empirique p. 23/161 Test de Wald avec l EMV Etant donné que ˆθ n N(θ, ˆV ), on peut tester des restrictions (linéaires ou non) par des tests de Wald en χ 2. Par exemple : H 0 : Rθ = r est testé par la statistique (Rˆθ r) (RˆV R ) 1 (Rˆθ r) χ 2 (m) sous H 0.

57 Méthodes d analyse empirique p. 23/161 Test de Wald avec l EMV Etant donné que ˆθ n N(θ, ˆV ), on peut tester des restrictions (linéaires ou non) par des tests de Wald en χ 2. Par exemple : H 0 : Rθ = r est testé par la statistique (Rˆθ r) (RˆV R ) 1 (Rˆθ r) χ 2 (m) sous H 0. La statistique de test pour H 0 : θ 3 = 0 est ˆθ 2 3 /ˆv 33 χ 2 (1). Elle peut être remplacée par ˆθ 3 / ˆv 33 N(0, 1) si on désire un test unilatéral.

58 Méthodes d analyse empirique p. 24/161 Test du rapport des vraisemblances Sous les conditions de régularité, une manière alternative de tester les restrictions, disons H 0 : Rθ = r existe : Etape 1 : estimer le modèle par MV sans imposer les contraintes. Sauver l(ˆθ), la valeur de la FV à l optimum.

59 Méthodes d analyse empirique p. 24/161 Test du rapport des vraisemblances Sous les conditions de régularité, une manière alternative de tester les restrictions, disons H 0 : Rθ = r existe : Etape 1 : estimer le modèle par MV sans imposer les contraintes. Sauver l(ˆθ), la valeur de la FV à l optimum. Etape 2 : estimer le modèle (par MV) en imposant les restrictions. Sauver l( θ), la valeur de la FV à l optimum contraint. Donc, θ = arg max θ l(θ) sous contraintes Rθ = r.

60 Méthodes d analyse empirique p. 24/161 Test du rapport des vraisemblances Sous les conditions de régularité, une manière alternative de tester les restrictions, disons H 0 : Rθ = r existe : Etape 1 : estimer le modèle par MV sans imposer les contraintes. Sauver l(ˆθ), la valeur de la FV à l optimum. Etape 2 : estimer le modèle (par MV) en imposant les restrictions. Sauver l( θ), la valeur de la FV à l optimum contraint. Donc, θ = arg max θ l(θ) sous contraintes Rθ = r. Calculer le rapport des vraisemblances (RV) LR = 2[l(ˆθ) l( θ)]. Rejeter H 0 au seuil α si la p-valeur du RV est inférieure à α, où la p-valeur est obtenue en utilisant la χ 2 (m). Par construction, RV 0.

61 Méthodes d analyse empirique p. 25/161 Problèmes possibles avec MV Résoudre analytiquement les CPO, comme dans l exemple de la régression linéaire, n est généralement pas possible. Des méthodes numériques sont implémentées dans les logiciels.

62 Méthodes d analyse empirique p. 25/161 Problèmes possibles avec MV Résoudre analytiquement les CPO, comme dans l exemple de la régression linéaire, n est généralement pas possible. Des méthodes numériques sont implémentées dans les logiciels. L EMV n est pas toujours unique : le système des CPO peut avoir plusieurs solutions. Si ce problème est suspecté, on doit chercher numériquement plusieurs maxima et choisir le global.

63 Méthodes d analyse empirique p. 25/161 Problèmes possibles avec MV Résoudre analytiquement les CPO, comme dans l exemple de la régression linéaire, n est généralement pas possible. Des méthodes numériques sont implémentées dans les logiciels. L EMV n est pas toujours unique : le système des CPO peut avoir plusieurs solutions. Si ce problème est suspecté, on doit chercher numériquement plusieurs maxima et choisir le global. Cas extrême : l EMV n existe pas (ou infinité de solutions : problème d identification). Exemple : la régression linéaire quand X n est pas de rang plein.

64 Méthodes d analyse empirique p. 25/161 Problèmes possibles avec MV Résoudre analytiquement les CPO, comme dans l exemple de la régression linéaire, n est généralement pas possible. Des méthodes numériques sont implémentées dans les logiciels. L EMV n est pas toujours unique : le système des CPO peut avoir plusieurs solutions. Si ce problème est suspecté, on doit chercher numériquement plusieurs maxima et choisir le global. Cas extrême : l EMV n existe pas (ou infinité de solutions : problème d identification). Exemple : la régression linéaire quand X n est pas de rang plein. L EMV peut être à la frontière de l espace des paramètres. Normalité asymptotique non valable RV non asymptotiquement distribué selon une χ 2.

65 Méthodes d analyse empirique p. 26/161 Forces et faiblesses du MV Forces : si les hypothèses sont correctes, l EMV est l estimateur le plus efficient asymptotiquement, au sens qu il est non-biaisé asymptotiquement et possède la plus petite variance. Intuitivement, MV utilise au mieux l information des données pour estimer les paramètres.

66 Méthodes d analyse empirique p. 26/161 Forces et faiblesses du MV Forces : si les hypothèses sont correctes, l EMV est l estimateur le plus efficient asymptotiquement, au sens qu il est non-biaisé asymptotiquement et possède la plus petite variance. Intuitivement, MV utilise au mieux l information des données pour estimer les paramètres. Faiblesses : MV nécessite de choisir la distribution de probabilité. Quelles sont donc les conséquences d une hypothèse erronée sur la distribution de probabilité des y t?

67 Méthodes d analyse empirique p. 26/161 Forces et faiblesses du MV Forces : si les hypothèses sont correctes, l EMV est l estimateur le plus efficient asymptotiquement, au sens qu il est non-biaisé asymptotiquement et possède la plus petite variance. Intuitivement, MV utilise au mieux l information des données pour estimer les paramètres. Faiblesses : MV nécessite de choisir la distribution de probabilité. Quelles sont donc les conséquences d une hypothèse erronée sur la distribution de probabilité des y t? La réponse à cette question est : - dans certains cas, l EMV n est même pas convergent, - dans d autres cas, il est toujours convergent et asymptotiquement normal mais la matrice ˆV est différente de celle fournie précédemment.

68 Modèles à choix discrets Méthodes d analyse empirique p. 27/161

69 Méthodes d analyse empirique p. 28/161 Modèles Logit et Probit y i = 0 si le ménage i ne possède pas de voiture, y i = 1 sinon.

70 Méthodes d analyse empirique p. 28/161 Modèles Logit et Probit y i = 0 si le ménage i ne possède pas de voiture, y i = 1 sinon. Dans ce cas un modèle linéaire n est pas approprié pour étudier les déterminants de y.

71 Méthodes d analyse empirique p. 28/161 Modèles Logit et Probit y i = 0 si le ménage i ne possède pas de voiture, y i = 1 sinon. Dans ce cas un modèle linéaire n est pas approprié pour étudier les déterminants de y. Dans un modèle de choix discret, l intérêt se porte sur l estimation de P(y = 1 x) = P(y = 1 x 1,x 2,...,x k ), où par exemple x 1 est le niveau d éducation, x 2 le nombre d enfants, etc.

72 Méthodes d analyse empirique p. 29/161 Modèles Logit et Probit Pour s assurer que cette probabilité est toujours entre 0 et 1, on considère le plus souvent une classe de modèles du type suivant: P(y = 1 x) = G(β 0 +β 1 x 1 +β 2 x β k x k ) = G(β 0 +xb), où G est une fonction prenant des valeurs entre 0 et 1, c-à-d 0 < G(z) < 1 pour tout nombre réel z.

73 Méthodes d analyse empirique p. 29/161 Modèles Logit et Probit Pour s assurer que cette probabilité est toujours entre 0 et 1, on considère le plus souvent une classe de modèles du type suivant: P(y = 1 x) = G(β 0 +β 1 x 1 +β 2 x β k x k ) = G(β 0 +xb), où G est une fonction prenant des valeurs entre 0 et 1, c-à-d 0 < G(z) < 1 pour tout nombre réel z. Modèle logit: G(z) = exp(z) 1+exp(z) = Λ(z), c-à-d la fonction cumulative d une variable aléatoire logistique de variance unitaire.

74 Méthodes d analyse empirique p. 29/161 Modèles Logit et Probit Pour s assurer que cette probabilité est toujours entre 0 et 1, on considère le plus souvent une classe de modèles du type suivant: P(y = 1 x) = G(β 0 +β 1 x 1 +β 2 x β k x k ) = G(β 0 +xb), où G est une fonction prenant des valeurs entre 0 et 1, c-à-d 0 < G(z) < 1 pour tout nombre réel z. Modèle logit: G(z) = exp(z) 1+exp(z) = Λ(z), c-à-d la fonction cumulative d une variable aléatoire logistique de variance unitaire. Modèle Probit: G(z) = Φ(z) z φ(v)dv, où φ(z) est la densité normale standard φ(z) = (2π) 1/2 exp( z 2 /2).

75 Modèles Logit et Probit Pour s assurer que cette probabilité est toujours entre 0 et 1, on considère le plus souvent une classe de modèles du type suivant: P(y = 1 x) = G(β 0 +β 1 x 1 +β 2 x β k x k ) = G(β 0 +xb), où G est une fonction prenant des valeurs entre 0 et 1, c-à-d 0 < G(z) < 1 pour tout nombre réel z. Modèle logit: G(z) = exp(z) 1+exp(z) = Λ(z), c-à-d la fonction cumulative d une variable aléatoire logistique de variance unitaire. Modèle Probit: G(z) = Φ(z) z φ(v)dv, où φ(z) est la densité normale standard φ(z) = (2π) 1/2 exp( z 2 /2). Pour les deux modèles, G(z) 0 quand z et G(z) 1 quand z. Méthodes d analyse empirique p. 29/161

76 Méthodes d analyse empirique p. 30/161 G(z) 1.00 Logit Probit

77 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente.

78 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0]

79 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice.

80 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice. y = 1 si y > 0, 0 sinon.

81 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice. y = 1 si y > 0, 0 sinon. Nous supposons que e est indépendant de x et que e a une distribution logistique standard ou N(0, 1).

82 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice. y = 1 si y > 0, 0 sinon. Nous supposons que e est indépendant de x et que e a une distribution logistique standard ou N(0, 1). e est symmétriquement distribué autour de 0.

83 Méthodes d analyse empirique p. 31/161 Modèles Logit et Probit Les modèles Logit et Probit peuvent être dérivés d un modèles soujacent à variable latente. Soit y une variable latente (ou non observable) définie par y = β 0 + xb + e,y = 1[y > 0] La fonction 1[.] est appelée fonction indicatrice. y = 1 si y > 0, 0 sinon. Nous supposons que e est indépendant de x et que e a une distribution logistique standard ou N(0, 1). e est symmétriquement distribué autour de 0. 1 G( z) = G(z).

84 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb).

85 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb). Dans la plupart des analyses impliquant des modèles Logit ou Probit, l objet premier est d expliquer l effet d une variation de x j sur P(y = 1 x).

86 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb). Dans la plupart des analyses impliquant des modèles Logit ou Probit, l objet premier est d expliquer l effet d une variation de x j sur P(y = 1 x). Il est important de noter que la direction de l effet de x j sur E(y x) = β 0 + xb et sur E(y x) = P(y = 1 x) = G(β 0 + xb) est toujours la même.

87 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb). Dans la plupart des analyses impliquant des modèles Logit ou Probit, l objet premier est d expliquer l effet d une variation de x j sur P(y = 1 x). Il est important de noter que la direction de l effet de x j sur E(y x) = β 0 + xb et sur E(y x) = P(y = 1 x) = G(β 0 + xb) est toujours la même. Par contre l amplitude de β j n est pas vraiment parlante.

88 Méthodes d analyse empirique p. 32/161 y = β 0 + xb + e,y = 1[y > 0] P(y = 1 x) = P(y > 0 x) = P[e > (β 0 + xb) x] = 1 G[ (β 0 + xb)] = G(β 0 + xb). Dans la plupart des analyses impliquant des modèles Logit ou Probit, l objet premier est d expliquer l effet d une variation de x j sur P(y = 1 x). Il est important de noter que la direction de l effet de x j sur E(y x) = β 0 + xb et sur E(y x) = P(y = 1 x) = G(β 0 + xb) est toujours la même. Par contre l amplitude de β j n est pas vraiment parlante. Pour trouver l effet partiel d une variation d une unité de x j sur la probabilité de succes, c-à-d P(y = 1 x), il faut effectuer quelques calculs.

89 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z).

90 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z). Comme G est la cdf d une variable aléatoire continue, g est une fonction de densité de probabilité (pdf).

91 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z). Comme G est la cdf d une variable aléatoire continue, g est une fonction de densité de probabilité (pdf). Comme G(.) est strictement croissante pour les modèles Logit et Probit, g(z) > 0 z.

92 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z). Comme G est la cdf d une variable aléatoire continue, g est une fonction de densité de probabilité (pdf). Comme G(.) est strictement croissante pour les modèles Logit et Probit, g(z) > 0 z. Donc l effet partiel de x j sur p(x) dépend de x de part la quantité g(β 0 + xb).

93 Méthodes d analyse empirique p. 33/161 Effet partiel Si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: p(x) x j = g(β 0 + xb)β j, où g(z) dg dz (z). Comme G est la cdf d une variable aléatoire continue, g est une fonction de densité de probabilité (pdf). Comme G(.) est strictement croissante pour les modèles Logit et Probit, g(z) > 0 z. Donc l effet partiel de x j sur p(x) dépend de x de part la quantité g(β 0 + xb). Par contre l effet a toujours de même signe que β j.

94 Méthodes d analyse empirique p. 34/161 p(x) x j = g(β 0 + xb)β j La conséquence est que l effet relatif de deux variables explicatives continues ne dépend pas de x.

95 Méthodes d analyse empirique p. 34/161 p(x) x j = g(β 0 + xb)β j La conséquence est que l effet relatif de deux variables explicatives continues ne dépend pas de x. En effet le ratio des effets partiels pour x j et x h est β j β h.

96 Méthodes d analyse empirique p. 34/161 p(x) x j = g(β 0 + xb)β j La conséquence est que l effet relatif de deux variables explicatives continues ne dépend pas de x. En effet le ratio des effets partiels pour x j et x h est β j β h. L effet partiel est maximum lorsque β 0 + xb = 0. Pour le modèle Probit, g(z) = φ(z) et donc g(0) = φ(0) = 1 2π 0.40.

97 Méthodes d analyse empirique p. 34/161 p(x) x j = g(β 0 + xb)β j La conséquence est que l effet relatif de deux variables explicatives continues ne dépend pas de x. En effet le ratio des effets partiels pour x j et x h est β j β h. L effet partiel est maximum lorsque β 0 + xb = 0. Pour le modèle Probit, g(z) = φ(z) et donc g(0) = φ(0) = 1 2π Pour le Logit, g(z) = exp(z) [1+exp(z)] 2 et donc g(0) = 0.25.

98 Méthodes d analyse empirique p. 35/161 Variables binaires x j Le calcul de l effet partiel pour une variable binaire est différent.

99 Méthodes d analyse empirique p. 35/161 Variables binaires x j Le calcul de l effet partiel pour une variable binaire est différent. Si x 1 est une variable explicative binaire, l effet partiel d un changement de x 1 de 0 à 1, toutes choses restant égales par ailleurs est simplemement G(β 0 + β 1 + β 2 x β k x k ) G(β 0 + β 2 x β k x k ).

100 Méthodes d analyse empirique p. 35/161 Variables binaires x j Le calcul de l effet partiel pour une variable binaire est différent. Si x 1 est une variable explicative binaire, l effet partiel d un changement de x 1 de 0 à 1, toutes choses restant égales par ailleurs est simplemement G(β 0 + β 1 + β 2 x β k x k ) G(β 0 + β 2 x β k x k ). Encore une fois, l effet dépend de x mais connaitre le signe de β 1 donne une indication parfaire sur le signe de l effet (et sa significativité).

101 Méthodes d analyse empirique p. 35/161 Variables binaires x j Le calcul de l effet partiel pour une variable binaire est différent. Si x 1 est une variable explicative binaire, l effet partiel d un changement de x 1 de 0 à 1, toutes choses restant égales par ailleurs est simplemement G(β 0 + β 1 + β 2 x β k x k ) G(β 0 + β 2 x β k x k ). Encore une fois, l effet dépend de x mais connaitre le signe de β 1 donne une indication parfaire sur le signe de l effet (et sa significativité). Egalement, si x 1 est une variable discrète, comme le nombre d enfants, le passage de la valeur c 1 à 1 + c 1 (exemple 1 à 2) à un effet de G(β 0 + β 1 (1 + c 1 ) + β 2 x β k x k ) G(β 0 + β 1 c 1 + β 2 x β k x k ).

102 Méthodes d analyse empirique p. 36/161 Variables du type log(x j ) et x 2 j Soit le modèle P(y = 1 x) = G(β 0 + β 1 x 1 + β 2 x β 3log(x 3 )).

103 Méthodes d analyse empirique p. 36/161 Variables du type log(x j ) et x 2 j Soit le modèle P(y = 1 x) = G(β 0 + β 1 x 1 + β 2 x β 3log(x 3 )). L effet partiel de x 1 sur P(y = 1 x) est P(y = 1 x) x 1 = g(β 0 + xb)(β 1 + 2β 2 x 1 ).

104 Méthodes d analyse empirique p. 36/161 Variables du type log(x j ) et x 2 j Soit le modèle P(y = 1 x) = G(β 0 + β 1 x 1 + β 2 x β 3log(x 3 )). L effet partiel de x 1 sur P(y = 1 x) est P(y = 1 x) x 1 = g(β 0 + xb)(β 1 + 2β 2 x 1 ). L effet partiel de x 3 sur P(y = 1 x) est P(y = 1 x) x 3 = g(β 0 + xb) ( β3 x 3 ).

105 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV.

106 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations.

107 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations. La distribution de y i conditionnelle à x i est: f(y x i ; B) = [G(x i B)] y [1 G(x i B)] 1 y avec y = 0, 1.

108 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations. La distribution de y i conditionnelle à x i est: f(y x i ; B) = [G(x i B)] y [1 G(x i B)] 1 y avec y = 0, 1. Pour simplifier, l intercept est inclus dans x.

109 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations. La distribution de y i conditionnelle à x i est: f(y x i ; B) = [G(x i B)] y [1 G(x i B)] 1 y avec y = 0, 1. Pour simplifier, l intercept est inclus dans x. Quand y = 1 f(y x i ; B) = G(x i B) et quand y = 0 f(y x i ; B) = 1 G(x i B).

110 Méthodes d analyse empirique p. 37/161 Estimation Les modèles Logit et Probit sont généralement estimés par MV. Supposons que nous disposons de n observations. La distribution de y i conditionnelle à x i est: f(y x i ; B) = [G(x i B)] y [1 G(x i B)] 1 y avec y = 0, 1. Pour simplifier, l intercept est inclus dans x. Quand y = 1 f(y x i ; B) = G(x i B) et quand y = 0 f(y x i ; B) = 1 G(x i B). La fonction de log-vraissemblance pour l observation i est une fonction des parametres B est des données x i, c-à-d l i (B) = y i log[g(x i B)] + (1 y i )log[1 G(x i B)].

111 Méthodes d analyse empirique p. 38/161 Estimation La log-vraissemblance pour l échantillon de taille n est simplement L(B) = n i=1 l i(b).

112 Méthodes d analyse empirique p. 38/161 Estimation La log-vraissemblance pour l échantillon de taille n est simplement L(B) = n i=1 l i(b). L estimateur du MV est celui qui maximise L(B).

113 Méthodes d analyse empirique p. 38/161 Estimation La log-vraissemblance pour l échantillon de taille n est simplement L(B) = n i=1 l i(b). L estimateur du MV est celui qui maximise L(B). De part la non-linéarité de G(.), il n est pas possible de dériver des formules donnant la solution à ce problème de maximisation. On utilisera donc des outils d optimisation numérique.

114 Méthodes d analyse empirique p. 38/161 Estimation La log-vraissemblance pour l échantillon de taille n est simplement L(B) = n i=1 l i(b). L estimateur du MV est celui qui maximise L(B). De part la non-linéarité de G(.), il n est pas possible de dériver des formules donnant la solution à ce problème de maximisation. On utilisera donc des outils d optimisation numérique. Chaque ˆβ j est reporté avec un écart-type (asymptotique).

115 Méthodes d analyse empirique p. 39/161 Estimation Nous cherchons à savoir si une nouvelle méthode d enseignement de l économie, le système personnalisé d instruction (PSI), influait significativement sur les performances dans les cours de gestion.

116 Méthodes d analyse empirique p. 39/161 Estimation Nous cherchons à savoir si une nouvelle méthode d enseignement de l économie, le système personnalisé d instruction (PSI), influait significativement sur les performances dans les cours de gestion. Variable dépendante: GRADE = 1 si le résultat de l étudiant dans un cours intermédiaire de gestion financière est plus élevé que dans un cours de base.

117 Méthodes d analyse empirique p. 39/161 Estimation Nous cherchons à savoir si une nouvelle méthode d enseignement de l économie, le système personnalisé d instruction (PSI), influait significativement sur les performances dans les cours de gestion. Variable dépendante: GRADE = 1 si le résultat de l étudiant dans un cours intermédiaire de gestion financière est plus élevé que dans un cours de base. Autres variables: GPA = note moyenne de l étudiant, TUCE = score à un pré-test qui renseigne sur la connaissance de l étudiant et PSI = 1 si l étudiant a suivi la nouvelle méthode d apprentissage.

118 Méthodes d analyse empirique p. 40/161 Output LOGIT CS( 1) Modelling GRADE by LOGIT The estimation sample is 1-32 Coefficient Std.Error t-value t-prob Constant GPA TUCE PSI log-likelihood no. of states 2 no. of observations 32 no. of parameters 4 baseline log-lik Test: Chiˆ2( 3) [0.0015]** AIC AIC/n mean(grade) var(grade) Newton estimation (eps1=0.0001; eps2=0.005): Strong convergence Count Frequency Probability loglik State State Total

119 Méthodes d analyse empirique p. 41/161 Output PROBIT CS( 2) Modelling GRADE by PROBIT The estimation sample is 1-32 Coefficient Std.Error t-value t-prob Constant GPA TUCE PSI log-likelihood no. of states 2 no. of observations 32 no. of parameters 4 zeroline log-lik Test: Chiˆ2( 4) [0.0009]** AIC AIC/n mean(grade) var(grade) Newton estimation (eps1=0.0001; eps2=0.005): Strong convergence Count Frequency Probability loglik State State Total

120 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches.

121 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents.

122 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale.

123 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale. Notons que nous avons vu que g(0) = φ(0) = 0.4 pour exp(0) la normale et [1+exp(0)] = 0.25 pour la logistique. 2

124 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale. Notons que nous avons vu que g(0) = φ(0) = 0.4 pour exp(0) la normale et [1+exp(0)] = 0.25 pour la logistique. 2 Donc pour avoir des effet marginaux equivalents il faut φ(0)β p j exp(0) [1+exp(0)] 2 β l j = 1.

125 Méthodes d analyse empirique p. 42/161 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale. Notons que nous avons vu que g(0) = φ(0) = 0.4 pour exp(0) la normale et [1+exp(0)] = 0.25 pour la logistique. 2 Donc pour avoir des effet marginaux equivalents il faut φ(0)β p j exp(0) [1+exp(0)] 2 β l j = 1. C-à-d 0.4βp j 0.25β l j = 1 ou encore β l j = 1.6βp j.

126 Comparaison des résultats Les niveaux de significativités des 2 modèles sont très proches. Les coefficients estimés sont différents. C est normal car l effet partiel est fonction de g(.)β j avec g(.) la fonction cdf de la logistique ou de la normale. Notons que nous avons vu que g(0) = φ(0) = 0.4 pour exp(0) la normale et [1+exp(0)] = 0.25 pour la logistique. 2 Donc pour avoir des effet marginaux equivalents il faut φ(0)β p j exp(0) [1+exp(0)] 2 β l j = 1. C-à-d 0.4βp j 0.25β l j = 1 ou encore β l j = 1.6βp j. Exemple pour PSI: = Méthodes d analyse empirique p. 42/161

127 Méthodes d analyse empirique p. 43/161 Exemple de LRT sur PSI CS( 2) Modelling GRADE by PROBIT The estimation sample is 1-32 Coefficient Std.Error t-value t-prob Constant GPA TUCE log-likelihood no. of states 2 no. of observations 32 no. of parameters 3 zeroline log-lik Test: Chiˆ2( 3) [0.0072]** AIC AIC/n mean(grade) var(grade) LRT = 2[ ( )] = = 6.66 >> 3.86(χ 2 5% (1)). Mais χ 2 (1) = % Attention ce test est asymptotique alors que n = 32.

128 Méthodes d analyse empirique p. 44/161 Exemple de test de Wald Test for linear restrictions (Rb=r): R matrix Constant GPA TUCE PSI r vector LinRes Chiˆ2(1) = [0.0151] * Attention ce test est également asymptotique alors que n = 32.

129 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes.

130 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire.

131 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5.

132 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5. Etant donné {ỹ i : i = 1, 2,...,n}, on peut voir la qualité de la prévision de y i.

133 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5. Etant donné {ỹ i : i = 1, 2,...,n}, on peut voir la qualité de la prévision de y i. Pour chaque i, la paire (ỹ i,y i ) peut prendre quatres valeurs: (0, 0), (0, 1), (1, 0) et (1, 1).

134 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5. Etant donné {ỹ i : i = 1, 2,...,n}, on peut voir la qualité de la prévision de y i. Pour chaque i, la paire (ỹ i,y i ) peut prendre quatres valeurs: (0, 0), (0, 1), (1, 0) et (1, 1). Pour les paires (0, 0) et (1, 1), la prévision est correcte.

135 Méthodes d analyse empirique p. 45/161 Goodness-of-fit Une mesure fréquemment reportée lors de l estimation de modèles Logit et Probit est le pourcentage de prédictions correctes. Cette mesure s apparente au R 2 d un modèle linéaire. Soit ỹ i = 1 si G(ˆβ 0 + x i ˆB) 0.5 et ỹi = 0 si G(ˆβ 0 + x i ˆB) < 0.5. Etant donné {ỹ i : i = 1, 2,...,n}, on peut voir la qualité de la prévision de y i. Pour chaque i, la paire (ỹ i,y i ) peut prendre quatres valeurs: (0, 0), (0, 1), (1, 0) et (1, 1). Pour les paires (0, 0) et (1, 1), la prévision est correcte. Le pourcentage de prédictions correctes est le %age de valeurs ỹ i = y i.

136 Méthodes d analyse empirique p. 46/161 Output PROBIT and LOGIT Table of actual and predicted State 0 State 1 Sum actual State State Sum pred =

137 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse.

138 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit.

139 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit. Exemple: n = 200, 160 observations ont y i = 0 et hors de ces 160 observations 140 ont ỹ i = 0. Donc on prédit correctement dans 87.5% des cas les valeurs de y i = 0.

140 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit. Exemple: n = 200, 160 observations ont y i = 0 et hors de ces 160 observations 140 ont ỹ i = 0. Donc on prédit correctement dans 87.5% des cas les valeurs de y i = 0. Même si aucune prévision n est correcte pour y i = 1, on prédit toujours correctement 70% des observations (140/200).

141 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit. Exemple: n = 200, 160 observations ont y i = 0 et hors de ces 160 observations 140 ont ỹ i = 0. Donc on prédit correctement dans 87.5% des cas les valeurs de y i = 0. Même si aucune prévision n est correcte pour y i = 1, on prédit toujours correctement 70% des observations (140/200). Il est souvant utile de pouvoir également prédire les évènements les moins probables.

142 Méthodes d analyse empirique p. 47/161 Goodness-of-fit Même si cette mesure est utile elle peut être trompeuse. En effet, il est possible d obtenir des pourcentages de prédictions correctes élevés même lorsque l évènement le moins probable est très mal prédit. Exemple: n = 200, 160 observations ont y i = 0 et hors de ces 160 observations 140 ont ỹ i = 0. Donc on prédit correctement dans 87.5% des cas les valeurs de y i = 0. Même si aucune prévision n est correcte pour y i = 1, on prédit toujours correctement 70% des observations (140/200). Il est souvant utile de pouvoir également prédire les évènements les moins probables. Il est donc important de calculer ce %age pour chaque valeur de y i, c-à-d 0 et 1.

143 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden.

144 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden. Ce pseudo-r 2 = 1 L nc L 0, où L nc est la log-vraissemblance du modèle (non contraint) et L 0 est celle du modèle contraint ne comportant qu une constante.

145 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden. Ce pseudo-r 2 = 1 L nc L 0, où L nc est la log-vraissemblance du modèle (non contraint) et L 0 est celle du modèle contraint ne comportant qu une constante. Pourqui est-ce que cette mesure a du sens?

146 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden. Ce pseudo-r 2 = 1 L nc L 0, où L nc est la log-vraissemblance du modèle (non contraint) et L 0 est celle du modèle contraint ne comportant qu une constante. Pourqui est-ce que cette mesure a du sens? L < 0 donc L nc L 0 = L nc L 0.

147 Méthodes d analyse empirique p. 48/161 Goodness-of-fit Une autre mesure reportée par la plupart des logicles économériques est le pseudo-r 2 de McFadden. Ce pseudo-r 2 = 1 L nc L 0, où L nc est la log-vraissemblance du modèle (non contraint) et L 0 est celle du modèle contraint ne comportant qu une constante. Pourqui est-ce que cette mesure a du sens? L < 0 donc L nc L 0 = L nc L 0. De plus L nc L 0.

148 Méthodes d analyse empirique p. 49/161 Goodness-of-fit Si les variables explicatives n ont pas de pouvoir explicatif L nc L 0 = 1 et donc pseudo-r 2 = 0.

149 Méthodes d analyse empirique p. 49/161 Goodness-of-fit Si les variables explicatives n ont pas de pouvoir explicatif L nc L 0 = 1 et donc pseudo-r 2 = 0. Généralement L nc < L 0 et donc 1 L nc L 0 > 0

150 Méthodes d analyse empirique p. 49/161 Goodness-of-fit Si les variables explicatives n ont pas de pouvoir explicatif L nc L 0 = 1 et donc pseudo-r 2 = 0. Généralement L nc < L 0 et donc 1 L nc L 0 > 0 Si L nc = 0 le pseudo-r 2 = 1.

151 Méthodes d analyse empirique p. 50/161 Goodness-of-fit: Alternative Soit ŷ i = G(ˆβ 0 + x i ˆB) les prévisions de probabilité du modèle Logit ou Probit.

152 Méthodes d analyse empirique p. 50/161 Goodness-of-fit: Alternative Soit ŷ i = G(ˆβ 0 + x i ˆB) les prévisions de probabilité du modèle Logit ou Probit. Comme ces prévisions sont aussi des prévisions de E(y i x i ), on peut calculer un genre de R 2 en comparant ŷ i et y i.

153 Méthodes d analyse empirique p. 50/161 Goodness-of-fit: Alternative Soit ŷ i = G(ˆβ 0 + x i ˆB) les prévisions de probabilité du modèle Logit ou Probit. Comme ces prévisions sont aussi des prévisions de E(y i x i ), on peut calculer un genre de R 2 en comparant ŷ i et y i. reporter corr(ŷ i,y i ) 2.

154 Méthodes d analyse empirique p. 51/161 Output Descriptive Statistics Means, standard deviations and correlations The sample is: 1-32 Means P(State 1) GRADE Standard deviations (using T-1) P(State 1) GRADE Correlation matrix: P(State 1) GRADE P(State 1) GRADE Exportez d abord les probabilités estimées. corr(grade, P(State 1 )) =

155 Méthodes d analyse empirique p. 52/161 Reporter des effets partiels On a vu que si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: où g(z) dg dz (z). p(x) x j = g(β 0 + xb)β j,

156 Méthodes d analyse empirique p. 52/161 Reporter des effets partiels On a vu que si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: où g(z) dg dz (z). Par conséquent p(x) x j = g(β 0 + xb)β j, ˆ p(x) g(ˆβ 0 + xˆb)ˆβ j x j, pour des petites variations de x j.

157 Méthodes d analyse empirique p. 52/161 Reporter des effets partiels On a vu que si x j est une variable continue, son effet partiel sur p(x) = P(y = 1 x) est obtenu depuis la dérivée partielle suivante: où g(z) dg dz (z). Par conséquent p(x) x j = g(β 0 + xb)β j, ˆ p(x) g(ˆβ 0 + xˆb)ˆβ j x j, pour des petites variations de x j. Mais l effet partiel dépend de x, où g(ˆβ 0 + xˆb) est appelé facteur d échelle. Que reporter?

158 Méthodes d analyse empirique p. 53/161 Reporter des effets partiels Les logiciels économétriques reportent souvant des effets partiels ou le facteur d échelle est évalué en x, c-à-d g(ˆβ 0 + xˆb) = g(ˆβ 0 + ˆβ 1 x 1 + ˆβ 2 x ˆβ k x k ).

159 Méthodes d analyse empirique p. 53/161 Reporter des effets partiels Les logiciels économétriques reportent souvant des effets partiels ou le facteur d échelle est évalué en x, c-à-d g(ˆβ 0 + xˆb) = g(ˆβ 0 + ˆβ 1 x 1 + ˆβ 2 x ˆβ k x k ). En multipliant ce facteur d échelle par β j on obtient l effet partiel de x j pour la personne moyenne.

160 Méthodes d analyse empirique p. 53/161 Reporter des effets partiels Les logiciels économétriques reportent souvant des effets partiels ou le facteur d échelle est évalué en x, c-à-d g(ˆβ 0 + xˆb) = g(ˆβ 0 + ˆβ 1 x 1 + ˆβ 2 x ˆβ k x k ). En multipliant ce facteur d échelle par β j on obtient l effet partiel de x j pour la personne moyenne. Qu est-ce que l individu moyen si par exemple x 1 = Male (1 si homme et 0 pour femme).

161 Méthodes d analyse empirique p. 53/161 Reporter des effets partiels Les logiciels économétriques reportent souvant des effets partiels ou le facteur d échelle est évalué en x, c-à-d g(ˆβ 0 + xˆb) = g(ˆβ 0 + ˆβ 1 x 1 + ˆβ 2 x ˆβ k x k ). En multipliant ce facteur d échelle par β j on obtient l effet partiel de x j pour la personne moyenne. Qu est-ce que l individu moyen si par exemple x 1 = Male (1 si homme et 0 pour femme). Si on a 52.5% d hommes x 1 = En quoi cela représente la presonne moyenne?

162 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier.

163 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier. Une approche différente pour calculer le facteur d échelle qui premettrait de régler ces problèmes est la suivante.

164 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier. Une approche différente pour calculer le facteur d échelle qui premettrait de régler ces problèmes est la suivante. n 1 n i=1 g(ˆβ 0 + x i ˆB)

165 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier. Une approche différente pour calculer le facteur d échelle qui premettrait de régler ces problèmes est la suivante. n n 1 g(ˆβ 0 + x i ˆB) i=1 on prend la moyenne de la fonction linéaire et non la fonction linéaire évaluée en la moyenne.

166 Méthodes d analyse empirique p. 54/161 Reporter des effets partiels De plus si x 1 est par exemple log(sales). Doit-on évaluer l impact moyen en log(sales) ou log(sales)? Les logiciels econométriques reportent le premier. Une approche différente pour calculer le facteur d échelle qui premettrait de régler ces problèmes est la suivante. n n 1 g(ˆβ 0 + x i ˆB) i=1 on prend la moyenne de la fonction linéaire et non la fonction linéaire évaluée en la moyenne. Les deux méthodes puvent donner des facteurs d échelle assez différents.

167 Méthodes d analyse empirique p. 55/161 Reporter des effets partiels Si les variables explicatives comprennent des variables discrètes, ces formules ne sont pas valables.

168 Méthodes d analyse empirique p. 55/161 Reporter des effets partiels Si les variables explicatives comprennent des variables discrètes, ces formules ne sont pas valables. Pour un changement de x 1 de c 1 à 1 + c 1, l analogue discret de l effet partiel est G(ˆβ 0 + ˆβ 1 (1 + c 1 ) ˆβ k x k ) G(ˆβ 0 + ˆβ 1 c ˆβ k x k ).

169 Méthodes d analyse empirique p. 55/161 Reporter des effets partiels Si les variables explicatives comprennent des variables discrètes, ces formules ne sont pas valables. Pour un changement de x 1 de c 1 à 1 + c 1, l analogue discret de l effet partiel est G(ˆβ 0 + ˆβ 1 (1 + c 1 ) ˆβ k x k ) G(ˆβ 0 + ˆβ 1 c ˆβ k x k ). La moyenne des effets partiels est quant à elle donnée par n n 1 { G(ˆβ 0 + ˆβ 1 (1 + c 1 ) + ˆβ 2 x i ˆβ k x ik ) i=1 G(ˆβ 0 + ˆβ 1 c 1 + ˆβ 2 x i ˆβ k x ik )}.

170 Méthodes d analyse empirique p. 56/161 Exemple: GRADE et PROBIT Summary statistics for explanatory variables State 0: #obs min mean max std.dev Constant GPA TUCE PSI State 1: #obs min mean max std.dev Constant GPA TUCE PSI All States: #obs min mean max std.dev Constant GPA TUCE PSI GPA = et TUCE =

171 Méthodes d analyse empirique p. 57/161 Exemple: GRADE et PROBIT G( GPA TUCE ) G( GPA TUCE) = =

172 Méthodes d analyse empirique p. 57/161 Exemple: GRADE et PROBIT G( GPA TUCE ) G( GPA TUCE) = = Comment évalue ce différentiel en fonction de GPA?

173 Méthodes d analyse empirique p. 57/161 Exemple: GRADE et PROBIT G( GPA TUCE ) G( GPA TUCE) = = Comment évalue ce différentiel en fonction de GPA? G( GPA TUCE ) G( GPA TUCE)

174 Méthodes d analyse empirique p. 57/161 Exemple: GRADE et PROBIT G( GPA TUCE ) G( GPA TUCE) = = Comment évalue ce différentiel en fonction de GPA? G( GPA TUCE ) G( GPA TUCE) GRADE_prob.xls

175 Méthodes d analyse empirique p. 58/161 Output Strong convergence using numerical derivatives Function value = Coefficient Std.Error t-value t-prob Constant NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE

176 Méthodes d analyse empirique p. 59/161 PcGive CS( 2) Modelling INLF by Probit The estimation sample is Coefficient Std.Error t-value t-prob Constant NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE log-likelihood no. of states 2 no. of observations 753 no. of parameters 8 zeroline log-lik Test: Chiˆ2( 8) [0.0000]** AIC AIC/n mean(inlf) var(inlf) BFGS estimation (eps1=0.0001; eps2=0.005): Strong convergence

177 Méthodes d analyse empirique p. 60/161 H 0 : KIDSLT6 = 0, KIDSGE6 = 0 LR test Strong convergence using numerical derivatives Function value = Coefficient Std.Error t-value t-prob Constant NWIFEINC EDUC EXPER EXPERSQ AGE LRT = 2 ( ) = >> χ 2 (2). Indeed, Chiˆ2(2) = [0.0000] **

178 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup?

179 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus.

180 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation.

181 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts.

182 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts achats de Heintz contre 265 pour Hunts.

183 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts achats de Heintz contre 265 pour Hunts. Variable endogène: Heintz = 1 si achat de Heintz, 0 sinon.

184 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts achats de Heintz contre 265 pour Hunts. Variable endogène: Heintz = 1 si achat de Heintz, 0 sinon. Variables explicatives: Display (tête de gondole) only, feature (folder) only, feature and display et la difference du log du prix de Heintz et Hunts.

185 Heintz1.in7 Méthodes d analyse empirique p. 61/161 Une application en marketing Quels sont les déterminants du choix entre deux marques de ketchup? 2798 observations concernant 300 individus. On ne selectionne pas la dernière observation de chaque individu (laissée pour des prévisions out-of-sample) 2498 observations dans l estimation. 2 marques: Heintz et Hunts achats de Heintz contre 265 pour Hunts. Variable endogène: Heintz = 1 si achat de Heintz, 0 sinon. Variables explicatives: Display (tête de gondole) only, feature (folder) only, feature and display et la difference du log du prix de Heintz et Hunts.

186 Méthodes d analyse empirique p. 62/161 Output Logit sur HEINZ Coefficient Std.Error t-value t-prob Constant DISPLHEINZ DISPLHUNTS FEATHEINZ FEATHUNTS FEATDISPLHEINZ FEATDISPLHUNTS LPRICEHEINZ log-likelihood no. of states 2 no. of observations 2498 no. of parameters 8 baseline log-lik Test: Chiˆ2( 7) [0.0000]** mean(heinz) var(heinz)

187 Méthodes d analyse empirique p. 63/161 Output Logit sur HEINZ Table of actual and predicted State 0 State 1 Sum actual State State Sum pred

188 Méthodes d analyse empirique p. 64/161 Output Probit sur HEINZ Coefficient Std.Error t-value t-prob Constant DISPLHEINZ DISPLHUNTS FEATHEINZ FEATHUNTS FEATDISPLHEINZ FEATDISPLHUNTS LPRICEHEINZ log-likelihood no. of states 2 no. of observations 2498 no. of parameters 8 zeroline log-lik Test: Chiˆ2( 8) [0.0000]** mean(heinz) var(heinz)

189 Méthodes d analyse empirique p. 65/161 Output Probit sur HEINZ Table of actual and predicted State 0 State 1 Sum actual State State Sum pred

190 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) =

191 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) = Donc la probabilité d achat de Heintz si les variables explicatives sont 0 est de 96.4%.

192 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) = Donc la probabilité d achat de Heintz si les variables explicatives sont 0 est de 96.4%. Notons que la probabilité inconditionnelle d acaht de Heintz est de 89.1%.

193 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) = Donc la probabilité d achat de Heintz si les variables explicatives sont 0 est de 96.4%. Notons que la probabilité inconditionnelle d acaht de Heintz est de 89.1%. Les trois variables relatives a Hunts sont d ampleur plus importantes que celles de Heintz, sont négatives et largement significatives.

194 Méthodes d analyse empirique p. 66/161 Une application en marketing L intercept est positif. Notons que exp(3.29) 1+exp(3.29) = Donc la probabilité d achat de Heintz si les variables explicatives sont 0 est de 96.4%. Notons que la probabilité inconditionnelle d acaht de Heintz est de 89.1%. Les trois variables relatives a Hunts sont d ampleur plus importantes que celles de Heintz, sont négatives et largement significatives. Une politique de marketing aggressive de la part de Hunts peut faire gagner des parts de marché même si Heintz reste le leader dans le domaine.

195 Méthodes d analyse empirique p. 67/161 Une application en marketing L effet est le plus fort pour une promotion couplant la mise en évidence du produit Hunts (tête de gondole) et un affichage dans le folder promotionel.

196 Méthodes d analyse empirique p. 67/161 Une application en marketing L effet est le plus fort pour une promotion couplant la mise en évidence du produit Hunts (tête de gondole) et un affichage dans le folder promotionel. Les variables promotion de Heintz ne sont pas très significatives (uniquement display mais au seuil de 4%).

197 Méthodes d analyse empirique p. 67/161 Une application en marketing L effet est le plus fort pour une promotion couplant la mise en évidence du produit Hunts (tête de gondole) et un affichage dans le folder promotionel. Les variables promotion de Heintz ne sont pas très significatives (uniquement display mais au seuil de 4%). Le coefficient de LP RICEHEIN Z est significativement négatif et donc une augmentation de prix de Heintz réduit les ventes et donc une diminution du prix de Hunts permet d augmenter les ventes de Hunts.

198 Méthodes d analyse empirique p. 68/161 p(x) x j = g( ˆβ 0 + xˆb) ˆβ j pour le Logit Derivatives of probabilities at regressor means Probabilities: State State Derivatives: mean State 0 State 1 Constant DISPLHEINZ DISPLHUNTS FEATHEINZ FEATHUNTS FEATDISPLHEINZ FEATDISPLHUNTS LPRICEHEINZ

199 Méthodes d analyse empirique p. 69/161 Prévisions (Logit) avec 1 si ˆp(x) > 0.5 Predictions: Table of actual and predicted State 0 State 1 Sum actual State State Sum pred % de bonnes prévisions de 1,1.3% de bonnes prévisions de % de mauvaises prévisions de 0 et 0.33% de mauvaises prévisions de 1. Pour ˆp(x) > c avec c 0.5 (par exemple E(Heintz) = 0.891) exportez les prévisions et faites le calcul en excel.

200 Estimation par variables instrumentales et doubles moindres carrés : Chapitre 15 Méthodes d analyse empirique p. 70/161

201 Méthodes d analyse empirique p. 71/161 Utilisation des variables instrumentales L utilisation de la méthode des variables instrumentales (VI) se justifie dans différents contextes : Variables explicatives endogènes.

202 Méthodes d analyse empirique p. 71/161 Utilisation des variables instrumentales L utilisation de la méthode des variables instrumentales (VI) se justifie dans différents contextes : Variables explicatives endogènes. Problème d erreurs de mesures sur certaines variables. Exemple : revenu déclaré.

203 Méthodes d analyse empirique p. 71/161 Utilisation des variables instrumentales L utilisation de la méthode des variables instrumentales (VI) se justifie dans différents contextes : Variables explicatives endogènes. Problème d erreurs de mesures sur certaines variables. Exemple : revenu déclaré. Problème d omission de variables explicatives appropriées.

204 Méthodes d analyse empirique p. 72/161 Variables explicatives endogènes Dans ce contexte, l utilisation de VI donne lieu à une nouvelle méthode d estimation : les doubles moindres carrés.

205 Méthodes d analyse empirique p. 72/161 Variables explicatives endogènes Dans ce contexte, l utilisation de VI donne lieu à une nouvelle méthode d estimation : les doubles moindres carrés. Méthode très populaire, notamment pour estimer des modèles macroéconomiques à plusieurs équations.

206 Méthodes d analyse empirique p. 72/161 Variables explicatives endogènes Dans ce contexte, l utilisation de VI donne lieu à une nouvelle méthode d estimation : les doubles moindres carrés. Méthode très populaire, notamment pour estimer des modèles macroéconomiques à plusieurs équations. Des exemples spécifiques seront développés dans le Chapitre 16 : modèles à équations simultanées.

207 Méthodes d analyse empirique p. 72/161 Variables explicatives endogènes Dans ce contexte, l utilisation de VI donne lieu à une nouvelle méthode d estimation : les doubles moindres carrés. Méthode très populaire, notamment pour estimer des modèles macroéconomiques à plusieurs équations. Des exemples spécifiques seront développés dans le Chapitre 16 : modèles à équations simultanées. Exemple : Relation entre le taux de criminalité (meurtres) et la taille des forces de police. Le taux de criminalité dépend de la taille des forces de polices et la taille des forces de police dépend du taux de criminalité. Problème de simultanéité.

208 Méthodes d analyse empirique p. 73/161 Erreurs de mesure Problème d erreurs de mesures sur certaines variables explicatives.

209 Méthodes d analyse empirique p. 73/161 Erreurs de mesure Problème d erreurs de mesures sur certaines variables explicatives. Exemple : revenu déclaré.

210 Méthodes d analyse empirique p. 74/161 Omission de variables explicatives L omission de variables explicatives appropriées mène à un biais d estimation des coefficients de régression.

211 Méthodes d analyse empirique p. 74/161 Omission de variables explicatives L omission de variables explicatives appropriées mène à un biais d estimation des coefficients de régression. Ce biais peut être éliminé si l on dispose de variables proxy. Quid si pas de proxy.

212 Méthodes d analyse empirique p. 74/161 Omission de variables explicatives L omission de variables explicatives appropriées mène à un biais d estimation des coefficients de régression. Ce biais peut être éliminé si l on dispose de variables proxy. Quid si pas de proxy. Dans un contexte de données de panel, élimination du biais par différenciation si variable omise est indépendante du temps.

213 Méthodes d analyse empirique p. 74/161 Omission de variables explicatives L omission de variables explicatives appropriées mène à un biais d estimation des coefficients de régression. Ce biais peut être éliminé si l on dispose de variables proxy. Quid si pas de proxy. Dans un contexte de données de panel, élimination du biais par différenciation si variable omise est indépendante du temps. Quid si la variable omise dépend du temps, si l intérêt se porte sur des variables qui ne varient pas dans le temps (éliminées par différenciation) ou si on ne dispose pas de données de panel?

214 Illustration : variables omises Méthodes d analyse empirique p. 75/161

215 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e.

216 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e. Problème : on n observe pas abil (compétence).

217 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e. Problème : on n observe pas abil (compétence). On peut utiliser le QI comme variable proxy de abil. Quid si indisponible?

218 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e. Problème : on n observe pas abil (compétence). On peut utiliser le QI comme variable proxy de abil. Quid si indisponible? Si on ignore abil, le modèle de régression devient : wage = β 0 + β 1 educ + u.

219 Méthodes d analyse empirique p. 76/161 Exemple : relation salaire-éducation Le vrai modèle de régression est : wage = β 0 + β 1 educ + β 2 abil + e. Problème : on n observe pas abil (compétence). On peut utiliser le QI comme variable proxy de abil. Quid si indisponible? Si on ignore abil, le modèle de régression devient : wage = β 0 + β 1 educ + u. u = β 2 abil + e. abil u. Si abil est corrélé avec educ, E(u x) 0. Estimateur de β 1 par MCO biaisé car violation de l hypothèse SLR.3.

220 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u.

221 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u. A cause de l omission de certaines variables : Cov(x,u) 0. Les MCO donnent des estimateurs biaisés.

222 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u. A cause de l omission de certaines variables : Cov(x,u) 0. Les MCO donnent des estimateurs biaisés. Idée des VI utiliser une information additionnelle sous la forme d une variable observable z qui remplit 2 conditions.

223 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u. A cause de l omission de certaines variables : Cov(x,u) 0. Les MCO donnent des estimateurs biaisés. Idée des VI utiliser une information additionnelle sous la forme d une variable observable z qui remplit 2 conditions. Condition 1 : Cov(z,u) = 0.

224 Méthodes d analyse empirique p. 77/161 Modèle de régression simple Le modèle de régression s écrit : y = β 0 + β 1 x + u. A cause de l omission de certaines variables : Cov(x,u) 0. Les MCO donnent des estimateurs biaisés. Idée des VI utiliser une information additionnelle sous la forme d une variable observable z qui remplit 2 conditions. Condition 1 : Cov(z,u) = 0. Condition 2 : Cov(z,x) 0.

225 Méthodes d analyse empirique p. 78/161 Conditions 1 des VI Condition 1. Dans la population, Cov(z,u) = 0.

226 Méthodes d analyse empirique p. 78/161 Conditions 1 des VI Condition 1. Dans la population, Cov(z,u) = 0. z est dite exogène dans le modèle de régression.

227 Méthodes d analyse empirique p. 78/161 Conditions 1 des VI Condition 1. Dans la population, Cov(z,u) = 0. z est dite exogène dans le modèle de régression. Il est difficile de tester cette hypothèse. Faire d abord appel à la théorique économique.

228 Méthodes d analyse empirique p. 79/161 Conditions 2 des VI Condition 2. Cov(z,x) 0.

229 Méthodes d analyse empirique p. 79/161 Conditions 2 des VI Condition 2. Cov(z,x) 0. z est corrélée avec la variable explicative x.

230 Méthodes d analyse empirique p. 79/161 Conditions 2 des VI Condition 2. Cov(z,x) 0. z est corrélée avec la variable explicative x. On peut tester cette hypothèse : x = π 0 + π 1 z + ν.

231 Méthodes d analyse empirique p. 79/161 Conditions 2 des VI Condition 2. Cov(z,x) 0. z est corrélée avec la variable explicative x. On peut tester cette hypothèse : x = π 0 + π 1 z + ν. Comme π 1 = Cov(z,x)/V ar(z), la Condition 2 tient ssi on rejette l hypothèse H 0 : π 1 = 0 contre l hypothèse alternative H 1 : π 1 0.

232 Méthodes d analyse empirique p. 80/161 Exemples et contre-exemples de VI Revenons à la relation salaire-éducation. Regardons quelques candidats de VI pour educ. trouver z tel que Cov(z,abil) = 0 et Cov(z,educ) 0.

233 Méthodes d analyse empirique p. 80/161 Exemples et contre-exemples de VI Revenons à la relation salaire-éducation. Regardons quelques candidats de VI pour educ. trouver z tel que Cov(z,abil) = 0 et Cov(z,educ) 0. Derniers numéros de sécurité sociale de l individu : Condition 1 OK; Condition 2 non remplie.

234 Méthodes d analyse empirique p. 80/161 Exemples et contre-exemples de VI Revenons à la relation salaire-éducation. Regardons quelques candidats de VI pour educ. trouver z tel que Cov(z,abil) = 0 et Cov(z,educ) 0. Derniers numéros de sécurité sociale de l individu : Condition 1 OK; Condition 2 non remplie. QI : Condition 2 OK mais Condition 1 violée car QI corrélé avec abil et donc u.

235 Méthodes d analyse empirique p. 81/161 Exemples et contre-exemples de VI Condition 1 : Cov(z,abil) = 0 et Condition 2 : Cov(z,educ) 0. Education de la mère : Condition 2 OK (les parents éduqués ont plus de chance d avoir des enfants éduqués); Condition 1 moins évidente car corrélation compétence-éducation de la mère pas claire. Voir la théorie économique.

236 Méthodes d analyse empirique p. 81/161 Exemples et contre-exemples de VI Condition 1 : Cov(z,abil) = 0 et Condition 2 : Cov(z,educ) 0. Education de la mère : Condition 2 OK (les parents éduqués ont plus de chance d avoir des enfants éduqués); Condition 1 moins évidente car corrélation compétence-éducation de la mère pas claire. Voir la théorie économique. Nombre de frères et soeurs pendant l enfance. Condition 1 vraisemblable. Condition 2 aussi car certaines études ont montré que les familles nombreuses avaient un niveau d éducation significativement plus faible.

237 Estimation et Inférence par la méthode des variables instrumentales Méthodes d analyse empirique p. 82/161

238 Méthodes d analyse empirique p. 83/161 Estimateurs des VI Si l on dispose d une bonne VI, on peut estimer de manière consistante l équation y = β 0 + β 1 x + u. Les 2 conditions des VI permettent d identifier β 1, c est-à-dire d écrire β 1 en termes de moments des variables observables : Cov(z,y) = Cov(z,β 0 +β 1 x+u) = β 1 Cov(z,x)+Cov(z,u).

239 Méthodes d analyse empirique p. 83/161 Estimateurs des VI Si l on dispose d une bonne VI, on peut estimer de manière consistante l équation y = β 0 + β 1 x + u. Les 2 conditions des VI permettent d identifier β 1, c est-à-dire d écrire β 1 en termes de moments des variables observables : Cov(z,y) = Cov(z,β 0 +β 1 x+u) = β 1 Cov(z,x)+Cov(z,u). Voir pages pour les propriétés de calcul des covariances.

240 Méthodes d analyse empirique p. 83/161 Estimateurs des VI Si l on dispose d une bonne VI, on peut estimer de manière consistante l équation y = β 0 + β 1 x + u. Les 2 conditions des VI permettent d identifier β 1, c est-à-dire d écrire β 1 en termes de moments des variables observables : Cov(z,y) = Cov(z,β 0 +β 1 x+u) = β 1 Cov(z,x)+Cov(z,u). Voir pages pour les propriétés de calcul des covariances. Si Cov(z,u) = 0, alors β 1 = Cov(z,y) Cov(z,x) Cov(z,x) 0. qui existe ssi

241 Méthodes d analyse empirique p. 84/161 Estimateurs des VI L estimateur par VI de β 1 : ˆβ 1 = n i=1 (z i z)(y i y) n i=1 (z i z)(x i x).

242 Méthodes d analyse empirique p. 84/161 Estimateurs des VI L estimateur par VI de β 1 : ˆβ 1 = n i=1 (z i z)(y i y) n i=1 (z i z)(x i x). Remarque : si x = z (cas de x exogène), alors on retrouve l estimateur des MCO. Dans ce cas, x est son propre instrument.

243 Méthodes d analyse empirique p. 84/161 Estimateurs des VI L estimateur par VI de β 1 : ˆβ 1 = n i=1 (z i z)(y i y) n i=1 (z i z)(x i x). Remarque : si x = z (cas de x exogène), alors on retrouve l estimateur des MCO. Dans ce cas, x est son propre instrument. L estimateur de l intercept est simplement : ˆβ 0 = y ˆβ 1 x.

244 Méthodes d analyse empirique p. 84/161 Estimateurs des VI L estimateur par VI de β 1 : ˆβ 1 = n i=1 (z i z)(y i y) n i=1 (z i z)(x i x). Remarque : si x = z (cas de x exogène), alors on retrouve l estimateur des MCO. Dans ce cas, x est son propre instrument. L estimateur de l intercept est simplement : ˆβ 0 = y ˆβ 1 x. Sous les conditions 1 et 2, plim(ˆβ 1 ) = β 1 ˆβ 1 est convergent.

245 Méthodes d analyse empirique p. 85/161 Inférence avec les estimateurs des VI Les estimateurs VI sont, comme les estimateurs MCO, asymptotiquement distribués normalement. Pour faire de l inférence, on a donc besoin d un estimateur de la variance de ˆβ 0 et ˆβ 1.

246 Méthodes d analyse empirique p. 85/161 Inférence avec les estimateurs des VI Les estimateurs VI sont, comme les estimateurs MCO, asymptotiquement distribués normalement. Pour faire de l inférence, on a donc besoin d un estimateur de la variance de ˆβ 0 et ˆβ 1. On fait l hypothèse d homoscédasticité : E(u 2 z) = V ar(u) = σ 2.

247 Méthodes d analyse empirique p. 85/161 Inférence avec les estimateurs des VI Les estimateurs VI sont, comme les estimateurs MCO, asymptotiquement distribués normalement. Pour faire de l inférence, on a donc besoin d un estimateur de la variance de ˆβ 0 et ˆβ 1. On fait l hypothèse d homoscédasticité : E(u 2 z) = V ar(u) = σ 2. Sous les conditions 1 et 2 des VI et cette hypothèse, alors la variance asymptotique de ˆβ 1 est égale à σ 2 nσ 2 xρ 2 x,z où ρ xz est la corrélation entre x et z.

248 Méthodes d analyse empirique p. 85/161 Inférence avec les estimateurs des VI Les estimateurs VI sont, comme les estimateurs MCO, asymptotiquement distribués normalement. Pour faire de l inférence, on a donc besoin d un estimateur de la variance de ˆβ 0 et ˆβ 1. On fait l hypothèse d homoscédasticité : E(u 2 z) = V ar(u) = σ 2. Sous les conditions 1 et 2 des VI et cette hypothèse, alors la variance asymptotique de ˆβ 1 est égale à σ 2 nσ 2 xρ 2 x,z où ρ xz est la corrélation entre x et z. Un estimateur consistent de σ 2 peut s obtenir comme pour les MCO, c-à-d ˆσ 2 = 1 n 2 n i=1 û2 i.

249 Méthodes d analyse empirique p. 86/161 Inférence avec les Estimateurs des VI La variance asymptotique de β 1 peut également ˆσ s écrire : 2 SCT x R, où SCT x,z 2 x = n i=1 x2 i.

250 Méthodes d analyse empirique p. 86/161 Inférence avec les Estimateurs des VI La variance asymptotique de β 1 peut également ˆσ s écrire : 2 SCT x R, où SCT x,z 2 x = n i=1 x2 i. Comparons avec la variance asymptotique de β 1 estimé par MCO : ˆσ 2 SCT x.

251 Méthodes d analyse empirique p. 86/161 Inférence avec les Estimateurs des VI La variance asymptotique de β 1 peut également ˆσ s écrire : 2 SCT x R, où SCT x,z 2 x = n i=1 x2 i. Comparons avec la variance asymptotique de β 1 estimé par MCO : ˆσ 2 SCT x. On voit que plus R 2 x,z (R 2 de la régression de X i sur Z i ) est faible (instruments faibles), plus la précision de l estimateur des VI est faible.

252 Méthodes d analyse empirique p. 86/161 Inférence avec les Estimateurs des VI La variance asymptotique de β 1 peut également ˆσ s écrire : 2 SCT x R, où SCT x,z 2 x = n i=1 x2 i. Comparons avec la variance asymptotique de β 1 estimé par MCO : ˆσ 2 SCT x. On voit que plus R 2 x,z (R 2 de la régression de X i sur Z i ) est faible (instruments faibles), plus la précision de l estimateur des VI est faible. Comme R 2 x,z < 1, la variance des estimateurs VI et des DMC est toujours plus élevée que celle des MCO : le coût de l estimation des VI se paye en termes de précision de l estimateur.

253 Méthodes d analyse empirique p. 87/161 Illustration : mroz.in7 EQ(1) Modelling LWAGE by OLS-CS (using mroz.in7) The estimation sample is: 1 to 428 Coefficient Std.Error t-value t-prob Constant EDUC sigma RSS Rˆ F(1,426) = [0.000]** log-likelihood DW 1.98 no. of observations 428 no. of parameters 2 mean(lwage) var(lwage) log(wage) = β 0 + β 1 educ + u. Hors si abil u et Cov(abil, educ) 0 Rejet SLR.3. VI : Education du père (fathereduc)?

254 Méthodes d analyse empirique p. 88/161 Tester la Condition 2 EQ( 2) Modelling EDUC by OLS-CS (using mroz.in7) The estimation sample is: 1 to 428 Coefficient Std.Error t-value t-prob Part.Rˆ2 Constant FATHEDUC sigma RSS Rˆ F(1,426) = [0.000]** log-likelihood DW 1.92 no. of observations 428 no. of parameters 2 mean(educ) var(educ) x = π 0 + π 1 z + ν. R 2 = t-stat de ˆπ 1 = 9.43 rejet de H 0 : π 1 = 0.

255 Méthodes d analyse empirique p. 89/161 PcGive : Sélection des variables Sélectionner y en premier lieu. EDUC : Y.

256 PcGive : Méthode Méthodes d analyse empirique p. 90/161

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

UNIVERSITÉ DU QUÉBEC À MONTRÉAL TESTS EN ÉCHANTILLONS FINIS DU MEDAF SANS LA NORMALITÉ ET SANS LA CONVERGENCE

UNIVERSITÉ DU QUÉBEC À MONTRÉAL TESTS EN ÉCHANTILLONS FINIS DU MEDAF SANS LA NORMALITÉ ET SANS LA CONVERGENCE UNIVERSITÉ DU QUÉBEC À MONTRÉAL TESTS EN ÉCHANTILLONS FINIS DU MEDAF SANS LA NORMALITÉ ET SANS LA CONVERGENCE MÉMOIRE PRÉSENTÉ COMME EXIGENCE PARTIELLE DE LA MAÎTRISE EN ÉCONOMIE PAR MATHIEU SISTO NOVEMBRE

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Les modèles de choix binaire

Les modèles de choix binaire Chapitre 4 Les modèles de choix binaire Les modèles de régression linéaire développés ci-dessus concernent une variable dépendante continue (comme par exemple le salaire ou le taux de chômage). Ce chapitre

Plus en détail

choisir H 1 quand H 0 est vraie - fausse alarme

choisir H 1 quand H 0 est vraie - fausse alarme étection et Estimation GEL-64943 Hiver 5 Tests Neyman-Pearson Règles de Bayes: coûts connus min π R ( ) + ( π ) R ( ) { } Règles Minimax: coûts connus min max R ( ), R ( ) Règles Neyman Pearson: coûts

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Estimation et tests statistiques, TD 5. Solutions

Estimation et tests statistiques, TD 5. Solutions ISTIL, Tronc commun de première année Introduction aux méthodes probabilistes et statistiques, 2008 2009 Estimation et tests statistiques, TD 5. Solutions Exercice 1 Dans un centre avicole, des études

Plus en détail

Le modèle de régression linéaire

Le modèle de régression linéaire Chapitre 2 Le modèle de régression linéaire 2.1 Introduction L économétrie traite de la construction de modèles. Le premier point de l analyse consiste à se poser la question : «Quel est le modèle?». Le

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Introduction à l approche bootstrap

Introduction à l approche bootstrap Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?

Plus en détail

Cours de méthodes de scoring

Cours de méthodes de scoring UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-

Plus en détail

Théorie de l estimation et de la décision statistique

Théorie de l estimation et de la décision statistique Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory

Plus en détail

MODELE A CORRECTION D ERREUR ET APPLICATIONS

MODELE A CORRECTION D ERREUR ET APPLICATIONS MODELE A CORRECTION D ERREUR ET APPLICATIONS Hélène HAMISULTANE Bibliographie : Bourbonnais R. (2000), Econométrie, DUNOD. Lardic S. et Mignon V. (2002), Econométrie des Séries Temporelles Macroéconomiques

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire

Plus en détail

NON-LINEARITE ET RESEAUX NEURONAUX

NON-LINEARITE ET RESEAUX NEURONAUX NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Économetrie non paramétrique I. Estimation d une densité

Économetrie non paramétrique I. Estimation d une densité Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer

Plus en détail

IFT3245. Simulation et modèles

IFT3245. Simulation et modèles IFT 3245 Simulation et modèles DIRO Université de Montréal Automne 2012 Tests statistiques L étude des propriétés théoriques d un générateur ne suffit; il estindispensable de recourir à des tests statistiques

Plus en détail

MCMC et approximations en champ moyen pour les modèles de Markov

MCMC et approximations en champ moyen pour les modèles de Markov MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Suites numériques 4. 1 Autres recettes pour calculer les limites

Suites numériques 4. 1 Autres recettes pour calculer les limites Suites numériques 4 1 Autres recettes pour calculer les limites La propriété suivante permet de calculer certaines limites comme on verra dans les exemples qui suivent. Propriété 1. Si u n l et fx) est

Plus en détail

EXERCICE 4 (7 points ) (Commun à tous les candidats)

EXERCICE 4 (7 points ) (Commun à tous les candidats) EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

Introduction à la Statistique Inférentielle

Introduction à la Statistique Inférentielle UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique

Plus en détail

Cours 9 : Plans à plusieurs facteurs

Cours 9 : Plans à plusieurs facteurs Cours 9 : Plans à plusieurs facteurs Table des matières Section 1. Diviser pour regner, rassembler pour saisir... 3 Section 2. Définitions et notations... 3 2.1. Définitions... 3 2.2. Notations... 4 Section

Plus en détail

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7 Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

Principe de symétrisation pour la construction d un test adaptatif

Principe de symétrisation pour la construction d un test adaptatif Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

Attitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014

Attitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014 Attitude des ménages face au risque - M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014 Plan du cours 1. Introduction : demande de couverture et comportements induits pa 2. Représentations

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes Zohra Guessoum 1 & Farida Hamrani 2 1 Lab. MSTD, Faculté de mathématique, USTHB, BP n 32, El Alia, Alger, Algérie,zguessoum@usthb.dz

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières

Plus en détail

Econométrie et applications

Econométrie et applications Econométrie et applications Ecole des Ponts ParisTech Département Sciences Economiques Gestion Finance Nicolas Jacquemet (nicolas.jacquemet@univ-paris1.fr) Université Paris 1 & Ecole d Economie de Paris

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678 Sélection prédictive d un modèle génératif par le critère AICp Vincent Vandewalle To cite this version: Vincent Vandewalle. Sélection prédictive d un modèle génératif par le critère AICp. 41èmes Journées

Plus en détail

Introduction à la statistique non paramétrique

Introduction à la statistique non paramétrique Introduction à la statistique non paramétrique Catherine MATIAS CNRS, Laboratoire Statistique & Génome, Évry http://stat.genopole.cnrs.fr/ cmatias Atelier SFDS 27/28 septembre 2012 Partie 2 : Tests non

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

FORMULAIRE DE STATISTIQUES

FORMULAIRE DE STATISTIQUES FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)

Plus en détail

Analyse statistique de données qualitatives et quantitatives en sciences sociales : TP RÉGRESSION LOGISTIQUE (MODÈLES CHAPITRE 1)

Analyse statistique de données qualitatives et quantitatives en sciences sociales : TP RÉGRESSION LOGISTIQUE (MODÈLES CHAPITRE 1) Analyse statistique de données qualitatives et quantitatives en sciences sociales : TP RÉGRESSION LOGISTIQUE (MODÈLES CHAPITRE 1) Modèles de régression logistique à réaliser Une explicative catégorielle

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail

FOAD COURS D ECONOMETRIE 1 CHAPITRE 2 : Hétéroscédasicité des erreurs. 23 mars 2012.

FOAD COURS D ECONOMETRIE 1 CHAPITRE 2 : Hétéroscédasicité des erreurs. 23 mars 2012. FOAD COURS D ECONOMETRIE CHAPITRE 2 : Hétéroscédasicité des erreurs. 23 mars 202. Christine Maurel Maître de conférences en Sciences Economiques Université de Toulouse - Capitole Toulouse School of Economics-ARQADE

Plus en détail

Feuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.

Feuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre. Université de Nantes Année 2013-2014 L3 Maths-Eco Feuille 6 : Tests Exercice 1 On cherche à connaître la température d ébullition µ, en degrés Celsius, d un certain liquide. On effectue 16 expériences

Plus en détail

Données longitudinales et modèles de survie

Données longitudinales et modèles de survie ANALYSE DU Données longitudinales et modèles de survie 5. Modèles de régression en temps discret André Berchtold Département des sciences économiques, Université de Genève Cours de Master ANALYSE DU Plan

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions

Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions Exemple 4.4. Continuons l exemple précédent. Maintenant on travaille sur les quaternions et on a alors les décompositions HQ = He 1 He 2 He 3 He 4 HQ e 5 comme anneaux (avec centre Re 1 Re 2 Re 3 Re 4

Plus en détail

Modélisation du risque opérationnel Approche Bâle avancée

Modélisation du risque opérationnel Approche Bâle avancée Modélisation du risque opérationnel Approche Bâle avancée Université Laval Conférence LABIFUL Département de Finance et Assurance 1 Mars, 2013. Ridha Mahfoudhi, Ph.D. Senior Manager Quantitative Analytics,

Plus en détail

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free. Actuariat I ACT2121 septième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Lois de probabilité. Anita Burgun

Lois de probabilité. Anita Burgun Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage

Plus en détail

Cours d introduction à la théorie de la détection

Cours d introduction à la théorie de la détection Olivier J.J. MICHEL Département EEA, UNSA v1.mars 06 olivier.michel@unice.fr Laboratoire LUAN UMR6525-CNRS Cours d introduction à la théorie de la détection L ensemble du document s appuie très largement

Plus en détail

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Fausto Errico Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2012 Table des matières

Plus en détail

Modèle GARCH Application à la prévision de la volatilité

Modèle GARCH Application à la prévision de la volatilité Modèle GARCH Application à la prévision de la volatilité Olivier Roustant Ecole des Mines de St-Etienne 3A - Finance Quantitative Décembre 2007 1 Objectifs Améliorer la modélisation de Black et Scholes

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring Les méthodes d évaluation du risque de crédit pour les PME et les ménages Caractéristiques Comme les montants des crédits et des

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Rappels sur les suites - Algorithme

Rappels sur les suites - Algorithme DERNIÈRE IMPRESSION LE 14 septembre 2015 à 12:36 Rappels sur les suites - Algorithme Table des matières 1 Suite : généralités 2 1.1 Déition................................. 2 1.2 Exemples de suites............................

Plus en détail

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Modélisation et simulation

Modélisation et simulation Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.

Plus en détail

Équations non linéaires

Équations non linéaires Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

«Cours Statistique et logiciel R»

«Cours Statistique et logiciel R» «Cours Statistique et logiciel R» Rémy Drouilhet (1), Adeline Leclercq-Samson (1), Frédérique Letué (1), Laurence Viry (2) (1) Laboratoire Jean Kuntzmann, Dép. Probabilites et Statistique, (2) Laboratoire

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Le financement adossé de l immobilier en gestion de patrimoine : une modélisation simple

Le financement adossé de l immobilier en gestion de patrimoine : une modélisation simple Le financement adossé de l immobilier en gestion de patrimoine : une modélisation simple Laurent Batsch ahier de recherche n 2005-01 Le financement adossé est une des modalités de financement de l investissement

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

Etude de fonctions: procédure et exemple

Etude de fonctions: procédure et exemple Etude de fonctions: procédure et exemple Yves Delhaye 8 juillet 2007 Résumé Dans ce court travail, nous présentons les différentes étapes d une étude de fonction à travers un exemple. Nous nous limitons

Plus en détail

1 Définition de la non stationnarité

1 Définition de la non stationnarité Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles

Plus en détail