Statistique (MATH-F-315, Cours #3)



Documents pareils
La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

Principe d un test statistique

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

Estimation et tests statistiques, TD 5. Solutions

TABLE DES MATIERES. C Exercices complémentaires 42

Feuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Analyse de la variance Comparaison de plusieurs moyennes

Simulation de variables aléatoires

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

Cours de Tests paramétriques

Cours d introduction à la théorie de la détection

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, LES STATISTIQUES INFERENTIELLES

Introduction à la Statistique Inférentielle

4 Distributions particulières de probabilités

Probabilités III Introduction à l évaluation d options

FORMULAIRE DE STATISTIQUES

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests de comparaison de moyennes. Dr Sahar BAYAT MASTER 1 année UE «Introduction à la biostatistique»

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Chapitre 2 Le problème de l unicité des solutions

Chapitre 6 Test de comparaison de pourcentages χ². José LABARERE

Principe de symétrisation pour la construction d un test adaptatif

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

choisir H 1 quand H 0 est vraie - fausse alarme

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

TESTS D'HYPOTHESES Etude d'un exemple

PROBABILITES ET STATISTIQUE I&II

Moments des variables aléatoires réelles

FIMA, 7 juillet 2005

Etude des propriétés empiriques du lasso par simulations

Tests paramétriques de comparaison de 2 moyennes Exercices commentés José LABARERE

Lois de probabilité. Anita Burgun

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Intégration et probabilités TD1 Espaces mesurés Corrigé

Méthodes de Simulation

PRIME D UNE OPTION D ACHAT OU DE VENTE

Théorie de l estimation et de la décision statistique

LE RÔLE DE LA STATISTIQUE DANS UN PROCESSUS DE PRISE DE DÉCISION

Intégration et probabilités TD1 Espaces mesurés

Limites finies en un point

Introduction à la statistique non paramétrique

IFT3245. Simulation et modèles

NON-LINEARITE ET RESEAUX NEURONAUX

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

CHAPITRE 5. Stratégies Mixtes

Soutenance de stage Laboratoire des Signaux et Systèmes

Économetrie non paramétrique I. Estimation d une densité

Econométrie et applications

Classification non supervisée

Introduction aux Statistiques et à l utilisation du logiciel R

Exercices M1 SES Ana Fermin ( fermin.perso.math.cnrs.fr/ ) 14 Avril 2015

Température corporelle d un castor (une petite introduction aux séries temporelles)

TABLE DES MATIÈRES. Bruxelles, De Boeck, 2011, 736 p.

Introduction au Data-Mining

STATISTIQUES. UE Modélisation pour la biologie

DOCM Solutions officielles = n 2 10.

1. Vocabulaire : Introduction au tableau élémentaire

Expérience 3 Formats de signalisation binaire

distribution quelconque Signe 1 échantillon non Wilcoxon gaussienne distribution symétrique Student gaussienne position

Calculs de probabilités

Biostatistiques : Petits effectifs

3. Caractéristiques et fonctions d une v.a.

Arbres binaires de décision

données en connaissance et en actions?

Chapitre 3 : INFERENCE

Analyse de variance à deux facteurs (plan inter-sujets à deux facteurs) TP9

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

Équations non linéaires

Leçon 5. Systèmes de gestion à recomplétement périodique et stock de sécurité

STA108 Enquêtes et sondages. Sondages àplusieurs degrés et par grappes

Séries Statistiques Simples

Introduction à la théorie des files d'attente. Claude Chaudet

3. Conditionnement P (B)

Statistique inférentielle TD 1 : Estimation

Exercices de Statistique HEI /2015 A. RIDARD

Le Modèle Linéaire par l exemple :

Continuité en un point

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Probabilité et Statistique pour le DEA de Biosciences. Avner Bar-Hen

Annexe commune aux séries ES, L et S : boîtes et quantiles

Comment bien régresser: La statistique peut-elle se passer d artefacts?

Lecture critique d article. Bio statistiques. Dr MARC CUGGIA MCU-PH Laboratoire d informatique médicale EA-3888

Exercices supplémentaires sur l introduction générale à la notion de probabilité

PROJET MODELE DE TAUX

Statistiques Décisionnelles L3 Sciences Economiques & Gestion Faculté d économie, gestion & AES Université Montesquieu - Bordeaux

Quantification Scalaire et Prédictive

Tests statistiques et régressions logistiques sous R, avec prise en compte des plans d échantillonnage complexes

La mesure de Lebesgue sur la droite réelle

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Lagrange, où λ 1 est pour la contrainte sur µ p ).

Apprentissage par renforcement (1a/3)

Précision d un résultat et calculs d incertitudes

Logique. Plan du chapitre

Le groupe Casino choisit NP6 pour adapter sa communication aux enjeux du Responsive Design

Pourquoi l apprentissage?

Transcription:

Statistique (MATH-F-315, Cours #3) Thomas Verdebout Université Libre de Bruxelles 2015

Plan de la partie Statistique du cours 1. Introduction. 2. Théorie de l estimation. 3. Tests d hypothèses et intervalles de confiance. 4. Régression. 5. ANOVA.

Problèmes de test Soit X = (X 1,..., X n) un échantillon provenant d un modèle statistique P = {P θ θ Θ}. Considérons une partition de Θ en Θ = H 0 H 1 ( désigne une réunion disjointe) où H 0 est appelée l hypothèse nulle (en anglais, null hypothesis) et H 1 est la contre-hypothèse (en anglais, alternative). Un problème de test est un problème de décision dans lequel deux décisions seulement sont possibles: (i) Le rejet de l hypothèse nulle (RH 0) après observation de X; (ii) Le non-rejet de H 0 (NRH 0) après observation de X.

Problèmes de test Définition Un test est une statistique, traditionnellement notée φ, à valeurs dans {0, 1}, qui sert de règle de décision : φ(x) = 0 signifie NRH 0 tandis que φ(x) = 1 signifie RH 0. Exemple (échantillon de Bernoulli) Considérons n jets X 1,..., X n d une pièce de monnaie : P[ face ] = p, Θ = [0, 1]. Supposons qu on mette en doute le fait que cette pièce soit correctement équilibrée, c est-à -dire l hypothèse que p = 1/2. Est-il raisonnable, après observation des résultats des n jets, de rejeter cette hypothèse?

Problèmes de test Le problème de décision ainsi posé est le problème de test { H 0 : p = 1/2 : la pièce est correctement équilibrée H 1 : p 1/2 la pièce n est pas correctement équilibrée. Nous savons qu un estimateur raisonnable de p est donné par ˆp := 1 n n X i i=1 Il paraît donc raisonnable de rejeter l hypothèse si la proportion observée ˆp de résultats face est trop petite (ˆp < 1/2 a) ou trop grande (ˆp > 1/2 + a) par rapport à 1/2. Cette règle de décision est un test de la forme { 1 si ˆp / [1/2 ± a] (proportion observée ˆp trop différente de 1/2 ) φ = φ(ˆp) = 0 si ˆp [1/2 ± a] (proportion observée de ˆp proche de 1/2). Mais comment déterminer a?

Risques de première et de seconde espèce Soit φ un test (pour un problème associé à un paramètre θ, une hypothèse nulle H 0 et une contre-hypothèse H 1). Deux erreurs peuvent être commises : l erreur de première espèce, qui consiste à rejeter l hypothèse nulle correcte l erreur de seconde espèce, qui est celle de ne pas rejeter l hypothèse nulle fausse. θ H 0 θ H 1 φ = 0 (NRH 0) décision correcte erreur (risque) de 2nde espèce φ = 1 (RH 0) erreur (risque) de 1ère espèce décision correcte La probabilité de commettre chacune de ces deux erreurs est appelée risque; ce risque est fonction de la valeur (inconnue) de θ.

Risques de première et de seconde espèce Définition Le risque de première espèce est la probabilité de rejeter l hypothèse quand celle-ci est correcte (quand θ H 0): P θ [RH 0] = P θ [φ(x) = 1] = E θ [φ] quand θ H 0. Définition Le risque de seconde espèce est la probabilité de ne pas rejeter l hypothèse quand celle-ci est fausse (quand θ H 1): P θ [NRH 0] = 1 P θ [φ(x) = 1] = 1 E θ [φ] quand θ H 1. Le test idéal serait celui qui minimiserait à la fois les risques de première et de seconde espèce.

Risques de première et de seconde espèce Pour minimiser à la fois les risques de première et de seconde espèce, il faudrait minimiser E θ [φ] pour θ H 0 et minimiser 1 E θ [φ] pour θ H 1 (ou de façon équivalente maximiser E θ [φ] pour θ H 1) Ces deux objectifs ne peuvent être atteints simultanément. En effet, le test φ 0 (ne jamais rejeter) minimise E θ [φ] pour θ H 0 tandis que le test φ 1 (toujours rejeter) maximise E θ [φ] pour θ H 1.

Le Principe de Neyman Afin de résoudre ce dilemme, le principe ci-dessous, appelé Principe de Neyman, est appliqué. Définissons tout d abord le concept de puissance. Définition La puissance d un test est donc la probabilité P θ [φ(x) = 1] = E θ [φ], θ H 1 pour que celui-ci rejette une hypothèse fausse. Le Principe de Neyman consiste à (a) se restreindre aux tests φ de niveau α sur H 0, c est à dire aux tests satisfaisant la contrainte de niveau E θ [φ] α, θ H 0 où α est fixé à l avance (valeurs usuelles : 0.01; 0.05; 0.01; 0.001). (b) parmi les test de niveau α, choisir celui (existence? unicité?) qui maximise la puissance uniformément en θ H 1.

Le Principe de Neyman Ceci conduit à la définition de la notion de test à puissance uniformément maximum (PUM; en anglais, uniformly most powerful, UMP) dans la classe des tests de niveau α. Definition Un test φ est à PUM dans la classe des test de niveau α (pour H 0 contre H 1) si (i) φ est de niveau α : E θ [φ ] α pour tout θ H 0; (ii) φ est au moins aussi puissant, en tout θ H 1, que tout autre test φ satisfaisant à la contrainte de niveau (i) : pour tout φ tel que E θ [φ] α en tout θ H 0, E θ [φ] E θ [φ ] pour tout θ H 1. Le problème de l existence de tests PUM et de leur construction n est pas toujours simple (et des tests PUM n existent pas pour tous les problèmes). Dans la suite, nous décrirons les tests les plus usuels.

Echantillon gaussien, variance spécifiée : test d une moyenne Soient X 1,..., X n i.i.d. N (µ, σ 2 ), de variance σ 2 spécifiée. Problème de test (unilatéral): H 0 : µ µ 0 et H 1 : µ > µ 0 Statistique de test : X := 1 n n i=1 Xi ou Z := X µ 0 σ/ n Loi sous µ = µ 0 : X N (µ0, σ 2 /n) = Z N (0, 1) Règle de comportement : φ = 1 (RH 0) si Z > z 1 α ou, de façon équivalente, si X > µ 0 + z 1 α σ 0 n où z 1 α est le quantile d ordre 1 α de la variable normale centrée réduite. Le contenu intuitif de cette règle de comportement est clair : on rejette H 0 si X est trop grand par rapport à µ 0, la magnitude du trop grand étant calibrée par la condition de niveau.

Echantillon gaussien, variance spécifiée : test d une moyenne La condition de niveau est satisfaite. En effet, en µ = µ 0, E µ0 (φ) = P µ0 (φ = 1) = P µ0 (RH 0) = P[Z > z 1 α] = α; α 0 z α En gris : Probabilité de rejet sous µ = µ 0.

Echantillon gaussien, variance spécifiée : test d une moyenne en µ < µ 0, E µ(φ) = P µ(φ = 1) = P µ(rh 0) < α. En effet, Z = X µ 0 σ 0/ n = X µ σ + µ ( ) µ0 µ 0/ n σ µ0 N 0/ n σ, 1 0/ n } {{ } } {{ } } {{ } N (0,1) <0 <0 α µ µ 0 σ 0/ n < 0 0 z α < α

Echantillon gaussien, variance spécifiée : test d une moyenne Ou de manière analytique: P µ(φ = 1) = P µ(rh 0) = P N [ ( ) ] µ µ0 σ 0/ n, 1 > z 1 α = P N (0, 1) > z 1 α µ µ0 σ 0/ n < α. } {{ } <0 } {{ } >z 1 α Donc le test satisfait à la condition de niveau.

Echantillon gaussien, variance spécifiée : test d une moyenne De même, en µ > µ 0, Z = X µ 0 σ 0/ n = X µ σ 0/ n } {{ } N (0,1) + µ µ0 σ N 0/ n } {{ } >0 ( µ µ0 σ 0/ n } {{ } >0 ), 1 > α 0 z α α µ µ 0 σ 0/ n

Echantillon gaussien, variance spécifiée : test d une moyenne P µ(φ = 1) = P µ(rh 0) = P N [ ( ) ] µ µ0 σ 0/ n, 1 > z 1 α = P µ µ0 N (0, 1) > z1 α σ 0/ n > α } {{ } <0 1 pour µ ou pour n. Le graphe de la fonction µ E µ(φ) pour ce test (noir) est de la forme 1 α 0 H µ 0 µ 0 H 1 En gris : la puissance d un autre test de même niveau, uniformément moins puissant

Echantillon gaussien, variance spécifiée : test d une moyenne La règle de décision pour ce test est RH 0 si Z > z 1 α F N (0,1) (Z) > F N (0,1) (z 1 α) 1 Φ(Z) < α où F N (0,1) est la fonction de répartition (notée Φ) de la variable N (0, 1), ce qui implique Φ(z 1 α) = 1 α. Definition 1 Φ(Z) est appelée p-valeur du test (c est une statistique, donc une quantité aléatoire, fonction de (X 1,..., X n)). La règle de décision peut donc s énoncer aussi sous la forme RH 0 si p-valeur(x 1,..., X n) < α.

Echantillon gaussien, variance non spécifiée : test d une moyenne Considérons à présent le cas où X 1,..., X n i.i.d. N (µ, σ 2 ) où ( µ, σ 2) R R +. Problème de test : { H 0 : µ µ 0 (σ 2 non spécifié) H 1 : µ > µ 0 (σ 2 non spécifié), c est-à -dire, sous forme de partition de Θ, { H 0 = (, µ 0] (0, ) H 1 = (µ 0, ) (0, ); σ 2 est appelé paramètre de nuisance; µ est appelé paramètre d intérêt. Grâce au lemme de Fisher: ) X N (µ, σ2 n il découle donc du lemme de Fisher que n ( X µ) σ ( ns 2 ) / (n 1) σ 2 et ns 2 σ 2 χ2 n 1, = ( X µ) s/ n 1 = ( X µ) S/ n tn 1.

Echantillon gaussien, variance non spécifiée : test d une moyenne Le test de Student (unilatéral) pour un échantillon ((one-sided) one-sample Student test) est donné par Statistique de test : T = X µ 0 S/ n = X µ 0 s/ n 1 Loi sous µ = µ 0 : T t n 1 Règle de comportement : φ = 1 (RH 0) si T > t n 1;1 α ou, de façon équivalente, si X > µ0 + t n 1;1 α S n où t n 1;1 α est le quantile d ordre (1 α) de la variable de Student à n 1 degrés de liberté. Le contenu intuitif de cette règle de comportement est exactement le même que dans l exemple précédent.

Echantillon gaussien, variance non spécifiée : test d une moyenne On peut montrer que ce test satisfait à la condition de niveau est à puissance uniformément maximale dans la classe des tests sans biais de niveau α, c est-à -dire la classe des test φ satisfaisant { E θ [φ] α θ H 0 E θ [φ] α θ H 1. Remarque 1 : Ici encore, la règle de comportement peut être décrite en faisant intervenir la notion de p-valeur; celle-ci se définit comme F tn 1 (T ), où F tn 1 est la fonction de répartition de la variable de Student à n 1 degrés de liberté. Remarque 2 : Pour n grand (n 30), T t n 1 N (0, 1), et les quantiles t n 1;1 α peuvent être remplacés par les quantiles gaussiens z 1 α; gràce au théorème central-limite, l hypothèse gaussienne peut donc être abandonnée.

Echantillon gaussien, variance non spécifiée : test d une moyenne Remarque 3 : Le problème unilatéral symétrique du précédent { H 0 : µ µ 0 H 1 : µ < µ 0 se traite de la même façon, mais le rejet se fait pour les petites valeurs de X ou de T. Règle de comportement : φ = 1 (RH 0) si T < t n 1;α ou, de façon équivalente, si X < µ 0 + t n 1;α S n. Remarquons, que la symétrie par rapport à zéro de la fonction de densité de la distribution de Student implique que t n 1;α = t n 1;1 α ce qui implique RH 0 si X < µ 0 t n 1;1 α S n Ici, la p-valeur doit êre calculée comme une probabilité à gauche : p-valeur(x 1,..., X n) = F tn 1 (T ). La règle de comportement consiste alors à rejeter l hypothèse nulle si la p-valeur est inférieure à α.

Echantillon gaussien, variance non spécifiée : test d une moyenne Remarque 4 : Choix du test unilatéral Deux problèmes unilatéraux a priori sont possibles : { H 0 : µ µ 0 H 1 : µ > µ 0 et { H 0 : µ µ 0 H 1 : µ < µ 0. Le choix du problème unilatéral doit se faire sur base des objectifs à atteindre. Dans un test d hypothèse, seul le rejet de l hypothèse nulle est concluant car le risque correspondant (risque de première espèce) est contrôlé (au plus égal à α). Dans le cas d un non-rejet, le risque de seconde espèce n est pas contrôlé : il est aussi petit que possible, mais sa valeur, inconnue, peut être proche de un. Le non-rejet est donc une suspension du jugement : les observations ne permettent pas de rejeter l hypothèse, mais cela n implique aucune certitude. Le non-rejet de H 0 ne doit en aucune façon être interprétée comme une acceptation de H 0.

Echantillon gaussien, variance non spécifiée : test d une moyenne Remarque 5 : Problèmes de test bilatéraux Considérons des hypothèses de la forme { H 0 : µ = µ 0 H 1 : µ µ 0 (σ 2 non spécifié). On utilise le test de Student bilatéral (two-sided), version bilatérale des tests précédents. Règle de comportement : φ = 1 (RH 0) si T / [ t n 1;1 α/2 ; t n 1;1 α/2 ] ou, de façon équivalente, si X / [ µ 0 ± t n 1;1 α/2 S n ]. La notion de p-valeur est un peu plus délicate que dans le cas unilatéral. Supposons que T > 0 : on rejette l hypothèse si T > t n 1;1 α/2, c est-à -dire (1 F tn 1 (T )) < α, ou encore 2(1 2 Ft (T )) = 2(1 n 1 Ft n 1 ( T )) < α. On peut donc définir la p-valeur, dans ce test bilatéral, comme 2(1 F tn 1 ( T ),

Echantillon gaussien, variance non spécifiée : test d une moyenne Le graphe de la fonction µ E µ(φ) = P µ(rh 0) a la forme typique suivante : E µ [φ] α µ 0 µ Figure: La fonction µ E µ(φ) pour le test de Student bilatéral.