MTH 2301 Méthodes statistiques en ingénierie. Chapitre 6 - Distributions échantillonnales et estimation

Documents pareils
TSTI 2D CH X : Exemples de lois à densité 1

Chapitre 6 Test de comparaison de pourcentages χ². José LABARERE

Probabilités III Introduction à l évaluation d options

PROBABILITES ET STATISTIQUE I&II

distribution quelconque Signe 1 échantillon non Wilcoxon gaussienne distribution symétrique Student gaussienne position

Annexe commune aux séries ES, L et S : boîtes et quantiles

TABLE DES MATIERES. C Exercices complémentaires 42

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, LES STATISTIQUES INFERENTIELLES

Introduction aux Statistiques et à l utilisation du logiciel R

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Introduction à la Statistique Inférentielle

3. Caractéristiques et fonctions d une v.a.

Représentation d une distribution

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

Simulation de variables aléatoires

Lire ; Compter ; Tester... avec R

4 Distributions particulières de probabilités

Fiche d utilisation du logiciel. 1 - Installation. J. Thioulouse & D. Chessel

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

La simulation probabiliste avec Excel

Tests paramétriques de comparaison de 2 moyennes Exercices commentés José LABARERE

Feuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.

Tests de comparaison de moyennes. Dr Sahar BAYAT MASTER 1 année UE «Introduction à la biostatistique»

Analyse de la variance Comparaison de plusieurs moyennes

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Moments des variables aléatoires réelles

Rappels sur les suites - Algorithme

Exercices M1 SES Ana Fermin ( fermin.perso.math.cnrs.fr/ ) 14 Avril 2015

Espérance conditionnelle

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Introduction à l approche bootstrap

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

CCP PSI Mathématiques 1 : un corrigé

MODELES DE DUREE DE VIE

Biostatistiques : Petits effectifs

Econométrie et applications

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Chapitre 3. Les distributions à deux variables

DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Programmes des classes préparatoires aux Grandes Ecoles

Processus aléatoires avec application en finance

Principe d un test statistique

FIMA, 7 juillet 2005

Cours de Tests paramétriques

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

FORMULAIRE DE STATISTIQUES

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

ELEC2753 Electrotechnique examen du 11/06/2012

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

Incertitudes expérimentales

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #16

Catalogue des connaissances de base en mathématiques dispensées dans les gymnases, lycées et collèges romands.

MODELE A CORRECTION D ERREUR ET APPLICATIONS

Méthodes de Simulation

Introduction à la statistique non paramétrique

La nouvelle planification de l échantillonnage

TOUT CE QU IL FAUT SAVOIR POUR LE BREVET

I. Polynômes de Tchebychev

Introduction à la théorie des files d'attente. Claude Chaudet

Statistiques. Rappels de cours et travaux dirigés. Master 1 Biologie et technologie du végétal. Année

Raisonnement par récurrence Suites numériques

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #12

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Quantification Scalaire et Prédictive

Table des matières. I Mise à niveau 11. Préface

données en connaissance et en actions?

Chapitre 1. L intérêt. 2. Concept d intérêt. 1. Mise en situation. Au terme de ce chapitre, vous serez en mesure de :

Statistiques Décisionnelles L3 Sciences Economiques & Gestion Faculté d économie, gestion & AES Université Montesquieu - Bordeaux

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

Loi binomiale Lois normales

Comparaison de fonctions Développements limités. Chapitre 10

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Cours d algorithmique pour la classe de 2nde

Probabilités sur un univers fini

Variables Aléatoires. Chapitre 2

Cours Fonctions de deux variables

Exemples d application

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

DOCM Solutions officielles = n 2 10.

Soutenance de stage Laboratoire des Signaux et Systèmes

DÉVERSEMENT ÉLASTIQUE D UNE POUTRE À SECTION BI-SYMÉTRIQUE SOUMISE À DES MOMENTS D EXTRÉMITÉ ET UNE CHARGE RÉPARTIE OU CONCENTRÉE

Bureau N301 (Nautile)

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options


Lagrange, où λ 1 est pour la contrainte sur µ p ).

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Fonctions homographiques

La fonction exponentielle

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

ECTS CM TD TP. 1er semestre (S3)

Image d un intervalle par une fonction continue

aux différences est appelé équation aux différences d ordre n en forme normale.

Transcription:

Chapitre 6 - Distributions échantillonnales et estimation Lexique anglais - français Constats et terminologie statistique Distribution de la moyenne théorème central- limite Estimation : Intervalle de confiance pour la moyenne µ Calcul de la taille échantillonnale n Estimation : différence entre moyennes µ 1 - µ Estimation : variance σ - écart type σ Loi d échantillonnage : quotient de variances σ 1 /σ Loi d échantillonnage : étendue R et écart type S Intervalle de tolérance pour une variable Hors programme : Estimation : paramètre θ d une loi binomiale (6.5 et 6.6) Estimation : différence θ 1 - θ entre lois binomiales - Lexique anglais français sample statistic. statistique échantillonnale sampling distribution.. loi (distribution) d échantillonnage sample mean.. moyenne échantillonnale estimator. estimateur estimate estimation interval estimate.. estimation par intervalle point estimate... estimation ponctuelle confidence level niveau de confiance one-sided... unilatéral two-sided bilatéral paired samples. échantillons appariés 6-1 6 - Constats et terminologie statistique les populations statistiques sont modélisées par des lois de probabilités dont les paramètres sont toujours inconnus; le mieux que l on puisse faire: estimer les paramètres avec des données échantillonnales (observations ) provenant de la population; les données ( X 1, X, ) sont transformées en statistique Y par une fonction Y= h ( X 1, X,. ) et Y est une variable aléatoire le choix de h dépend de l application envisagée ( estimation ou test) la loi de probabilité de Y s appelle distribution d échantillonnage; exemple : échantillons de taille n provenant de la même population ( X 1, X, X n ) et ( X 1, X,.., X n ) auront une moyenne ( xbar), différente, un écart type s différent, un histogramme différent : c est l influence de la variabilité de l échantillonnage; on dispose toujours que d un seul échantillon de taille n pour mettre en œuvre une procédure statistique : estimation ou test paramètre statistique ξ : toute quantité associée à une loi de probabilité ex. ξ = µ : moyenne loi gaussienne, ξ = σ : écart type loi quelconque ξ = θ (1 - θ ) : moyenne loi Bernoulli ( θ) 6-3 6-4 Constats et terminologie statistique Échantillon aléatoire : un ensemble de variables aléatoires X 1, X,, X n telles que (a) les variables sont soumises à une même loi f(x) (b) les variables sont indépendantes donc la loi conjointe : g (X 1, X,, X n ) = f( X 1 )* f(x ) * * f(x n ) Statistique : toute fonction aléatoire établie sur l échantillon Y = h (X 1, X,., X n ) remarque : Y est une v.a Estimateur : une statistique particulière conçue de façon à fournir une estimation d un paramètre d une loi de probabilité Estimation ponctuelle d un paramètre ξ : est la valeur numérique ξ prise par un estimateur sur la base d un échantillon (x 1, x,, x n ) ξ = h( x 1, x,, x n ) Estimation par intervalle : d un paramètre statistique ξ est un intervalle (a,b) dont les valeurs a et b dépendent de l échantillon (x 1, x,, x n ) et une probabilité spécifiée 1 - α (appelée coefficient de confiance ) de telle sorte que : P ( a ξ b) = 1- α

Histogram (chap6.sta 31v*3c) 7 6 5 4 3 1-1.7318-1.1776 -.634 -. 691.4851 1.393 1.5935-1.4547 -.95 -.346.8.76 1.3164 uniforme Histogram (chap6.sta 1v*3c) unif = 15*.689*normal(x; 7.937E-5;.76) 7 6 5 4 3 1-1.786-1.1773 -.66 -.747.4765 1.78 1.5791-1.453 -.917 -.354.9.75 1.335 unif Histogram (chap6.sta 1v*3c) unif5 = 6*.57*normal(x; 7.937E-5;.456) 35 3 5 15 1 5-1.4455 -.9876 -.597 -.719.386.8438 1.317-1.165 -.7587 -.38.157.6149 1.77 1 1 7 6 5 4 3 1 8 6 4 unif5 Histogram (chap6.sta 1v*3c) unif15 = *.316*normal(x; 7.937E-5;.586) -.756 -.535 -.51.16.541.566.759 -.698 -.377 -.147.178.384.639 unif15 Histogram (chap6.sta 1v*3c) unif3 = 1*.49*normal(x; 7.937E-5;.185) -.6378 -.438 -.387 -.391.165.361.5597 -.538 -.3384 -.1389.67.63.4599 unif3 Histogram (chap6.sta 31v*3c) 8 7 6 5 4 3 1-1. 1.546 3.19 5.1638 7.184 9.73 11.376.73.819 4.1365 6.1911 8.457 1.33 exponentielle Histogram (chap6.sta 31v*3c) 18 16 14 1 1 8 6 4 -.9961.491 1.4944.7396 3.9848 5.31 6.4753 -.3735.8717.117 3.36 4.674 5.857 6 5 4 3 1 expo Histogram (chap6.sta 31v*3c) expo5 = 6*.774*normal(x;.31;.4455) -.9355 -.316.33.9 1.5414.166.7799 -.659 -.66.616 1.318 1.851.473 expo5 Histogram (chap6.sta 31v*3c) expo15 = *.369*normal(x;.31;.567) 16 14 1 1 8 6 4 -.6499 -.3548 -.598.353.533.854 1.14 -.53 -.73.878.388.6778.979 6 5 4 3 1 expo15 Histogram (chap6.sta 31v*3c) expo3 = 1*. 4*n ormal(x;.31;.1816) -.5145 -.38 -.17.667.64.454.6479 -.4176 -.39 -.3.1636.3573.551 expo3 Histogram (chap6.sta 31v*3c) gaussienne = 3 *.1715*norm al(x; -.1 8; 1. 78) 4 18 16 14 1 1 8 6 4-3.9 95 -.5375-1.1654.66 1.578 7.957 4.37-3. 35-1.8514 -.4794.896.647 3.6367 gaussienne Histogram (chap6.sta 31v*3c) no rm = 15 *.1 3*n ormal(x ; -.1 8;.71 39) 1 9 8 7 6 5 4 3 1 -.6496-1.837 -.9978 -.1719.654 1 1.48.359 -.367-1.417 -.5848.411 1.67 1.899 norm Histogram (chap6.sta 31v*3c) no rm5 = 6 *. 67 *no rma l(x; -. 18 ;.448 9) 4 35 3 5 15 1 5-1.678-1.149 -.637 -.664.479 1.81 1.5454-1.496 -.873 -.335..7395 1.767 14 1 1 norm5 Histogram (chap6.sta 31v*3c) norm15 = *.361*normal(x ; -.18;.586) -1.46 -.7161 -.475 -.1389.1497.438.768 -.864 -.5718 -.83.54.94.585 Histogram (chap6.sta norm15 31v*3c) norm3 = 1*.38*normal(x; -.18;.1854) 6 5 4 3 1 8 6 4 -.665 -.475 -.848 -.946.956.858.476 -.571 -.3799 -.1897.5.197.389 norm3 Loi d échantillonnage ( ce concept est fondamental ) tout estimateur ξ possède une loi de probabilité appelée loi (ou distribution) d échantillonnage ; l étude des propriétés de l estimateur repose sur l étude des propriétés de cette distribution. distribution d échantillonnage n 1 n n > n 1 E( ξ ) Résultat ( sous certaines conditions très générales ) : la distribution d échantillonnage est approximativement en forme de cloche (gaussienne) et sa dispersion (variance) diminue lorsque n augmente Estimateur sans biais ( sans erreur systématique ) : un estimateur dont la moyenne est égale au paramètre à estimer : E( ξ ) = ξ Propriété la plus importante d un estimateur = Var( ξ ) «bon» estimateur : a une petite variance ξ ξ Résultat 1 Soit X 1, X,,.., X n des v. a. indépendantes telles que E( X i ) = µ i et Var ( X i ) = σ i i = 1,,, n soient a 1,a,,., a n des constantes et i=n soit W = a i X i i=1 une combinaison linéaire des X i Alors E( W ) = µ W = a i µ i et Var ( W ) = σ w = a i σ i remarque 1 : aucune hypothèse est nécessaire sur les lois des X i remarque : si les X sont gaussiennes alors W est gaussienne Résultat Soit a i = 1 / n E(X ) = µ Var( X i ) = σ alors i=n W = X = Xbar = (1 / n ) X i vérifie E( X ) = µ et Var( X ) = σ / n i=1 Résultat 3 Si les X i sont gaussiennes X i ~ N ( µ, σ ) alors X est gaussienne N ( µ, σ / n ) «meilleur» estimateur : est sans biais et à variance minimum 6-6 - 6 5 Distribution de la moyenne échantillonnale et théorème central limite Résultat 4 : théorème central limite Soit Y = X i avec E( X i ) = µ i, Var ( X i ) = σ i i = 1,,, n Si «n est assez grand» ( au moins 3 ) Loi de X n = 1 n = P O P L A T I O N uniforme exponentielle gaussienne Alors Y suit approximativement une loi gaussienne N ( µ Y, σ Y ) avec µ Y = µ i et σ Y = σ i Remarque : il n y a aucune condition spécifique sur les lois des X i n = 5 Résultat 5 Si E( X i ) = µ, Var ( X i ) = σ i = 1,,, n alors X suit approximativement loi gaussienne N ( µ, σ / n ) n = 15 remarque on peut écrire le résultat sous la forme équivalente _X -µ_ suit approximativement une loi N (, 1) σ / n n = 3 6-7 8 (6-8)

Exemple 1 : approximation de la loi binomiale par une loi gaussienne ( voir chap. 5) est un cas particulier de l application du théorème central limite. X = nombre de succès dans une suite de n essais de Bernoulli indépendants X i v. a. de Bernoulli associée au i -ème essai i = 1,,, n 1 avec probabilité θ X i = avec probabilité 1 - θ E ( X i ) = * ( 1 - θ ) + 1 * θ = θ Var ( X i ) = θ ( 1 θ ) X = X i est une v. a binomiale b( n, θ ) On applique le résultat 4 : X suit approximativement loi N ( n θ, n θ ( 1 - θ ) ) Donc X n θ = X - θ suit approximativement loi N (, 1) n θ ( 1- θ ) θ ( 1- θ ) / n Exemple : dans un contrôle de la qualité en cours de réception, on doit prélever un échantillon de taille n dans un lot contenant 1% de non- conformes. Déterminer n pour que le nombre X d articles non- conformes dans l échantillon vérifie l équation: P (.5 X / n.15 ) =.95 ( * ) solution X suit loi b( n, θ =.1) et X suit approximativement loi N (.1*n,.9*n ) ( * ) s écrit Φ ( (.15n.1*n +.5 ) /.3 n ) ) - Φ ( (.5n n*.1 -.5 ) /.3 n ) ) =.95 Donc Φ ( (.5n +.5 ) /.3 n ) ) =.975 alors (.5n +.5 ) /.3 n ) ) = 1.96 n -118.3n + 1 = et n = 118 6-9 Exemple 3 : La demande quotidienne d énergie électrique ( KWh ) pour un logement est une variable de moyenne et d écart type. Soit D la demande totale d énergie électrique dans un arrondissement de 5 logements. Calculer une limite supérieure D pour D qui ne serait pas dépassée avec probabilité.99 solution : D = X i ou X i est la demande du logement i = 1,,., 5 D suit approximativement une loi gaussienne N ( µ, σ ) µ = 5 * = 1 et σ = 5 * = = ( 447. ) P ( D D ) =.99 Φ ( (D - 1 ) / 447. ) ) =.99 D = 1 + z.99 * 447. = 1 +.33 * 447. = 11 4 Exemple 4 : la durée de vie X d un composant électronique suit une loi exponentielle de moyenne 1 heures (a) Quelle est la probabilité que la durée moyenne X de 36 composants dépasse 15 heures (b) Combien de composants doit- on avoir fin que la différence entre X et 1 n excède pas 1 avec une probabilité de.95? solution : si X suit une loi exponentielle l écart type ( X ) = moyenne ( X ) = 1 ( chap. 5) alors X suit approximativement une loi N ( 1, 1 / 36 ) ( a ) P ( X > 15 ) = 1 Φ ( ( 15 1) / (1 / 6 ) = 1 - Φ ( 1.5 ) = 1 -.933 =. 67 ( b ) P ( X - 1 < 1 ) =.95 alors P ( X - 1 < 1 ) =.95 1 / n 1 / n Φ ( n / 1 ) - 1 =.95 donne n = 384 6-1 Estimation de la moyenne µ d une population : méthode de l intervalle de confiance Cas A : population gaussienne et variance σ connue X ~ N ( µ, σ ) soit X 1, X,, X n un échantillon de X alors ( X µ ) / ( σ / n ) ~ N (, 1 ) alors P ( - z ( 1 α / X µ ) / ( σ / n ) z 1 α / ) = 1 - α ( * ).14.1.1.8.6 α/ 1 - α.4.. -. - 4 6 8 1 1 14 16 18 4 6 - z 1 α / z 1 α / N (, 1) : gaussienne centrée réduite 1 - α : coefficient de confiance Z = ( X µ ) / (σ / n ) On isole le paramètre µ de l équation ( * ) pour obtenir l intervalle de confiance de µ X - z 1 α / σ µ X + z 1 α / σ n n 6-11 Exemple 5 : supposons que la durée ( heures) de vie X d ampoules électriques d une certaine marque est une loi gaussienne de moyenne µ ( inconnue) et écart type de 1 h (a) Déterminer un intervalle de confiance avec coefficient de confiance de.95 pour µ si un échantillon de n = ampoules a donné les durées de vie : 176. - 989. - 113.9 115.5-176.8-18.7-946. - 1111.8-16.5 de moyenne X = 18.5 h (b) Refaire ( a ) avec une coefficient de confiance de.99 (c) Combien d ampoules doit on échantillonnées si on veut un intervalle de confiance à.95 de longueur égale à 3? Solution : (a) 18.5 - ( 1.96 * 1 / ) µ 18.5 + ( 1.96 * 1 ) / ) 18.5 43.8 µ 18.5 + 43.8 984.7 µ 17.3 ( b ) avec un coefficient de confiance de.99 le percentile 1.96 change pour.576 et l intervalle de confiance devient 97.9 µ 186.1 (c) la longueur de l intervalle en (a) est de *43.8 = 87.6 avec n = on veut * 1.96 * 1 / n = 3 donc n = 171 Détermination de la taille de l échantillon : calcul de n ( avec σ connu ) on spécifie : coefficient de confiance = 1 - α longueur de l intervalle = on connaît σ n = ( z 1 α / σ / ) 6-1

Exemple 6 : suite de l ex. 5 - n deuxième échantillon de ampoules a donné une vie moyenne de 981 h. L intervalle de confiance à.95 est : 937. µ 14.8 Remarque : dans toute étude statistique on a toujours qu un seul échantillon de taille n qui est prélevé. Toute décision à prendre repose sur cet échantillon uniquement. Dans l exemple 6, on a prélevé un deuxième échantillon pour des fins d illustration mais si c était le cas réel, on aurait combiné les deux en un seul échantillon de taille 4. 15 1 115 intervalles de confiance : échantillons 1-5 de 5 obs. Interprétation d un intervalle de confiance 11 Le coefficient de confiance se rapporte à la procédure à long terme : ( 1 - α ) 1% des intervalles calculés avec la formule génèrent des intervalles qui contiendront µ. On ne sait jamais si l intervalle calculé avec l échantillon observé contient µ mais notre degré de confiance est de ( 1 - α ) 1% qu il fait partie de ceux qui contienne µ ( les bons ) 15 1 µ =1 L interprétation peut être comprise et illustrée seulement avec des données simulées provenant d une population gaussienne dont la moyenne est connue : exemple 7 95 9 Exemple 7 : simulation de 1 échantillons de taille n = 5 provenant d une population gaussienne µ = 1 et σ = 1 85 7 échantillons : # 14 3 5 49 71 73 79 ne contiennent pas 1 graphiques : page suivantes 8 75 #14 3-5 49 : intervalles excluant 1 moy-de-5 6-13 6-14 15 échantillons 51 à 1 : groupe de 5 obs Définition d une loi de Student ne variable aléatoire T dont la densité de probabilité est définie par 1 115 f T ( t ) = c (ν ) ( 1 + t / ν ) -( ν + 1 ) / - < t < s appelle une variable de Student avec ν degrés de liberté, ν = 1,, 3,., c (ν ) est une constante qui dépend de ν 11 remarque : une autre définition d une v. a. de Student sera donnée plus loin dans ce chapitre 15 1 95 9 85 8 75 71 73-79 µ = 1 moy-de-5 Propriétés densité symétrique p.r à E ( T ) = Var ( T ) = ν / ( ν - ) ( ν > ) si ν = la variable de Student est une variable gaussienne centrée réduite si > 3 la loi de Student est quasi identique à une loi gaussienne centrée réduite 6-15 6-16

table des quantiles d une loi de Student Résultat 6 l o i de S t u d e n t ( W. Gossett) Soit E ( X i ) = µ, Var ( X i ) = σ i = 1,,, n Annexe H OTHM p. 535 t p, ν : quantile d ordre p loi Student T ν ν degrés de liberté P ( T ν t p, ν ) = p Exemple : P ( T 5.15 ) =.95 Soit X = X i / n et S = ( X i X) / ( n - 1 ) Alors T = X - µ_ suit une loi de Student avec ν = n 1 degrés de liberté s / n Remarque : la lettre T est généralement consacrée pour représenter la variable de cette loi Cas B : population gaussienne et variance σ inconnue X ~ N ( µ, σ =? ) intervalle de confiance de la moyenne X - t 1 α /, n - 1 s µ X + t 1 α /, n - 1 s n n Exemple 8 : 6 observations de la durée de vie d ampoules a donné 863. - 116. - 945.8-99.5-943.8-16.4 X = 961.3 et s = 57. Int. confiance à.9 pour µ : 961.3 ±.15 * 57 / 6 = ( 914.4, 18. ) 6-17 6-18 Estimation de la moyenne µ d une population : méthode de l intervalle de confiance Loi d échantillonnage de la différence entre moyennes avec variances connues Cas C : population quelconque et n au moins 3 intervalle de confiance approximatif pour la moyenne.14.1.1.14.1 X ~ N ( µ X, σ X ) Y ~ N ( µ.1 Y, σ Y ) X - z 1 α / s µ X + z 1 α / s n n Remarque : la formule repose sur le théorème central - limite.8.6.4. σ X.8.6.4. σy.. Exemple 9 : la durée de vie de 5 ampoules électriques d une certaine marque a donné X = 114 et s = 98.7 Intervalle de confiance à.9 pour µ est 114 ± 1.96 * 98.7 / 5 114 ± 7.4 ( 986.6, 141.4 ) 6-19 -. -. - 4 6 8 1 14 16 18 4 6 1 µ X 1 µ Y - 4 6 8 1 14 16 18 4 6 Résultat 7 : ( a ) E ( X - Y ) = µ X -µ Y ( b ) Var ( X - Y ) = σ X / n1 + σ Y / n X 1, X,, X n1 X = X i / n1 échantillons indépendants moyennes ( c ) X - Y ~ N ( µ X -µ Y, σ X / n1 + σ Y / n ) ( d ) le résultat ( c ) est approximatif si n1 et n sont plus grands que 3 Y 1, Y,, Y n Y = Y i / n vrai sans aucune hypothèse sur les lois 6 -

Cas D : intervalle de confiance - différence de moyennes µ X - µ Y variances connues Loi d échantillonnage de la différence entre moyennes avec variances.14.14 inconnues égales µ X - µ Y : X - Y ± Z 1 α / [σ X / n1 + σ Y / n ].5.1.1 X ~ N ( µ X, σ ) Y ~ N ( µ Y, σ ).1.1 Exemple 1 : calculer un intervalle de confiance avec coefficient de confiance.95 pour la différence de vie ( heures ) moyenne de deux types ( X et Y) d ampoules électriques à l aide des informations suivantes : X : n = 16 σ = 18 X = 15 Y : n = 9 σ = 81 Y = 97 solution selon la formule ci haut et la table de la gaussienne centrée réduite et z.975 = 1.96 µ X -µ Y : 15 97 ± 1.96 ( 18 / 16 + 81 / 9 ).5 = 8 ± 8.1 = ( -.1, 16.9 ) question les ampoules de type X durent elles ( en moyenne ) plus longtemps que les ampoules de type Y?.8.6.4.. -. - 4 6 8 1 1 14 16 18 4 6 X 1, X,, X n1 X = X i / n1 Résultat 8 : ( X - Y ) - ( µ X -µ Y ) σ S p 1/ n1 + 1 / n µ X µ Y.8.6.4.. échantillons indépendants moyennes -. - 4 6 8 1 1 14 16 18 4 6 σ Y 1, Y,, Y n Y = Y i / n S X = ( X i X) / ( n1-1 ) variances S Y = ( Y i Y) / ( n - 1 ) S p = [ ( n1-1 ) S X + ( n 1) S Y ] / ( n1 + n -) «pooled» = T ~ Student avec n1 + n - ddl 6-1 6 - Cas E : intervalle de confiance - différence de moyennes µ X - µ Y variances inconnues mais égales µ X -µ Y : X - Y ± T 1 α/, n1 + n - S p [ 1/ n1 + 1/ n ].5 Exemple 11 : on a modifié la séquence d opération pour faire l assemblage de plusieurs composants. Les données suivantes furent obtenues pour comparer la la méthode actuelle et la méthode nouvelle. On croit que la nouvelle méthode n affecte pas sensiblement la variabilité. Déterminer un intervalle de confiance à 95 % pour la différence de temps moyen d assemblage entre les méthodes. données : X méthode actuelle : n1 = 1 X = 55 s X = 1 Y méthode nouvelle : n = 1 Y = 4 s Y = 7 solution : S p = ( 9 x 1 + 11 x 7 ) / = 8.48 t.975, =.8 µ X -µ Y : ( 55 4 ) ±.8 * 8.48 ( 1 / 1 + 1 / 7 ).5 = 15 ± 4.8 = (1.9, 19.8 ) question : la nouvelle méthode réduit- elle le temps moyen d assemblage? Résultat 9 : si les variances sont inconnues et inégales alors (méthode Hsu) Cas F : ( X - Y ) - ( µ X -µ Y ) s X / n1 + s Y / n = T ~ Student avec ν ddl ν = min ( n1-1, n -1) intervalle de confiance - différence de moyennes µ X - µ Y variances inconnues et inégales - ν = min ( n1-1, n -1) µ X -µ Y : X - Y ± t 1 α/, ν [ s x / n1 + s Y / n ].5 Exemple 1 : OTHM ex. 6.5 p 195 comparaison de la force de tension de rupture ( psi x1) de types d acier données acier X : n1 = 16 X = 74.6 s x = 3.5 acier Y : n = 13 Y = 7. s Y = 19. intervalle de confiance à 9% - ν = min ( 15, 1) = 1 t.95, 1 = 1.78 µ X -µ Y : ( 74.6 7. ) ± 1.78 ( 3.5 / 16 + 19. / 13 ).5 = 4.4 ±.3 = (.1, 6.7 ) intervalle de confiance à 99% - ν = min ( 15, 1) = 1 t.995, 1 = 3.5 µ X -µ Y : ( 74.6 7. ) ± 3.5 ( 3.5 / 16 + 19. / 13 ).5 = 4.4 ± 4. = (.4, 8.4 ) 6-3 6-4

Définition d un loi du Khi-deux ne variable aléatoire χ dont la densité de probabilité est définie par f χ ( u ) = c( ν ) u ( ν / ) - 1 exp ( - u / ) < u < s appelle une variable khi-deux avec ν degrés de liberté (ddl), ν = 1,,3,, c( ν ) est une constante qui dépend de ν Propriétés E ( χ ) = ν et Var ( χ ) = ν si Z ~ N(,1 ) alors Z suit une loi Khi-deux avec 1 ddl la somme de variables Khi-deux indépendantes est une Khi-deux si Z i ~ N (, 1 ) i = 1,,, n alors Z i ~ Khi- deux avec n ddl si X i ~ N ( µ, σ ) i = 1,,, n alors [ (X µ )/ σ] ~ Khi- deux avec n ddl Table des quantiles d une loi Khi-deux Quantile de la loi Khi-deux ------------------------------------ OTHM annexe F p. 531 Notation χ p, ν : quantile d ordre p d une variable χ ν avec ν degré de liberté P ( χ ν Χ p, ν ) = p Exemple P ( χ 1 15.987 ) =.9 densité de probabilité loi khi-deux 6-5 6-6 Résultat 1 : soit X i i = 1,,, n un échantillon aléatoire d une population N( µ, σ ) soit S = 1 /( n 1 ) ( X i X) la variance échantillonnale alors (n-1) S / σ = ( X i X) / σ suit une loi Khi-deux avec (n 1) ddl Résultat 11 : E ( S ) = σ c est - à- dire S est une estimation sans biais de σ remarque: ce résultat est la justification du diviseur n 1 employé dans la définition de S Cas G : intervalle de confiance pour σ / coefficient de confiance = 1 - α soit X i i = 1,,, n un échantillon aléatoire d une population N( µ, σ ) Alors ( n 1 ) s σ (n 1 ) s Χ 1- α /, n-1 Χ α /, n-1 remarque : cette formule fournit un intervalle de confiance pour σ en prenant les racines carrées Exemple 13 : un échantillon de ampoules électriques a donné une durée moyenne Définition d une loi F(v1, v) de Fisher-Snedecor ne variable aléatoire X dont la densité de probabilité f est définie par f X ( x) = c(ν1,ν) x ( ν1 / ) - 1 [1 + ( ν1/v )x ] - ( v1 + v ) / < x < est appelée une variable aléatoire distribuée selon une loi de Fisher-Snedecor avec v1 ddl au numérateur et v ddl au dénominateur; c(v1,v) est une constante Propriétés E ( F ) = v / ( v ) si X1 suit une loi Khi-deux avec v1 ddl X suit une loi Khi-deux avec v ddl X1 et X sont indépendantes alors ( X1 / v1 ) / ( X / v ) suit une loi F(v1,v) T v = F (1, v) : le carré d une loi de Student avec v ddl est une loi F(1,v) de 114 et une variance échantillonnale de 65. n intervalle de confiance pour σ et σ avec un coefficient de confiance de 95% est donné par 19 * 65 / 3.85 σ 19 * 65 / 8.91 361.49 σ 133.77 19.1 σ 36.51 6-7 Loi de probabilité de Fisher-Snedecor 6-8

Annexe I - OTHM p. 536-545 Notation F p, v1, v : quantile d ordre p d une variable de Fischer- Snedecor F v1, v avec v1 ddl au numérateur v ddl au dénominateur Exemple P ( F 8, 3 5.5 ) =.9 Quantiles d une loi F de Fisher-Snedecor.14.1.1.8.6.4.. X ~ N ( µ X, σ X ) σ X loi d échantillonnage du quotient de variances -. -. - 4 6 8 1 14 16 18 4 6 µ 1 X 1 µy - 4 6 8 1 14 16 18 4 6.14.1.1.8.6.4.. Y ~ N ( µ Y, σ Y ) σy X 1, X,, X n1 échantillons indépendants Y 1, Y,, Y n X = X i / n1 moyennes Y = Y i / n S X = 1/( n1 1 ) ( X i X) variances S Y = 1/( n 1 ) ( Y i Y) Résultat 1 ( S X / σ X ) / (S Y / σ Y ) suit une loi F n1-1, n-1 Remarque : ce résultat est une conséquence du résultat 1 6-9 6-3 cas H : intervalle de confiance pour le quotient de variances / coeff. conf. = 1 - α ( S X / S Y ) F α /, n1-1, n -1 σ X / σ Y ( S X /S Y ) F 1 α /, n1-1, n -1 remarque : ce résultat fournit l intervalle de confiance pour le quotient des écart types en prenant les racines carrées de l inéquation Exemple 14 : OTHM ex. 6.49 p. 9 échantillon X : n1 = 5 S X =.1 échantillon Y : n = 5 S Y =. coefficient de confiance =.95 F.5, 4, 4 =.44 F.975, 4, 4 =.7.6 x.44 σ X / σ Y.6 x.7.6 σ X / σ Y 1.36.51 σ X / σ Y 1.17 question : les variances ( ou les écart types ) sont elles différentes? Distribution d échantillonnage de l étendue R Résultat 13 : soit X i un échantillon de n observations d une population N ( µ, σ ) R = max ( X i ) - min ( X i ) : étendue échantillonnale alors E ( R ) = d σ et Var ( R ) = d 3 σ n 3 4 5 6 7 8 9 1 15 5 d 1.18 1.693.59.36.534.74.847.97 3.78 3.47 3.735 3.931 d 3.853.888.88.864.848.833.8.88.797.755.79.79 table complète : OTHM annexe G p. 53 remarque: il n est pas recommandé d utiliser R pour estimer σ avec n > 1 l écart type s est préférable car il est plus précis (moins variable) Résultat 14 : application - cartes de contrôle de Shewhart ( chapitre 8 OTHM ) ( a ) σ = R / d est une estimation sans biais de σ : E ( R / d ) = σ ( b ) soit k groupes de n données, R j l étendue du groupe j = 1,,..., k R = R j / k l a moyenne des étendues σ = R / d est une estimation sans biais de σ f R distribution d échantillonnage de R : n fixé 6-31 E( R ) R 6-3

Distribution d échantillonnage de l étendue Résultat 15 : soit X i un échantillon de n observations d une population N ( µ, σ ) S = [ (1 / ( n 1 )) ( X i X) ].5 : l écart type échantillonnal alors E ( S ) = c 4 σ et Var ( S ) = c 5 σ n 3 4 5 6 7 8 9 1 15 5 c 4.798.886.91.94.95.959.965.969.973.98.987.99 c 5.63.463.389.341.38.8.6.46.3.187.161.144 table complète : OTHM annexe G p. 533 remarque : si n >= 1 c 4 1 Résultat 16 : application - cartes de contrôle de Shewhart ( chapitre 8 OTHM ) ( a ) σ = S / c 4 est une estimation sans biais de σ : E ( S /c 4 ) = σ ( b ) soit k groupes de n données, S j l écart type du groupe j = 1,,..., k S = S j / k la moyenne des écart types σ = S / c 4 est une estimation sans biais de σ f S E( S ) distribution d échantillonnage de S : n fixé S S 6-33 Intervalle de tolérance ( prédiction) pour une variable aléatoire X N (µ, σ ) σ p : couverture X : distribution quelconque E( X ) = µ Var ( X ) = σ X a µ b a b déterminer a et b tel que : P ( a X b ) = p ex..95,.99 ( a, b ) : intervalle de tolérance (prédiction) ( bilatéral ) pour X Cas 1 : N( µ, σ ) µ, σ connus a = µ - z (1 - p) / σ remarque : on est certain à 1% de la couverture p b = µ + z (1 - p) / σ Cas : N( µ, σ ) µ, σ inconnus a = x - K p, n s b = x + K p, n s où x et s proviennent des données x 1, x,, x n K dépend de n et p et d un coefficient de confiance 1- α voir annexe J-1 OTHM p. 546 Remarque : - on peut aussi construire des intervalles unilatéral - l annexe J ( OTHM p. 547 ) - ne pas confondre la valeur de p et celle de 1 α ; elles ne sont pas reliées 6-34 X Annexe J-1 Tableau des Constantes K p = couverture 1 α = coefficient de confiance Exemple 15 : ex 6.6 OTHM p. 196 intervalle de tolérance avec couverture p =.95 et.99 n = 1 x = 1.5 s =.1 tableau J-1 coefficient de confiance.9.95 couverture p.95.99.95.99 K p,,n.863 3.758 3.16 4.15 intervalle a 1.1 1.1 1.18 1.85 b 1.79 1.88 1.8 1.915 Cas 3 : aucune hypothèse sur la forme de la distribution de X soit x 1, x,, x n ; a = min ( X i ) b = max ( X i ) alors (a, b) est un intervalle de tolérance (bilatéral) de couverture p avec un coefficient de confiance = 1 α = 1 n p n-1 (1- p) - p n ( * ) remarque : - l équation ( * ) peut être employée avec n et p spécifiées - trouver n si on spécifie p et 1 - α, n = n( p,1 α ) annexe K-1 (p. 548 OTHM) Exemple 16 : exemple 6. 6 p. 197 OTHM n = 1 a = X min =.518 b = X max =.569 6-35 couverture p =.95 1 α = 1 1 *.95 99 ( 1-.95).95 1 =.96 Remarque : on peut aussi construire des intervalles unilatéral voir l annexe K ( p. 549 OTHM ) 6-36