1 Chapitre 1 Estimateurs 1.1 Introduction au traitement statistique des mesures Les erreurs entraînent une dispersion des résultats lors de mesures répétées. Leur traitement statistique permet : de connaître la valeur la plus probable de la grandeur mesurée, de fixer les limites de l incertitude. Lorsque la mesure d une même grandeur X a été répétée n fois, donnant les résultats : x 1, x 2,, x n, la valeur moyenne est définie par : x = 1 n x i. Une indication de la dispersion de ces résultats est donnée par l écart-type : σ = 1 n (x i x) n 2. Les objets aléatoires manipulés par les physiciens sont des variables aléatoires le plus souvent discrètes (nombre fini de valeurs). Toutefois il est commode (surtout lorsque le nombre de valeurs est très grand ) de passer à la limite et de développer un formalisme continu. On définit alors une densité de probabilité (au lieu d une probabilité) de la façon suivante: Densité de probabilité ρ ρ est une,fonction définie de R à valeurs dans R + ρ est sommable de à + : ρ(x) dx existe. R ρ(x) dx = 1 R dp = ρ(x) dx est la probabilité pour X d être dans l intervalle [x, x + dx[. b ρ(x) dx est la probabilité pour X d être dans [a, b]. a
2 CHAPITRE 1. ESTIMATEURS La correspondance entre les v.a. discrètes et continues se fait de la manière suivante : Quantité calculée V.A. discrète V.A. continue valeurs x i valeurs x probabilités p i densité ρ(x) j 1 xj p(x k X < x i ) ρ(x) dx Normalisation Moyenne < X > Variance V (X) = σx 2 i=k p i p i = 1 i x k + ρ(x) dx = 1 + p i x i x ρ(x) dx i + p i (x i < X >) 2 (x < X >) 2 ρ(x) dx i L écart-type est toujours donné par σ X = V (X). Lorsque les erreurs accidentelles affectant les différentes mesures sont indépendantes, la probabilité d apparition des différents résultats satisfait habituellement à la loi normale dite encore loi de Gauss : ρ(x) = 1 ) ( σ 2π exp (x x)2 2σ 2. La valeur la plus probable est la valeur moyenne des mesures. En général on prend une incertitude égale à 3 fois l écart-type. 1.1.1 Fidélité, justesse, précision La fidélité est la qualité d un appareillage de mesure dont les erreurs sont faibles. L écart-type est souvent considéré comme l erreur de fidélité.
1.1. INTRODUCTION AU TRAITEMENT STATISTIQUE DES MESURES 3 Un instrument est d autant plus juste que la valeur moyenne est proche de la valeur vraie. Un appareil précis est à la fois fidèle et juste. En pratique, la précision est une donnée qui fixe globalement l erreur maximum (en + ou en -) pouvant être commise lors d une mesure. Elle est généralement exprimée en % de l étendue de mesure. Remarque : C est aux valeurs maximales de l échelle que l appareil est le plus précis en valeur relative.
4 CHAPITRE 1. ESTIMATEURS 1.2 Définition et premières propriétés d un estimateur 1.2.1 Estimateur Supposons qu on veuille obtenir une valeur (x o) aussi raisonnablement proche que possible de la vraie valeur x o d une quantité X, à partir d un échantillon fini {x i } de n mesures. Cela se fera avec grâce à une fonction du genre (x o) n = Φ(x 1, x 2,, x n ), et on appellera (x o) n estimation de x o. Par exemple, si les mesures sont homogènes et indépendantes, la fonction Φ sera la moyenne arithmétique. Pourquoi choisir une fonction Φ plutôt qu une autre? Des règles sont données en regardant les choses au niveau des variables aléatoires et non des valeurs numériques puisque la caractéristique des mesures x i est d être des réalisations de valeurs aléatoires. Il faut donc écrire (X o ) n = Φ(X 1, X 2,, X n ), où les X i sont des valeurs aléatoires et (X o ) n une valeur aléatoire fonction de v.a. Étant censée estimer une des caractéristiques statistiques des X i, cette fonction est appelée estimateur. Un estimateur (estimate) n est donc pas une valeur numérique mais une variable aléatoire, qui a pour objet d estimer une des caractéristiques des v.a. dont elle est fonction. 1.2.2 Propriétés des estimateurs Convergence ou cohérence (limite infinie) La Loi des grands nombres indique que si on reprend une expérience une infinité de fois le résultat global tend vers une quantité non aléatoire. Donc si la taille de l échantillon n tend vers l infini, un bon estimateur (X o ) n doit tendre vers une variable non aléatoire x o, vraie valeur qu il est censé estimer. C est la convergence, cohérence (consistency) ou correction qui doit imérativement être vérifiées.
1.2. DÉFINITION ET PREMIÈRES PROPRIÉTÉS D UN ESTIMATEUR 5 Absence de biais (propriété liée à l espérance) Un estimateur étant une v.a. il possède une espérance (ou moyenne). Quand la taille de l échantillon tend vers l infini, elle tend vers la valeur non aléatoire x o. Mais avec des échantillons de taille finie (c est le cas habituel), il faut tenir compte de la distribution de l estimateur. Il est alors souhaité que l espérance reste stable pour tout n, donc égale à x o. Si c est le cas l estimateur est dit non biaisé. Pour un estimateurbiaisé < (X o ) n >= x o + b n, où b n est le biais (bias) qui dépend de la taille de l échantillon : si n tend vers l infini, b n tend vers 0 par la propriété de convergence ci-dessus. Cohérence et absence de biais sont toutefois deux propriétés très différentes; dans la seconde on considère non pas un échantillon de taille infinie mais une infinité d échantillons de taille finie dont la moyenne des réalisations (x o) (k) n est l espérance < (Xo ) n >. La figure ci-dessous donne un exemple d estimateur non biaisé. Efficacité (Efficiency) Si on dispose de plusieurs estimateurs de la même quantité on a intérêt à choisir celui dont l écart-type est minimal pour réduire l erreur d estimation.
6 CHAPITRE 1. ESTIMATEURS 1.3 Estimation de l espérance 1.3.1 Justification de la moyenne arithmétique Les n v.a. parentes et indépendantes X i dont les réalisations successives sont les mesures x i, sont issues de la v.a. générique X dont on recherche l espérance < X >. La moyenne arithmétique X n = 1 X i n est alors l estimateur le plus utilisé. En effet, supposons la v.a. X normale de variance σ 2 et de moyenne < X >= m. La probabilité d obtenir l échantillon de mesures {x 1, x 2,, x n } ( à dx 1,, dx n près) est : dp (x 1, x 2,, x n ) = K exp [ 1 2σ 2 ( )] (x i m) 2 dx 1,, dx n, qui dépend de m (inconnue). Le Principe du maximum de vraisemblance (PMV) suggère que la meilleure valeur m de m est celle qui maximise dp donc celle qui minimise S = (x i m) 2. Cette valeur annule donc la dérivée de S c est-à-dire : ds dm = 2 (x i m) = 0. On obtient m = 1 x i. La moyenne arithmétique est donc la meilleure estimation de n < X > au sens du PMV et si les mesures sontindépendantes et normalement réparties. Rappelons le Principe du maximum de vraisemblance. On se donne un système décrit par un échantillon de mesures. On cherche quels paramètres (β k ) sont censés décrire le système. Le PMV postule que la meilleure collection
1.3. ESTIMATION DE L ESPÉRANCE 7 de paramètres (β k ) est celle qui rend maximale la probabilité (conditionnelle) d observer l échantillon P ({x i } {β k }) : on joue sur cette condition pour maximiser la probabilité connue. 1.3.2 L estimateur moyenne arithmétique Cohérence La cohérence de la v.a X n vient de la Loi des grands nombres : Théorème 1.3.1 Si n + et si les v.a. indépendantes X i ont la même répartition que la v.a. X, alors X n tend en probabilté vers l espérance < X >= m de X. On rappelle que deux v.a. X de densité ρ 1 et Y de densité ρ 2 sont indépendantes si ρ(x y) = ρ 1 (x) et ρ(y x) = ρ 2 (y). De même on rappelle qu une suite de v.a. Y n tend en probabilité vers une valeur numérique α si Biais ε > 0, δ > 0, n o, t. q. n n o = P ( Y n α ε) > 1 δ. L espérance de X n est < X n >=< X >= m. En effet comme la répartition de chaque X n est identique (normale de paramètres identiques ) la moyenne est toujours m. La moyenne arithmétique est donc un estimateur non biaisé de l espérance. Efficacité Le théorème de Gauss - Markov indique que parmi les estimateurs non biaisés de < X >, fonctions linéaires des mesures le plus efficace est X n. 1.3.3 Pondération des données Supposons les mesures indépendantes mais pas de même qualité : les v.a. X i sont donc indépendantes, de moyenne m mais de variance σi 2 différentes (on supposera les σ i connus). En utilisant le PMV comme précédemment et comme la probabilité d obtenir l échantillon x i s écrit [ ( )] dp (x 1, x 2,, x n ) = K exp 1 (x i m) 2 dx 1,, dx n, 2 la quantité à rendre minimale cette fois-ci est un χ 2 ( khi-deux) : χ 2 (x i m) 2 =. En posant w i = 1 σ 2 i, la relation dχ2 dm m σ 2 i σ 2 i = 0 (pour chercher le minimum) conduit à w i = w i x i,
8 CHAPITRE 1. ESTIMATEURS c est-à-dire m = w i x i ; w i On n obtient plus une moyenne arithmétique simple mais une moyenne pondérée, les w i étant les poids statistiques (weights). Plus la mesure est précise (σi 2 est faible) plus le poind w i qu on lui donne est important. Exercice 1.3.1 Montrer que cet estimateur est lui aussi cohérent et non biaisé. Exercice 1.3.2 Montrer que parmi les estimateurs non biaisés fonction linéaires des mesures x i, la moyenne pondéré par w i = k/σ2 i est l estimateur le plus efficace. (Théorème de gauss-markov). 1.3.4 Erreur sur l estimation de l espérance On suppose les erreurs (expérimentales) σ i connue. On admettra la formule de propagation des erreurs qui donne ( ) m σm 2 = σi 2 2 ; x i Dans le cas homogène ( σ i = σ et m = 1 n Dans le cas inhomogène: Or w i σi 2 = n, donc σm 2 = 1 ( ) 2 w i σm 2 = 1 n 1 x i ) : σ m = σ. n w i wi 2 σi 2 = 1. w i w i σi 2 = 1 n σ2 i, σ 2 i étant une moyenne pondérée des erreurs. Finalement σ m = 1 1 = σ n i 2. w i Pou aller plus loin, il faut estimer les erreurs expérimentales σ i.
1.4. ESTIMATION DE LA VARIANCE 9 1.4 Estimation de la variance