1 Chapitre 1 Introduction - Nature des erreurs (suite) 1.1 Les différentes erreurs possibles 1. Les erreurs systématiques Ce sont des erreurs reproductibles reliées à leur cause par une loi physique, donc susceptible d être éliminées par des corrections convenables. 2. Les erreurs aléatoires Ce sont des erreurs, non reproductibles, qui obéissent à des lois statistiques. 3. Les erreurs accidentelles Elles résultent d une fausse manœuvre, d un mauvais emploi ou de dysfonctionnement de l appareil. Elles ne sont généralement pas prises en compte dans la détermination de la mesure.
2 CHAPITRE 1. INTRODUCTION - NATURE DES ERREURS (SUITE) 1.1.1 Les types d erreurs classiques L erreur de zéro (offset) Erreur de zéro = Valeur de x quand X = 0. L erreur d échelle (gain) C est une erreur qui dépend de façon linéaire de la grandeur mesurée. Erreur de gain = 20 log( x/ X)
1.1. LES DIFFÉRENTES ERREURS POSSIBLES 3 L erreur de linéarité La caractéristique n est pas une droite. L erreur due au phénomène d hystérésis Il y a phénomène d hystérésis lorsque le résultat de la mesure dépend de la précédente mesure.
4 CHAPITRE 1. INTRODUCTION - NATURE DES ERREURS (SUITE) L erreur de mobilité La caractéristique est en escalier, cette erreur est souvent due à une numérisation du signal.
1.2. CHAÎNE DE MESURE : SES CARACTÉRISTIQUES 5 1.2 Chaîne de mesure : ses caractéristiques 1.2.1 Principe d une chaîne de mesure La structure de base d une chaîne de mesure comprend au minimum trois étages : Un capteur sensible aux variations d une grandeur physique et qui,à partir de ces variations, délivre un signal. Un conditionneur de signaux dont le rôle principal est l amplification du signal délivré par le capteur pour lui donner un niveau compatible avec l unité de visualisation ou d utilisation ; cet étage peut parfois intégrer un filtre qui réduit les perturbations présentes sur le signal. Une unité de visualisation et/ou d utilisation qui permet de lire la valeur de la grandeur et/ou de l exploiter dans le cas d un asservissement, par exemple. Cette structure de base se rencontre dans toutes les chaînes de mesure et ce, quelle que soit leur complexité et leur nature. De nos jours, compte tenu des possibilités offertes par l électronique et l informatique, les capteurs délivrent un signal électrique et la quasi-totalité des chaînes de mesure sont des chaînes électroniques.
6 CHAPITRE 1. INTRODUCTION - NATURE DES ERREURS (SUITE) 1.2.2 Gamme de mesure - Étendue de mesure La gamme de mesure, c est l ensemble des valeurs du mesurande pour lesquelles un instrument de mesure est supposée fournir une mesure correcte. L étendue de mesure correspond à la différence entre la valeur maximale et la valeur minimale de la gamme de mesure. Pour les appareils à gamme de mesure réglable, la valeur maximale de l étendue de mesure est appelée pleine échelle. Remarque 1.2.1 Lorsqu un appareil indicateur possède un cadran gradué en unités de la grandeur à mesurer, son étendue de mesure n est pas toujours confondue avec l étendue de graduation. Exemple : Appareil de pesage, étendu de la graduation (0, 2 kg), étendu de la mesure (150 g, 2000 g).
1.2. CHAÎNE DE MESURE : SES CARACTÉRISTIQUES 7 1.2.3 Courbe d étalonnage Elle est propre à chaque appareil. Elle permet de transformer la mesure brute en mesure corrigée. Elle est obtenue en soumettant l instrument à une valeur vraie de la grandeur à mesurer, fournie par un appareil étalon, et en lisant avec précision la mesure brute qu il donne. Exemple 1.2.1 Lors de l essai d un manomètre à tube de Bourdon, nous avons relevé le tableau de mesure suivant : G étalon 0 100 200 300 400 500 600 700 800 900 1000 G mesuré 0 100 220 320 410 490 580 670 780 900 1000 Les mesures sont données en mbar.
8 CHAPITRE 1. INTRODUCTION - NATURE DES ERREURS (SUITE) 1.2.4 Sensibilité Soit X la grandeur à mesurer, x l indication ou le signal fourni par l appareil. À toutes valeurs de X, appartenant à l étendue de mesure, correspond une valeur de x. x = f(x). La sensibilité autour d une valeur X o de X est m = dx dx (X o) = f (X o ). Si la fonction est linéaire, la sensibilité de l appareil est constante. Lorsque x et X sont de même nature, m qui est alors sans dimension peut être appelé gain. Il s exprime généralement en db. gain (en db) = 20 log(m).
1.2. CHAÎNE DE MESURE : SES CARACTÉRISTIQUES 9 1.2.5 Classe de précision - résolution La classe d un appareil de mesure correspond à la valeur en % du rapport entre la plus grande erreur possible sur l étendue de mesure. Plus grande erreur possible Classe = 100. étendue de mesure Lorsque l appareil de mesure est un appareil numérique, on définit la résolution par la formule suivante : Résolution = Etendue de la mesure Nombre de points de la mesure.
10 CHAPITRE 1. INTRODUCTION - NATURE DES ERREURS (SUITE) 1.2.6 Rapidité, temps de réponse C est l aptitude d un instrument à suivre les variations de la grandeur à mesurer. Dans le cas d un échelon de la grandeur entraînant la croissance de la mesure on définit Le temps de réponse à 10 % : c est le temps nécessaire pour que la mesure croisse, à partir de sa valeur initiale jusqu à rester entre 90 % et 110 % de sa variation totale.
1.2. CHAÎNE DE MESURE : SES CARACTÉRISTIQUES 11 1.2.7 Bande passante La bande passante est la bande de fréquence pour laquelle le gain du capteur est compris entre deux valeurs. Le gain du capteur est le rapport x/x généralement exprimé en db. Par convention, le signal continu a une fréquence nulle.
12 CHAPITRE 1. INTRODUCTION - NATURE DES ERREURS (SUITE) 1.2.8 Grandeur d influence et compensation On appelle grandeur d influence, toutes les grandeurs physiques autres que la grandeur à mesurer, susceptiblent de perturber la mesure. Généralement les capteurs industriels sont compensés, un dispositif interne au capteur limite l influence des grandeurs pertubatrices. La température est la grandeur d influence qui est le plus souvent rencontrée.
1.2. CHAÎNE DE MESURE : SES CARACTÉRISTIQUES 13 1.2.9 Propagation des erreurs Les produits La grandeur X s obtient par la mesure de Y et Z. On a X = Y Z. Y et Z sont des nombres positifs. La mesure de Y donne y ± dy, la mesure de Z donne z ± dz. Ainsi, (y dy)(z dz) < X < (y + dy)(z + dz). ( (y dy)(z dz) = yz y dz z dy+dz dy = y z 1 ( dz z + dy y De même ( (y+dy)(z+dz) = yz+y dz+z dy+dz dy = y z 1 + ( dz z + dy y Si l on néglige les erreurs d ordre 2 on a : ( dz X = y z ± y z z + dy ) = dx y x = dz z + dy y. Dans le cas d un produit,les erreurs relatives s ajoutent. Les quotients De la même manière, on démontre que : Dans le cas d un quotient,les erreurs relatives s ajoutent. ) dz dy yz ) ) dz dy + yz )..
14 CHAPITRE 1. INTRODUCTION - NATURE DES ERREURS (SUITE) Les sommes La grandeur X s obtient par la mesure de Y et Z. On a X = Y + Z. La mesure de Y donne y ± dy, la mesure de Z donne z ± dz. Ainsi, On a (y dy) + (z dz) < X < (y + dy) + (z + dz). x = (y + z) ± (dy + dz) = dx = dy + dz. Dans le cas d une somme, les erreurs absolues s ajoutent. Les soustractions De la même manière, on démontre que : Dans le cas d une soustraction,les erreurs absolues s ajoutent. Attention : Il faut éviter de soustraire des nombres de même ordre de grandeur.
15 Chapitre 2 Estimateurs 2.1 Introduction au traitement statistique des mesures Les erreurs entraînent une dispersion des résultats lors de mesures répétées. Leur traitement statistique permet : de connaître la valeur la plus probable de la grandeur mesurée, de fixer les limites de l incertitude. Lorsque la mesure d une même grandeur X a été répétée n fois, donnant les résultats : x 1, x 2,, x n, la valeur moyenne est définie par : x = 1 n x i. n Une indication de la dispersion de ces résultats est donnée par l écart-type : σ = 1 n (x i x) n 2.
16 CHAPITRE 2. ESTIMATEURS Les objets aléatoires manipulés par les physiciens sont des variables aléatoires le plus souvent discrètes (nombre fini de valeurs). Toutefois il est commode (surtout lorsque le nombre de valeurs est très grand ) de passer à la limite et de développer un formalisme continu. On définit alors une densité de probabilité (au lieu d une probabilité) de la façon suivante: Densité de probabilité ρ ρ est une,fonction définie de R à valeurs dans R + ρ est sommable de à + : ρ(x) dx existe. R ρ(x) dx = 1 R dp = ρ(x) dx est la probabilité pour X d être dans l intervalle [x, x + dx[. b ρ(x) dx est la probabilité pour X d être dans [a, b]. a
2.1. INTRODUCTION AU TRAITEMENT STATISTIQUE DES MESURES 17 La correspondance entre les v.a. discrètes et continues se fait de la manière suivante : Quantité calculée V.A. discrète V.A. continue valeurs x i valeurs x probabilités p i densité ρ(x) p(x k X < x i ) Normalisation Moyenne < X > Variance V (X) = σx 2 j 1 i=k p i p i = 1 i xj x k + ρ(x) dx ρ(x) dx = 1 + p i x i x ρ(x) dx i + p i (x i < X >) 2 (x < X >) 2 ρ(x) dx i L écart-type est toujours donné par σ X = V (X).
18 CHAPITRE 2. ESTIMATEURS Lorsque les erreurs accidentelles affectant les différentes mesures sont indépendantes, la probabilité d apparition des différents résultats satisfait habituellement à la loi normale dite encore loi de Gauss : ρ(x) = 1 σ 2π exp ( ) (x x)2 2σ 2. La valeur la plus probable est la valeur moyenne des mesures. En général on prend une incertitude égale à 3 fois l écart-type.
2.1. INTRODUCTION AU TRAITEMENT STATISTIQUE DES MESURES 19 2.1.1 Fidélité, justesse, précision La fidélité est la qualité d un appareillage de mesure dont les erreurs sont faibles. L écart-type est souvent considéré comme l erreur de fidélité. Un instrument est d autant plus juste que la valeur moyenne est proche de la valeur vraie.
20 CHAPITRE 2. ESTIMATEURS Un appareil précis est à la fois fidèle et juste. En pratique, la précision est une donnée qui fixe globalement l erreur maximum (en + ou en -) pouvant être commise lors d une mesure. Elle est généralement exprimée en % de l étendue de mesure. Remarque : C est aux valeurs maximales de l échelle que l appareil est le plus précis en valeur relative.
2.2. DÉFINITION ET PREMIÈRES PROPRIÉTÉS D UN ESTIMATEUR 21 2.2 Définition et premières propriétés d un estimateur 2.2.1 Estimateur Supposons qu on veuille obtenir une valeur (x o) aussi raisonnablement proche que possible de la vraie valeur x o d une quantité X, à partir d un échantillon fini {x i } de n mesures. Cela se fera avec grâce à une fonction du genre (x o) n = Φ(x 1, x 2,, x n ), et on appellera (x o) n estimation de x o. Par exemple, si les mesures sont homogènes et indépendantes, la fonction Φ sera la moyenne arithmétique. Pourquoi choisir une fonction Φ plutôt qu une autre? Des règles sont données en regardant les choses au niveau des variables aléatoires et non des valeurs numériques puisque la caractéristique des mesures x i est d être des réalisations de valeurs aléatoires. Il faut donc écrire (X o ) n = Φ(X 1, X 2,, X n ), où les X i sont des valeurs aléatoires et (Xo ) n une valeur aléatoire fonction de v.a. Étant censée estimer une des caractéristiques statistiques des X i, cette fonction est appelée estimateur. Un estimateur (estimate) n est donc pas une valeur numérique mais une variable aléatoire, qui a pour objet d estimer une des caractéristiques des v.a. dont elle est fonction.
22 CHAPITRE 2. ESTIMATEURS 2.2.2 Propriétés des estimateurs Convergence ou cohérence (limite infinie) La Loi des grands nombres indique que si on reprend une expérience une infinité de fois le résultat global tend vers une quantité non aléatoire. Donc si la taille de l échantillon n tend vers l infini, un bon estimateur (Xo ) n doit tendre vers une variable non aléatoire x o, vraie valeur qu il est censé estimer. C est la convergence, cohérence (consistency) ou correction qui doit impérativement être vérifiées.
2.2. DÉFINITION ET PREMIÈRES PROPRIÉTÉS D UN ESTIMATEUR 23 Absence de biais (propriété liée à l espérance) Un estimateur étant une v.a. il possède une espérance (ou moyenne). Quand la taille de l échantillon tend vers l infini, elle tend vers la valeur non aléatoire x o. Mais avec des échantillons de taille finie (c est le cas habituel), il faut tenir compte de la distribution de l estimateur. Il est alors souhaité que l espérance reste stable pour tout n, donc égale à x o. Si c est le cas l estimateur est dit non biaisé. Pour un estimateur biaisé < (X o ) n >= x o + b n, où b n est le biais (bias) qui dépend de la taille de l échantillon : si n tend vers l infini, b n tend vers 0 par la propriété de convergence ci-dessus.
24 CHAPITRE 2. ESTIMATEURS Cohérence et absence de biais sont toutefois deux propriétés très différentes; dans la seconde on considère non pas un échantillon de taille infinie mais une infinité d échantillons de taille finie dont la moyenne des réalisations (x o) (k) n est l espérance < (Xo ) n >. La figure ci-dessous donne un exemple d estimateur non biaisé.
2.2. DÉFINITION ET PREMIÈRES PROPRIÉTÉS D UN ESTIMATEUR 25 Efficacité (Efficiency) Si on dispose de plusieurs estimateurs de la même quantité on a intérêt à choisir celui dont l écart-type est minimal pour réduire l erreur d estimation.
26 CHAPITRE 2. ESTIMATEURS 2.3 Estimation de l espérance 2.3.1 Justification de la moyenne arithmétique Les n v.a. parentes et indépendantes X i dont les réalisations successives sont les mesures x i, sont issues de la v.a. générique X dont on recherche l espérance < X >. La moyenne arithmétique X n = 1 n X i n est alors l estimateur le plus utilisé. En effet, supposons la v.a. X normale de variance σ 2 et de moyenne < X >= m. La probabilité d obtenir l échantillon de mesures {x 1, x 2,, x n } ( à dx 1,, dx n près) est : dp (x 1, x 2,, x n ) = K exp [ 1 2σ 2 ( n )] (x i m) 2 dx 1,, dx n, qui dépend de m (qui est inconnue). Le Principe du maximum de vraisemblance (PMV) suggère que la meilleure valeur m de m est celle qui maximise n dp donc celle qui minimise S = (x i m) 2. Cette valeur annule donc la dérivée de S c est-à-dire : ds n dm = 2 (x i m) = 0.
2.3. ESTIMATION DE L ESPÉRANCE 27 On obtient m = 1 n x i. La moyenne arithmétique est donc n la meilleure estimation de < X > au sens du PMV et si les mesures sont indépendantes et normalement réparties.
28 CHAPITRE 2. ESTIMATEURS Principe du maximum de vraisemblance. On se donne un système décrit par un échantillon de mesures. On cherche quels paramètres (β k ) sont censés décrire le système. Le PMV postule que la meilleure collection de paramètres (β k ) est celle qui rend maximale la probabilité (conditionnelle) d observer l échantillon P ({x i } {β k }) : on joue sur cette condition pour maximiser la probabilité connue. 2.3.2 L estimateur moyenne arithmétique La cohérence de la v.a X n vient de la Loi des grands nombres : Théorème 2.3.1 Si n + et si les v.a. indépendantes X i ont la même répartition que la v.a. X, alors X n tend en probabilité vers l espérance < X >= m de X. On rappelle que deux v.a. X de densité ρ 1 et Y de densité ρ 2 sont indépendantes si ρ(x y) = ρ 1 (x) et ρ(y x) = ρ 2 (y). De même on rappelle qu une suite de v.a. Y n tend en probabilité vers une valeur numérique α si ε > 0, δ > 0, n o, t. q. n n o = P ( Y n α ε) > 1 δ. Biais: l espérance de X n est < X n >=< X >= m. En effet comme la répartition de chaque X n est identique (normale de paramètres identiques ) la moyenne est toujours m. La moyenne arithmétique est donc un estimateur non biaisé de l espérance.
2.3. ESTIMATION DE L ESPÉRANCE 29 Efficacité Le théorème de Gauss - Markov indique que parmi les estimateurs non biaisés de < X >, fonctions linéaires des mesures le plus efficace est X n. Pondération des données Supposons les mesures indépendantes mais pas de même qualité : les v.a. X i sont donc indépendantes, de moyenne m mais de variance σi 2 différentes (on supposera les σ i connus). En utilisant le PMV comme précédemment et comme la probabilité d obtenir l échantillon x i s écrit [ ( n )] dp (x 1, x 2,, x n ) = K exp 1 (x i m) 2 dx 1,, dx n, 2 la quantité à rendre minimale cette fois-ci est un χ 2 ( khideux) : n χ 2 (x i m) 2 =. En posant w i = 1 σi 2, la relation dχ2 = 0 (pour chercher le dm minimum) conduit à n n m w i = w i x i, c est-à-dire m = σ 2 i n w i x i ; n w i σ 2 i
30 CHAPITRE 2. ESTIMATEURS On n obtient plus une moyenne arithmétique simple mais une moyenne pondérée, les w i étant les poids statistiques (weights). Plus la mesure est précise (σi 2 est faible) plus le poind w i qu on lui donne est important. Exercice 2.3.1 Montrer que cet estimateur est lui aussi cohérent et non biaisé. Exercice 2.3.2 Montrer que parmi les estimateurs non biaisés fonction linéaires des mesures x i, la moyenne pondéré par w i = k/σ2 i est l estimateur le plus efficace. (Théorème de gauss-markov).
2.3. ESTIMATION DE L ESPÉRANCE 31 Erreur sur l estimation de l espérance On suppose les erreurs (expérimentales) σ i connues. On admettra la formule de propagation des erreurs qui donne n ( ) m σm 2 = σi 2 2 ; x i Dans le cas homogène ( σ i = σ et m = 1 n x i ) : n Dans le cas inhomogène : Or σ 2 i σm 2 = 1 ( n ) 2 w i n w i σi 2 = n, donc σ 2 m = 1 n 1 n σ m = σ n. w i n w 2 i σ 2 i = 1 n w i. n w i σi 2 = 1 n σ2 i, étant une moyenne pondérée des erreurs. Finalement 1 1 σ m = = σ n n i 2. w i Pou aller plus loin, il faut estimer les erreurs expérimentales σ i.
32 CHAPITRE 2. ESTIMATEURS 2.4 Estimation de la variance