OUTILS STATISTIQUES ET NUMÉRIQUES



Documents pareils
OUTILS STATISTIQUES ET NUMÉRIQUES

TSTI 2D CH X : Exemples de lois à densité 1

Précision d un résultat et calculs d incertitudes

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Probabilités sur un univers fini

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Texte Agrégation limitée par diffusion interne

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Statistique : Résumé de cours et méthodes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Statistiques Descriptives à une dimension

Annexe commune aux séries ES, L et S : boîtes et quantiles

Lois de probabilité. Anita Burgun

Estimation et tests statistiques, TD 5. Solutions

Probabilités sur un univers fini

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

La simulation probabiliste avec Excel

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

La problématique des tests. Cours V. 7 mars Comment quantifier la performance d un test? Hypothèses simples et composites

Simulation de variables aléatoires

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Chapitre 2 Le problème de l unicité des solutions

Chapitre 3. Les distributions à deux variables

Fonctions de plusieurs variables

Moments des variables aléatoires réelles

Limites finies en un point

Chaînes de Markov au lycée

Image d un intervalle par une fonction continue

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Représentation d une distribution

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Travaux dirigés d introduction aux Probabilités

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Loi binomiale Lois normales

Correction de l examen de la première session

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Intégration et probabilités TD1 Espaces mesurés Corrigé

Chapitre 2. Eléments pour comprendre un énoncé

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

La classification automatique de données quantitatives

Continuité en un point

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Seconde Généralités sur les fonctions Exercices. Notion de fonction.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

La fonction exponentielle

- MANIP 2 - APPLICATION À LA MESURE DE LA VITESSE DE LA LUMIÈRE

1. Vocabulaire : Introduction au tableau élémentaire

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

Université Paris-Dauphine DUMI2E 1ère année, Applications

Commun à tous les candidats

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Cours d Analyse. Fonctions de plusieurs variables

Chapitre 1 Régime transitoire dans les systèmes physiques

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Suites numériques 3. 1 Convergence et limite d une suite

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.

Oscillations libres des systèmes à deux degrés de liberté

4 Distributions particulières de probabilités

Introduction à l approche bootstrap

SINE QUA NON. Découverte et Prise en main du logiciel Utilisation de bases

Représentation des Nombres

M2 IAD UE MODE Notes de cours (3)

Excel Avancé. Plan. Outils de résolution. Interactivité dans les feuilles. Outils de simulation. La valeur cible Le solveur

Relation entre deux variables : estimation de la corrélation linéaire

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Couples de variables aléatoires discrètes

Complément d information concernant la fiche de concordance

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Quantification Scalaire et Prédictive

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

BTS Groupement A. Mathématiques Session Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

Optimisation, traitement d image et éclipse de Soleil

Correction du baccalauréat STMG Polynésie 17 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014

Programmes des classes préparatoires aux Grandes Ecoles

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

3. Conditionnement P (B)

Transmission d informations sur le réseau électrique

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

Exercices Alternatifs. Une fonction continue mais dérivable nulle part

LES GENERATEURS DE NOMBRES ALEATOIRES

Développement décimal d un réel

Programmation linéaire

PROBABILITES ET STATISTIQUE I&II

I. Polynômes de Tchebychev

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Raisonnement probabiliste

Mesures et incertitudes

Incertitudes expérimentales

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Transcription:

UNIVERSITÉ D ORLEANS Année universitaire 26-27 UFR Sciences Master EE, 2ème année OUTILS STATISTIQUES ET NUMÉRIQUES POUR LA MESURE ET LA SIMULATION T. Dudok de Wit Université d Orléans Septembre 26 Ce cours a pour objectif de présenter divers outils qui sont couramment utilisés dans l analyse de données expérimentales.

Table des matières 1 Livres utiles 3 2 Rappels sur les probabilités 3 2.1 Variable aléatoire............ 3 2.2 Loi de probabilité............ 4 3 Statistique descriptive : estimateurs 5 3.1 Population ou échantillon?...... 5 3.2 Densité de probabilité......... 6 3.3 Espérance et moyenne......... 7 3.4 Mode et médiane............ 8 3.5 Variance et écart-type......... 9 3.6 Moments d ordre supérieur...... 1 4 Propriétés d un estimateur 12 4.1 Cohérence d un estimateur...... 12 4.2 Biais d un estimateur.......... 12 4.3 Efficacité................. 13 5 Quelques lois de probabilité 13 5.1 Aléa de Bernouilli............ 14 5.2 Aléa binomial.............. 14 5.3 Loi uniforme............... 15 5.4 Aléa de Poisson............. 15 5.5 Loi normale ou loi de Gauss...... 16 5.6 Loi du χ 2................. 18 5.7 Théorème de la limite centrale.... 2 5.8 Simuler des lois avec Scilab...... 21 6 Erreurs 21 6.1 Quantifier les erreurs.......... 22 6.2 Représenter les erreurs......... 24 6.3 Chiffres significatifs........... 24 6.4 Comment déterminer l incertitude?. 25 6.5 Propagation des erreurs........ 26 6.6 Pourquoi moyenner?.......... 27 7 Tests d hypothèse 29 7.1 Etapes du test d hypothèse...... 31 7.2 Test du χ 2................ 31 7.3 Calculer les seuils avec Scilab.... 36 8 Tests de stationnarité 37 8.1 Test de run................ 39 9 Régression affine et ajustement de courbes 39 9.1 Régression linéaire : maximum de vraisemblance et moindres carrés.. 41 9.2 Résolution avec Scilab......... 43 9.3 Validation de la droite de régression. 45 9.4 Régression de fonctions affines.... 49 9.5 Régression non-linéaire........ 51 9.6 Régression non-linéaire avec Scilab. 52 1 Lissage 54 1.1 Lisser avec Scilab............ 55 2

1 Livres utiles W. Press et al., Numerical Recipes in C, Cambridge University Press, 1998 (LA référence sur les outils numériques). NIVEAU MASTER ET + K. Protassov, Probabilités et incertitudes, Presses Universitaires de Grenoble, 2 (excellent traité sur les incertitudes). NIVEAU LICENCE L. Lyons, A practical guide to data analysis for physical science students, Cambridge University Press, 1991 (introduction très claire à l analyse de données). NIVEAU LI- CENCE P. Bevington, Data reduction and error analysis for the physical sciences, McGraw-Hill, 1992 (comme le livre précédent, celui-ci est devenu une référence ; il est davantage orienté vers l analyse des erreurs). NIVEAU LICENCE J. Bendat & A. Piersol, Random data : analysis and measurement procedures, Wiley, 1998 (traité détaillé sur l analyse de processus aléatoires, niveau master). NIVEAU MAS- TER ET + G. Borradaile, Statistics of Earth science data, Springer, 23 (un exemple parmi d autres de statistiques appliquées, avec ici une orientation vers les géosciences).niveau MASTER ET + L. Lebart, A. Morineau et M. Piron, Statistique exploratoire multidimensionnelle, Dunod, 24 (orienté vers l analyse de données multidimensionnelles, un sujet pas abordé dans ce cours). NIVEAU MASTER J. Max, Méthodes et techniques de traitement du signal : tome 1 Applications aux mesures physiques et tome 2 Exemples d applications, Dunod, 1987 (ces deux volumes, même s ils sont un peu démodés, restent un des rares exemples de synergie entre les outils de traitement de données et leurs applications en physique). NIVEAU MASTER ET + excellent cours de Philippe Depondt sur la physique numérique (ENS Cachan), orienté vers la simulation : http://www.phytem.ens-cachan.fr/modules/physique_numerique.htm référence complète sur les techniques d analyse de données pour ingénieurs, le Data Analysis Handbook : http://www.itl.nist.gov/div898/handbook/toolaids/pff/index.htm 2 Rappels sur les probabilités 2.1 Variable aléatoire On appelle variable aléatoire ou aléa numérique une variable X susceptible de prendre différentes valeurs, auxquelles il est possible d affecter une probabilité. Soit V l ensemble des valeurs possibles de X : si V est fini ou dénombrable, on dit que l aléa est discret. Le cas échéant, l aléa est dit continu. Exemple : Dans le lancer d un dé, la variable aléatoire X = {1,2,3,4,5,6} est discrète et ne peut prendre que 6 valeurs. Dans le cas d un débit de fluide dans une conduite, nous avons une variable continue. 3

Remarque : La plupart des observables physiques (température, pression, tension, longueur, durées,... ) sont des variables continues, bien que des effets quantiques puissent jouer à très petite échelle, par exemple pour de très faibles champs magnétiques. Les variables discrètes apparaissent généralement dans les expériences où il y a dénombrement. 2.2 Loi de probabilité Soit p(x), la probabilité qu une variable aléatoire discrète X prenne la valeur x. L ensemble des couples (x, p(x)) est appelé loi de probabilité de la variable aléatoire. Elle peut être représentée par un diagramme en bâtons ou par un histogramme. Lorsque l aléa est continu, la probabilité que X prenne la valeur x est en général infiniment petite. Ainsi, si on tire au hasard des nombres réels répartis uniformément entre et 5, la probabilité qu un tel nombre soit exactement égal 2.45388519 est très faible, quoique non nulle. Il devient dès lors plus intéressant de calculer la probabilité que X prenne une valeur dans un petit intervalle Prob(a<X b)=prob(x b) Prob(X < a) La quantité Prob(X b) Prob(X < a) b a définit la densité de probabilité dans l intervalle [a,b]. Par passage à la limite, on définit p(a)= lim b a Prob(X b) Prob(X < a) b a La quantité d c p(x) d x équivaut à la probabilité que l aléa X prenne une valeur située entre c et d. Exemple : Dans le lancer d un dé non truqué, la loi de probabilité discrète se résume à x i 1 2 3 4 5 6 p(x i ) 1/6 1/6 1/6 1/6 1/6 1/6 Exemple : La probabilité de tirer un nombre aléatoire issu d une distribution uniforme sur l intervalle [, 1[ vaut { 1 si x < 1 p(x)= sinon Pour un aléa discret, la probabilité de tirer une valeur parmi toutes les valeurs possibles vaut obligatoirement 1 car on est sûr du résultat. Cela signifie qu on a toujours x X p(x) = i 4 p(x i ) = 1

De la même façon, pour un aléa continu, la probabilité de tirer une valeur parmi l ensemble des valeurs possibles est toujours égale à 1. On a donc + p(x) d x = 1 Ces résultats sont valables quelle que soit la loi de probabilité. Remarque : Pour un aléa discret, chaque probabilité satisfait forcément p(x) 1, puisque la somme des probabilités est égale à 1. La probabilité p(x) est alors un nombre sans unités. En revanche, pour un aléa continu, il est tout à fait possible d avoir p(x) > 1, puisque c est l intégrale qui est bornée. En outre, p(x) peut s exprimer en unités physiques. Par exemple, si x est une longueur mesurée en [m], alors p(x) s exprimera en [m 1 ]. 3 Statistique descriptive : estimateurs Dans une expérience, on a rarement accès à l expression exacte de la loi de probabilité ; il n est pas forcément possible de mesurer p(x) pour chaque valeur de x. On se contente donc souvent de calculer des indicateurs, qui résument à eux seuls certaines caractéristiques de la loi. Le mieux connu de ces indicateurs est la moyenne, qui est un indicateur de tendance. On recourt aussi fréquemment à des indicateurs de dispersion ou d étalement, tels que écart-type. La principale difficulté consiste à trouver la meilleure estimation à partir d un échantillon qui sera toujours limité en taille. 3.1 Population ou échantillon? D un point de vue formel, il existe une différence fondamentale entre les modèles et les observations. Dans le premier cas, et pour autant que la loi de probabilité soit connue, on parlera de population. Les quantités qui en seront déduites, telles que l espérance, sont théoriques et en ce sens dépourvues d erreur. Il est très rare de pouvoir travailler directement sur une population, sauf si on dispose d un modèle mathématique exact du phénomène à étudier. Lorsque la loi de probabilité n est pas connue, alors il faut réaliser une expérience pour estimer les propriétés telles que la moyenne. On parlera alors d échantillon. Les valeurs obtenues seront d autant plus proches des valeurs théoriques que l expérience a été bien menée. En vertu de la loi des grands nombres, les valeurs obtenues avec l échantillon convergent vers celles de la population lorsque la taille de l échantillon augmente. Tout le problème consiste à estimer au mieux ces valeurs. Sauf exception rare, l expérimentateur travaille toujours sur des échantillons. Un modèle de son expérience lui permettra cependant de définir une population, par rapport à laquelle il se référera. 5

3.2 Densité de probabilité La densité de probabilité figure parmi les quantités les plus importantes pour caractériser une série temporelle ou une suite de valeurs en général. Comme nous l avons vu en 2.2, p(a)d x est la probabilité qu un processus stationnaire x(t) prenne une valeur comprise dans l intervalle [a, a+ d x]. On utilise fréquemment l expression pdf (= probability density function) pour désigner la densité de probabilité p(x). Un théorème important (le théorème de la limite centrale, cf. 5.7) nous dit que pour beaucoup de processus physiques, la pdf tend vers une loi normale (ou loi de Gauss) p(x) e (x a)2 /b. FIG. 1 A gauche : quatre exemples de séries temporelles : a) une sinusoïde, b) une sinusoïde avec du bruit de haute fréquence, c) une sinusoïde dont l amplitude fluctue au cours du temps, d) un signal aléatoire. A droite est représentée la densité de probabilité de chaque série. Quelques exemples de pdf estimées à partir d échantillons sont illustrés dans la figure 1. L estimation d une pdf à partir d un échantillon est une tâche délicate pour laquelle il existe plusieurs approches. La détermination de la pdf joue un rôle crucial dans l étude de la turbulence, où de très faibles écarts par rapport à une loi normale peuvent parfois être interprétés en termes de structures cohérentes (tourbillons, etc.). 6

Estimer des distributions avecscilab Le logiciel Scilab dispose de quelques routines permettant d estimer des fonctions de distribution et plus particulièrement des histogrammes. histplot(n,x) affiche l histogramme de la variable x (un vecteur) en choisissant automatiquement n classes de même largeur ; l effectif de chaque classe est normalisé par l effectif total. histplot(b,x) même fonction que ci-dessus, sauf qu elle utilise les classes dont les bornes sont définies par le vecteur b. Ces bornes sont [b 1,b 2 ], (b 2,b 3 ], (b 3,b 4 ], etc. [pos,eff] = dsearch(x,b,"c") recherche parmi les éléments du vecteur x ceux qui se trouvent dans l une des classes définies par b (même syntaxe que ci-dessus). pos est un vecteur de même taille que x, qui indique le numéro de la classe à laquelle appartient chaque élément. e f f donne l effectif de chaque classe. Cette fonction convient aux lois discrètes et continues. [pos,eff] = dsearch(x,v,"d") même fonction que ci-dessus, sauf que la recherche se fait par rapport aux valeurs entières définies dans le vecteur v. Cette fonction convient uniquement aux lois discrètes. 3.3 Espérance et moyenne Quand on ne connaît pas la densité de probabilité, on commence par estimer certains de ses moments. Une des caractéristiques les plus importantes d une loi est sa moyenne ou espérance. En présence d une population, on parle d espérance de la variable X, qui se note habituellement µ X, E(X ) ou X. Si la loi de probabilité n est pas connue a priori, alors il faut estimer l espérance à partir d un échantillon. On parlera alors de moyenne, que l on notera habituellement x, x N ou m. On a x = x p(x) d x espérance pour un aléa continu x = i x i p i espérance pour un aléa discret x = 1 N N x i i=1 moyenne pour un échantillon Notons qu il existe d autres estimateurs de la moyenne, telles que la moyenne pondérée x = i w i x i / i w i ainsi que la moyenne géométrique x = ( N i=1 x i) 1/N. Dans ce qui suit, nous ne ferons guère différence entre espérance et moyenne, alors que les deux revêtent bien des significations différentes. Exemple : Dans le lancer d un dé non truqué, l espérance vaut X =1 1 6 + 2 1 6 + 3 1 6 + 4 1 6 + 5 1 6 + 6 1 6 = 7 2 7

Ce résultat est exact, et ne dépend pas du nombre de lancers. En réalisant l expérience pour des nombres de lancers différents, obtient de même la moyenne N 1 1 1 1 1 x 3.2 3.56 3.486 3.5366 3.51 Ces valeurs convergent vers le résultat théorique pour N. Dans le logiciel Scilab, la moyenne d un échantillon s obtient avec l une des commandes m = mean(x) estime la moyenne sur tous les éléments de la matrice x m = mean(x, r ) même fonction que ci-dessus, sauf que la moyenne s effectue selon chaque rangée de x m = mean(x, c ) même fonction que ci-dessus, sauf que la moyenne s effectue selon chaque colonne de x 3.4 Mode et médiane La moyenne à elle seule ne suffit pas pour rendre compte de la notion intuitive de "valeur moyenne". On recourt parfois aussi au mode, qui est la valeur la plus probable de la distribution, cf. figure 2. Le mode n est pas toujours défini. Une autre quantité utile est la médiane : c est la valeur x m telle qu on a la même probabilité de tirer une valeur inférieure à x m qu une valeur supérieure à x m. Pour une population avec un aléa continu, nous avons xm p(x) d x = p(x) d x = 1 x m 2 Pour un échantillon, la médiane s estime de la manière suivante : soient {x i },i = 1,..., N les N résultats de l expérience. D abord on les trie par ordre croissant, pour obtenir une nouvelle suite {x k },k = 1,..., N. La valeur médiane x m est alors la valeur d indice N/2 (si N est pair) ou d indice (N + 1)/2 (si N est impair). Exemple : Une mesure du courant dans un conducteur a donné les valeurs suivantes : {x i }=7, 79.4, 94, 86, 82, 81.4 et 7 [A]. La moyenne est 8.4 [A], le mode est 7 [A] et la médiane est 81.4 [A]. Exemple : Une distribution continue est donnée par la loi { 1 x si x < 2 p(x)= 2 sinon On vérifie que l on a bien + p(x) d x= 1. L espérance vaut x = + La médiane x m est donnée par xm x p(x) d x = 1 2 2 x 2 d x = 4 3 p(x) d x = 1 2 x m = 2 8

x p(x) mode médiane moyenne 2écartstype FIG. 2 Représentation de quelques indicateurs statistiques pour une distribution continue. Estimer la médiane avecscilab Il n existe pas de fonction dédiée dans Scilab pour calculer le mode. En revanche, la médiane s obtient avec la même syntaxe que la moyenne m = median(x) estime la médiane sur tous les éléments de la matrice x m = median(x, r ) même fonction que ci-dessus, sauf que la médiane se calcule selon chaque rangée de x m = median(x, c ) même fonction que ci-dessus, sauf que la médiane se calcule selon chaque colonne de x 3.5 Variance et écart-type Pour quantifier la dispersion des valeurs de X autour de sa valeur moyenne, on recourt habituellement à la variance σ 2 x et plus fréquemment à l écart-type (ou écart quadratique moyen) σ x = σ 2 x. La définition de la variance est σ 2 x = (x x ) 2 p(x)d x pour un aléa continu σ 2 x = i (x i x ) 2 p i pour un aléa discret σ 2 x = 1 N N (x i x) 2 pour un échantillon i=1 Les expressions ci-dessus peuvent se mettre sous une forme plus commode σ 2 x = x2 x 2 L écart-type est donc une mesure de la largeur d une distribution, cf. figure 2. Elle s exprime dans les mêmes unités que la variable X : si cette dernière est par exemple en [Ω], alors l écarttype le sera aussi. 9

Exemple : Dans l exemple précédent de la distribution continue, la variance vaut + σ 2 x = x 2 p(x) d x ( x ) 2 = 1 2 L écart-type vaut donc σ x = σ 2 x =.471 2 x 3 d x 16 9 =.222 Notez que l estimateur classique de la variance à partir d un échantillon σ 2 = 1 N N (x i x) 2 i=1 incorpore de l information sur la moyenne, qui a déjà été estimée à partir du même échantillon. Cet estimateur sous-estime donc la véritable variance. On dira qu il est biaisé (cf. section 4). On montre que l estimateur non biaisé est en réalité s 2 = 1 N (x i x) 2 N 1 i=1 Ce dernier se note fréquemment s 2, par opposition à σ 2. La plupart des calculatrices font la distinction entre les deux estimateurs. Estimer l écart-type avec Scilab Dans Scilab, l estimateur non-biaisé de l écart-type est s = stdev(x) estime l écart-type sur tous les éléments de la matrice x s = stdev(x, r ) même fonction que ci-dessus, sauf que l écart-type est estimé selon chaque rangée de x s = stdev(x, c ) même fonction que ci-dessus, sauf que l écart-type est estimé selon chaque colonne de x com- u = x(:)-mean(x); s = sqrt(u *u/length(u)); notation pacte pour l estimateur biaisé de l écart-type 3.6 Moments d ordre supérieur La moyenne et l écart-type sont les deux principaux moments d une densité de probabilité. Il arrive qu on soit amené à s intéresser à des moments d ordre supérieur, définis selon m q = (x x ) q p(x)d x pour un aléa continu m q = i (x i x ) q p i pour un aléa discret m q = 1 N N (x i x) q pour un échantillon i=1 1

où l ordre q est habituellement un entier positif. Pour q =, on trouve par définition 1, pour q = 1, la moyenne ou l espérance et pour q = 2, la variance. Le moment d ordre 3 porte en anglais le nom de skewness ; c est une mesure de l asymétrie d une distribution. Il est nul pour toute distribution symétrique par rapport à sa moyenne alors que m 3 > implique un surcroît de grandes valeurs positives. Le moment d ordre 4 porte en anglais le nom de kurtosis ; c est une mesure de l étalement d une distribution. Pour une distribution normale, m 3 = et m 4 = 3σ 4. Il est souvent plus commode de normaliser les moments d ordre supérieur par rapport à l écart-type de la population ou de l échantillon, ce qui donne m q = m q σ q Plus l ordre d un moment est élevé, plus celui-ci sera fortement pondéré par les valeurs extrêmes. Il faudra donc être très prudent avec un échantillon X de taille finie, car la valeur du moment sera presque entièrement déterminée par les quelques valeurs de x qui s écartent le plus de la moyenne. C est la raison pour laquelle on ne rencontre que très rarement les moments d ordre supérieur à 4. La seule exception est l étude expérimentale de la turbulence, où ces moments apportent une information cruciale sur les processus physiques de transfert d énergie entre les tourbillons de tailles différentes (loi de Kolmogorov). µ=, σ 2 =1, m 3 = m 4 =3 µ=, σ 2 =1, m 3 = m 4 =2.19.4.6.3.4 p(x).2.1 p(x).2 5 5 x 5 5 x µ=, σ 2 =1, m 3 = m 4 =4.35 µ=, σ 2 =1, m 3 =.354 m 4 =3.4 p(x).25.2.15.1.5 5 5 x p(x).6.4.2 5 5 x FIG. 3 Quelques distributions et leurs quatre premiers moments normalisés. 11

4 Propriétés d un estimateur On dispose d un échantillon fini {x i } de N valeurs. Supposons que l on veuille en extraire une valeur x aussi raisonnablement proche que possible de la vraie valeur x. On appellera x estimation de x. Dans le cas plus général où on est confronté à N variables aléatoires {X i }, on appellera X estimateur de la variable aléatoire X recherchée (par exemple, la moyenne). Un bon estimateur doit satisfaire à la fois trois conditions souvent contradictoires : il doit être cohérent, non biaisé et efficace. 4.1 Cohérence d un estimateur La loi des grands nombres (cf. section 6) nous dit qu en moyennant le résultat d une expérience un grand nombre N de fois, la moyenne X ainsi obtenue tend vers une variable non aléatoire x, qui est la valeur numérique recherchée. C est la propriété de cohérence (ou consistency). 4.2 Biais d un estimateur Lorsque la taille N d un échantillon tend vers l infini, un estimateur cohérent tend vers la valeur exacte x. Mais dans le cas réel où l échantillon est de taille finie, on aimerait que l espérance X N s écarte le moins possible de la valeur x. Cet écart est appelé biais. Pour un estimateur biaisé, on a X N = x + b N où b N intervalledanslequelse est le biais de l échantillon. Pour un estimateur cohérent, lim N b N =. L estimateur de la figure 4 est biaisé. Celui de la figure dex* répartissentlesvaleurs 5 ne l est pas. biais FIG. 4 Exemple d un estimateur cohérent et biaisé. Exemple : L estimateur de l entropie est biaisé. Soit {k i } un échantillon de N nombres entiers répartis uniformément entre et 9 compris (chaque nombre 12

possède la même probabilité d apparition). Si f k est la fréquence d apparition du nombre k, alors l entropie vaut H = 9 f k log f k k= On montre aisément que cet estimateur est fortement biaisé. N H N valeur numérique 1 log1 2 log 1 2.69 3 log 1 3 1.1 log 1 2.3 1 4.3 Efficacité estimateurlemoinsefficace estimateurleplusefficace Parmi différents estimateurs de la même quantité, on choisira celui dont l écart-type est minimal : la convergence vers la valeur exacte n en sera que rapide. FIG. 5 Deux estimateurs d efficacité différente. Exemple : Pour estimer la moyenne d un échantillon {x i } on effectue habituellement la moyenne arithmétique sur toutes les valeurs. On peut aussi effectuer la moyenne de la valeur minimum et de la valeur maximum. Lequel est plus efficace? 5 Quelques lois de probabilité Il existe un grand nombre de lois de probabilité. A chaque modèle correspond une loi particulière. Néanmoins, la grande majorité des lois rencontrées dans la nature s avèrent être des lois de normales (ou lois de Gauss) ou encore des lois binomiales. Ces différentes lois étant apparentées, on passe de l une à l autre par un passage à la limite. 13

5.1 Aléa de Bernouilli L aléa de Bernouilli (ou loi de Bernouilli) est l expression la plus simple d une loi de probabilité. Elle s exprime par une variable aléatoire X qui n a que deux états : elle prend soit la valeur 1 (ou pile), avec une probabilité p, soit la valeur (ou face), avec une probabilité q. Prob(X = 1)= p, Prob(X = )= q, et p+ q = 1 L espérance vaut dans ce cas x =1 p+ q = p et la variance σ 2 x = (1 p)2 p+ ( p) 2 q = p(1 p) = pq Exemple : Dans le jeu de pile ou face, avec une pièce non truquée, on a p = q = 1/2. 5.2 Aléa binomial On considère N épreuves de Bernouilli identiques et indépendantes. La variable K est le nombre de réalisations de l événement X : par exemple le nombre de fois qu on obtient pile après N lancers successifs d une pièce. La probabilité pour que K prenne la valeur k vaut Prob(K = k)= C k N pk (1 p) N k où C k N = N! (N k)! k! On dit alors que K suit une loi binomiale de paramètres N et p, que l on note B N,p. On montre dans ce cas que l espérance, la variance et l écart-type valent respectivement espérance variance écart-type K = N p σ 2 K = N pq σ K = N pq.4 p =.1.4 p =.5.4 p =.7 Prob(K=k).3.2.1.3.2.1.3.2.1 1 2 3 4 5 6 7 8 9 1 k 1 2 3 4 5 6 7 8 9 1 k 1 2 3 4 5 6 7 8 9 1 k FIG. 6 Distribution binomiale correspondant à N = 1 et p =.1,.5,.7 14

Exemple : On lance une pièce de monnaie truquée N = 3 fois. Quelle est la probabilité d obtenir en tout k = 2 fois pile sachant que la probabilité d avoir pile vaut p =.6? Prob(k = 2)= 3! 2! 1!.62.4 1 =.432 La valeur moyenne et l écart-type sont respectivement K =3.6=1.8 et σ K = 3.6.4=.848 L aléa binomial intervient fréquemment dans les phénomènes physiques où il n existe que deux états possibles, chacun étant assorti d une probabilité. Par exemple, dans une expérience d analyse optique d une couche translucide, p pourrait être la probabilité qu un photon traverse la couche et q celle de voir le photon être absorbé. 5.3 Loi uniforme La loi uniforme décrit une variable aléatoire X dont les valeurs sont équiprobables sur un ou plusieurs intervalles [a, b[. Prob(a< x b)=cte Or comme on a obligatoirement p(x) d x = 1, cela donne { 1 si a x< b p(x)= b a sinon On montre dans ce cas que (a+ b) espérance x = 2 (b a) écart-type σ x = 12 Dans les ordinateurs, les générateurs de nombres aléatoires fournissent généralement par défaut des nombres distribués selon une loi uniforme sur l intervalle [, 1[. On peut générer à partir de cela des nombres distribués selon n importe quelle loi. La construction d un bon générateur est un problème ardu qui fait encore l objet de recherches intenses. 5.4 Aléa de Poisson Considérons des épreuves binomiales telles que N devient très grand (un lance la pièce un grand nombre de fois) et p très petit (la probabilité d obtenir pile est très petite) tout en gardant K = N p fini (ni nul, ni infini). La loi binomiale tend alors vers une loi dite de Poisson. La probabilité que K prenne la valeur k vaut Prob(K = k)= µk k! e µ où µ est un paramètre qui est égal à l espérance. Contrairement à la loi binomiale, qui nécessite deux paramètres (N et p), ici un seul paramètre (µ) suffit pour décrire la loi. On montre dans ce cas que l espérance, la variance et l écart-type valent respectivement 15

espérance K =µ variance écart-type σ 2 K = µ σ K = µ.4 µ = 1.4 µ = 3.4 µ = 8 Prob(K=k).3.2.1.3.2.1.3.2.1 5 1 15 k 5 1 15 k 5 1 15 k FIG. 7 Distribution de Poisson correspondant à µ = 1, 3, 8 La loi de Poisson décrit les phénomènes dont la probabilité de tirage individuel (c est-à-dire p) est très petite, mais dont le nombre de réalisations (c est-à-dire N) est si élevé, que l espérance µ atteint une valeur finie. On dira qu une loi binomiale B N,p peut être approchée par une loi de Poisson P µ dès que N p < 5 et N > 2. La loi de Poisson décrit bien des phénomènes de comptage : détection de photons par un photomultiplicateur, comptage de particules émises lors de désintégrations radioactives, comptage d ions dans un spectromètre de masse, comptage d individus en microbiologie,... Exemple : Une décharge luminescente émet en moyenne N = 3 1 1 photons par seconde. Sur ceux-ci, seule une très faible fraction p = 5 1 9 pénètre dans un photomultiplicateur. Le nombre moyen de photons détectés en une seconde vaut donc µ= N p = 15. Ce nombre fluctue au cours du temps. Si on n avait pu effectuer qu une seule mesure, avec par exemple n= 822 photons, alors le seul fait d avoir une loi de Poisson nous permet d affirmer que l écarttype sur cette quantité est de σ= µ n = 28.7. La force de la loi est donc de nous renseigner directement sur une quantité qui sinon nécessiterait plusieurs mesures. 5.5 Loi normale ou loi de Gauss Si on prend la loi binomiale ou la loi de Poisson dans la limite où l espérance devient très grande (N > 2 et x >2) alors le nombre d états possibles croît rapidement : la représentation du diagramme en bâtons de p(x) se transforme petit à petit en une courbe continue. Dans la limite où le nombre N est infini, on obtient une loi normale (ou loi de Gauss), dont l expression générale est p(x)= 1 ) ( σ 2π exp (x µ)2 2σ 2 Cette expression fait apparaître deux paramètres, µ et σ, qui sont respectivement l espérance et l écart-type. En effet, on montre que dans ce cas 16

espérance x = µ écart-type σ x = σ On dit dès lors que X suit une loi normale N (µ,σ 2 ). Lorsqu un générateur fournit des nombres aléatoires distribués selon une loi normale, c est toujours d une distribution N (, 1) qu il s agit..4.3 µ=, σ=1 µ=, σ=2 µ=2, σ=3 p(x).2.1 1 5 5 1 x FIG. 8 Distribution normale correspondant à différents couples de valeurs (µ,σ). La loi normale se rencontre très fréquemment et s applique à tous les phénomènes qui résultent de la superposition d un grand nombre d événements indépendants et d origines diverses. L explication se trouve dans le théorème de la limite centrale, cf. section 5.7. Pourquoi standardiser? Il arrive fréquemment que l on doive comparer deux ou plusieurs quantités, dont les unités de mesure diffèrent ou dont les ordres de grandeur ne sont pas les mêmes. Si en plus ces quantités obéissent à une loi normale, il peut être commode de les standardiser. Cette opération consiste à leur soustraire la moyenne (= centrer) et à les normaliser par rapport à leur écart-type (= réduire) x x x La figure ci-dessous illustre cela pour la mesure simultanée de la température et de la résistance d un thermistor dans un écoulement fluide. Les deux quantités s expriment en des unités différentes et sont difficilement comparables. Leur comparaison relative est facilitée une fois qu elles sont standardisées. Pour les graphes, la standardisation est à manipuler avec précaution, car elle enlève toute référence. Les quantités standardisées sont en effet sans dimension. En revanche, elle trouve une forte justification dès lors que les quantités obéissent à une loi normale. Prenons une quantité x qui suit une loi normale N (µ,σ 2 ). Si on s intéresse à une probabilité, par exemple celle de rencontrer des valeurs de x inférieures à x, alors il faut calculer x Prob(x < x )= p(x )d x = 1 x e (y µ)2 2σ 2 d y 2πσ 17 σ x

5 4 donnees brutes T [K] R [kω] 4 2 donnees standardisees T R amplitude 3 2 amplitude 1 2 1 2 3 temps [h] 4 1 2 3 temps [h] FIG. 9 Mesure simultanée de la température et de la résistance d un thermistor dans un écoulement. A gauche les données brutes (en unités physiques), à droite les données standardisées. L intégrale ne possède pas de solution analytique ; il faut la calculer numériquement, ou bien recourir à des tables. Ce calcul répété pour différentes valeurs de µ ou de σ peut s avérer onéreux. Or le changement de variable x u = (x µ)/σ permet de poser ( Prob(x < x )=Prob u< u = x µ σ ) = 1 2π u e v2 2 d v Le grand intérêt de cette expression réside en l absence de paramètres de la distribution (µ, σ) dans l intégrand. Il suffit de spécifier les bornes d intégrale. La probabilité peut donc être évaluée une fois pour toutes, quelle que soit la distribution. La standardisation confère ainsi aux variables normales un caractère universel. Pour des raisons historiques, on recourt fréquemment à la fonction erreur, définie comme ce qui nous donne erf(x)= 2 x e y2 d y, π Prob(u< u )= 1 2 + 1 ( ) 2 erf u 2 5.6 Loi du χ 2 Si X 1, X 2,... X n sont n variables aléatoires indépendantes distribuées chacune selon une même loi normale N (,1), alors la nouvelle variable X = X1 2+ X 2 2+ + X n 2 possède une distribution en χ 2 à n degrés de liberté 1. Plus généralement, si X 1, X 2,... X n sont n variables aléatoires indépendantes distribuées chacune selon une même loi normale N (µ,σ 2 ), alors la variable standardisée X = n (X i µ) 2 i=1 est distribuée selon une loi en χ 2 à n degrés de liberté. 1 ce qui se prononce ki-deux ou ki-carré. σ 2 18

1.5 erf(x).5 1 4 2 2 4 x FIG. 1 Allure de la fonction erreur. p(x).5.4.3.2 ν=2 ν=4 ν=8.1 5 1 15 2 x FIG. 11 Quelques exemples de distributions du χ 2. Cette loi joue un rôle important dans les tests d hypothèse et dans les ajustements de fonctions. L espérance, la variance et l écart-type valent respectivement espérance variance écart-type χ 2 =n σ 2 = 2n χ 2 σ χ 2 = 2n L expression analytique de la densité de probabilité donne où Γ(x) est la fonction gamma définie par si x < p(x)= 1 2 n/2 Γ(n/2) xn/2 1 e x /2 si x Γ(x)= + 19 t x 1 e t d t.

5.7 Théorème de la limite centrale Un très grand nombre de phénomènes aléatoires présentent des distributions qui sont ou suivent de très près une loi normale. L explication provient d un théorème fondamental, le théorème de la limite centrale. Soit X une variable aléatoire d espérance µ, de variance σ 2 et dont la loi de probabilité est quelconque. Soit y N = 1 N x i N une moyenne effectuée sur un grand nombre N de mesures. Si σ 2 est fini, alors la distribution de y N tend vers une loi normale d espérance µ et de variance σ 2 /N. i=1 Le caractère remarquable de cette loi tient au fait qu aucune hypothèse n est émise sur la loi de X, hormis le fait que sa variance doive être finie. Ce théorème peut s interpréter comme suit : si une grandeur physique subit l influence d un nombre important de facteurs indépendants, et si l influence de chaque facteur pris séparément est petite, alors la distribution de cette grandeur tend vers une loi normale. Exemple : Prenons pour exemple une variable aléatoire X discrète qui suit une loi uniforme sur l intervalle [,9]. Créons une nouvelle variable y N = 1 N xi, en moyennant N = 1, N = 2 et N = 8 fois. Dans le premier cas, cela revient à ne rien faire, et la distribution reste uniforme. Dans le second cas, on obtient une distribution à allure triangulaire. Dans le dernier cas, on tend déjà vers une loi normale, même si elle reste discrète. n=1 n=2 6 n=8 effectif 1 5 1 5 4 2 1 2 3 4 5 6 7 8 9 x 5 1 15 x 2 4 6 x FIG. 12 Illustration de l obtention de la loi normale en moyennant une variable aléatoire discrète de loi uniforme N = 1,2 et 8 fois. Cette figure a été obtenue en simulant un échantillon de 1 valeurs aléatoires ; il est donc naturel que les histogrammes ne soient pas réguliers. Exemple : Un téléscope qui pointe sur une étoile lointaine détecte en moyenne un taux de φ = 1 photons par seconde en provenance de cette étoile. Pendant combien de temps faut-il observer cette étoile pour que l écart-type du taux mesuré soit inférieur à.5 photons par seconde? 2

Dans ce problème, il s agit d abord de déterminer l écart-type associé au taux de comptage (dont on ne sait rien a priori) pour ensuite déterminer à partir du théorème de la limite centrale sur combien de secondes il faut intégrer le signal mesuré. Le comptage de photons en provenance d une étoile est un exemple-type de processus de physique qui suit une loi de Poisson. Puisque le taux moyen de comptage par seconde vaut φ = 1 photons par seconde, nous savons que l écart-type sur le nombre de photons compté en 1 seconde vaut σ= φ = 1 photons. Si nous répétons cette expérience N fois (ce qui revient à compter pendant N secondes) alors, d après le théorème de la limite centrale, le taux moyen vaudra φ N = N φ N = φ et son écart-type sera σ N = σ φ = N N Ainsi, pour avoir σ N <.5 il faut N > 4 secondes. Le théorème de la limite centrale nous dit par ailleurs que la nouvelle variable φ N suit une loi normale. 5.8 Simuler des lois avec Scilab Le logiciel Scilab est équipé d excellents générateurs de nombres aléatoires, qui permettent de reproduire une grande variété de lois. La syntaxe de base est la même pour toutes les lois : y = grand(m,n,...) génère une matrice de taille [m, n] constituée de nombres aléatoires distribués selon la loi spécifiée. y = grand(m,n, bin,n,p); génère des entiers distribués selon une loi binomiale B(N, p) y = grand(m,n, poi,lambda); génère des entiers distribués selon une loi de Poisson P (λ) y = grand(m,n, nor,mu,sigma); génère des réels distribués selon une loi normale N (µ,σ 2 ) y = grand(m,n, chi,nu); génère des réels distribués selon une loi du χ 2 à ν degrés de liberté y = grand(m,n, unf,a,b); génère des réels distribués selon une loi uniforme sur l intervalle [a, b) 6 Erreurs Bien gérer les erreurs est un des aspects les plus importants d une expérience : il faut savoir quantifier les erreurs et les réduire autant que possible. Il existe essentiellement quatre types d erreurs : 21

les erreurs aléatoires de mesure : elles sont liées à notre incapacité de faire des mesures avec une précision infinie. Réduire cette erreur nécessite une amélioration du dispositif expérimental. Exemple : impossible d accéder à une précision de l ordre de la milliseconde avec un chronomètre à main. les erreurs aléatoires dues aux fluctuations : l erreur provient du fait que le phénomène étudié varie lui-même de façon aléatoire, suivant une loi statistique. On peut atténuer son effet en prolongeant la durée de la mesure. Exemple : la mesure du taux de désintégration d un échantillon radioactif. les erreurs systématiques : ce sont des erreurs reproductibles qui résultent d un mauvais dispositif de mesure ou d une erreur dans la modélisation. Elles sont susceptibles d être éliminées par une correction adéquate. Exemple : mesure d une distance par ultrasons, en utilisant une valeur erronée de la vitesse du son. les erreurs accidentelles : elles résultent d une fausse manoeuvre, d un dysfonctionnement de l appareil ou d un manque d information sur la nature réelle du processus. Elles sont difficiles à éliminer si leur cause exacte n est pas connue. Exemple : détermination de la masse de notre galaxie. Pendant longtemps, il n a pas été tenu compte de la matière sombre, qui contribue pourtant de manière importante à la masse totale. Les deux premiers types d erreurs peuvent être détectés et réduits en adoptant une méthodologie d expérience adéquate. Par contre, il est difficile de quantifier les erreurs systématiques ainsi que les erreurs accidentelles sans disposer d un moyen indépendant pour vérifier la chaîne de mesure. Erreur ou incertitude? Les termes erreur et incertitude ont des significations différentes, mais sont souvent utilisés comme synonymes. L erreur de mesure est l écart entre la valeur mesure et sa valeur réelle (ou espérance), qui est inaccessible. L incertitude de mesure est une estimation de l intervalle dans lequel risquent de se rencontrer les valeurs de la mesure. C est donc une approximation de l erreur, qui s obtient par analyse statistique. 6.1 Quantifier les erreurs Les erreurs aléatoires suivent généralement une loi de distribution connue, qui est très souvent normale N (,σ 2 ). Par convention, on dira que la mesure est affectée d une erreur ou d une incertitude de valeur σ (toujours positive) et on notera x± σ Cela signifie concrètement que des mesures successives risquent de donner des valeurs différentes, mais que dans 68% des cas, ces valeurs se trouveront dans un intervalle [ x σ, x +σ]. 22

Ce dernier est appelé intervalle de confiance. En effet Prob( x σ< X x +σ) = = = x +σ x σ p(x )d X x +σ 1 σ e (X x )2 /2σ 2 d X 2π x σ 1 +1 e Y 2 /2 dy 2π =.6826 De la même façon, la probabilité de se trouver dans l intervalle [ x 2σ, x +2σ] vaut.954. Différents intervalles sont illustrés dans la figure 13 et leurs probabilités sont tabulées cidessous. 1 largeur probabilité de l intervalle d y appartenir [µ.67σ,µ+.67σ].5 [µ σ,µ+σ].6826 [µ 1.65σ,µ+1.65σ].9 [µ 1.96σ,µ+1.96σ].95 [µ 2σ,µ+2σ].9544 [µ 2.33σ,µ+2.33σ].98 [µ 2.58σ,µ+2.58σ].99 [µ 3σ,µ+3σ].9974 [µ 4σ,µ+4σ].9999937.45.4.35.3 p(x).25.2.15 ± σ.6826.1 ± 2 σ.5 ± 3 σ 4 3 2 1 1 2 3 4 (x µ)/σ FIG. 13 Intervalles de confiance pour une loi normale. La largeur à mi-hauteur vaut±1.17σ. 23

6.2 Représenter les erreurs La représentation des incertitudes dans un graphe se fait fréquemment à l aide de barres d erreur (si l erreur n affecte qu une variable) ou d ellipses d erreur (si l erreur affecte deux variables à la fois). Par convention, les barres d erreur en une dimension sont obtenues en traçant un trait de longueur σ de part et d autre du point de mesure, cf. figure 14. Il existe une autre représentation plus compacte et plus riche en information. Elle consiste à représenter pour chaque point sa valeur médiane, ses valeurs extrêmes et ses quartiles. Les quartiles sont les valeurs seuil q de la variable aléatoire telles que la probabilité d obtenir des valeurs plus petites que q est respectivement de.25,.5 et.75. On définit q.25 q.25 tel que p(x) d x =.25 premier quartile q.5 q.5 tel que p(x) d x =.5 second quartile = médiane q.75 q.75 tel que p(x) d x =.75 troisième quartile On superpose sur chaque point de mesure (cf. figure 14) : 1) un trait reliant les deux extrêmes, 2) un rectangle qui s étend du premier au troisième quartile, 3) une marque au niveau de la médiane. Le trait permet de se rendre compte de l étendue totale des mesures alors que le rectangle renseigne sur l intervalle dans lequel se trouve la moitié des points. Pour une distribution normale, ce dernier équivaut à l intervalle [µ.67σ, µ +.67σ]. Enfin, la médiane renseigne sur le centre de la distribution, qui ne coïncide pas forcément avec la moyenne. Si l erreur affecte à la fois l abscisse et l ordonnée, deux solutions se présentent. Si les erreurs sont indépendantes, alors on trace habituellement des barres d erreur orthogonales, qui s étendent d une valeur σ i de part et d autre du point de mesure. Il est souvent plus commode de représenter des ellipses de confiance dont la longueur des demi-axes équivaut à la valeur des écarts-type. Si les erreurs ne sont pas indépendantes, alors le demi-grand-axe de l ellipse aura une inclinaison autre que deg ou 9 deg. Ce cas ne sera pas abordé ici, car il nécessite l étude des distributions multivariées. 6.3 Chiffres significatifs Comme toute valeur expérimentale est affectée d une erreur, donner des résultats avec un grand nombre de décimales n a pas de sens. Par exemple, le résultat g = 9.8188±.32554 [m s 2 ] n a pas de sens puisque l incertitude est donnée avec davantage de précision que la valeur elle-même. La valeur de l incertitude est toujours approximative. On se contente souvent de la représenter avec un (voire deux) chiffres significatifs. 24

35 3 25 2 y 15 1 5 5.5.1.15.2 p(y) x_1 x_2 FIG. 14 Exemple d une distribution p(y) de la valeur des ordonnées (à gauche) et de ses barres d erreur (à droite). La barre d erreur classique en x 1 donne une idée de la dispersion mais ne rend pas du tout compte de l asymétrie de la distribution. La barre d erreur en x 2 est nettement plus révélatrice de l allure de la distribution. Il faut donc commencer par transformer le résultat ci-dessus en g = 9.8188±.3 [m s 2 ] Dans une valeur numérique, le premier chiffre non-nul de gauche (ici le 9) désigne le chiffre le plus significatif et le dernier chiffre non-nul de droite (ici 1) le chiffre le moins significatif. Les nombres 1234, 1.234 et.1234 ont ainsi tous quatre chiffres significatifs. En vertu de ce qui a été dit plus haut, le nombre de chiffres significatifs rend compte de la précision du résultat et permet donc de se faire une idée de l incertitude, même quand cette dernière n est pas indiquée. Le chiffre le moins significatif d un résultat devrait toujours être du même ordre de grandeur que l incertitude. Le résultat ci-dessus s écrit donc finalement g = 9.81±.3 [m s 2 ] Exemple : Dans la publicité d une bière sans alcool, il est dit que la taux d alcool vaut. %. Cela signifie donc que l incertitude sur le taux est de l ordre du dixième de pour-cent. Il se peut donc très bien que la bière contienne encore.5 % d alcool, ce qui est effectivement le cas. 6.4 Comment déterminer l incertitude? L incertitude sur un résultat peut être estimée de plusieurs façons. 25

l incertitude est connue d avance : c est le cas de valeurs qui résultent de la combinaison d autres mesures, dont on connaît déjà l incertitude. Dans ce cas, on peut estimer l incertitude du résultat par un calcul de propagation d erreurs, cf. plus bas. la mesure peut être répétée plusieurs fois dans de mêmes conditions : il suffit alors de répéter l expérience et de prendre l écart-type comme estimation de l incertitude. la loi de probabilité est connue : certaines lois (comme la loi de Poisson) donnent directement accès à l incertitude, sans qu il soit nécessaire de répéter l expérience. C est là un des principaux atouts des lois de probabilité. Dans la pratique, on devra généralement se contenter d une seule méthode. Exemple : Huit tirages successifs d une variable de Poisson d espérance µ = 5 ont donné les valeurs x= {6,5,3,5,9,7,6,2} La moyenne vaut x= 1 x i = 5.37 N i On a bien x µ. Pour connaître l incertitude sur x, on estime son écart-type (avec l estimateur non biaisé) 1 s x = (x i x) 2 = 2.2 N 1 i Or comme x obéit à une loi de Poisson, on sait aussi que son écart-type vaut théoriquement σ x = µ=2.24 et on vérifie que s x σ x. Il n est donc même pas nécessaire de répéter l expérience. En vertu de la loi des grands nombres, la valeur expérimentale tend vers la valeur théorique dans la limite où le nombre de tirages est grand. 6.5 Propagation des erreurs Il arrive fréquemment que l on doive combiner des mesures qui sont toutes entachées d erreurs différentes. Il faut alors déterminer comment la combinaison de ces erreurs affecte le produit final. Nous supposerons dans ce qui suit, que nous avons des erreurs décorrélées : la valeur d une erreur sur une mesure ne dépend pas de celle sur une autre mesure. Exemple : On met bout à bout deux tiges de longueur a±σ a et b±σ b. Quelle est l incertitude sur la valeur de c = a+ b? Alors σ 2 c = (c c ) 2 = (a+ b a+ b ) 2 = (a a ) 2 + (a a ) 2 2 (a a )(b b ) = σ 2 a + σ2 b 2 (a a )(b b ) Si les erreurs sont décorrélées, alors le troisième terme est nul, et il reste σ 2 c = σ 2 a + σ2 b. 26

De manière plus générale, si une valeur x = f (a,b,c,...) est une fonction de différentes variables indépendantes {a,b,c,...} dont les variances sont respectivement {σ 2 a,σ2 b,σ2 c,...}, alors l incertitude sur x vaut approximativement σ 2 x ( ) f 2 ( ) f 2 ( ) f 2 = σ 2 a a + σ 2 b b + σ 2 c c +... Dans cette expression, qui dérive d une développement de Taylor, nous supposons que les erreurs ne sont pas corrélées entre elles, que leur distribution est normale, et que leur valeur reste suffisamment petite (σ y / y 1) pour justifier un tel développement. Notez que cette expression ne donne pas tout à fait les mêmes résultats que l expression simplifiée σ x = f a σ a+ f b σ b+ f c σ c+... que l on rencontre fréquemment. Seule la première des deux expressions donne des résultats exacts d un point de vue statistique. Exemple : La tension mesurée au bornes d une résistance vaut U = U ± σ U lorsque le courant à travers cette résistance vaut I = I ± σ I. L incertitude sur la valeur de la résistance R = f (U, I )= U /I vaut alors σ 2 R = ( f U ) 2 ( ) f 2 σ 2 U + σ 2 I I = σ2 U I 2 + U 2 σ2 I I 4 σ2 R R 2 = σ2 U U 2 + σ2 I I 2 La propagation des erreurs pour quelques expressions courantes donne f = ax+ by f = x y f = x y f = x a y b σ 2 f = a2 σ 2 x + b2 σ 2 y ( ) σf 2 ( σx ) ( 2+ σy = ( f ) x y σf 2 ( σx ) ( 2+ σy = ( f ) x y σf 2 = a 2( σ ) x 2+ b 2 f x ) 2 ) 2 ( ) σy 2 On notera que pour les fonctions linéaires, les erreurs s ajoutent, alors que pour les produits/divisions ce sont les erreurs relatives qui s ajoutent. y 6.6 Pourquoi moyenner? Les résultats ci-dessus ont des conséquences importantes sur la stratégie à adopter pour améliorer un résultat. Nous savons intuitivement que pour améliorer la précision d un résultat, il 27

vaut mieux répéter les mesures plusieurs fois dans les mêmes conditions puis moyenner. Supposons que cette moyenne soit effectuée sur N mesures x N = f (x 1, x 2,..., x N ) = 1 N (x 1+ x 2 +...+ x N ) Comme les mesures ont été effectuées dans les mêmes conditions, elles ont a priori la même incertitude σ x. La moyenne x N est elle aussi une variable aléatoire dont l incertitude σ x N vaut σ x N = σ x N Pour réduire l incertitude d un facteur 1, il faut donc moyenner sur 1 valeurs. Exemple : Huit mesures successives de la masse atomique du méthane, effectuées dans les mêmes conditions et avec le même spectromètre de masse, ont donné les valeurs [15.942, 15.829, 16.9, 15.851, 16.99, 15.711, 15.597, 15.996]. La masse moyenne vaut M = 15.8792 [u.a.]. L espérance de la masse vaut par définition µ M = 16 [u.a.]. 1 L écart-type de la masse est s M = N 1 (Mi M) 2 =.1665 [u.a.]. L incertitude sur une mesure particulière de la masse vaut donc σ M =.17 [u.a.]. Notez qu on utilise ici l estimateur non-biaisé de l écart-type. L incertitude sur la masse atomique moyenne est forcément plus petite. Son expression est s M = s M / 8 =.589 [u.a.]. On dira dès lors que la masse moyenne vaut M = 15.88 ±.6 [u.a.]. Dans l exemple ci-dessus, nous avons supposé que les N mesures avaient toutes la même incertitude. Si ce n est pas le cas, alors on est naturellement amené à pondérer les valeurs. Exemple : Deux mesures successives d une concentration donnent comme résultat c 1 c 2 = 27±4 cm 3 = 23±2 cm 3 Un calcul direct donne c =25.±2.2 cm 3. L incertitude sur la moyenne est supérieure à celle de c 2! Posons c = a 1c 1 + a 2 c 2 2 avec a 1 + a 2 = 1. La valeur de a 1 et de a 2 qui minimise l incertitude sur c est a 1 = σ 2 c 2 σ 2 c 1 + σ 2 c 2 et a 2 = σ 2 c 1 σ 2 c 1 + σ 2 c 2 soit a 1 = 1/5 et a 2 = 4/5, ce qui donne c =23.8±1.8 cm 3. 28

7 Tests d hypothèse La diffusion de résultats scientifiques est souvent source de de malentendus : les résultats scientifiques sont souvent de nature probabiliste, alors que le public attend des réponses tranchées, de type vrai ou faux. L avis sera donc généralement exprimé sous la forme d un test d hypothèse. Même si cela donne un caractère plus tranché au résultat, ce dernier restera toujours probabiliste. Un test d hypothèse permet de trancher entre deux hypothèses au vu des résultats d un échantillon. Ces hypothèses portent généralement sur des estimations (valeur de la moyenne, égalité de variances, nature d une loi de probabilité,... ). Soient H et H 1 ces deux hypothèses, dont une et une seule est vraie. La décision aboutira à choisir H ou H 1. Il y a donc 4 cas possibles, dont les probabilités sont H vraie H 1 vraie H décidée 1 α β H 1 décidée α 1 β α est la probabilité de décider H 1 alors que H est vraie. β est la probabilité de décider H alors que H 1 est vraie. On appelle encore α le niveau de confiance (ou niveau de signification). Plus sa valeur est faible, plus β sera grand. Dans la pratique, on fixe une faible valeur de α (typiquement.5,.1 ou.1) et on se concentre sur le rejet de l hypothèse H, appelée l hypothèse nulle. On dira que le degré de confiance à accorder au rejet de H est 1 α (en %). Si on impose une trop faible valeur de α alors la règle de décision devient si stricte que l hypothèse H ne sera jamais rejetée. A l inverse, le test sera dénué d intérêt si α est trop grand. Il existe deux types de tests (cf. figure 15) 1. le test unilatéral s applique quand on cherche à savoir si une estimation est inférieure ou supérieure à une valeur donnée. La probabilité vaut par exemple x1 α Prob(X x 1 α )= p(x) d x = 1 α ou Prob(X > x 1 α )=α 2. le test bilatéral s applique quand on cherche à savoir si une estimation se trouve à l intérieur ou à l extérieur d un intervalle donné. On a par exemple x1 α Prob(x α < X x 2 1 α )= 2 p(x) d x = 1 α 2 x α 2 Exemple : On dispose d un échantillon de n valeurs distribués selon une loi normale, dont on connaît la moyenne x ainsi que l écart-type σ. On veut estimer l espérance µ (inconnue) de cette variable. L hypothèse H consiste à supposer que x = µ. Cette hypothèse devrait en principe être rejetée si x µ. Or comme x est une variable aléatoire, il faudrait plutôt effectuer un test bilatéral et vérifier si x µ < seuil. Fixons un niveau de confiance α =.5. 29