1.1 Introduction au traitement statistique des mesures

Documents pareils
Moments des variables aléatoires réelles

Texte Agrégation limitée par diffusion interne

Loi binomiale Lois normales

Précision d un résultat et calculs d incertitudes

TSTI 2D CH X : Exemples de lois à densité 1

Espérance conditionnelle

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Simulation de variables aléatoires

Modèles et Méthodes de Réservation

Commun à tous les candidats

TD1 Signaux, énergie et puissance, signaux aléatoires

Filtrage stochastique non linéaire par la théorie de représentation des martingales

3. Caractéristiques et fonctions d une v.a.

Probabilités III Introduction à l évaluation d options

3. Conditionnement P (B)

Représentation d une distribution

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Quantification Scalaire et Prédictive

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

CAPTEURS - CHAINES DE MESURES

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

FORMULAIRE DE STATISTIQUES

Chp. 4. Minimisation d une fonction d une variable

4. Martingales à temps discret

Cours d introduction à la théorie de la détection

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN

Raisonnement probabiliste

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

Centre d'etudes Nucléaires de Fontenay-aux-Roses Direction des Piles Atomiques Département des Etudes de Piles

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Programmes des classes préparatoires aux Grandes Ecoles

Correction de l examen de la première session

Fonctions de plusieurs variables

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

Statistiques Appliquées à l Expérimentation en Sciences Humaines. Christophe Lalanne, Sébastien Georges, Christophe Pallier

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Chapitre 3. Les distributions à deux variables

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Programmation linéaire

Sur certaines séries entières particulières

Intégration sur des espaces produits

PROBABILITES ET STATISTIQUE I&II

Le modèle de Black et Scholes

8 Ensemble grand-canonique

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Économetrie non paramétrique I. Estimation d une densité

Coefficients binomiaux

Suites numériques 3. 1 Convergence et limite d une suite

Probabilités sur un univers fini

OM 1 Outils mathématiques : fonction de plusieurs variables

Incertitudes expérimentales

OUTILS STATISTIQUES ET NUMÉRIQUES

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

!-.!#- $'( 1&) &) (,' &*- %,!

4 Distributions particulières de probabilités

Calculs de probabilités avec la loi normale

Statistiques Descriptives à une dimension

Nombre dérivé et tangente

Cours de méthodes de scoring

MESURE ET PRECISION. Il est clair que si le voltmètre mesure bien la tension U aux bornes de R, l ampèremètre, lui, mesure. R mes. mes. .

FICHE UE Licence/Master Sciences, Technologies, Santé Mention Informatique

Lois de probabilité. Anita Burgun

CORRECTION TP Multimètres - Mesures de résistances - I. Mesure directe de résistors avec ohmmètre - comparaison de deux instruments de mesure

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Table des matières. I Mise à niveau 11. Préface

MÉTHODE DE MONTE CARLO.

MATHS FINANCIERES. Projet OMEGA

Le théorème des deux fonds et la gestion indicielle

M2 IAD UE MODE Notes de cours (3)

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Définitions. Numéro à préciser. (Durée : )

Mesures gaussiennes et espaces de Fock

Amphi 3: Espaces complets - Applications linéaires continues

La classification automatique de données quantitatives

Processus aléatoires avec application en finance

I - Quelques propriétés des étoiles à neutrons

Optimisation Discrète

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Probabilités sur un univers fini

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés

Fonctions de deux variables. Mai 2011

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Chapitre 3 : INFERENCE

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

Capes Première épreuve

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Projet de Traitement du Signal Segmentation d images SAR

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Mesures et incertitudes

Que faire lorsqu on considère plusieurs variables en même temps?

Une réponse (très) partielle à la deuxième question : Calcul des exposants critiques en champ moyen


Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S

Introduction à la Statistique Inférentielle

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Transcription:

1 Chapitre 1 Estimateurs 1.1 Introduction au traitement statistique des mesures Les erreurs entraînent une dispersion des résultats lors de mesures répétées. Leur traitement statistique permet : de connaître la valeur la plus probable de la grandeur mesurée, de fixer les limites de l incertitude. Lorsque la mesure d une même grandeur X a été répétée n fois, donnant les résultats : x 1, x 2,, x n, la valeur moyenne est définie par : x = 1 n x i. Une indication de la dispersion de ces résultats est donnée par l écart-type : σ = 1 n (x i x) n 2. Les objets aléatoires manipulés par les physiciens sont des variables aléatoires le plus souvent discrètes (nombre fini de valeurs). Toutefois il est commode (surtout lorsque le nombre de valeurs est très grand ) de passer à la limite et de développer un formalisme continu. On définit alors une densité de probabilité (au lieu d une probabilité) de la façon suivante: Densité de probabilité ρ ρ est une,fonction définie de R à valeurs dans R + ρ est sommable de à + : ρ(x) dx existe. R ρ(x) dx = 1 R dp = ρ(x) dx est la probabilité pour X d être dans l intervalle [x, x + dx[. b ρ(x) dx est la probabilité pour X d être dans [a, b]. a

2 CHAPITRE 1. ESTIMATEURS La correspondance entre les v.a. discrètes et continues se fait de la manière suivante : Quantité calculée V.A. discrète V.A. continue valeurs x i valeurs x probabilités p i densité ρ(x) j 1 xj p(x k X < x i ) ρ(x) dx Normalisation Moyenne < X > Variance V (X) = σx 2 i=k p i p i = 1 i x k + ρ(x) dx = 1 + p i x i x ρ(x) dx i + p i (x i < X >) 2 (x < X >) 2 ρ(x) dx i L écart-type est toujours donné par σ X = V (X). Lorsque les erreurs accidentelles affectant les différentes mesures sont indépendantes, la probabilité d apparition des différents résultats satisfait habituellement à la loi normale dite encore loi de Gauss : ρ(x) = 1 ) ( σ 2π exp (x x)2 2σ 2. La valeur la plus probable est la valeur moyenne des mesures. En général on prend une incertitude égale à 3 fois l écart-type. 1.1.1 Fidélité, justesse, précision La fidélité est la qualité d un appareillage de mesure dont les erreurs sont faibles. L écart-type est souvent considéré comme l erreur de fidélité.

1.1. INTRODUCTION AU TRAITEMENT STATISTIQUE DES MESURES 3 Un instrument est d autant plus juste que la valeur moyenne est proche de la valeur vraie. Un appareil précis est à la fois fidèle et juste. En pratique, la précision est une donnée qui fixe globalement l erreur maximum (en + ou en -) pouvant être commise lors d une mesure. Elle est généralement exprimée en % de l étendue de mesure. Remarque : C est aux valeurs maximales de l échelle que l appareil est le plus précis en valeur relative.

4 CHAPITRE 1. ESTIMATEURS 1.2 Définition et premières propriétés d un estimateur 1.2.1 Estimateur Supposons qu on veuille obtenir une valeur (x o) aussi raisonnablement proche que possible de la vraie valeur x o d une quantité X, à partir d un échantillon fini {x i } de n mesures. Cela se fera avec grâce à une fonction du genre (x o) n = Φ(x 1, x 2,, x n ), et on appellera (x o) n estimation de x o. Par exemple, si les mesures sont homogènes et indépendantes, la fonction Φ sera la moyenne arithmétique. Pourquoi choisir une fonction Φ plutôt qu une autre? Des règles sont données en regardant les choses au niveau des variables aléatoires et non des valeurs numériques puisque la caractéristique des mesures x i est d être des réalisations de valeurs aléatoires. Il faut donc écrire (X o ) n = Φ(X 1, X 2,, X n ), où les X i sont des valeurs aléatoires et (X o ) n une valeur aléatoire fonction de v.a. Étant censée estimer une des caractéristiques statistiques des X i, cette fonction est appelée estimateur. Un estimateur (estimate) n est donc pas une valeur numérique mais une variable aléatoire, qui a pour objet d estimer une des caractéristiques des v.a. dont elle est fonction. 1.2.2 Propriétés des estimateurs Convergence ou cohérence (limite infinie) La Loi des grands nombres indique que si on reprend une expérience une infinité de fois le résultat global tend vers une quantité non aléatoire. Donc si la taille de l échantillon n tend vers l infini, un bon estimateur (X o ) n doit tendre vers une variable non aléatoire x o, vraie valeur qu il est censé estimer. C est la convergence, cohérence (consistency) ou correction qui doit imérativement être vérifiées.

1.2. DÉFINITION ET PREMIÈRES PROPRIÉTÉS D UN ESTIMATEUR 5 Absence de biais (propriété liée à l espérance) Un estimateur étant une v.a. il possède une espérance (ou moyenne). Quand la taille de l échantillon tend vers l infini, elle tend vers la valeur non aléatoire x o. Mais avec des échantillons de taille finie (c est le cas habituel), il faut tenir compte de la distribution de l estimateur. Il est alors souhaité que l espérance reste stable pour tout n, donc égale à x o. Si c est le cas l estimateur est dit non biaisé. Pour un estimateurbiaisé < (X o ) n >= x o + b n, où b n est le biais (bias) qui dépend de la taille de l échantillon : si n tend vers l infini, b n tend vers 0 par la propriété de convergence ci-dessus. Cohérence et absence de biais sont toutefois deux propriétés très différentes; dans la seconde on considère non pas un échantillon de taille infinie mais une infinité d échantillons de taille finie dont la moyenne des réalisations (x o) (k) n est l espérance < (Xo ) n >. La figure ci-dessous donne un exemple d estimateur non biaisé. Efficacité (Efficiency) Si on dispose de plusieurs estimateurs de la même quantité on a intérêt à choisir celui dont l écart-type est minimal pour réduire l erreur d estimation.

6 CHAPITRE 1. ESTIMATEURS 1.3 Estimation de l espérance 1.3.1 Justification de la moyenne arithmétique Les n v.a. parentes et indépendantes X i dont les réalisations successives sont les mesures x i, sont issues de la v.a. générique X dont on recherche l espérance < X >. La moyenne arithmétique X n = 1 X i n est alors l estimateur le plus utilisé. En effet, supposons la v.a. X normale de variance σ 2 et de moyenne < X >= m. La probabilité d obtenir l échantillon de mesures {x 1, x 2,, x n } ( à dx 1,, dx n près) est : dp (x 1, x 2,, x n ) = K exp [ 1 2σ 2 ( )] (x i m) 2 dx 1,, dx n, qui dépend de m (inconnue). Le Principe du maximum de vraisemblance (PMV) suggère que la meilleure valeur m de m est celle qui maximise dp donc celle qui minimise S = (x i m) 2. Cette valeur annule donc la dérivée de S c est-à-dire : ds dm = 2 (x i m) = 0. On obtient m = 1 x i. La moyenne arithmétique est donc la meilleure estimation de n < X > au sens du PMV et si les mesures sontindépendantes et normalement réparties. Rappelons le Principe du maximum de vraisemblance. On se donne un système décrit par un échantillon de mesures. On cherche quels paramètres (β k ) sont censés décrire le système. Le PMV postule que la meilleure collection

1.3. ESTIMATION DE L ESPÉRANCE 7 de paramètres (β k ) est celle qui rend maximale la probabilité (conditionnelle) d observer l échantillon P ({x i } {β k }) : on joue sur cette condition pour maximiser la probabilité connue. 1.3.2 L estimateur moyenne arithmétique Cohérence La cohérence de la v.a X n vient de la Loi des grands nombres : Théorème 1.3.1 Si n + et si les v.a. indépendantes X i ont la même répartition que la v.a. X, alors X n tend en probabilté vers l espérance < X >= m de X. On rappelle que deux v.a. X de densité ρ 1 et Y de densité ρ 2 sont indépendantes si ρ(x y) = ρ 1 (x) et ρ(y x) = ρ 2 (y). De même on rappelle qu une suite de v.a. Y n tend en probabilité vers une valeur numérique α si Biais ε > 0, δ > 0, n o, t. q. n n o = P ( Y n α ε) > 1 δ. L espérance de X n est < X n >=< X >= m. En effet comme la répartition de chaque X n est identique (normale de paramètres identiques ) la moyenne est toujours m. La moyenne arithmétique est donc un estimateur non biaisé de l espérance. Efficacité Le théorème de Gauss - Markov indique que parmi les estimateurs non biaisés de < X >, fonctions linéaires des mesures le plus efficace est X n. 1.3.3 Pondération des données Supposons les mesures indépendantes mais pas de même qualité : les v.a. X i sont donc indépendantes, de moyenne m mais de variance σi 2 différentes (on supposera les σ i connus). En utilisant le PMV comme précédemment et comme la probabilité d obtenir l échantillon x i s écrit [ ( )] dp (x 1, x 2,, x n ) = K exp 1 (x i m) 2 dx 1,, dx n, 2 la quantité à rendre minimale cette fois-ci est un χ 2 ( khi-deux) : χ 2 (x i m) 2 =. En posant w i = 1 σ 2 i, la relation dχ2 dm m σ 2 i σ 2 i = 0 (pour chercher le minimum) conduit à w i = w i x i,

8 CHAPITRE 1. ESTIMATEURS c est-à-dire m = w i x i ; w i On n obtient plus une moyenne arithmétique simple mais une moyenne pondérée, les w i étant les poids statistiques (weights). Plus la mesure est précise (σi 2 est faible) plus le poind w i qu on lui donne est important. Exercice 1.3.1 Montrer que cet estimateur est lui aussi cohérent et non biaisé. Exercice 1.3.2 Montrer que parmi les estimateurs non biaisés fonction linéaires des mesures x i, la moyenne pondéré par w i = k/σ2 i est l estimateur le plus efficace. (Théorème de gauss-markov). 1.3.4 Erreur sur l estimation de l espérance On suppose les erreurs (expérimentales) σ i connue. On admettra la formule de propagation des erreurs qui donne ( ) m σm 2 = σi 2 2 ; x i Dans le cas homogène ( σ i = σ et m = 1 n Dans le cas inhomogène: Or w i σi 2 = n, donc σm 2 = 1 ( ) 2 w i σm 2 = 1 n 1 x i ) : σ m = σ. n w i wi 2 σi 2 = 1. w i w i σi 2 = 1 n σ2 i, σ 2 i étant une moyenne pondérée des erreurs. Finalement σ m = 1 1 = σ n i 2. w i Pou aller plus loin, il faut estimer les erreurs expérimentales σ i.

1.4. ESTIMATION DE LA VARIANCE 9 1.4 Estimation de la variance